为何?你有什么看法:卷积究竟卷了啥?——17分钟了解什么是卷积[1次更新]

恕我直言,说几句难听的,毫无逻辑,胡拼乱凑,所有内容仅仅“点到为止”,实则水平拉胯,不明所以,结尾强行升华,其实是掩盖功力的不够和努力的不足。唯一的努力大概是绞尽脑汁拼凑了这个浪费大家十几分钟的缝合怪。作为科普视频是失职的,不知道那么多捧臭脚的是什么想法,是不明觉厉吗?这视频水平充其量是个金玉其外的营销号视频。[呆]


述:1:17 这回咋不名称音“ㄝㄌ˙ㄚ”了[doge]

贴一个信号系统角度对卷积的科普视频 https://www.bilibili.com/video/BV1of4y197K6


述:爷关更!
期待室友不在系列的更新!

我听过最直观的解释是:还记得以前怎么学多位数乘法吗?那个叫卷积[妙啊]


述:最近在学深度学习 卷积神经网络还有rnn lstm弄的我要s了 谢谢小编的视频救了我一命 话说您是哪位?

拉普拉斯变换 傅里叶变换 卷积……都是噩梦


述:这个问题我已经问疲倦了,你是谁???

我良就是理工界的无穷小亮[打call]


述:哦!这谁!

小编在吗?我想你的视频了。。。


述:其实up一说长乘宽出横截面积,积分出体积的时候,我就明白卷积是怎么回事了,,,
其他的内容反倒整得我有点云里雾里,,

我一文科生居然聚精会神全神贯注且开开心心的看完了,而且,居然好像大概也许可能还看懂了?就离谱。。
但是,我还是想说:对不起,请问您哪位?[doge][doge][doge][doge][doge][热词系列_你细品]


述:谢谢小编,虽然卷积听得一脸懵逼但是我却听懂了卡农和十二音律[吃瓜]

草最近看开端,在想为什么是卡农,突然就想到了这个视频[热词系列_知识增加][热词系列_知识增加]


述:我现在在公交车上,听到卡农有点慌[抓狂]

卷积和卡农没有任何关系,没有任何关系,没有任何关系。这个视频非常误导人


述:什么是卷积
你现在的状况,是你过去为你未来所做出的努力
不同时刻的激励,经历一定时间长度(我们设为n-t,不同时刻,时间长度不同)后,把这些累加起来,就是你你现在得到的结果
激励所处的时间点离你的现在越近,它的作用会越大,反之,因为随着时间的推移,它的作用也会随之衰减
通透通透,带派了老铁

给UP做一点点补充。要理解卷积,首先要知道卷积只是个“工具”而不是“目的”。
我们为了研究一个因素在一段时间内给世界造成的影响,发明了最简单的函数。
而现实的问题往往更复杂,我们需要研究多个因素在某一时间的叠加影响,多个因素在接近无限长时间内的影响,多个因素在非时间领域的影响…… 因此我们发明了卷积这种算法[响指]


述:讲的蛮差的。后面故弄玄虚

从3分15秒开始,讲解变得自以为是,”可不是”并不是一个通俗易懂的视频中出现的词语,因为你并没有把每个图精细的剖析,所以对于零基础的观众,很容易在这个时候忽然跟不上,但愿您能意识到这个问题,否则这个点就是小编的知识的诅咒了


述:年更小编

其实“卷积”这个词已经把人整懵了,本来是很简单的东西,卷积英文叫convolution,学习convolution需要高数里的running integral动积分,它也不难。举个简单例子,xy直角坐标系中有一条曲线,用一条竖线对曲线扫描,这个动作叫做convolution,结果得到曲线本身,当然,这是个简单例子,重点是对这个动作的理解。好,现在竖线换成其他曲线,这时候就需要把问题转换成方程了,利用卷积公式求得结果,


述:所有的素数之和如果在根号之下
到底是无线的趋近于哥德巴赫猜想的第二理论呢
还是会随着积累效应的不断减少
而最后降为拉格朗日理论的第三象限[思考]

讲的相当不好[无语]。。


述:讲的很烂,一锅炖,稀里糊涂,有想了解卷积的相关专业学生可以去看这个视频 https://b23.tv/wlBnF5

通信工程狂喜


述:一本正经扯犊子,典型混子老师5分钟讲明白讲50分钟

这视频做得花里胡哨的,然而完全没讲清楚卷积是啥,最蛋疼的是最后强行举了个卡农的例子,但压根没说清和卷积之间的关系。小编完全就是为了引出卡农而不是为了解释卷积,才来做这视频的吧~


述:这就是信条吧,看完之后回到了我不懂卷积的时候[热词系列_好家伙]

– -本来看了公式就差不多会了,直到强行加入的信条这部分不是更加绕晕了嘛,到卡农我就开始裂开了。


述:卷积其实就是一种函数空间的内积 up稍微有点把简单概念强行讲复杂的感觉[笑哭]

温室里:第一年有一株小草开始以每天产氧5克速率生产,两年后新增5株草每株每天产氧5克速率生产,5年后新增10株草每株每天产氧5克速率生产,
假设小草自身状态不影响产能且不繁殖,环境状态保持不变,提问第7年16株小草共产氧多少?
(延迟,倍率,叠加)有趣的科普小知识


述:f(t)是倍率是RGB值,g(7-t)是卷积核,乘出来累加出来就是一个卷积step所表示的特征。学CNN这么久居然不知道为什么它叫「卷积神经网络」。大师我悟了。

成略在阿瞒有我良计胸取冀良计速出州是易如反掌狭目之间吾才满腹袁本只能窥底初竟不从之目光阿瞒有我良计所级短取冀州是寸之间易如反掌吾有良阿瞒有略在怀必为我良计取冀州是易阿瞒所用如反掌吾才满狭目腹之间袁本初只能竟不窥底从之目光所吾有良略级短再阿瞒有我怀寸之间必为良计取冀州是阿瞒所用是易如反掌


述:等我上大学了再看一遍

好家伙,我刚睡醒就困了


述:太感动了,共鸣的感动。我在学信号系统时花了一个多星期的课余时间琢磨卷积的本质是啥以及怎么给它类比出来讲给别人,也想到了卡农,那是 10 年前了。

我很想问up到底是学什么的?[思考]上几个视频还是语言学ㄟ


述:这个视频最大的收获不是“什么是卷积”,反而是“要在抽象知识和直观理解之间找到连接的桥梁”

为何?你有什么看法:卷积究竟卷了啥?——17分钟了解什么是卷积[1次更新]的第1张示图

未经允许不得转载:易贰评 » 为何?你有什么看法:卷积究竟卷了啥?——17分钟了解什么是卷积[1次更新]

赞 (0)

相关推荐