Something interesting about NLP when I tried to know it.
「每当我开除一个语言学家,语音识别系统就更准确了」
Every time I fire a linguist, the performance of the speech recognizer goes up.—— IBM 的语音识别专家 Frederick Jelinek
Something interesting about NLP when I tried to know it.
「每当我开除一个语言学家,语音识别系统就更准确了」
Every time I fire a linguist, the performance of the speech recognizer goes up.—— IBM 的语音识别专家 Frederick Jelinek
传统的聚类方法有很多了,K-means、HAC、DBSCAN、Mean-shift等等,目前深度学习已经在分类上取得很大的成就,但是在聚类方面的效果仍是差强人意,而“聚类,才是人类真正认知世界的方式”,所以还需要继续突破,看了一些经典文章,做好记录
也许今后有机会在NLP深入探索了,说实在的,对NLP唯一的接触还是大三做hadoop/spark的时候为了结合爬虫和词云,了解一些中文分词,像是结巴分词印象就还蛮深刻的。反正,先尝试了解了解吧,干就完了!
习惯了CV的东西,一下转到看NLP,不知道是不是心理因素,还是真的思路和focus的东西不一样,感觉好容易忘哦,还是写下blog简单记录下一些小知识点,免得看了就忘的蠢事
目前,AI已经在很多领域的各类任务中取得了优异的成绩,但是仍在很多地方受人诟病,其中最常最提及的就是其可解释性差,靠数据、模型、概率等方式训练出来的AI明显很难满足人们心中对AI的理想化,这样的方式并不elegant,与此同时,在一些特殊领域,如医学领域这类对结果极其严格的领域,其解释性更是限制了其应用(当然也限制了一些无意义的SOTA提升和灌水,所以可解释性,还是很有意义和前景的
最近看了一些关于卷积神经网络可视化的内容,觉得挺有趣的,暂做简短笔记
未来的方向?我觉得超酷,那就尝试着去学习学习吧!
(当然有些遗憾,写了很多感慨,但是干货主要还是他人的blog哈哈,先学习吧,希望今后自己能够follow到前沿领域,然后写出有价值的东西分享给大家 :)
NL-Means和BM3D,是两种非常经典且一直被作为对比的传统图像降噪算法,还是蛮有意思的,看到网上好多都转载了这篇文章,确实写得很好,但是有的blog转载的不全,原文是作者的github blog,连上比较麻烦,并且以防之后没了,还是把这个好文存一下
老实讲,最近的心态不是特别好,有些焦虑和浮躁吧,但是怎么说呢,归根到底还是要慢慢努力,变强才是硬道理,机会你抓不住自然就会错过,但是只要我们一直努力,总还是能到下一个机会的。种一棵树,最好的是十年前,其次就是现在了,努力吧!
以上都是个人的废话,还是好好讲降噪的事情吧,因为在做电镜图像的内容,而电镜图像最突出的问题就在于:为了避免高能电子束对样品的辐照损伤,只能采用低剂量的电子束进行拍摄,而由此导致了极低的信噪比,而这极低的信噪比和目标的极高分辨率之间就是第一个矛盾,为此,可以通过大量的投影的进行复原,也就是单颗粒技术的核心思想。而如果我们能够进行高效的降噪,那么一切是不是就简单了很多呢?所以降噪还是蛮值得去探索的,这篇就是记录一些降噪有意思的内容和方向,因为是记录的个人思考过程,写的不是很专业,但是思路来源都记载了,推荐阅读原文。
配置环境,害,咋说呢,一生之敌,却又不得不卑微地屈服
其实pytorch和TensorFlow现在的配置都很简单了,包括用Anaconda,真的非常方便,想起当时大三的时候配的那个Hadoop和Spark那才是真正的崩溃。。。不过也许只是当时自己特别憨憨吧,经过研一研二配置嵌入式之后,感觉自己的耐心好多了,而且最重要的是,心态放平了,不再那么如履薄冰了,其实没啥大不了的,大不了重装系统嘛(妈的别装了。但确实是的,配环境,认真看教程,不要看一步做一步,最好了解上下文,然后觉得靠谱了去试,错了也不打紧,有问题就去解决问题好了。
写这个简单的blog只是记录下常用的查看指令,免得每次都是要百度。。
太常见了,但是一直以为就是类似normalize,仔细查了下,感觉还是蛮有意思的,看了一些材料,做一个记录,感谢愿意分享的大佬们
Batch Normalization是神经网络训练中非常有用的神器,不仅能够减少对调参的依赖,加速训练,同时有很多改进如LN、WN等,很有意思,详情如下