一个地方

Wu's Blog


  • 关于

  • 首页

  • 标签

  • 分类

  • 归档

  • 搜索

Something-NLP

发表于 2021-03-27 | 分类于 CS |
字数统计: 3.9k | 阅读时长 ≈ 13

Something interesting about NLP when I tried to know it.

「每当我开除一个语言学家,语音识别系统就更准确了」
Every time I fire a linguist, the performance of the speech recognizer goes up.

—— IBM 的语音识别专家 Frederick Jelinek

阅读全文 »

深度聚类-Deep-for-Clustering

发表于 2021-02-07 | 分类于 CS |
字数统计: 537 | 阅读时长 ≈ 1

传统的聚类方法有很多了,K-means、HAC、DBSCAN、Mean-shift等等,目前深度学习已经在分类上取得很大的成就,但是在聚类方面的效果仍是差强人意,而“聚类,才是人类真正认知世界的方式”,所以还需要继续突破,看了一些经典文章,做好记录

阅读全文 »

频域图像与CNN

发表于 2021-02-03 | 分类于 CS |
字数统计: 214 | 阅读时长 ≈ 1

在做电镜图像的时候,经常需要将图像通过傅里叶变换到频域空间进行处理,除了三维重构的中心截面定理需要转换到频域空间,在二维分析时,也会通过频域图像进行比对和聚类,因为电镜图像中含有与频率相关的噪声,所以一直也在想能不能通过CNN等模型对频域图像做处理,之前是感觉频域空间的信息比时域空间的信息更敏感,从而担心CNN没法捕捉那么细微的信息变化而导致信息丢失,但是近来陆续看到有CNN和频域的结合,所以还是记录下,留坑等以后有机会再试试看

阅读全文 »

炼丹学习手册?

发表于 2020-12-26 | 分类于 CS |
字数统计: 4.4k | 阅读时长 ≈ 15

看得再多,不如踏实干,而踏实码起代码,跑起模型,还是要做到心里有数,有的放矢

老说DL是炼丹,但是还是有一些需要注意的,其实以前看过好多相关的知识点了,但还是需要串起来、记下来好好思考

不全也不一定对,但是慢慢整理慢慢补吧~

阅读全文 »

各种Autoencoder自动编码器

发表于 2020-11-24 | 分类于 CS |
字数统计: 2k | 阅读时长 ≈ 7

自动编码器及其各类改进还挺有意思的,可以用来降噪降维,挺具有潜力的,也看了蛮多内容了,稍微整理一个了解路径吧

阅读全文 »

NLP基础知知识-努力扫盲入门的我

发表于 2020-11-06 | 分类于 CS |
字数统计: 2.8k | 阅读时长 ≈ 10

也许今后有机会在NLP深入探索了,说实在的,对NLP唯一的接触还是大三做hadoop/spark的时候为了结合爬虫和词云,了解一些中文分词,像是结巴分词印象就还蛮深刻的。反正,先尝试了解了解吧,干就完了!

习惯了CV的东西,一下转到看NLP,不知道是不是心理因素,还是真的思路和focus的东西不一样,感觉好容易忘哦,还是写下blog简单记录下一些小知识点,免得看了就忘的蠢事

阅读全文 »

卷积网络可视化-可解释

发表于 2020-10-27 | 分类于 CS |
字数统计: 2.5k | 阅读时长 ≈ 10

目前,AI已经在很多领域的各类任务中取得了优异的成绩,但是仍在很多地方受人诟病,其中最常最提及的就是其可解释性差,靠数据、模型、概率等方式训练出来的AI明显很难满足人们心中对AI的理想化,这样的方式并不elegant,与此同时,在一些特殊领域,如医学领域这类对结果极其严格的领域,其解释性更是限制了其应用(当然也限制了一些无意义的SOTA提升和灌水,所以可解释性,还是很有意义和前景的

最近看了一些关于卷积神经网络可视化的内容,觉得挺有趣的,暂做简短笔记

阅读全文 »

Few-shot Learning and Meta-Learning

发表于 2020-10-19 | 分类于 CS |
字数统计: 886 | 阅读时长 ≈ 3

未来的方向?我觉得超酷,那就尝试着去学习学习吧!
(当然有些遗憾,写了很多感慨,但是干货主要还是他人的blog哈哈,先学习吧,希望今后自己能够follow到前沿领域,然后写出有价值的东西分享给大家 :)

阅读全文 »

深度学习-图像降噪-NL-Means和BM3D

发表于 2020-10-10 | 分类于 CS |
字数统计: 4k | 阅读时长 ≈ 14

NL-Means和BM3D,是两种非常经典且一直被作为对比的传统图像降噪算法,还是蛮有意思的,看到网上好多都转载了这篇文章,确实写得很好,但是有的blog转载的不全,原文是作者的github blog,连上比较麻烦,并且以防之后没了,还是把这个好文存一下

阅读全文 »

深度学习-图像降噪-Noise2Noise

发表于 2020-10-06 | 分类于 CS |
字数统计: 872 | 阅读时长 ≈ 3

Noise2Noise,不需要原始图像与噪声图像对的训练,仅通过不同噪声下的图像对就能进行图像降噪

阅读全文 »

深度学习-图像降噪

发表于 2020-10-03 | 分类于 CS |
字数统计: 147 | 阅读时长 ≈ 1

结合深度学习的方法进行降噪

阅读全文 »

图像降噪

发表于 2020-09-27 | 分类于 CS |
字数统计: 2.7k | 阅读时长 ≈ 10

老实讲,最近的心态不是特别好,有些焦虑和浮躁吧,但是怎么说呢,归根到底还是要慢慢努力,变强才是硬道理,机会你抓不住自然就会错过,但是只要我们一直努力,总还是能到下一个机会的。种一棵树,最好的是十年前,其次就是现在了,努力吧!

以上都是个人的废话,还是好好讲降噪的事情吧,因为在做电镜图像的内容,而电镜图像最突出的问题就在于:为了避免高能电子束对样品的辐照损伤,只能采用低剂量的电子束进行拍摄,而由此导致了极低的信噪比,而这极低的信噪比和目标的极高分辨率之间就是第一个矛盾,为此,可以通过大量的投影的进行复原,也就是单颗粒技术的核心思想。而如果我们能够进行高效的降噪,那么一切是不是就简单了很多呢?所以降噪还是蛮值得去探索的,这篇就是记录一些降噪有意思的内容和方向,因为是记录的个人思考过程,写的不是很专业,但是思路来源都记载了,推荐阅读原文。

阅读全文 »

Windows下查看cuda与cuDNN的版本n-Tensorflow与Pytorch

发表于 2020-09-23 | 分类于 CS |
字数统计: 2.6k | 阅读时长 ≈ 13

配置环境,害,咋说呢,一生之敌,却又不得不卑微地屈服

其实pytorch和TensorFlow现在的配置都很简单了,包括用Anaconda,真的非常方便,想起当时大三的时候配的那个Hadoop和Spark那才是真正的崩溃。。。不过也许只是当时自己特别憨憨吧,经过研一研二配置嵌入式之后,感觉自己的耐心好多了,而且最重要的是,心态放平了,不再那么如履薄冰了,其实没啥大不了的,大不了重装系统嘛(妈的别装了。但确实是的,配环境,认真看教程,不要看一步做一步,最好了解上下文,然后觉得靠谱了去试,错了也不打紧,有问题就去解决问题好了。

写这个简单的blog只是记录下常用的查看指令,免得每次都是要百度。。

阅读全文 »

二叉树

发表于 2020-09-15 | 分类于 CS |
字数统计: 1.2k | 阅读时长 ≈ 4

老常见了,做就是了,但是比较有意思的看到有人提到,其实很多算法题目都是二叉树的变种,可以先刷二叉树,构建框架思维,觉得还挺有意思的,认真研读刷一下,题目都来自leetcode

阅读全文 »

Batch Normalization

发表于 2020-08-10 | 分类于 Math |
字数统计: 1.3k | 阅读时长 ≈ 4

太常见了,但是一直以为就是类似normalize,仔细查了下,感觉还是蛮有意思的,看了一些材料,做一个记录,感谢愿意分享的大佬们

Batch Normalization是神经网络训练中非常有用的神器,不仅能够减少对调参的依赖,加速训练,同时有很多改进如LN、WN等,很有意思,详情如下

阅读全文 »
123…6
Jiageng Wu

Jiageng Wu

86 日志
5 分类
29 标签
GitHub E-Mail CSDN
© 2018 — 2022 Jiageng Wu
博客全站共127.6k字
访客数 人 总访问量 次
0%