After work, I studied the “Machine Learning Crash Course” produced by Google and made some notes.
在工作之余学习了 Google 出品的 “机器学习速成课程”,做了些笔记。
Welcome to my world!
After work, I studied the “Machine Learning Crash Course” produced by Google and made some notes.
在工作之余学习了 Google 出品的 “机器学习速成课程”,做了些笔记。
LDA 主题模型几乎是每一个 NLP 工程师的必修课,而她背后的数学与概率论知识却让她看起来有些高冷。
那么何为 LDA (Latent Dirichlet Allocation)?
简单的说,L (Latent 隐含),主题隐含在文档中;DA (Dirichlet Allocation 狄利克雷分布),文档的主题服从 Dirichlet Distribution。
本文将站在一个初学者的角度来讲述 LDA 与她背后的故事。
在上一篇文章中,我翻译了 Peter Norvig 的 How to Write a Spelling Corrector,但其中介绍的拼写检查器并没有考虑错别字的上下文,拼写修正的效果并不是非常理想。在本文中,我会介绍 NLP 中一个常见的语言模型:Ngrams 模型,它可以使拼写校正器拥有感知上下文 (context-sensitive) 的能力,能够显著得提升错别字校正的准确率。在我随机生成的错别字测试集上,编辑距离加上 Ngrams 模型的错别字校正算法的准确率超过了 90%。
I took an interview with 17zuoye today. This article records the process and content of the interview.
今天参加了一起作业的 NLP 工程师面试,本文记录了面试的内容。
I took an interview with TouTiao.com today. This article records the process and content of the interview.
今天参加了今日头条的算法实习生面试,本文记录了面试的内容。
Dianping (the Chinese version of Yelp) tele-interviewed me today. This article records the process and content of the interview.
今天晚上参加了大众点评的一个电话面试,本文记录了面试的内容。
Bilibili (the Chinese version of Youtube) tele-interviewed me at yesterday afternoon. This article records the process and content of the interview.
昨天下午参加了B站的一个电话面试,本文记录了面试的内容。