看着两书评论圈里的热闹以及日涨一千的点击心情却是不由地好了起来。
时间还早习惯夜猫子的他正是兴奋的时刻呢不会这么早就去休息的。
该干些什么呢?当然是开始动工手写人工智能的论文啦!
其实嘛英文论文那是现成的关于负采样训练词向量的一篇是给出方法一篇是证明出来莫浩波需要做的就是把它们融合起来。
方法也很简单就是在前世谷歌论文的基础上加个证明就好了。
当然身为中国人怎么可能不会写点中文的东西呢?
现在重要的问题就是需要做实验就是训练数据啦。
那些公开的数据已经从网上下载下来了的就差工具和应用了。
13年的这个时候成熟点的python版本当然是python27啦至于经典的python35还没有影子呢。
不需要使用那些复杂的架构只需要简单的神经网络就可以实现使用numpy库就可以了而这也恰恰是莫浩波发表这篇paper的原因。
很快就投入令人向往的自然语言处理(nlp工作)效率是相当快的。
参数和代码都是现成的不就是改个文件地址训练么数据量也不大也就500m的数据罢了。大的话他的电脑也跑不起来。
negtive-sample的cbow大都比cbow效果好negtive-sample的skip-gram大都比skip-gram效果好。skip-gram大多数情况也比cbow效果好。
训练好的词向量各种分类啊实体提取啊之类的比较得出对negtive-sample方法有利的证据。
然后就是各种数据的记录曲线的绘制了突出negtive-sample方法的速度性、高效性和准确率。
科学实验嘛工程嘛重要的就是数据啦这里容不得任何的作假那是相当严格的可不是文科那样的写写报告无病而呻那样的可比拟的。
当然科研类实验嘛那又是相当简单的只要你给出的方法你给出的数据能够比当前的准确率高即便没有什么道理给不出什么理论那也绝对是真理啊。
科研嘛最重要的当然是数据啦数据是不会说谎的。
就这样投入进去时间过得很快一下子就到深夜11点了莫浩波终于记录下了他所需要的各种数据。
接下来用这些数据把原本论文的数据替换掉很快一篇关于自然语言词向量的论文就大功告成了。
借助英文-中文翻译稍微改改其中语句不通顺的地方中文论文也写好了。
毕竟两三千字的论文小菜一碟嘛莫浩波轻松搞定。
果断加上作者名第一作者当然是我们的莫浩波啦。第二作者莫浩波果断地加上了思思的名字。
他已经下定决心一定要睡服思思要和他一起选择这个“计算机科学与技术”的专业了。毕竟生物工程什么的专业听起来整个人都不好了不能让她再次中奖了。
弄完这些便第二天早上5点了顶着黑乎乎的眼圈他沉沉地躺下了就是早上日常的八点半闹钟也激不起他的丝丝涟漪果然变死猪了……【本章节首发沧元图书网,请记住网址(https://Www.CangYuanTuShu.Com)】