从老赵那儿出来已经快十点了,苏飞直接赶到了图书馆。
原本以为这个点,常用位置肯定被占了,倒是没想到他刚到那就有人把位置让出来了。原来是昨天问他问题的那几个同学让人提前帮他占好了位置。
苏飞还感到不好意思,自己何德何能让人家帮自己占位置。
但这几个同学的一句“大神,没了你我们可怎么活”又把苏飞拉了回来,他心里想着大不了多帮他们解解题,以此作为报答。
刚坐下的苏飞撇了眼某个角落,发现姜大小姐果然回来了,看到这钻石矿,苏飞就倍感安心。
‘系统,使用基础面板查阅卡。’
苏飞默念一声,然后把视线移向姜大小姐的方向,姜倾雪的面板立刻就显示出来。
姓名:姜倾雪
智力:25(远超常人)
精神力:20(超越常人)
体质:8(高)
魅力:28(完美)
艺术天赋:13(超越常人)
苏飞深吸一口气,内心的震撼久久无法平静下来。
五个属性超过大半上了20,智力高达25,魅力更是到达了苏飞从未曾见过的“完美”这一评级,您老就是这个世界的气运之子?
苏飞盯着姜倾雪的视线被周围的同学们收入了眼底,八卦之火熊熊燃起,昨天的江大论坛可是席卷了小半个学校,他们这些人自然也是对这件事非常上心。
他们自认为与其他人不同,他们觉得自己等人是为数不多地察觉到大神的学神属性,而姜大小姐也是学神,两个学神之间的爱恨情仇,谁又不感兴趣呢。
不过苏飞很明显没打算满足他们,被打击到之后,他就掏出《牛津英汉词典》开始无情刷单词。
追上姜大小姐,从全国大学生英语竞赛开始!
在下午的时候,苏飞收到了老赵发来的英语竞赛资料。
他简单地查阅了下历年考卷,题型倒是不复杂,就由主客观题两部分组成,客观题占了六十分,主观题一篇作文占二十分,翻译题占二十分,而客观题全部是阅读理解,这让苏飞略微松了口气,毕竟听力可不是短时间内能搞定的。
而客观题的内容有点类似托福的考题,不考日常会话,而是考生物地理以及人文历史等专业知识,这种考法对苏飞异常有利,因为专业知识意味着单词的积累决定胜负。
这次竞赛对苏飞比较有利,狂背单词和作文,再刷刷题,估计就能拿个高分。
根据老赵的说法,下周周一就正式开考,满打满算还有一周,苏飞估摸着好好复习半周就能拿个省一等奖,至于下一轮的国奖就不考虑了。
至于这周剩下的时间,完善好论文,冲顶会!
苏飞沉迷英语一下午,而晚上的时间则留给了taglm模型,他又重新把这篇论文从头到尾精读了一遍,顺便把今年顶会最新出的论文也大致扫了一遍,在过目不忘和知识快解的加持下,在晚上闭馆前,他把自己的论文想法大致勾勒了出来。
回到宿舍,苏飞便打开电脑,在word上敲敲打打。
【基于taglm的深度上下文词向量预训练】
【摘要:taglm提出的上下文词向量预训练丰富了词向量的意义,不再使得单词局限于单个意思,将静态词向量化为了动态词向量,大大简化了自然语言领域的参数计算,然而taglm仍然有不小的缺陷,其中的结构性缺陷增大了参数训练的复杂度,而taglm模型中的不同部分间简单的拼接有可能会造成语义损失,因此本文提出一个更高效简单的预训练模型。】
【介绍:本文将taglm三部分简化为一部分的整体模型,抹除不同模型部分间拼接造成的误差......】
这个题目是苏飞这几日晚上在床上常思考想到的,先前姜大小姐有问他对taglm的看法,他提出的观点都没说到点子上,这几日吃透了相关数学理论,而数学上的很多思想总是和机器学习以及深度学习挂钩,苏飞这才渐渐地看出了本质,再加上最近改善taglm的论文效果并不显着,苏飞才萌生了这个想法。
原本苏飞并不想做自然语言处理方向的论文,原因是自然语言处理总是被计算机视觉领域压一头,但taglm是自然语言处理领域的论文,虽然在发表后其思想也被应用于其他领域,但苏飞认为想要发一篇改善taglm的顶会论文,必定要在它的领域打败它,否则很可能不会被aaai录用。
至于模型的结构到底应该怎么改?
额......
他的思想已经陷入了瓶颈,这也是他想要在明天去和ai研究社的大佬们交流的原因。
如果明天的交流还是没有什么用,那就只能用一些非常规手段了。
去刷刷姜倾雪的好感度,顺便看看能不能触发一些任务,充实小金库好去系统淘张灵感激发卡。
“阿飞,这么晚了还不睡?”
郑浩然起床上厕所,看到苏飞还在电脑桌前,不免多问了句。
郑浩然的声音把苏飞从沉思中拉了出来,一看时间,都已经深夜2:16了,于是轻声地道歉:“抱歉,耗子,这几天事情蛮多的,刚才敲文档的声音吵到你了吗?”
郑浩然担忧地看着苏飞:“阿飞,是不是姜大小姐的事给你的打击太大了?你这是在用学习麻痹自己呢?”
“你这不会在写微博文案,半夜网抑云吧?”郑浩然小心翼翼的靠过来,结果看到word文档上的一大串文字。
“基于taglm的深度上下文词向量预训练?卧槽!!!”
郑浩然的声音越来越响,最后的卧槽两个字甚至堪比周扬现场祖安。
床上的另外两人被这声音惊的翻了个身,木板床嘎吱摇晃。
苏飞赶忙“嘘”了一下,轻声道:“就是个初步想法。”
郑浩然一脸崇拜地看着苏飞,taglm,他也听过这个模型的大名,毕竟提出了预训练这种想法,红极一时,然而当他开始尝试阅读,就很有自知之明地放弃了,得到的教训就是,我这个机器学习都没搞懂的小菜鸡,深度学习果然碰不得。
然而再看看苏飞这个舍友,人家已经开始着手改善taglm了,这人和人之间的差距真是比人和猪之间的差距还大啊!