国产四核CPU发威!华为D1四核XL手机评测【华为d1价格】
最大750马力,配豪华驾驶室,改款沃尔沃FH16果然不负众望
说起欧洲卡车的“大力士”,相信不少卡友都会想到沃尔沃FH16重型大件物流运输车型,今年年初该系列改款车型亮相后,在强劲动力的加持下,整体驾乘舒适度也非常尽如人意。
这款车型采用了规格为XXL的超高顶车型,车顶前部设有Globrotter白色标识,两侧设有银色金属防护杠,上方的银色警示灯、侧面的示宽灯夜晚行车效果显著。
与今年年初宣传照片中出现的这款展示车型对比不难发现,量产车型所使用的是蜂窝状的塑料中网,看起来似乎更加平淡化,不知取消条状镀铬中网是否作为降低生产成本的缘故。
不过这款量产车型的反光镜外侧依然设有银色镀铬装饰罩,看起来就好比高端乘车用车反光镜配备的“银耳”。
这款XXL规格驾驶室,比起标准版XL驾驶室外观方面就已经出现了明显差别,例如所使用的超宽体推拉式扰流罩,后方设有密封式储物格、副油箱。
与改款FH一样,这款FH16车型提供五款不同驾驶室配置,分别为平顶排半、中顶排半、高顶,XL高顶、XXL宽体高顶驾驶室。除了驾驶室尺寸之外,这款车型更主要通过极强的动力性迎合不同工况下的使用需要。
改款沃尔沃FH16依然采用四幅式多功能方向盘,并且提供AirBig(安全气囊)主动安全配置,这一高端配置即便在国产最高端车型中也并未体现。
这款车型的全液晶仪表盘与国产卡车使用的同款配置相似度极高,当然除了具备时速、油料、气压等功能指示外,还提供卫星地图定位功能,这一配置比起侧置在多功能液晶显示屏上优势更加明显。
沃尔沃FH16依然采用了侧置换挡集成设计,对于这类大件运输车辆来讲,增加了两个专用蠕行挡位,减少重载时起步困难的情况。
半环绕式中控台上方设有置物台,不仅可以放置随车物品,日常随车还可以放置盆景提升氛围。
地板上方设有沃尔沃FH16专属标识的地毯,这在欧洲同级别奢华大件运输车辆中属于重要细节体现。
副驾驶采用了侧置90°旋转功能,看到这是不是卡友们会想到前不久东风柳汽刚上市的乘龙H7 3.0版本车型也具有类似设施,当然这款车型的真皮座椅,双向腰部支撑的舒适性还是略胜一筹。
这款XXL规格驾驶室的室内垂直高度达到2050mm,对于身高突显的北欧人来讲长途行车舒适度方面有保证,丝毫没有压抑感。
卧铺下方并不像国产车这样单纯使用一个推拉式储物格或者冰箱,而是通过下方的大容积将隔断式设计提升整体实用性。
XXL规格驾驶室的舒适度体现在其超宽卧铺设计,最大宽度从之前的XL规格驾驶室的800mm,提升至1050mm。单凭卧铺舒适度,国产青岛解放的JH6智尊版可以同台竞技。
卧铺采用可折叠式设计,床垫打开后可以还可以放置一些随车物品。
隔板下方的大容积储物格容积巨大,像长途跨国运输来讲,存储长期使用的食物游刃有余。
与国内运输行业相似度极高的是,欧洲卡车长途跨境运输也配备一名驾驶员,当然这不会像国内这样运费低迷迫不得已,而是合理的休息时间以及完善的管理措施,为此这款沃尔沃XXL车型还提供宽体单层卧铺配置,上方设有推拉式储物格。
沃尔沃FH16车型搭载了沃尔沃商用车中的王牌D16型发动机,可提供550马力、650马力、750马力三款动力配置。
在这要提及的是,沃尔沃D16发动机保持11年的750马力王牌记录,恐怕要在今年晚些时候由此斯堪尼亚新推出的770马力V8发动机所打破,新一轮的王牌动力比拼将又将拉开新的序幕。
沃尔沃FH16提供的是设有带蠕行功能的I-Shift专用变速器,看似精巧的东西其实长期使用过程中明显感觉到其综合优势,能拖拽总重750吨的集装箱从静态起步到平稳行走功不可没。
改款沃尔沃FH16重型车型将主要用于矿山开采、木材、大件运输等领域,对于传统干线物流运输中将主打带有I-save功能的D13 TC动力配置,在可变几何涡轮的加持下,500马力的扭矩输出可以达到2800N.m,与D13K系列540马力机型的扭矩输出不相上下。
改款沃尔沃FH16在北欧市场的受众度主要体现在木材运输,其可靠性与SISU推出的Polar Star车型不相上下,750马力的D16发动机所达到的3550N.m的动力输出,以及可靠的差速锁、EBS等配置保证车辆在雪地中行驶稳定性有保证。
标载物流运输在欧洲公路运输领域主要使用4×2或者6×2(中置提升)牵引车,不过针对大型机械设备通常会由这类8×4大件运输车辆所扮演,为此沃尔沃FH16系列车型即便没有像曼恩TGX、奔驰ACTROS SLT等大件车型使用液力变矩器,但是I-Shift变速器的适配性通过上文足以证明可以适应大件运输需要。
骑行社:小白入坑指南!“百”款4位数预算公路车推荐
最近气温回升,白天已经0℃以上了,通勤很舒服,周末活动也是人山人海!天一暖和都出来骑车了!春天不减肥,夏天徒伤悲!
虽然很多车都是期货,但是不耽误给各位推荐,尺码是底线,宁缺毋滥,再便宜不适合和白搭(但是我可以白嫖)
今天给大家推荐“100款”4位数的公路车,基本我都调过或骑过,从账面数据到实际体验给各位观众老爷参考——品牌不分先后。
预算3K
这个价位不要有过多希望,配置都是非常入门的,如果看见了碳纤维请绕行没有喷人家的意思,都是垃圾!尺码比较重要,客观里边请~
捷安特 Speeder D2
- Aluxx铝合金车架及前叉
- Shimano Tourney 14速套件(50-34、14-28t)
- 平面双边制动机械碟刹
- 预留货架孔位
- 兼容700x 32c轮胎
- Xs、S、M 三个尺码可选
- 重量11.4kg
- 售价 2498元
D1/2都是全铝合金公路车,卡在这个预算就不要希望有什么很出色的地方,套件自然拉胯但绝对能用,不至于说骑几天就坏,跟一些不知名的国产小作坊还是有明显区别的!
捷安特 Speeder D1
- Aluxx铝合金车架及前叉
- Shimano claris 16速套件(50-34、14-28t)
- 平面双边制动机械碟刹
- 预留货架孔位
- 兼容700x 32c轮胎
- Xs、S、M 三个尺码可选
- 重量11.2kg
- 售价 2998元
车架几何非常友好,较高的Stack与较短的Reach ,姿势较为直立视野更好,不给您带来过多压力,特别适合刚入坑的朋友,个高的朋友可以换长把立来弥补reach的不足。
美利达 SCULTURA 93
- 铝合金车架前叉
- 套件SHIMANO CLARIS 16s
- 44/47/50/52 4个尺码
入门车的颜色还是比较多的有四种,但是实体店不一定能找到,车架内走线相对简洁,cf2几何最大号52可支持180左右的朋友使用,这几何到底是变偏大还是偏小呢?
UCC SONIC 2
- 铝合金车架
- 半碳前叉
- shimano Sora R3000
- 450/470/490/510 4个尺码
- 售价3698元
ucc在这个价位确实比其他品牌性价比更高一些,str 1.45舒适适合新人,但是我几何我确实有点迷,同样的前伸量,堆高却不同,头管角度也没啥变化。如果您身材比较高请及时更换长把立!
预算4k
这个价位出现了碳纤维前叉,整体重量会下降一些,但不要过分追求轻量化,上文提到的整车碳纤维在这个价位依然选择绕行,真的不行。
捷安特 SCR 2
- Aluxx铝合金车架及前叉
- OverDrive 头管 D-fuse 减震座管
- Shimano r2000 16速套件
- Xs、S、M 三个尺码
- 重量9.74kg
- 售价 3698元
2/D依然是全车铝合金,2是圈刹,D是碟刹。加入了OD(OverDrive)头管增加稳定精准的操控性,自家的D-fuse减震座管,会让过程更舒服一些。
美利达 SCULTURA 95
- 铝合金车架
- 碳纤维前叉
- 套件SHIMANO SORA 18s
- 44/47/50/52 4个尺码
大套Sora性价比一下就凸显出来了,碳纤维前叉,cf2几何最大号52可支持180左右的朋友使用,这个是比较推荐的相对性价比很高,市场保有量也不错!
捷安特 SCR D
- Aluxx铝合金车架及前叉
- OverDrive 头管D-fuse 减震座管
- Shimano sora 18速套件机械碟刹
- Xs、S、M 三个尺码可选
- 重量10.2kg
- 售价 4298元
套件方面2是r2000,D是R3000,虽然差一个界别,但是R3000的手感和效率会更好,在入门选车的时候搭配r3000套件的整车是我非常推荐的!几何偏激进,胖子可能需要选大一码的会更舒服,身高推荐不超过180且身体柔韧度还不错的朋友。
美利达 SCULTURA 95d
- 铝合金车架
- 铝合金前叉
- 套件SHIMANO SORA 18s
- 44/47/50/52 4个尺码
美利达把成本放在了碟刹,前叉就降配了,好在是双边制动的卡钳,cf2几何最大号52可支持180左右的朋友使用,这个车在北京真可谓一车难求,同志找了全北京最后入手了95 。。。

UCC SONIC 3
- 铝合金车架
- 半碳前叉
- shimano TIAGRA
- 450/470/490/510 4个尺码
- 售价4298元
与2相比只升级了套件,变成20速,性价比太高了。后期升级一个刹车即可,几何跟2一样迷。。
Domane AL 2(圈刹)
- 100 系列 Alpha 铝合金车架
- 碳纤维前叉
- 铝合金把组
- 坐垫Bontrager Aeolus comp 钢轨
- Shimano Claris 8速机械套件
- 轮组 Bontrager 铝圈
- 重量 9.57kg
一线大牌入门最便宜的车之一,面子上绝对没问题,整体配置都不太行,但是它有大码身高185-195车友可以选择,当然还有别的但只有三个,这是之一 !
天猫精选
TREK崔克DOMANE AL 2碳纤维前叉轻量化舒适耐力变速公路车自行车 慕尚蓝色/哑光黑色 直邮到家 52cm 16速4680元起实时价格11小时前已更新去购买
预算5k这个价位圈刹会出现4700,碟刹r3000,都不错按需选择,部分带碳纤维座管了,重量及舒适度都有不错的表现。
Liv langma sl
- Aluxx铝合金车架
- 碳纤维前叉及D型座管
- PA3真空胎轮组
- Shimano R3000 18速套件
- Xxs、XS、S 3个尺码可选
- 跨高最低 xxs 660.7
- 重量 9.5kg
- 售价 4998元
虽然捷安特打造了女性公里车体系Liv,但我并不觉得它就是为女务的,公路车只看身体数据的适应范围,身体构造略微不同只是体现在具体部位的设定,比如坐垫女性就是比男性需求的更宽!
Langma ISC隐藏式坐管夹,OverDrive头管操控更好,从几何来说,str激进更适合中等偏瘦的人使用,柔韧性好的胖子也可以,身高建议不超过175的且跨高(不等于腿短)不高的车友使用!最低xxs跨高需要660.7mm,150+的选手值得考虑!
6K
这个价位可选的车不多,铝加碳叉,想上碳纤维再加点入国产品牌。
DOMANE AL 2 DISC
- 100 系列 Alpha 铝合金车架
- Domane AL 碳纤维前叉
- 铝合金把组
- 坐垫Bontrager Aeolus comp 钢轨
- Shimano Claris 8速机械套件
- 轮组 Bontrager AffinityTektro
- C550 双活塞机械碟刹
- 重量 10.55kg
- 售价5980元
相对圈刹,碟刹升级了价格。。。别的没啥区别,但是它的升级空间更大,几乎所有厂商都在推碟刹,所有相对的配套产品圈刹也会越来越少,几何非常友好。
捷安特 tcr sl 2
- Aluxx铝合金车架
- 碳纤维前叉及D型座管
- Shimano Tiagra 20速套件
- Xs、S、M、M-L 4个尺码可选
- 重量9.4kg
- 售价 5998元
车圈一直流行圈刹TCR YYDS的信仰,这不它来了,压缩车架的鼻祖,以刚性重量比著称!STR 1.4 几何偏激进 ,提供的尺码身高范围:160-182!Shimano 4700 小套,牙盘的塑料套真是挺难看的!圈刹适合升级新一代的双轴夹器(比如R7000)
美利达斯特拉 king
- 铝合金车架
- 碳纤维前叉
- shimano tagra 20速套件
- 碟刹Rs305双边
- XXS-M 4个尺码
- 售价5980元
7K
这个价位车架开始出现碳纤维了,对国产瑞豹性价比是真的高,但是一定要注意细节搭配,很有可能你一高兴入了碳纤维发现,别的东西还得花钱升级。
Robin sport(圈刹)
- HS-HPT碳纤维车架及前叉
- 铝合金三件套
- Shimano 105 套件
- PW5 铝合金轮组
- XS-L四个尺码可选
- 重量8.8kg
- 售价:6929元
碳纤维整车搭配105小套,刹车和牙盘都是降配,以此来降低成本,瑞豹的车原配坐垫普遍反馈不舒服,建议更换,轮组圈刹的凑合用,牙盘不用升级,夹器可以升级。几何适中不激进。
Domane AL 3 disc
- 100 系列 Alpha 铝合金车架
- Domane AL 碳纤维前叉
- 铝合金把组
- 坐垫Bontrager Aeolus comp 钢轨
- Shimano Sora 9速机械套件
- 轮组 Bontrager AffinityTektro
- C550 双活塞机械碟刹
- 重量 10.3kg
相对al2,al3升级了套件r3000,这个套件确实好用,手感到效率真正地体会到了公路车的快乐,升级碳刀来满足1w预算的朋友需求。
Robin sport碟刹
- HS-HPT碳纤维车架及前叉
- 铝合金三件套
- Shimano 105 套件
- PW5 铝合金轮组
- XS-L四个尺码可选
- 重量9.1kg
- 售价:7350元
碟刹版本,卡钳用的是彦豪的线拉碟刹,真的不好用,强烈建议升级!
SPECIALIZED ALLEZ E5 SPORT
- E5铝合金车架
- Fact碳纤维
- Shimano Sora 18速套件
- Axis sport轮组
- 44-61 7个尺码
- 售价 6990元
非常友好的几何设计,尺码按照官方建议入手没问题,性价比就不太好说,毕竟这logo太长了。
JAVA FUOCO
- 碳纤维车架及前叉
- 碳纤维一体把
- 碳纤维座管
- shimano 105套件
- Deca 铝刀
- 480/510/540 3个尺码
java便宜我没推荐,直接来到7k左右的火,配置来说相对耐用,几何还是出了名的激进,最小号480建议不超过170的朋友,最大号540别超过180,胖子及柔韧性不好的朋友就看看隔壁的车就行了。
8K
这个价位大家都在推瑞豹,配置大体没问题,但是细节还需升级。
瑞豹 Super Sport
- HS-HPT碳纤维车架及前叉
- 铝合金把组
- 碳纤维坐管
- Shimano 105 套件
- PW1 DB 铝合金轮组
- XS-XL 5个尺码可选
- 售价 7699元
105小套似乎是万元以下的标配了,不建议升级牙盘,升级一体把可实现全内走线,但是原装Nutt双边制动的机械碟刹,也因为95%内走线而变得手感很差,升级线拉油会有所改观,str 1.42+几何友好最大的XL码接近190的朋友也可以尝试。
瑞豹 Spark sport
- HS-HPT碳纤维车架及前叉
- 铝合金把组
- 碳纤维坐管
- Shimano 105 套件
- PW1 DB 铝合金轮组
- XS-XL 5个尺码可选
- 重量8.6kg
- 售价 8299元
依然是105小套,不建议升级牙盘,原装Nutt双边制动的机械碟刹,str 1.36+几何激进,虽然最大也有XL码,但是572的堆高超过185的朋友就算了吧。
9K
这个价位在105套件和碳纤维车架二选一,
TCR ADV 3
- Advanced碳纤维车架
- 碳纤维前叉及座管
- Shimano Tiagra 20速套件
- XS-L
- 售价 8990元
为数不多用Shimano 大套的车,4700套件足够绝大多数人使用,后期建议升级碳刀就毕业了,几何随着尺码变大而逐渐友好,总体来说偏激进,我会选择大一码的车,对我是个胖子。
UCC 冲击波 disc
- 碳纤维车架及前叉
- 铝合金三件套
- shimano 105
- 460/480/510/540 4个尺码
- 售价9398元
万元内性价比最高的车没有之一,除了牙盘降配为shimano RS510外,其余都是105部分,几何随尺码变大而舒适,最小号适合不超过170的朋友使用,最大号540不超过185的朋友使用。这车是不是涨价了
Liv Langma SL disc
- Aluxx铝合金车架
- 碳纤维前叉及D型座管
- Shimano 105 22速套件
- Xxs、XS、S 3个尺码
- 重量 8.84kg
- 售价 9980元
105大套的套件非常吸引人,油压碟刹也让力气小的朋友轻松制动,紫色点缀配色着实让我喜欢,与圈刹相比有着同样的设计ISC隐藏式坐管夹和OverDrive头管,几何更加激进,最低xxs跨高需要661.7mm,适合的朋友可以入手。
SPECIALIZED ALLEZ E5 ELITE
- E5铝合金车架
- Fact碳纤维
- Sram Rival 22速套件
- Dt R460轮组
- 44-61 7个尺码
- 售价 9990元
与SPORT相比套件、轮组都升级了,对标shimano 105的Rival 除了前拨不太好调整以外,效率等级都不错,本次38节最大号只释放了54,大高个们就再看看别的吧。
2019 NLP大全:论文、博客、教程、工程进展全梳理(长文预警)
选自Medium

目录
- 研究论文
- 机器学习/自然语言处理的创造力和社群
- 工具和数据集
- 博文文章
- 教程资源
- 人工智能学
研究论文2019 年,谷歌人工智能团队带来了
ALBERT
,它是用于情境化语言表征的自监督学习模型
BERT
的精简版。主要的改进在于减少了冗余,更加有效地分配了模型的性能。此方法在 12 个自然语言处理任务上达到了当前最佳性能(SOTA)。2018 年底,英伟达的研究者们发表了一份热门论文 (A Style-Based Generator Architecture for Generative Adversarial Networks)(取名为
StyleGAN
),提出了对抗生成网络的另一种生成器架构,灵感来自于风格迁移问题。2019 年,这份工作有了更新 (
Analyzing and Improving the Image Quality of StyleGAN
),着重研究了诸如重新设计生成器正则化的过程等方面。
上面一行为目标图像,下面一行为合成图像。图源:https://arxiv.org/abs/1912.049582019 年,我最喜欢的论文之一是 code2seq (https://code2seq.org/),这是一种从结构化表征的代码中生成自然语言序列的方法。这样的研究可以对自动代码摘要和文档化的应用起到助益。你可曾想过,有没有可能为生物医学文本挖掘训练一个生物医学的语言模型?答案就是 BioBERT (BioBERT: a pre-trained biomedical language representation model for biomedical text mining),这是一个可以从生物医学文献中提取重要信息的语境化模型。在 BERT 发表后,Facebook 的研究者们发布了 RoBERTa (RoBERTa: A Robustly Optimized BERT Pretraining Approach),引入新的优化方法来改进 BERT,也在多项自然语言处理的基准测试中达到了当前最优效果。最近,Facebook 人工智能部门的研究者们还发表了一种基于全注意力层来改进 Transformer 语言模型效率的方法 (https://ai.facebook.com/blog/making-transformer-networks-simpler-and-more-efficient/)。这个研究组的其它工作 (https://ai.facebook.com/blog/-teaching-ai-to-plan-using-language-in-a-new-open-source-strategy-game/) 还包括了如何教人工智能系统通过制定计划来使用自然语言。
全注意力层。图来:https://arxiv.org/pdf/1907.01470.pdf可解释性仍然是机器学习和自然语言处理领域的重要议题。这篇论文 (Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI) 对于可解释性、分类法以及未来研究的机遇提供了一份全面的综述。Sebastian Ruder 的博士论文也值得一看,题为:Neural Transfer Learning for Natural Language Processing。新加坡国立大学等机构的研究者开发了一种方法 (Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling),能够在对话的情境下实现情绪识别,这将为情感化的对话生成铺平道路。另一项相关工作则是用一种叫做 DialogueGCN (DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation) 的图神经网络方法,来探测对话中的情绪。作者还提供了代码实现:https://github.com/SenticNet/conv-emotion/tree/master/DialogueGCN。谷歌量子人工智能团队在 Nature 发表了一篇论文,声称开发了一台
量子计算机
,速度比世界上最大的超级计算机更快。之前提到过,可解释性是神经网络架构里需要大幅改进的一个领域。这篇论文 (
Attention is not not Explanation
) 讨论了在语言模型的情境下,注意力机制作为可解释性的一种可靠方法所具有的局限性。神经逻辑机 (
Neural Logic Machines
) 是一种神经符号网络架构,在归纳学习和逻辑推理上效果都不错。这个模型尤为擅长数组排序和寻找最短路径之类的任务。
神经逻辑机架构。图源:https://arxiv.org/pdf/1904.11694.pdf这里还有一篇论文 (
On Extractive and Abstractive Neural Document Summarization with Transformer Language Models
),把 Transformer 语言模型应用到了抽取式和摘要式 Neural document summarization。研究者们开发出了一种方法,着重于利用比较来打造和训练机器学习模型。这种方法 (https://blog.ml.cmu.edu/2019/03/29/building-machine-learning-models-via-comparisons/) 不需要大量的特征-标签对,它将图像与之前见过的图像相比较,以判定这张图像是否应该属于某个标签。Nelson Liu 等发表的论文 (Linguistic Knowledge and Transferability of Contextual Representations) 讨论了 BERT 和 ELMo 等预训练的语境模型所捕捉到的语言学知识类型。
XLNet
是一种自然语言处理的预训练方法,在 20 个任务上比 BERT 更胜一筹。我在这里(https://medium.com/dair-ai/xlnet-outperforms-bert-on-several-nlp-tasks-9ec867bb563b) 写过一篇关于这项重要研究的总结。这份 DeepMind 的研究 (Learning and Evaluating General Linguistic Intelligence) 展示了一项涉及面广泛的实证调查结果,其目的为评估用于各种任务的语言理解模型。这项分析对于更好地理解语言模型捕获的内容、提高模型效率尤为重要。VisualBERT (VisualBERT: A Simple and Performant Baseline for Vision and Language) 是一个小而强大的框架,用于为图像-语言类任务建模,相关任务包括 VQA 、Flickr30K 等。这个方法运用了堆叠的 Transformer 层和自注意力机制,来对齐一段文本和一块图像区域之中的元素。这份研究 (To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks) 提供了一份比较自然语言处理迁移学习方法的详尽分析,以及为自然语言处理工作者们准备的指南。Alex Wang 和 Kyunghyun 提出了 BERT 的一种实现方法 (BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model),可以生成高质量且流畅的结果。你可以使用这份 Colab 笔记本来试试:https://colab.research.google.com/drive/1MxKZGtQ9SSBjTK5ArsZ5LKhkztzg52RVFacebook 的研究者们发布了 XLM 的 PyTorch 版代码 (https://github.com/facebookresearch/XLM),这是一个跨语言的预训练模型。这份研究 (https://www.cl.uni-heidelberg.de/statnlpgroup/blog/rl4nmt/) 对神经机器翻译领域强化学习算法的应用做了综合分析。这篇在 JAIR 上发表的论文 (A Survey of Cross-lingual Word Embedding Models) 对跨语言词嵌入模型的训练、评估和使用做了全面综述。The Gradient 上发表了一篇极佳的文章 (https://thegradient.pub/the-promise-of-hierarchical-reinforcement-learning/),详述了当前强化学习的局限性,并提供了利用分层强化学习的潜在发展方向。很快就有人发布了一系列优秀的教程 (https://github.com/araffin/rl-tutorial-jnrr19/blob/master/1_getting_started.ipynb),你可以通过这组教程来开始接触强化学习。这篇论文 (
Contextual Word Representations: A Contextual Introduction
) 是情境化词表征的精简版入门读物。机器学习/自然语言处理的创造力和社群机器学习被用于解决真实世界的各种问题,同时它也被用在了一些有趣且有创造力的地方。机器学习的创造力和人工智能的任何其他研究领域同样重要,因为最终,我们希望造出能够帮助我们塑造文化和社会的人工智能系统。到了年末之际,Gary Marcus 和 Yoshua Bengio 在深度学习、符号人工智能和混合型人工智能系统的想法等议题上进行了
辩论
。
2019 斯坦福年度AI报告
于年底面世,报告中对于人工智能现状全面的分析可以帮助我们更好地理解人工智能的整体进程。常识推理仍旧是一个重要的研究领域,因为我们想要建造的人工智能系统,不仅应该能基于数据做预测,还应该理解这些决定并对它们进行推理。这类技术可以用于对话式人工智能,其目的是使得智能代理能够自然地和人们进行对话。看看 Nasrin Mostafazadeh 的这份采访 (https://www.forbes.com/sites/ayurellahornmuller/2018/12/31/the-art-of-ai-storytelling-how-one-30-under-30-scientist-is-teaching-devices-to-make-assumptions/#12824a1e2a4f)。他在采访中讨论了常识推理以及讲故事、语言理解等应用。你也可以看看这篇关于如何在常识推理中运用语言模型的新论文 (Explain Yourself! Leveraging Language Models for Commonsense Reasoning)。
激活图谱
是谷歌和 Open AI 的研究者们开发的一项技术,用于更好地理解和可视化神经网络中神经元之间发生的交互。
InceptionV1 的图像分类网络的激活图谱展示了很多完全实现的特征,如电子产品、建筑物、食物、动物的耳朵、植物和多水的背景。图来:博文 https://openai.com/blog/introducing-activation-atlases/看一下 Geoffrey Hinton 和 Yann LeCun 出品的这份图灵课程 (https://fcrc.acm.org/turing-lecture-at-fcrc-2019),今年他俩和 Yoshua Bengio 一起获得了
图灵奖
。这篇论文 (Tackling Climate Change with Machine Learning) 讨论了如何用机器学习应对气候变化。OpenAI 发表了一篇涉及面很广的报告 (Release Strategies and theSocial Impacts of Language Models),讨论了语言模型的社会影响力,包括合理使用以及潜在的技术滥用等主题。情绪分析仍然被用于各种各样的应用。The Mojifier (https://themojifier.com/) 是一个很酷的项目,它可以查看图像并检测其中的情绪,然后把脸替换成检测到的情绪所对应的表情符号。今年将人工智能技术应用于放射学的研究也十分热门。这里有篇不错的文章 (Radiological images and machine learning: trends, perspectives, and prospects) 总结了这个研究领域的趋势和展望。纽约大学的研究者们发布了一个基于 Pytorch 的深度神经网络 (https://medium.com/@jasonphang/deep-neural-networks-improve-radiologists-performance-in-breast-cancer-screening-565eb2bd3c9f),能够改进放射科医生对乳腺癌的筛查。这里还发布了一个重要的数据集,叫作 MIMIC-CXR (https://physionet.org/content/mimic-cxr/2.0.0/),其中包含了 X 光胸片和放射学文本报告的数据库。纽约时报写了一篇报道 (https://www.nytimes.com/2019/01/02/obituaries/karen-sparck-jones-overlooked.html),记叙了 Karen Spark Jones 在自然语言处理和信息检索领域做出的具有开创性的贡献。OpenAI Five (https://openai.com/blog/openai-five-defeats-dota-2-world-champions/) 成为首个在电竞游戏上打败世界冠军的人工智能系统。
全球人工智能人才报告
对于世界范围内的人工智能人才储备,以及全球对人工智能人才的需求做了一份详细的汇总。DeepMind 团队的播客 (https://deepmind.com/blog?filters=%7B%22category%22:%5B%22Podcasts%22%5D%7D)值得一看。这个节目的嘉宾们会讨论人工智能当下最为紧迫的话题。关于人工智能的潜力,Demis Hassbis 在经济学人做了一个访谈 (https://worldin.economist.com/article/17385/edition2020demis-hassabis-predicts-ai-will-supercharge-science?utm_medium=pr&utm_source=inf-a&utm_campaign=worldin),谈论了一些未来学的想法,比如把人工智能作为人类大脑的延伸,或许能以此解决一些重要的科学问题。2019 同样见证了机器学习在健康领域的卓越发展。比如,麻省总医院(波士顿综合性医院)的研究者们开发了一个可以识别脑出血的人工智能系统 (https://venturebeat.com/2019/01/04/massachusetts-generals-ai-can-spot-brain-hemorrhages-as-accurately-as-humans/),精度可以达到人类水平。
人工智能系统分析的脑部扫描Janelle Shane 总结了一组「奇怪」的实验 (https://aiweirdness.com/post/181621835642/10-things-artificial-intelligence-did-in-2018),展示了机器学习如何地被应用于各种有趣的实验。有时候,这种实验能帮助我们真正理解人工智能系统到底在干什么,以及没有在干什么。有些实验涉及把神经网络用于生成假蛇,或者讲笑话。
蛇的种类。图源:https://aiweirdness.com/post/181621835642/10-things-artificial-intelligence-did-in-2018学习如何使用基于 TensorFlow 的机器学习模型来寻找行星:https://www.blog.google/topics/machine-learning/hunting-planets-machine-learning/OpenAI 讨论了关于发布大规模无监督语言模型的担心(包括潜在的恶意使用案例):https://openai.com/blog/better-language-models/#sample1这个 Colab 笔记本有一份非常棒的入门教材:https://colab.research.google.com/github/google/nucleus/blob/master/nucleus/examples/dna_sequencing_error_correction.ipynb,帮助你学习如何把 Nucleus 和 TensorFlow 用于 DNA 序列纠错。这里还有一篇优秀的博文 (https://blog.floydhub.com/exploring-dna-with-deep-learning/),讲了如何把深度学习架构用于探索 DNA。
重要文章
,以及它们在当前的库上是如何暴露出来的。他也谈论了关于把命名索引用于张量的提议。工具和数据集这里我主要记录一些和软件以及数据集有关的故事,这些软件和数据集对自然语言处理和机器学习的研究和工程化起到了协助作用。Hugging Face 发布了一个热门的 Transformer 库 (https://github.com/huggingface/transformers),基于 Pytorch,名为 pytorch-transformers。它使得自然语言处理从业者和研究者能够简单地使用最先进的通用架构,诸如 BERT、GPT-2 和 XLM 等。如果你对如何使用 pytorch-transformers 感兴趣,你可以从很多地方开始着手。不过这篇 Roberto Silveira 的教程 (https://rsilveira79.github.io/fermenting_gradients/machine_learning/nlp/pytorch/pytorch-transformer-squad/) 非常详尽,告诉你如何把这个库用于机器阅读理解,我特别喜欢。
TensorFlow 2.0 发布了,
有许多新的功能
。在这里可以读到最佳使用方法 (https://medium.com/tensorflow/effective-tensorflow-2-0-best-practices-and-whats-changed-a0ca48767aff)。François Chollet 还在这个 Colab 笔记本 (https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO) 中写了一篇关于新功能的全面综述。
PyTorch 1.3
发布了,多了一大堆的新功能,其中包括命名张量和其它前端的改进。艾伦人工智能研究所发布了 Iconary (https://iconary.allenai.org/),这是一个可以和人类玩猜图游戏的人工智能系统。这项工作结合了图像/语言学习系统和常识推理。他们还发表了一个新的常识推理基准 (Abductive Commonsense Reasoning),名为 Abductive-NLI。spaCy 发布了新的库 (https://explosion.ai/blog/spacy-transformers),支持把 Tranformer 语言模型结合到他们自己的库中,从而能够在 spaCy 自然语言处理体系中提取特征并加以运用。这项工作基于 Hugging Face 开发的著名 Transformer 库。Maximilien Roberti 还写了一篇不错的文章 (https://towardsdatascience.com/fastai-with-transformers-bert-roberta-xlnet-xlm-distilbert-4f41ee18ecb2),讲述如何把 fast.ai 的代码和 pytorch-transformers 结合起来。Facebook 人工智能团队发布了 PHYRE (https://phyre.ai/),这是一个物理推理的基准,目标是通过解决各种物理问题,测试人工智能系统物理推理的能力。

exBERT。图源:http://exbert.net/Distill 发表了一篇关于如何可视化循环神经网络 (RNN) 的记忆过程的文章 (https://distill.pub/2019/memorization-in-rnns/)。
Mathpix
这个工具可以根据你提供的一张公式图片输出 latex 版本的公式。
「自然问题」数据集
,这是一个用于训练和评测开放域上的问答系统的大规模语料库。博客文章今年是 NLP 数据科学作家和爱好者数量激增的一年。这对我们的领域非常有益,我们也鼓励更多的相互讨论和学习。这里我列出一些有趣且必看的博客文章:Christian Perone 对最大似然估计(MLE)和最大后验概率(MAP)进行了详细介绍,它们是帮助我们理解如何估计模型参数的重要原理。文章链接:http://blog.christianperone.com/2019/01/mle/Reiichiro Nakano 在博客中讨论了基于对抗性鲁棒分类器的神经风格迁移。文章链接:https://reiinakano.com/2019/06/21/robust-neural-style-transfer.html;Colab 笔记本链接:https://colab.research.google.com/github/reiinakano/adversarially-robust-neural-style-transfer/blob/master/Robust_Neural_Style_Transfer.ipynbSaif M. Mohammad 撰写了一系列文章讨论了 ACL 的历时分析。文章链接:https://medium.com/@nlpscholar/state-of-nlp-cbf768492f90
语言模型可以学习语法吗?这篇文章通过使用结构探测证明使用上下文表示法和查找树结构的方法是可行的。文章链接:https://nlp.stanford.edu/~johnhew/structural-probe.html
Andrej Karpathy 写了一篇博客
总结了如何有效训练神经网络的方法并进行了实践。Google AI 研究人员和其他研究人员协作加强了对使用 BERT 模型的搜索理解。像 BERT 这样的语境化模型足以理解搜索行为背后的意图。文章链接:https://www.blog.google/products/search/search-language-understanding-bertRectified Adam(RAdam)是基于 Adam 优化器的新优化技术,有助于改善 AI 架构。在寻找更好、更稳定的优化器上我们已经付出许多努力,但该文章称要将重点放在优化的其他方面,这些方面对于提高收敛性同样重要。文章链接:https://medium.com/@lessw/new-state-of-the-art-ai-optimizer-rectified-adam-radam-5d854730807b随着近来机器学习工具的大量开发,关于如何实现机器学习系统以解决实际问题的讨论也越来越多。
Chip Huyen 写了一篇有趣的文章讨论了机器学习系统设计,强调了超参数调优和数据管道
。
NVIDIA 创造了最大语言模型的记录
,训练了数十亿参数的模型。Abigail See 撰写了一篇不错的博客,解释如何在为执行自然语言生成任务而开发的系统环境中进行良好的对话。文章链接:http://www.abigailsee.com/2019/08/13/what-makes-a-good-conversation.htmlGoogle AI 发布了两个自然语言对话数据集,旨在使用更复杂和自然的对话数据集来改善对话式应用程序,例如数字助理。文章链接:https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html深度强化学习仍然是 AI 领域中讨论最广泛的话题之一,
它甚至引起了心理学和神经科学领域人员的兴趣
。Samira Abner 撰写了一篇博客,总结了 Transfoemer 和胶囊网络及其连接背后的主要构造要素。文章链接:https://staff.fnwi.uva.nl/s.abnar/?p=108Adam Kosiorek 在基于堆叠的胶囊自动编码器(一种胶囊网络的无监督版本)上写了这篇文章,可以应用于目标检测。文章链接:http://akosiorek.github.io/ml/2019/06/23/stacked_capsule_autoencoders.html
研究人员在 Distill 上发表了一篇互动文章,旨在展示对高斯过程可视化的探索。文章链接:https://distill.pub/2019/visual-exploration-gaussian-processes/通过 Distill,Augustus Odena 呼吁研究人员解决有关 GAN 的几个重要的开放性问题。图卷积网络(GCN)的 PyTorch 实现如下,可用于对垃圾邮件发送者和非垃圾邮件发送者进行分类。PyTorch 实现:https://github.com/zaidalyafeai/Notebooks/blob/master/Deep_GCN_Spam.ipynb年初,VentureBeat 发布了由 Rumman Chowdury、Hilary Mason、Andrew Ng 和 Yan LeCun 等专家参与的
2019 预测列表
。可以看看他们的预测是否正确。这篇文章解释了如何优化 BERT 以执行多标签文本分类:https://medium.com/huggingface/multi-label-text-classification-using-bert-the-mighty-transformer-69714fa3fb3d由于 BERT 的流行,在过去的几个月中,许多研究人员开发了一些方法来「压缩」BERT,在原来版本的基础上构建更快、更小且内存效率更高的版本。Mitchell A.Gordon 撰写了一篇介绍压缩类型与使用方法的综述。文章链接:http://mitchgordon.me/machine/learning/2019/11/18/all-the-ways-to-compress-BERT.html超级智能仍然是专家们争论的话题。这是一个需要正确理解框架、政策以及仔细观察的重要主题。我发现了一系列的有趣综合文章,对于理解有关超级智能的问题和注意事项很有用。文章链接:https://www.fhi.ox.ac.uk/wp-content/uploads/Reframing_Superintelligence_FHI-TR-2019-1.1-1.pdfEric Jang 写了一篇博客介绍了元学习的概念,旨在建立和训练机器学习模型,这种模型不仅可以预测,而且可以学习。文章链接:https://blog.evjang.com/2019/02/maml-jax.htmlSebastian Ruder 总结了 AAAI 2019 的会议重点:https://ruder.io/aaai-2019-highlights/图神经网络今年受到了广泛的讨论。David Mack 撰写了一篇不错的可视化文章,介绍了他们如何使用此技术并执行最短路径计算。文章链接:https://medium.com/octavian-ai/finding-shortest-paths-with-graph-networks-807c5bbfc9c8贝叶斯方法仍然是一个有趣的话题,尤其是如何将它们应用于神经网络,以避免过拟合等常见问题。下面是 Kumar Shridhar 关于该话题建议的阅读清单。文章链接:https://medium.com/neuralspace/bayesian-neural-network-series-post-1-need-for-bayesian-networks-e209e66b70b2
教程资源在这一章,我将列出一系列教程资源。CMU 发布了「NLP 神经网络」
课程材料和教学大纲
。Elvis Saravia 和 Soujanya Poria 发布了一个名为
NLP-Overview
的项目,旨在帮助学生和从业人员获得适用于 NLP 的深度学习技术的简要综述,包括理论、算法、应用程序和最新技术成果,相关链接:https://github.com/omarsar/nlp_overview
NLP 概述。微软研究实验室在数据科学的基础上出版了免费的电子书,范围从马尔可夫链蒙特卡罗到随机图。电子书链接:https://www.datasciencecentral.com/profiles/blogs/new-book-foundations-of-data-science-from-microsoft-research-lab《机器学习数学》是一本免费的电子书,介绍了机器学习中使用的最重要的数学概念。它还包括一些描述机器学习部分的 Jupyter 笔记本教程。电子书链接:https://mml-book.github.io/Jean Gallier 和 Jocelyn Quaintance 撰写了一本免费电子书,涵盖了机器学习中使用的数学概念。电子书链接:https://www.cis.upenn.edu/~jean/math-deep.pdf斯坦福大学发布了有关「自然语言理解」课程的
视频播放列表
。关于学习,OpenAI 整理了一份很棒的清单,提供了有关如何继续学习和提高机器学习技能的建议。他们的员工每天都使用这些方法来不断学习和扩展知识。清单链接:https://openai.com/blog/learning-day/
Adrian Rosebrock 发布了一本长达 81 页的指南,介绍如何使用 Python 和 OpenCV 实现计算机视觉。指南链接:https://www.pyimagesearch.com/start-here/Emily M. Bender 和 Alex Lascarides 出版了一本名为《NLP 的语言基础》的书。这本书的主要讨论了 NLP 的意义,解释了 NLP 在语义学和语用学方面的基础。电子书链接:http://www.morganclaypoolpublishers.com/catalog_Orig/product_info.php?products_id=1451Elad Hazan 在「机器学习的优化」上发表了他的课堂笔记,旨在通过简明的数学和符号将机器学习训练问题介绍为一个优化问题。笔记链接:https://drive.google.com/file/d/1GIDnw7T-NT4Do3eC0B5kYJlzwOs6nzIO/viewDeeplearning.ai 还发表了一篇很棒的文章,讨论了使用直观、可互动的方式进行神经网络参数优化。文章链接:https://www.deeplearning.ai/ai-notes/optimization/?utm_source=social&utm_medium=twitter&utm_campaign=BlogAINotesOptimizationAugust272019Andreas Mueller 发布了一个视频列表,对应一个名为「应用机器学习」的新课程。视频链接:https://www.youtube.com/playlist?list=PL_pVmAaAnxIQGzQS2oI3OWEPT-dpmwTfAFast.ai 发布了新 MOOC 课程,名为「从基础中进行深度学习」。课程连接:https://www.fast.ai/2019/06/28/course-p2v3/麻省理工学院发布了有关「深度学习入门」课程的所有视频和教学大纲。课程链接:https://www.youtube.com/playlist?list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NIChip Huyen 在推特上发布了一条极好的
入门机器学习的免费在线课程清单
。Andrew Trask 出版的书名为《Grokking-Deep-Learning》。这本书是理解神经网络体系结构基本组成的一个好起点。电子书链接:https://github.com/iamtrask/Grokking-Deep-LearningSebastian Raschka 在 github 中上传了 80 份笔记本,其中
介绍了如何实现不同的深度学习模型
,如 RNN 和 CNN。重要的是,所有模型都已在 PyTorch 和 TensorFlow 中实现。教程(https://medium.com/@d3lm/understand-tensorflow-by-mimicking-its-api-from-scratch-faa55787170d)能够帮你深入了解 TensorFlow 的工作原理。
Christian Perone 为 PyTorch 设计了一个项目
。Fast.ai 还发布了一个名为「NLP 入门」的课程,并附带一个播放列表。主题范围从情感分析到主题建模再到 Transformer。视频链接:https://www.youtube.com/playlist?list=PLtmWHNX-gukKocXQOkQjuVxglSDYWsSh9Xavier Bresson 的演讲可以帮助理解用于分子生成的图卷积神经网络。演讲链接:https://ipam.wistia.com/medias/excbyr8gvv;PPT :http://helper.ipam.ucla.edu/publications/glws4/glws4_16076.pdf。讨论如何预训练 GNN 的论文:https://arxiv.org/abs/1905.12265在图网络的主题中,一些工程师使用图网络来预测分子和晶体的特性:https://www.eurekalert.org/pub_releases/2019-06/uoc–eug060719.php。Google AI 团队还发布了一篇出色的博客解释了他们如何使用 GNN 进行气味预测。博客链接:https://ai.googleblog.com/2019/10/learning-to-smell-using-deep-learning.html如果你对使用 Graph Neural Networks 感兴趣,这里是各种 GNN 及其应用的全面概述:https://arxiv.org/pdf/1812.08434.pdf这是约翰霍普金斯大学的 Rene Vidal 等无监督学习方法的视频的播放列表:https://www.youtube.com/playlist?list=PLFInMJnvb3owAddRh4qk2gCX25kGLDay-如果你有兴趣将预训练的 TensorFlow 模型转换为 PyTorch,可以看 Thomas Wolf 的这篇博客:https://medium.com/huggingface/from-tensorflow-to-pytorch-265f40ef2a28想了解生成型深度学习吗?David Foster 写了一本很棒的书,教数据科学家如何应用 GAN 和编码器-解码器模型来完成绘画、写作和作曲。电子书链接:https://www.oreilly.com/library/view/generative-deep-learning/9781492041931/;这是本书随附的官方代码:https://github.com/davidADSP/GDL_code,其中包含 TensorFlow 代码。利用(https://github.com/MLSlayer/Generative-Deep-Learning-Code-in-Pytorch)也可以将代码转换为 PyTorch。该 Colab 笔记本包含一些代码块,用于实践和了解因果推理概念,例如干预(intervention)、反事实等。链接:https://colab.research.google.com/drive/1rjjjA7teiZVHJCMTVD8KlZNu3EjS7Dmu#scrollTo=T9xtzFTJ1Uwf这是 Sebastian Ruder,Matthew Peters,Swabha Swayamdipta 和 Thomas Wolf 提供的 NAACL 2019 的「自然语言处理中的转移学习」教程的材料。材料链接:https://github.com/huggingface/naacl_transfer_learning_tutorial。他们还提供了配套的 Google Colab 笔记本:https://colab.research.google.com/drive/1iDHCYIrWswIKp-n-pOg69xLoZO09MEgfJay Alammar 的另一篇很棒的博客关于
数据表示
的主题。他还写了许多其他有趣的插图指南,包括 GPT-2 和 BERT。Peter Bloem 还发表了非常详细的博客,解释了构成 Transformer 的所有要素。博客链接:http://peterbloem.nl/blog/transformers
这是 Mihail Eric 撰写的关于 ACL 2019 NLP 趋势的精彩概述。包括将知识注入 NLP 体系结构、可解释性和减少偏见等。文章链接:https://www.mihaileric.com/posts/nlp-trends-acl-2019/。如果你感兴趣,这里还有另外几个概述。链接 2:https://medium.com/@mgalkin/knowledge-graphs-in-natural-language-processing-acl-2019-7a14eb20fce8和链接 3:http:/ /noecasas.com/post/acl2019/ 。斯坦福(CStan)发布了 CS231n 2019 版的完整课程大纲。课程链接:http://cs231n.stanford.edu/syllabus.htmlDavid Abel 发布了 ICLR 2019 的概述。文章链接:https://david-abel.github.io/notes/iclr_2019.pdf。他也提供了
NeurlPS2019 的综述
。李沐的《
动手学深度学习
》是一本很棒的书,它向读者介绍了有关深度学习的相关内容。
关于 BERT、ELMo等用于迁移学习 NLP 的插图指南链接如下:http://jalammar.github.io/illustrated-bert/
Fast.ai 发布了 2019 年版「面向程序员的实用深度学习」课程。课程链接:https://www.fast.ai/2019/01/24/course-v3/由 Pieter Abbeel 和其他教授设计的这门课程,可以帮助你了解关于深度无监督学习的知识。课程链接:https://sites.google.com/view/berkeley-cs294-158-sp19/homeGilbert Strang 出版了一本
与线性代数和神经网络有关的新书
。电子书链接:http://math.mit.edu/~gs/learningfromdata/「Scipy 讲义」是一系列课程,教你如何掌握 matplotlib,NumPy 和 SciPy 等工具。课程链接:https://scipy-lectures.org/这里还有一份关于理解高斯过程的优秀课程。课程链接:https://peterroelants.github.io/posts/gaussian-process-tutorial/这是一篇必读的文章,其中 Lilian Weng 深入探讨了通用语言模型,例如 ULMFit、OpenAI GPT-2 和 BERT。文章链接:https://lilianweng.github.io/lil-log/2019/01/31/generalized-language-models.htmlPapers with Code 是一个网站,显示了精选的带有代码和最新成果的机器学习论文列表:https://paperswithcode.com/Christoph Molnar 发布了第一版的《可解释性机器学习》,该书涉及用于更好地解释机器学习算法的重要技术。链接:https://christophm.github.io/interpretable-ml-book/David Bamman 发布了完整的课程提纲以及加州大学伯克利分校自然语言处理课程的 PPT。课程链接:http://people.ischool.berkeley.edu/~dbamman/nlp18.html伯克利发布了「应用 NLP」类的所有材料。链接:https://github.com/dbamman/anlp19Aerin Kim 是 Microsoft 的高级研究工程师,她撰写了与应用数学和深度学习有关的文章,主题包括条件独立性、伽玛分布等。文章链接:https://towardsdatascience.com/@aerinykimTai-Danae Bradley 撰写了博客,讨论了
如何理解矩阵和张量
人工智能中的道德学可能是今年人工智能系统中讨论最多的方面之一,其中包括围绕偏见、公平和透明度等方面的讨论。本节提供了有关该主题的有趣故事和论文清单:「Does mitigating ML\’s impact disparity require treatment disparity?」一文讨论了通过对真实数据集进行实验且应用不同学习过程的结果。文章链接:http://papers.nips.cc/paper/8035-does-mitigating-mls-impact-disparity-require-treatment-disparityHuggingFace 发表了一篇文章在人工智能对话中开源 NLP 技术背景下的问题。文章链接:https://medium.com/huggingface/ethical-analysis-of-the-open-sourcing-a-state-of-the-art-the-art-conversational-ai-852113c324b2随着我们继续将 AI 的技术引入社会,探究在 AI 研究中的作用是一项重要的工作。下面的论文提供了「相关的研究在领先的人工智能、机器学习和机器人领域的应用」的分析。文章链接:https://arxiv.org/abs/1809.08328在 NAACL 2019 上发表的论文讨论了除偏方法如何掩盖词嵌入中的性别偏见。文章链接:https://arxiv.org/abs/1903.03862可以听听 Zachary Lipton 在他的论文《Troubling Trends in ML Scholarship》中做的演讲:https://www.youtube.com/watch?v=A2Jtqi_oa2Y]。附摘要:https://medium.com/dair-ai/an-overview-of-troubling-trends-in-machine-learning-scholarship-582df3caa518Gary Marcus 和 Ernest Davis 发表了他们的书《重启人工智能:构建我们可信赖的人工智能》。本书的主题是讨论实现强大的人工智能必须采取的步骤。链接:https://www.amazon.com/Rebooting-AI-Building-Artificial-Intelligence/dp/1524748250关于 AI 进步的话题,François Chollet 也写了一篇令人印象深刻的论文,提出更好的方法来测量智力。文章链接:https://arxiv.org/abs/1911.01547由 Andrew Trask 提出的有关差异化隐私、联合学习和加密 AI 等主题的 Udacity 课程链接如下:https://www.udacity.com/course/secure-and-private-ai–ud185关于隐私主题,Emma Bluemke 撰写了一篇很棒的文章,讨论了如何在保护患者隐私的同时训练机器学习模型。文章链接:https://blog.openmined.org/federated-learning-differential-privacy-and-encrypted-computation-for-medical-imaging/在今年年初,Mariya Yao 发布了一份关于 AI 的综合研究论文摘要。尽管论文参考清单来自 2018 年,但它们今天仍然适用。文章链接:https://www.topbots.com/most-important-ai-ethics-research/原文链接:https://medium.com/dair-ai/nlp-year-in-review-2019-fb8d523bcb19原文 PDF:https://github.com/omarsar/nlp_highlights
用户评论
终于看到国产CPU有了一点作为!这款华为D1四核XL感觉还不错啊,特别是续航能力真扛住了。平时玩游戏、看视频都不会卡顿,价格也比之前贵很多的型号便宜很多哈。
有17位网友表示赞同!
我一直在用英特尔手机,这次换成华为D1四核XL感觉有点不一样!处理器跑得更快,充电速度明显提升了,屏幕也很清晰流畅。虽然说国产CPU才刚刚起步,但这款手机给我的感受很好!
有14位网友表示赞同!
看了评测后还是蛮期待的,华为D1四核XL价格确实很良心,性能也不让人失望。不过我比较关心的是相机表现,听说最新的影像芯片也挺厉害的。等实体机出来可以去店里体验一下。
有13位网友表示赞同!
想问下这款华为D1四核XL手机拍照怎么样?网上只看到处理器评测,关于其他方面的评价比较少。期待后续更多详细的内容和用户使用反馈!
有20位网友表示赞同!
价格这么便宜还有四核处理器真的不错啊!感觉像是一个性价比之王,很多果粉都应该可以考虑下这款电话了。当然华为还要继续提升手机拍照表现,这才是关键吧!
有7位网友表示赞同!
看了评测后有点纠结,说好的国产CPU发威呢?其实我觉得区别不大,运行内存也还是8GB,我更看重的其实是屏幕和音质方面。不知道这款手机在这两个方面怎么样?望店家能给出更多细节信息。
有14位网友表示赞同!
终于盼来了国产四核芯片!华为D1四核XL算是开了个好头啊!希望以后越来越多的国产品牌加入进来,这样才能让消费者有更多的选择!
有18位网友表示赞同!
这款手机价格确实比较吸引人,性价比很高。但是我之前用过别的品牌的三核处理器就感觉挺流畅的,为啥要加一个多余的核心?希望能看到更多针对不同用户的细节评测,告诉我该不该购买。
有12位网友表示赞同!
国产CPU发威!华为D1四核XL确实表现不错,特别是跑分和游戏体验都很强。希望以后这颗芯片能应用到更加高端的手机中,让我也能体验到顶级的性能和流畅度!
有18位网友表示赞同!
还是挺期待这款手机的,毕竟是国产CPU首次突破,希望华为D1四核XL能够打动更多用户,并且在市场上获得成功。同时,也希望能激励其他品牌厂商加快研发脚步,为消费者带来更加优秀的产品选择。
有10位网友表示赞同!
虽然这款手机四核处理器性能不错,但对于游戏玩家来说,还是需要更高的帧率和更稳定的操控体验。希望华为未来能够针对这方面进行优化,提升这款手机的电竞表现。
有16位网友表示赞同!
作为一个轻度用户来说,我觉得这颗国产CPU完全足够用了!价格也很亲民,性价比超高!
有19位网友表示赞同!
我一直都在用安卓手机,喜欢尝试不同的品牌和技术。这次华为D1四核XL让我感觉还不错,希望国产 CPU能够越来越强大!
有8位网友表示赞同!
看评论说这个新款处理器比上代的强很多,那这款手机的续航能力应该也会提升了吧?期待体验一下!
有20位网友表示赞同!
国産CPU發威!雖然一直以來使用蘋果的手機,但這次有點想要嘗試看看這款华为D1四核XL。希望實際體驗能讓我感到滿意!
有14位网友表示赞同!
说实话,我对国产处理器不太感冒,一直在用国外品牌的手机。这款华为D1四核XL的评分看起来还不错,不过我还是会谨慎观察下实际使用体验再说。”
有13位网友表示赞同!
价格这么便宜,居然还有最新的四核处理器!感觉这个华为D1四核XL已经很有竞争力了,性价比很高啊! 期待后续评测和用户反馈。
有6位网友表示赞同!
这款华为D1四核XL的做工怎么样?屏幕是AMOLED还是LCD?希望设计方面也能够达到让人惊艳的效果。
有14位网友表示赞同!