大模型人工智能翻译软件会替代人类吗?有什么好用的大模型人工智能翻译软件工具?

2023年12月24日,全国通用人工智能创新应用大赛总决赛在安徽省芜湖市举行。这是中国计算机学会和安徽省科技厅共同主办的科创大赛,吸引了全国300多个项目团队参赛,80支队伍进入复赛,安徽省外团队占比超过80%,20支队伍晋级总决赛。最终的冠军是合肥中聚源智能科技有限公司,他们研发了一套关于心理健康的软硬件产品,通过普适化的感知,对人的心理健康进行全周期的实时监护。不久前的3月17日,我就和中聚源董事长孙晓教授以及若干位心理学界、人工智能界、产业界等领域的专家一起做了一场直播(https://weibo.com/3710258141/O5ruZ8QVl),引起了大家的广泛兴趣。本届大赛将给予获奖项目团队现金奖励、融资支持、宣传推广以及中国计算机学会相关奖励,在安徽落地的优秀获奖项目团队还将获得最高达3000万元的综合支持,合肥、芜湖、宿州都有项目签约。这些盛况反映出,人工智能大模型不仅是通过对话让人们感到惊奇,而且已经开始有不少项目落地了。这一切的关键,是大模型出现了神奇的“涌现”现象。我的朋友、风云学会会员陈经就是一位人工智能专家,他写了一篇长文《人工智能大模型神奇的“涌现”到底是什么?》(https://mp.weixin.qq.com/s/EptWh_GE2x9CjRvw69vUGA)。下面,我就向大家来介绍一下。一、人工智能再度爆火2023年的人工智能,火得有些出人预料。本来人们以为,人工智能又该到寒冬了。2016年初,AlphaGo下围棋战胜人类,引发了多年来最大一波人工智能热潮,以至于各种懂的不懂的都到处谈人工智能,好像不谈你就out了。但是之后热度就逐渐下降,正如许多业界人士揭示和预期的,深度学习有能力也有缺陷,不宜寄望太高。例如自动驾驶成为研发大坑,许多公司投入巨大却难于突破。人工智能创业公司估值下降,风投在找突破口。这一切看上去都很正常,符合技术发展规律,因为历史上很多技术就这样起起落落过很多次了,尤其是人工智能。但2023年人工智能大模型、AIGC的横空出世,打破了这个一般规律。例如周鸿祎11月30日分享了去硅谷的见闻,称“投资者对于没有AI概念、没有AI功能、没有AI成分的公司已不会考虑”,“美国在赌人工智能这件事,整个投资体系、创业体系、大公司体系、传统公司体系都在全面拥抱AI。”从产业和技术影响来看,2023年的人工智能热潮力度,已经超过了2016年。这是为什么呢?很多研究者相信,这是发生了几十年未见的、科学原理级的重大突破,不能单凭经验去评估。这个大突破,就是人工智能大模型的能力“涌现”(emergence)。下面我们来解释,什么是“涌现”,它的意义有多大。二、深度学习是一次科学突破“涌现”科学突破中,最为人熟知的领域是物理。从文艺复兴时期的伽利略实验、牛顿三定律,到二十世纪上半叶的相对论、量子力学,新的物理现象、物理定律不断被发现,有的还带来产业革命。从二十世纪下半叶开始,重大的物理发现明显减少。有人认为,人类社会科技停滞了,在有些方面甚至还倒退,如登月。但是,如果从涌现的角度去分析,就会有不同的感受。物理学新现象少了,人类科技也不会停滞。在生物、IT等领域,不断有令人兴奋的新发现。科学规律与现象不应该有等级高低的分别,只要能带来认识世界、改造世界的新能力,都是原理级突破。人工智能大模型表现出来的能力涌现,可以类比于人类发现了电力,出现了让人激动的全新现象。业界人士正以几十年没见过的科学激情,探索新世界。在上世纪五六十年代,感知机等简单结构、人工编写算法程序下棋,已经让学者们意识到,人工智能是一个新的科学领域了。但由于神经网络结构过于简单,人工代码编写AI程序困难,算法复杂度指数上升,人工智能遭遇了低谷。日本八十年代选择人工智能作为“第五代计算机”的突破方向,最后彻底失败,技术资料变得一钱不值。另一个著名的失败,是“异或问题”。明斯基等人指出,单层的感知机通过调整神经网络系数,可以对两个输入值的与、或、非成功输出;但不管如何调整系数,也无法输出异或的结果。为什么呢?看这个图就明白了。感知机是要划一条线把0和1分开,但现在0和1在四个角交叉放置,所以不可能有一条直线把0和1各放一边。推广来说,如果两种模式通过一个超平面“线性可分”,感知机就能训练收敛,但实际应用中绝大部分模式识别问题是非线性的。线性可分的问题能用神经网络训练成功,其实是个新现象。上万亿个系数的大模型,其基本特性在最初的感知机中都可以找到,调整系数、加减乘除简单运算、数值结果解释输出。但这只是马后炮,由于当时的认识局限性,学界普遍把神经网络看成意思不大的玩具,对应1974 - 1980年的第一次人工智能寒冬。八十年代以来,杨立昆、辛顿、本吉奥等人引入多层神经网络和反向传播算法(Back Propagation,简称BP),成功实现了手写数字识别等成果,有了邮政编码识别、支票识别等实际应用。由于计算机性能上升,人工代码精心编写的下棋程序大有进步,IBM的深蓝战胜了国际象棋世界冠军卡斯帕罗夫。这段时间的人工智能可以算是小有成就,但在当时的IT大潮中,显得不太突出。这对应1987 - 2016年的第二次人工智能寒冬。从投资角度看,人们热衷于软件开发、通信、互联网、手机APP等,人工智能不算热门。深蓝的开发代价很大,战胜卡斯帕罗夫之后封存,后续发展和技术影响不大。人们认识到,靠人工代码编写人工智能算法,会被博弈问题的指数复杂度卡住,专家系统逻辑能力有限,难以应对复杂问题。这种“符号主义”的发展路径,是当时人工智能的主流,有些顶尖成果代表业界,但前进方向迷茫。后来大放光彩的深度学习、大模型,在这个阶段已经有了基本结构和训练框架。多层神经网络前后连接,对应人工智能的“连接主义”。前向传导计算出最终节点的结果,与样本对比产生“误差”,一层层反向传播回去,用“梯度下降”等方法反复修改系数,让误差降低,优化整体的“损失函数”。这些并不复杂的基本技术,通过反复训练将损失函数降到极低,就能产生惊人的模式识别效果,将手写数字等简单模式识别出来。但是这个阶段的多层神经网络,能力还是有限,稍复杂的图像模式识别问题就表现不佳,限制了技术应用。2016年人工智能热潮忽然兴起,是因为AlphaGo在符号主义无能为力的围棋问题上战胜了人类顶尖棋手,大大出乎预料。其实对业界人士来说,技术上算是水到渠成,是各种技术因素的组合成果,有传统的MCTS(蒙特卡洛树搜索)博弈搜索算法,也有深度神经网络、强化学习、对抗生成网络(GAN)等新技术。结果很好,但技术并不算太有突破性,不少个人开发者都开发出了实力强大的围棋AI。对业界来说,2012年的图像识别神经网络AlexNet的基础意义更大。AlexNet三人开发团队包括导师辛顿,还有两个学生,其中一人就是ChatGPT的技术核心Ilya Sutskever,他也参加过AlphaGo的开发。AlexNet依靠深层卷积神经网络,在ImageNet图像识别大赛中,错误率一举降到15%,相比其它技术的30%有了巨大突破。这是真正让业界兴奋的进展:深度学习展示了它的神奇。深度学习让业界从迷茫中找到了方向。计算机硬件速度不断提升,还有GPU并行加速,训练数据量也在迅猛增加。突破了瓶颈之后,深层神经网络的能力就一下“涌现”了。短期内,深度学习成果就席卷了几乎所有科学领域,人们的经验被构建、被训练,来到各种神经网络结构中。机器翻译质量突飞猛进,人脸识别能力惊人,绘画以假乱真。这些进展其实在AlphaGo出现之前就发生了,社会知道“深度学习很厉害”,但没想太远。这是一次真正科学意义上的“涌现”。计算机之前是作为工具帮助各科学领域的研究,主导的还是领域专业知识。但是忽然一下,各学科发现,连研究范式都变了。这次深度学习的“涌现”,有两层意思。一层是说,随着神经网络规模、训练机器速度、样本数量不断增加,到了一定规模以后,忽然从量变到质变,神经网络能力跃升“涌现”,把图像识别效果大幅提升。另一层是说,深度学习在图像识别领域表现极好,这个能力还迅速推广到了其它计算机领域,甚至改变了其它学科,能力的应用范围也涌现了。有意思的是,人们对AlphaGo关注极大,是因为终极意味的“智能”。许多人想象中,一个人形机器思考着击败了人类棋手,人类的最后堡垒“智慧”被证明不如机器,工作将被机器取代,引发了很多哲学与社会思考。但AlphaGo代表的人工智能技术,与智能本质并无太大关系,是“人工”造出来的假象,它只是巧妙地模拟了一个复杂的计算任务。社会慢慢习惯了之后,人工智能的能力边界清楚了,2018年后关于机器智能的讨论迅速降温,似乎又要回到寒冬了,投资热度下降。其实对业界来说,2016年人工智能爆火之后并没有寒冬。开发者积极在各种领域应用深度学习,研究者探索新的神经网络架构、训练方法,不断有成果出来,领域非常活跃。只是外界认为“没那么神奇”,感觉平淡了。按照明斯基式的数学理解,这次深度学习的突破,就是用极多的系数(几百万至上亿个),构建了规模很大的数学公式,去拟合逼近了围棋、图像识别等复杂问题的解空间。从能力最简单的“直线分割平面”发展成,用规模极大形状复杂的超空间曲面去分割空间。而构建方法,是统计拟合,通过海量样本对比统计误差,反向传播修改系数减小误差,多次学习后误差降到极小,数值模拟成功。样本可以是人工标注的,也可以是自动生成的,硬件基础是GPU加速并行计算(几千个计算核心)。陈经与人文学者交流时,把统计模拟的数学意义解释清楚,对人工智能就“祛魅”了,神奇的“智能”感觉消失了。而且这个统计模拟显然会有缺陷,因为它没有坚实的逻辑基础。它的成功是统计性的,什么时候出现bug难以预料。例如AlphaGo,你认为它彻底战胜了人类吗?其实并没有!2023年2月日本芝野龙之介二段执黑对围棋AI绝艺,人类就战胜了AI。黑棋诱导白棋走出一块转圈连上的棋,内部包围了黑棋一块活棋。白棋以为自己是活棋,但人类棋手很容易就看出它其实造不出两个眼,是死棋!这就是因为AI在训练中极少出现这样的棋形,所以它对死活产生了错觉,最后大块走死认输。业界认为,所有围棋AI都会有这个bug。这种例子在各领域都有。以深度神经网络为基础的模式识别,会有难以消除的缺陷,应用于自动驾驶等安全领域会有很大的麻烦。某种程度上,这也是“第三次人工智能寒冬”说法的技术根源,达不到预期,一些研究者感到迷茫。三、第二次人工智能“涌现”:大模型正当业界普遍认为人工智能短期不会再有更大突破时,更大突破却来了!人工智能的突破,往往是从一些看似简单的任务开始。这次的大模型,就是从一个“简单”的任务开始:预测下一个词说啥。“语言大模型”的基本操作,就是一个接一个地往外吐词,形式上就是这么简单。过去的聊天机器人、作诗机,人们也见识过,并没有太特殊,没想到在这个领域发生了巨大突破,可能会产生真正的“智能”。GPT是Generative Pre-Trained Transformer,其中Transformer就是一种神经网络结构,2017年发明后,在机器翻译这个任务中证明了能力。它并不复杂,只是数量特别多,用来存放几千亿个系数。Generative是生成式,GPT会生成对话文字等内容,近期爆火的图片、视频软件也都是生成式应用。Pre-Trained是“预训练”,一个理解就是把整个互联网那么大规模的语料文本,交给Transformer去学习,后来又增加了语音、视频材料,多模态。语料甚至不用人工标注(选择去除有害内容是另一回事),预训练就是让GPT预测文本语料中的下一个词,不准就反向传播调整系数。这个任务听上去很简单,但是想想看,GPT会从中学到什么?这就不简单了。要注意,研究者将机器的存储与训练算力狠狠扩张,足以处理整个互联网这么多的语料。一个传统观察是,学习语料,能让机器学到“语法”和“语义”。在NLP(自然语言理解)领域的机器翻译任务,人们就深有体会,研究者用人工代码去实现语法、对单词建立对应关联,是死路一条,翻得很丑陋。而机器对着训练文本自动学习,就能把一门语言的语法、单词间的语义关联建立起来,翻译得像模像样。它知道一些单词经常一起出现,出现时有什么条件,这些关系都记在神经网络系数中。Transformer数据结构就是能对一句话中的单词,方便地建立关联。即使机器翻译得很好了,人们也知道,机器并不理解这些话是什么意思。按数学理解,机器是把一段话用encoder编码了,然后再用decoder解码成另一种语言,它是一种编码、解码的算法。实际上,在翻译机器看来,它面对的只有一些“token”(记号),这些token互相有关联,实际是什么它不用知道。就象有确定答案的围棋一样(完全信息博弈),翻译的输出也是相对确定的,是较为“容易”的任务(人类总是这样,解决了就认为容易了)。但是GPT预训练的任务不是翻译,而是预测下一个token,这比翻译难得多。想让接下来的文本序列合理,它需要了解“事实”,甚至学会“推理”!这时,在人工智能领域,就“涌现”了真正让人震惊的科学新现象。以科大讯飞星火大模型为例,我们来问它:从西安开车30分钟为什么没到北京?它的回答是:从西安开车30分钟不可能到达北京,因为两地之间的距离非常远。这个回答就很有水平。理解“开车没到”,就会引入“时间”与“距离”,然后再根据距离,去关联西安与北京,还要引入“速度”,最后组合出答案。这个过程直觉上就不简单,形式上真的像是在推理。有很多这样的案例,让人们相信机器真的有了强大的推理能力。OpenAI的人说,有时不知道GPT4是怎么推出来的,里面的机制真的很神奇。当然GPT也有很多逻辑缺陷,人们诱导出机器离谱的回答不难。但是从科学发现的角度看,只要新现象可以重复,即使应用需要条件、有缺陷,也是很不错的突破。以前,研究者认为聊天机器人只是形式上的语言模仿者,从未发现机器有如此强大的推理能力。看多了GPT的对话就能感觉到,机器的数据结构中真的蕴含了推理能力,不可能靠模仿出来。对新现象兴奋,而非更关注离谱的缺陷,正是研究者区别于普通人的特质。物理学家对可能的“新物理”极为关注,有点蛛丝马迹都扑上去一堆分析,往往以失望告终。人工智能研究者当然也会关注“机器推理能力是如何产生的”,所以大公司都扑上去了。研究大模型需要的算力、存储、资金等硬条件很高,比深度学习高得多,否则研究者会更多。但中美两国的大模型数量已经非常多了,这种“大发现在前方”的集体兴奋是从未有过的。短短10年内,人工智能领域就出现了两次科学原理级别的“涌现”,深度学习一次,大语言模型一次。也许外界不清楚意义,但业内人士真的产生了前所未有的热情。大模型是如何学会推理的?这是可以描述的。一个类似的例子,是围棋AI学会“征子”。AI的训练是不断进步的,一套“权重”对应一个版本。像围棋这种有胜负的游戏,可以让AI从什么也不会开始,让各版本“自对弈”对战,并根据对战结果改进权重,表现好的权重成为胜利者继续发展。这个训练可以是分布式的,LeelaZero就是由众多爱好者贡献机器自对弈更新权重的。在训练中,爱好者们明显发现,常规的围棋战术,如打吃、提子、逃跑,AI各版本能很快学会,但是征子很难学会。因为它涉及相隔很远的棋子之间的斜向关系,能不能扭来扭去吃掉,对AI很难。但时间长了,就会有某个幸运的权重版本,学会了判断征子,而且会利用这个能力,对其它不会征子的版本大杀四方。学会征子,围棋AI的神经网络结构要足够大,如20层可以,10层不够,要训练很多盘自对弈。GPT的预训练实现推理能力,也是这样的。首先网络结构的规模要大,OpenAI从GPT2到GPT3、GPT4,不断扩大规模,几千亿个系数,规模够了。然后训练语料要多,训练时间要长。剩下的,就是看GPT的能力怎么逐渐冒出来,和围棋AI的自对弈训练一样,简单的能力先学会,复杂的后学会。让人震惊的科学发现是:GPT3在预训练中学会了很复杂的推理!这就如同AlexNet对于深度学习的意义,让业界认识到了大语言模型的极大潜力。可以这样理解,有一些GPT预测文本的任务,如果不会推理,肯定是做不好的。做不好,“损失”数值会比较大。GPT反复训练,不断用各种办法修改权重,试图降低“损失”,终于在某个时刻,把“损失”降下去了。而这就等价于,GPT具备了推理能力,输出像模像样了。其实人类学习推理也是这样,你会了,考试就能过,不然就过不了,蒙不过去。至于人类怎么学会的,每个人有自己的方法,考试和应用才是评判标准。哲学上,有人说机器不是在推理,是在计算模仿,不是智能,但这说不清。公平的评判是,机器完成了需要推理的任务,就是有了推理能力,并且掌握了很多推理需要的“事实”。OpenAI没有发论文公布GPT3、GPT4的技术细节,有些训练技术人们只能猜测。但业界总会有交流,员工也会被挖走,技术不可能一直是独家的,因此一些认知逐渐成为业界共识。GPT的成功在于搞出了“涌现”,这就是业界的共识。这次GPT的涌现,还特别有哲学意味,比深度学习那次的涌现,有更多可以说的。1. 类似于深度学习,网络规模、语料、机器速度、训练时间不断增长,最终新的能力就涌现了,量变引发质变。这是常规的预期,人们之前只是不确定基于Transformer的GPT能否成功,不想极大投入。这一关已经过了,无数公司愿意砸大钱了。2. 不同于AlexNet的单一任务,GPT有很多任务的文本输出表现要提升。它可能对某些场景表现得不错,而对另一些考验复杂推理甚至数学能力的场景,就表现糟糕。所以GPT的涌现并不是一次性的,而是各种类型的任务能力,从易到难,逐渐提升。也就是说,GPT的涌现本身就很有多样性,有很多值得探索的细节。3. GPT的涌现,还没有到终点。当人们发现“量变引发质变”的好事发生时,已经很激动了。也许只是几个小任务的成功,就能让人们确信这一点。但继续训练,就发现好事越来越多,人类文本蕴含的任务种类是无穷无尽的,难度会越来越大,考验非常多种能力。GPT框架到底有多强大,人们还不清楚,这种未知感更让人兴奋。就像在山洞里寻宝,知道有宝贝,但不知道是什么类型的宝贝,这会招来更多寻宝者。而深度学习的涌现就容易判断,它再训练也不会更好了,因为整个过程都熟悉了。4. GPT的规模,还应该继续扩大,从千亿参数扩展到万亿参数,乃至更高。一般的深度学习任务,网络规模够了就行,再扩大也意义不大,反而可能“过拟合”。但是GPT要记忆人类社会的“事实”信息,几千亿个系数规模显然不够。虽然它可以进行“信息压缩”,但这会损失信息。另一个直觉是,网络规模扩大后,GPT的“潜能”也会增加,在复杂的启发式知识海洋中游荡,发现深层的相关性。了解了以上的GPT涌现特性就能明白,研究者的兴奋是超过深度学习那一波的。一些激进的学者认为,GPT架构就蕴含了真正的智能,真的开始思考人类被机器毁灭的事。一个有些奇怪的事情是,OpenAI花了相当多的精力去进行AI安全的研究,甚至导致公司内部“政变”式动荡。GPT的涌现,确实很有人类的智慧特性,多样、复杂、难以预测、潜力无限。因此,这肯定是目前最接近“通用人工智能”(AGI)的一次。外界对于GPT的涌现不够了解,容易低估它的科学发现意义。很多人只是关注聊天表现,对AI表现的强大推理能力赞叹,或者对AI一本正经地胡说八道感到震惊。外行容易认为,对GPT的研究主要就是让它聊得更好,更没有破绽。实际上,对于GPT的研究核心,应该是探索更多的“涌现”细节。微软、谷歌等大公司在试更大的模型,直接目的并非是想让AI聊得更好,而是探索令人着迷的“涌现”。也许通过不断催生GPT的涌现,最终通向了AGI,也许如杨立昆预测的,这条路不通。但无论如何,现在不是关注缺陷、完善产品的时候。也许等GPT的能力边界探索清楚了,开发者就可以回过头来,用能力去开发,想办法避免缺陷。值得注意的是,2022年初GPT3已经出现了很成功的“涌现”,甚至GPT4在2022年8月就已经预训练出来了,但只有少数专业人士惊叹,没有爆火。直到ChatGPT通过RLHF(人工反馈的强化学习),将输出语言调试得让人类感觉舒服,才在2022年底引爆了全球关注。这说明人类很容易受“表象”的影响,即使是专业研究者也未能免俗。深度学习是真的“涌现”突破,但是在新闻界远不如AlphaGo与人类对战轰动。GPT3、GPT4的预训练是让“涌现”不断出现的研发框架,潜力无限,但是RLHF的效果更引起外界的关注。对于国产大模型也是如此。上百家在开发,即使一些国产大模型规模不是很大,对模型特性的探索也是有益的,能够发现GPT涌现的特性,也许能加快涌现的发生。不用太在意国产大模型的缺陷,这不可避免,原因可能有多种,语料准备不够、训练时间不够、算法细节问题等等。但重要的是,搭起了大模型研发框架,探索涌现的细节,总会有收获。对于大模型的应用生态,不应该把大模型只当成聊天机器人,这限制了想象力。GPT涌现出的推理、数学、信息压缩、多模态、内容生成等多种能力,打开了全新的研发架构。就像深度学习,它既是探索框架,也是应用架构。美国大公司正试图用GPT改造整个软件体系。大公司会像军备竞赛一样,继续扩大GPT的规模。更为普遍的行为,是开发工具链,将GPT应用做起来,让开发者加入进来,在各行各业应用GPT涌现出的能力。后者才是中国更应该学习、也更有优势的领域。对于国产大模型的基础能力,我们并不担心。例如科大讯飞的星火大模型3.0,评测认为接近ChatGPT的水平,准备在2024年5月推出接近GPT4的星火4.0。大模型评测是一个重要研究领域,标准还不是很统一,但显然国产大模型能力在快速进步,与美国的差距最多也就两年。对于某个问题,如果国产大模型的回答不如ChatGPT,舆论就会很关注,但其实应该更关注涌现。如果中国公司的研发架构,能让各类涌现不断发生,那么本质上中美就在同一个赛道竞争。也许美国大模型已经实现了4级涌现,中国还只有3级,美国公司还消除了更多的bug,但随着中国公司对涌现的研究越来越深入,这些差距都会补上。真正影响大的,是大模型的应用生态。没有生态,公司的大模型研发会难以为继,就连OpenAI都觉得大模型开发运维太花钱了。如果中国公司做起大模型应用生态了,就能迭代开发,针对性地改进行业应用中的缺陷,这是中国公司的拿手好戏。有些应用能成功,即使基础技术不那么强,但抓住了行业痛点,应用推广了,生态做起来了,反过来又带动基础技术提升。安徽的通用人工智能发展规划(https://kjt.ah.gov.cn/kjzx/tzgg/121837851.html)对此就表现出了深入的理解,“力争到2025年,充裕智能算力建成、高质量数据应开尽开、通用大模型和行业大模型全国领先、场景应用走在国内前列、大批通用人工智能企业在皖集聚、一流产业生态形成,推动我省率先进入通用人工智能时代”。中国的产业发展历史,本身就是一个不断“涌现”的过程。2000年以来,中国的众多产业奇迹般地不断崛起。陈经从2013年起就一直在鼓吹合肥市,写过很多文章。合肥确实是全球城市中增长最快的,2022年GDP相比2000年增长了37倍,涌现出了多个千亿产业集群,如新型显示、集成电路、新能源汽车。即使已经鼓吹多年,仍然会不断被安徽与合肥的发展震惊。如安徽2023年汽车产量249.1万辆,成为全国第二,仅次于广东。这次通用人工智能大赛总决赛在芜湖举办,当地的奇瑞2023年生产了188万辆汽车,出口爆发增长,2024年要冲击400万辆。合肥2022年新能源汽车产量25.5万辆,同比增133%,2023年74.6万辆,再增140%。合肥把比亚迪、大众、蔚来都吸引来了,目标是2025年新能源汽车产量200万辆,2027年340万辆!用GPT来类比,中国的发展机制在改革之后,换成了Transformer(这个词本身就有变革的意思),就发生了不可思议的产业“涌现”。了解了GPT的“涌现”,再看美国政府打压中国人工智能,连4090显卡都不让卖了,就能明白,美国政府这是在赌,认为通用人工智能会有大突破。美国商务部长雷蒙多赤裸裸地说,要拖慢中国人工智能的发展。但中国也是有备而来,华为、科大讯飞等成为人工智能行业与美国斗争的排头兵。科大讯飞因为被美国放入实体名单,花了小半年的努力去适配国产GPU,这在全国是领先的。华为云建设了三大AI算力中心,其中一个就在芜湖。产业发展是有历史记忆的,已经实现产业“涌现”的地区,在新兴产业政策的规划、实施上就有优势。通用人工智能的发展,我们同样祝福安徽,看好安徽。
发布于:安徽

豆瓣社区
搜索:
搜索你感兴趣的内容和人...
快速注册2020年4月对于翻译界来说,注定是损失惨痛的一个月:译介学开创者、我国著名翻译理论家谢天振教授于22日逝世;译有《乱世佳人》等名著的著名翻译家陈良廷先生于4月23号逝世,对此致以沉痛缅怀。老一辈翻译人才逐渐凋零,新一辈却还为做好扛起这面大旗的准备,译者青黄不接的时期,机器翻译却搭上科技的便车,开展得如火如荼。随着科技的飞速发展,机器即将取代人工翻译的言论渐渐尘嚣甚上,翻译从业者和语言专业学生人心惶惶,生怕保不住本就不富裕的饭碗。对于机器翻译到底能不能取代人工的问题,不少翻译从业者和高校翻译学教授早已发表了自己的看法,后文会提到,有兴趣的可以去戳文中给出的连接。大家众说纷纭,各有道理。我一一拜读过,也专门去了解了一些机器翻译的知识。在我看来,单纯一刀切式地下结论(可以或者不可以)是非常不负责任的行为(所以大牛们的意见都很保守),翻译本就是非常复杂的语言活动,计算机、统计和AI 技术的涉及使情况变得更为复杂,因此需要具体情况具体分析。先来说说我的结论。在我看来,机器翻译是未来发展的必然趋势,科技的进步势必会淘汰相当一部分翻译从业者,尤其是中低端人才,而高端人才的就业并不会受到影响;在已经拥有一套完整行业语言体系、多使用规范语言的领域,如科技、医疗、法律等专业,机器翻译取代人工翻译几乎是必然;而拥有更多语言的变化、涉及更多创造力和文化背景的翻译领域,如文学翻译和商务谈判,译者则很难被取代。下面来详细说说原因。一部分不认同译者会被机器取代的观点,给出的论据不外乎是机器翻译的出错率高,不够智能(比如机器可以取代人工翻译吗?也许永远没有实现的一天、想干掉专业翻译,AI还得再学50年);而认为机器可以取代人工的观点,所根据的是机器翻译的速度和高性价比(如高校翻译专业将逐渐消亡,不仅仅是因为AI),从而得出高校翻译将会消亡的结论。蔡基刚教授的文章是我所读的这些文章中仅有的详细说明了机器翻译原理的一篇(见高校翻译专业范式转移:从翻译专业(1.0)到语言服务专业(2.0))。俗话说,知己知彼,才能百战不殆。光是根据机器翻译现有的水平来判断50年后、甚至10年后的情况,在科技发展如此迅猛的时代,是非常轻敌的行为。想探究机器翻译到底有没有潜力替代人工,对于机器翻译原理的探究必不可少。机器翻译的原理(这一部分有点枯燥,不感兴趣的可以直接略过看结论)机器翻译的不同发展时期机器翻译的概念起源于美苏冷战时期。为了了解苏联的最新科技动向,美国想要翻译苏联最新发表的前沿学术期刊,在当时,想要组建一支既懂得俄语、又对科技相当了解的翻译队伍十分不易,于是当局便把目光放在了机器上。一开始的机器翻译,是基于语法规则的,即人们先在机器上输入两种不同语言的句子,按照语法结构分析各部分的成分,告诉计算机两者的对应关系,再来进行翻译。这种翻译基于已知的语言规则,缺点显而易见:一是机器必须要知道两种语言的全部语法规则,这明显是不可能实现的,因为语言一直处在发展和变化过程中,因此这种机器翻译只能翻译语法规范的source text,对于不规范source text束手无策;二是这种规则需要人工编写,工作量极大,而且日常的维护和更新极为不便,而且面对复杂的句子,可能会出现多个语法规则相互冲突的情况,十分不智能。因此,基于规则的机器翻译很快遭到淘汰。90年代,科学家提出了基于统计模型的翻译,标志着第二代机器翻译技术的兴起。统计翻译模型的特点是,机器自动从数据库里按给定的模型读取target text,并不需要语言学和语言学家的参与,正确率却较之前提高了很多,因此才有了自然语言处理专家Frederick Jelinek的那句名言——"Every time I fire a linguist, the performance of the speech recognizer goes up"(手动狗头)。基于统计的翻译模型是什么原理呢?假设首先我们有一个足够大的语料库,里面有足够多的人类日常使用的流利的句子。这时候给出一个源语言的句子来进行翻译,基于源语言和目标语言词语之间的对应关系,再加上根据语法、逻辑、日常习惯等顺序的重组,输出的翻译结果可能有无限种。如图:无数种翻译可能那么计算机如何基于语料库选择“最像人话(最通顺)”的最优解呢?假设每个词的出现只与它前面的一个词有关,比如翻译“我爱你”,选定了第一个词后“I”之后,第二个词(比如love)出现的概率就是“I love”在语料库中出现的次数除以“I”在语料库中出现的次数,同理,还可以得出“I admire”、“I adore”、“I like”等搭配的概率。以此类推,得出句子中每个词出现的概率,相乘即是整个句子的概率。得出的数字约接近1,意味着句子越合理,越符合人类的语言习惯。用更简单的话来说,就是以语料库为基础,选择里面出现次数最多的搭配,同时再根据语料库,选择出现概率最大的顺序。语料库越大,翻译准确率越高,假定语料库达到无限大(包括人类某种语言的全部,当然这是不可能的),准确率就可以达到百分之百。(如果觉得我解释的不够清楚,可以戳这里看详细解释:机器翻译小课堂:语言模型、翻译模型、神经网络和神经机器翻译通俗解释)统计机器翻译完全脱离语言知识,只依靠数据和计算就可以完成,省时省力,使机器翻译进入量产阶段,已经可以在工业界进行大规模商用,如果源语言规范而且有足够的语料库支持,正确率也相当可观。当然,它的弊端也十分明显,对语料库十分依赖,对于语境的联系能力不足,调序困难,翻译生硬,这些是反对机器翻译替代人工的一方所抨击的重点。如果这时,机器翻译已经给实用翻译的中低端从业者带来了一定威胁,那么接下来要说的可能会颠覆你对机器翻译的认知。2013年,谷歌和蒙特利尔大学提出第三代机器翻译技术,基于神经网络的翻译,也就是俗称的AI翻译,标志着第三代机器翻译技术的到来。神经网络是一个新词,它主要是指计算机模拟生物神经网络处理信息的方式,通过两个物体已知的联系,在两者之间建立起固定的神经元架构,从而举一反三,可以识别更多类似物体/信息间的联系。比如说,给计算机一张猫的图片,告诉它这是猫,计算机就可以通过分析图片的信息,将各个信息转化成数字,比如猫胡子的长度、眼睛之间的距离、各部分的比例,和猫这种动物建立联系。下次遇到相似数据的图片,就可以自动识别出这是猫。当然,这样的结果还是会有很多不准确的地方,因为图片是千变万化的。如果仅仅是这样,神经网络也不会这么牛B了。神经网络的过人之处在于,它拥有自动学习能力。如果说,使用统计机器翻译,人们仍然需要建立和调整多步骤的统计模型,那么神经网络通过查看训练数据,自己就可以学习如何翻译。循环神经网络的学习过程图示神经网络翻译的过程实际上是一个编码和解码的过程。就像图片识别一样,计算机先将源语言转换成数据,再将数据转化成目标语言,两者之间建立起一定的联系,即多层神经元。通过给机器足够多的双语翻译对等语料库(已完成的互译文本)和双语平行对等语料库(同主题同题材未经翻译的两种语言文本),让机器使用前者进行对齐训练,找到源语言和目标语言之间的联系(进行多层神经元数据的转换,具体怎样操作,目前对人类来说仍然无法分析,就像一个黑盒子),再用后者进行对比和评价(比如按照之前所说的概率对比现有文本,判断翻译出来的句子是否流畅),然后将结果反方向传递回去,进行修正和改进。这种学习能力尤为可怕。一开始,翻译的准确率可能不会太高,结果可能出错,如果出错,机器就会加强造成正确结果的神经元之间的联系,削弱导致错误结果的神经元之间的联系,把每个神经元往正确的方向改动一点点,下一次翻译的时候,正确率就会得到提高,在有足够的语料库、经过反复训练的情况下,正确率可以高得可怕。编码与解码目前神经网络翻译的准确率已经十分惊人当然,神经网络翻译也有其固有的缺点,一是不可解释,如前文所说,机器在原文与译文之间建立的联系就像一个黑匣子,我们无从探知其原理,也就无法进行人工干预;二是容易受到干扰(noise),即源头的一点点细微差异可能会导致结果发生巨大改变,而基于第一点,我们很难得知这种差异是怎么来的,也就无从改进。无法解释的黑盒子神经网络翻译同样不涉及语言本身,对大部分译者来说更像是玄学,是不可信赖的。不认同机器翻译的译者可能会说,翻译远不止语言层面的转换,还涉及背景、文化、情感等等,哪里是区区机器处理得了的?话虽没错,随着未来5G的到来、算力的提升、语料库的扩充,以及专门针对某行业的机器翻译软件的研发,机器翻译的准确率会不断提升,只要稍稍修改一下原文,使之符合机器特定的行文规范,在某些专业领域上的准确率完全可以达到90%以上,甚至是100%。更为可怕的是,机器翻译几乎是在瞬时之间完成,省时高效,性价比极高,对整个社会来说,大大降低了翻译的成本,促进了各方面的跨文化交流,却也将剥夺大部分翻译从业者的饭碗。那么,机器翻译到底能不能代替人类?对于这个问题,我专门请教了达摩院AI研究方面的专家。他给出的答案是肯定的。他告诉我,神经网络翻译与语音识别技术相结合,可以实现同声传译,判断并自动纠正微小的差异,甚至可以翻译方言。现在所谓的机器翻译造成的一些好笑失误(比如将crottin de chevre山羊奶酪翻译成羊粪,夫妻肺片翻译成husband and wife lung slices),仅仅是因为语料库数据不够大、软件分类不够专业、发展仍在起步阶段造成的,随着技术的不断成熟,这些错误全部都可以避免。不过,当我向他问起关于“人类语言的艺术”,比如潜台词、情感、风格等,机器该怎么翻译时,他无法给出解释。基于目前对于机器翻译原理的了解,我可以有信心地说,这些人类特有的属性,对于机器来说或许是永远无法理解的……至少现在不行。这就意味着,未来无论机器翻译发展到一个怎样的高度,文学翻译的译者仍然不会被取代。我有信心得出文学翻译不会被取代的答案,一是源于文学语言的灵活多变及不确定性。可以说,文学是语言创造力集大成的表现形式,文学家们无时无刻不在进行创造,书写出前无古人的新词佳句,这些句子或许古往今来仅此一句,在以往的语料库中从未出现过。这就给给机器翻译造成了巨大的障碍。二是,这些句子往往不会使用规范的语法,而是融入作者的创新,比如《发条橙》的作者Anthony Burgess在书中创造了一种新的语言,比如意识流写作常见的长篇无标点符号无逻辑不遵从语法规范的心理描写,这些都给机器翻译造成了很大的障碍。三,即使我们搜集每一个独一无二的、机器无法处理的句子,进行人工翻译后输入语料库,想要保持实时更新,代价又太大,得不偿失,因为文学每时每刻都有新的产出,这就使得专门的机器翻译软件研发成本过高,使用人工显然更为划算。最后,文学语言并不仅仅是表意的工具,而应当给读者带来一定的美的应答,语言之美往往在其蕴含的情感、语言风格、韵律节奏,这些经由机器翻译,只会转化成统一风格的文本,往往会抹杀其风格、韵律之美,在美学功能上无法完成对等。同理,涉及人类活动的口译,比如用于谈判的商务口译,也很难被机器所取代。即使机器可以准确识别语音信息,给出文字层面对应的文本,对于其中的话术、谈判技巧也很难进行处理,往往需要更有谈判经验、更了解两者文化不同表达方式的译者来对源语言进行处理,使得潜台词可以准确传递,又符合对方的礼节,同时准确把握对方的潜台词,使己方的利益最大化。(当然,我对商务翻译不够了解,这一点纯属我的主观臆测,请更有经验的小伙伴在评论区不吝指教。)综上所述,我们可以得出开篇给出的结论: 机器翻译替代一部分人工是未来发展的必然,在已经拥有一套完整行业语言体系、使用规范语言的领域,可以通过完善语料库,研发专门类别的翻译软件,提高翻译的准确率,仅仅需要少部分译者对译前译后的文本进行少量编译,就完全可以达到极高的准确率,而机器在时间、成本上的优势,使得中低端人才翻译从业者的生存空间会受到极大冲击,而高端人才的就业并不会受到影响,因为在拥有更多语言变化、涉及更多创造力和文化背景的翻译领域,如文学翻译和商务谈判,优秀的译者并不会被取代。说完这么多,我们来看看在机器翻译的冲击下,高校翻译专业到底会不会因为机器翻译而消亡。窃以为不会:首先,机器翻译的发展并不像某些学科,可以因为某项发明在一夕之间发生天翻地覆的改变,目前来看,机器翻译学科的发展还是一个循序渐进、有规律可循的过程。在机器翻译的发展期间,高校必然要应对新的形势,调整改进教学方针。就像蔡基刚教授所说的那样,将翻译专业从语言学习型教学转向以语言服务为重点的教学,培养学生精修某专业的课程及行业用语,同时培养服务意识,提高专业译员的素质,从而提高同机器的竞争力。(个人设想,我们可以通过人类具备而机器所不具备的优势,比如译员的谈吐修养可以代表企业的形象,在机器翻译尚未成势之前站稳脚跟,使得使用译员成为一种业内身份地位的象征,那么人工翻译就会成为一种类似奢侈品的行业,高端翻译人才仍然可以依靠翻译过上优渥的生活,不过当然这并不具有普适性。)语言专业的另一部分学生,则可以转而学习机器翻译的编译,走一条与机器翻译共存的道路(见AI 时代的译者技术应用能力研究)。对于AI翻译到底会不会使翻译专业消亡,目前语言专业的学生大可以不必惊慌。在市场调节下,机器翻译与人工翻译的需求会渐渐达到一个平衡,而高校专业的招生,也会根据社会需求进行调整,最终达到一个平衡,并不会出现某一届翻译毕业生被机器翻译抢走饭碗,大学四年努力白费,最终穷困潦倒没有出路的情况。至少目前来说,外语知识仍然是一项宝贵的技能。关于译者如何做好准备,以应对机器翻译将会带来的冲击,《AI 时代的译者技术应用能力研究》这篇文章中也已经说得很清楚了。总结来说,就是与时俱进,拥抱机器翻译带来的改变,学习机器翻译有关的知识,学会熟练使用机器翻译及CAT(计算机辅助翻译)工具,学会项目合作及分工管理,以适应翻译市场规模化、多语种、多行业的要求。机器翻译对译者而言,并非死亡的丧钟,而是新的挑战机遇,只有那些固步自封、拒绝改变,或者狂妄自负、大意轻敌的人,才最终会被淘汰。(本文图片均摘自知乎回答:机器翻译的流程(原理)是怎么样的?https://www.zhihu.com/question/24588198)翻译
机器翻译
未来
科技
人工智能回应
转发

收藏
赞赏玩手机。吧
(London, United Kingdom)
荣誉铲屎官,幻想家,PhD Candidate in Translation Studies

我要回帖

更多关于 人工智能翻译软件 的文章