对话人物:复旦大学自然语言处理实验室moss项目人工智能训练师 贺正夫
问:moss是什么,主要有什么作用?
答:moss是一个对话式语言模型,它可以为人们的生活提供各种直接或间接的帮助。它可以进行生活常识问答,帮助查询天气、规划行程等;可以辅助高效办公,例如自动处理表格,生成大纲、草稿、翻译等,还掌握金融、医疗、教育等领域专业知识。许多行业正在引入以moss为代表的对话式语言模型,比如汽车语音助手、客服等,这些都将产生降本增效的效果。
(资料图片仅供参考)
问:您对moss的具体训练过程是怎样的?
答:大模型中参数的本质是海量的矩阵,这些矩阵对输入的文本进行简单、繁重、重复的数字运算,最终得到需要生成的内容。我们可以通过对网络上的语料进行收集、“清洗”,并让大模型从这些语料中学习知识。具体而言,学习过程就是不断“阅读”文本,并调整大模型内部参数,使其对语言的理解不断加深,最终获得某种“智能”,这个过程称为训练。
在搭建moss的过程中,我们通过三阶段“阅读”赋予moss强大的能力。一是基础知识获取阶段。moss通过广泛“阅读”网络上几乎所有的文本,由于巨大的参数量,其足以涵盖海量知识。二是对话能力获取阶段。moss通过“阅读”对话数据,学习利用第一阶段获取的知识,以对话的方式回答人类的问题。三是对齐阶段。由于有些回复可能会有误导性,moss会根据人类的反馈来抑制生成不符合人类法律和道德伦理的内容,使回答更客观、更理性。
问:moss和chatgpt相比有哪些差异?
答:chatgpt的训练数据涵盖十分广泛,用户体验良好。moss作为学术界的尝试,我们希望通过打造开源对话式的语言模型,向学术界分享更前瞻的理论和工程经验。
问:moss是来源于电影《流浪地球2》吗?它的未来目标是什么?
答:moss的名字与《流浪地球2》这部电影有关,电影中的人工智能机器人moss展现出极强的智能和理性,成为人类的得力助手。我们从对话式语言模型发展中看到了人工智能的巨大潜力,因此起名moss,这个名字寄托这我们对人工智能技术未来发展的期待。
未来的moss会越来越“聪明”。我们将充分利用火山引擎等平台提供的云端算力和资源,与更多同行开展模型迭代和技术交流,不断探索对话式大模型和大型语言模型的技术前沿,让人工智能技术更好地造福人类社会。
【新闻链接】人工智能训练师:让机器更“懂”人类
打开电脑,将采集的风声、雨声、溪流声等声音数据输入,“清洗”掉夹杂其间的噪音,对助听器数据模型进行“训练”,测试模型在真实场景的灵敏度……伴随着手指敲击键盘的“啪嗒啪嗒”声,腾讯天籁实验室人工智能训练师付聪一天的工作就此开始。
近几年,随着人工智能技术不断发展,这个被称为人工智能训练师的职业逐渐壮大。作为“数字职业”之一,人工智能训练师的出现,加速了人工智能由技术研发走向行业应用的过程,将产生较高的经济价值和社会价值。
为模型不断“喂”数据
每次出门时,付聪总会在耳朵上戴一个大“耳环”。
这个“耳环”其实是一个测试版的助听器。“耳环”里的声音各式各样,有呼呼的噪声,有尖锐刺耳的吵闹声……这些经过助听器放大后产生的噪声,是很多佩戴助听器的听障人士长期面临的困扰。
付聪和他的团队正在尝试利用算法设计、通过人工智能技术“训练”数据模型,让助听器更加“智慧”地降低噪声,让听障人群听得清、听得懂、听得舒服。
付聪解释说,助听器数据模型很小,因此需要针对不同场景进行优化,很多场景充满挑战,“比如一个听障人士在餐厅吃饭,周围有很多人说话,他想跟对面的人聊天,四周声音特别嘈杂,作为一个正常人都可能听不清楚,更何况一个有听力障碍的人?我们希望利用模型,把需要的声音提取出来,降低噪声,帮助更多听障人群”。
理想很丰满,但是实际的模型算法研发过程却像是一场反复进行的“战役”。
模型的研发过程大致分为以下几步:数据采集、数据“清洗”、模型训练、场景测试、调整算法,经过几次迭代之后再测试、调整,“如果测试结果不理想,需要把这个过程再走一遍,直到得到最优效果”。付聪说。
数据采集要有针对性。为了让模型更“聪明”,需要针对不同场景采集各种特殊数据。付聪和团队成员不仅需要到早晚高峰的地铁、热闹喧天的餐厅、人来人往的马路等场景,采集数百个小时的声音数据,还要戴上助听器体验这些声音的差别,“比如风声,正常人听到是呼呼声,但戴上助听器以后,是很吵的噗噗声,像是去ktv唱歌,声音使劲砸到麦克风上”。道路骑行、海边风浪……为了采集各种风噪数据,付聪录制了多种场景的风声。
数据“清洗”是将不需要的数据“洗掉”。付聪举了一个例子——风声,真实场景下会夹杂汽车鸣笛、人交谈等声音。在整理时要把这些数据剔除出来,保留一个比较纯粹的风声,这样模型才会“认识”风。
模型训练是将“清洗”好的数据“喂”给模型。除了采集的特殊数据,付聪和他的同事们还会加入诸如世界各国的语言和一些非语音声音等数据,“基本涵盖了人们生活中遇到的所有噪声和语音”。
和人类不同,人工智能模型在训练过程中,不会疲惫、烦躁、发脾气,它们的“智慧”取决于模型参数、训练策略、数据量等。“它们就像一个‘孩子’,会越来越‘聪明’,识别到越来越多的声音,我特别有成就感。”付聪说。
考验耐心、细致和忍受力
模型训练完成后,并不意味立刻能应用到听障人群的助听器上,还要经历较长时间的迭代、调整过程。
比如,为了让听障人群适配到合适的助听器,传统方式是患者反复到线下的验配店去试戴,过程繁杂。付聪解释说,一般情况下,根据发病原因不同可以将听力下降分为三类:感音神经性、传导性、混合性耳聋;根据听力下降的程度不同,分为轻度、中度、重度及极重度耳聋。针对不同的类型,助听器的适配方式有所不同。
有没有可能把适配过程搬到“线上”,利用人工智能算法和深度学习能力,让听障人群在线上就能做准确的听力验配?带着这个疑问,付聪开始研发适配算法。他将这个过程比喻为做应用题,需要查询国内外文献、检索现有方案,根据具体的使用环境,利用现有知识开展合理想象、设计实验、寻找答案。
这个过程考验人工智能训练师的耐心、细致。在测试助听器音质时,不同的佩戴方式,对应不同的测试结果。付聪和同事需要以“n×n”排列组合设计不同的佩戴方式,并且不断重复试验,来研究其对音质产生的影响。
这个过程十分考验人工智能训练师的忍受力。“一个人工智能训练师的基本素养,就是强迫自己听很多次刺耳的声音。”付聪表示,这是因为训练师需要定量衡量听障患者能正常听到的声音极限点,而这些声音的分贝数是正常人耳难以忍受的,“很多时候恨不得把耳机摔掉。经过一天测试,整个脑袋都感觉疼”。
经过不断迭代、调整,内置了算法的助听器终于完成了。最让付聪难忘的是他们第一次到广东韶关捐赠产品,他们把助听器挨个交到听障老人手上,开机、戴设备、调整增益……“虽然我对模型很有信心,但当时还是感觉心提到了嗓子眼,因为在此之前,老人们是无法正常交流的。”付聪说。
他小心地询问一个老人:“您能听到我在说什么吗?”
“可以了。”老人缓慢而又坚定地从口中说出3个字。
“那时候我觉得,我们做的这个事情挺有意义的。”付聪说。
用技术解决人类需求
人工智能训练师是一个需要忍受孤独的职业,因为他们大量的时间是在设计方案、写代码、采集数据、训练模型中度过的。
“我战胜孤独的秘密是兴趣。”付聪的专业是通信,其中很多课程和信号处理相关,他平时比较喜欢音乐,因此就将自己的兴趣和专业、工作结合起来,聚焦音频领域,大学毕业后参与了很多有关音频信号处理的工作,经历了音频算法从传统算法到人工智能算法,再到大规模深度学习的各个阶段。
在付聪看来,人工智能技术是一个很好的工具,目的是将人类从很多脑力劳动中解放出来,用规模化的方式去替代目前成本较高的个体劳动。对整个社会而言,这是一种生产力的进步,有着巨大的社会价值和商业价值。
成熟的人工智能技术是什么样?付聪认为需要经过3个阶段:一是感知智能,核心在于模拟人的视觉、听觉和触觉等感知能力,比如人脸识别、语音识别等;二是认知智能,具有人类思维理解、知识共享、行动协同或博弈等特征,“能够真正理解人在说什么,根据一些提示,提供相对完整的回答”;三是行为智能,也就是像自动驾驶一样,真正可以在物理世界发挥作用。
达到这样的目标,需要对人工智能模型不断进行训练。付聪表示,首先需要针对问题准备足够多的数据,“多到尽量涵盖解决这个问题时所遇到的所有情形”;其次需要设计很好的算法,并根据用户反馈不断优化。
“人工智能技术领域日新月异,要求人工智能训练师有广阔的视野、深厚的人文情怀和社会责任感,用业界最新想法、理念和正确的伦理观来帮助人类解决生产生活中遇到的问题。”付聪说。(人民日报海外版)
栏目主编:秦红
文字编辑:程沛
本文作者:人民日报
题图来源:上观题图
图片编辑:朱瓅
关键词: