北京邮电大学人工智能学院人机交互与认知工程实验室主任刘伟表示,尽管AI大模型能够处理和分析海量的数据,并从中提取有价值信息,但由于存在训练语料受到污染等局限性因素,可能会发生“机器幻觉”和“机器欺骗”情况。使用者要有自己的判断能力: “‘机器欺骗’和‘机器幻觉’的根就在于,生成式语言大模型都是基于统计概率和数学规则的,它没有真实世界的价值和事实的这种观念。因为文本里面有大量的错误,也有虚假的,也有恶意的,这些它都要学习。它学什么就会输出什么。怎么解决这个问题,就需要大家把人的常识和任务环境结合在一起来进行比对,知道它哪些问题是回答的比较好,哪些问题是偏离了正常的事实和价值观。”
|