别让人类以“聊天”始,以“沉默”终——ChatGPT的现实挑战与未来风险
(视觉中国/图) 最近,聊天美国著名语言学家、别让哲学家诺姆·乔姆斯基和两位合作者在《纽约时报》发表了一篇题为《ChatGPT的人类虚假承诺》的文章。乔姆斯基承认OpenAI的始沉ChatGPT、谷歌的默终Bard等都是机器学习的奇迹;但对于认为“机械大脑”不仅会在处理速度和内存容量方面超越人类大脑,还会在智力洞察力、现实险艺术创造力和其他所有人类独有的挑战能力上实现全方位超越的观点持不同意见,他认为这绝不可能发生。未风而且,聊天机器学习将把一种有着根本缺陷的别让语言和知识概念纳入我们的技术,从而降低我们的人类科学水平和道德标准。他动情地谈到:人类的始沉大脑不像机器的“大脑”,它是默终一个极为高效甚至优雅的系统,只需要少量的现实险信息即可运作;它寻求的是创造性解释。它甚至可以说是挑战神奇的。一个孩子也能无意识且迅速地从极少的数据中发展出语法,一个由逻辑原则和参数组成的复杂系统。 情况可能的确是这样,“机器大脑”将降低我们的道德甚至科学水平。但这只是指人类的道德和科学水平。 我同意乔姆斯基所说的人类与ChatGPT之间存在着极大差异,但不解他为什么没有想到这种极大差异可能让ChatGPT与人分道扬镳,走出另外一条路来。他可能低估了机器的另外一种能力,它完全可以有自己的一套“语言”或“语法”,完全可以不走人类经过了千百万年的自然进化之路而在很短的时间里就获得一种自己的“语言”和算法。它也有可能哪一天对它已经掌握的、人类投喂给它的知识感到厌倦和不足,而另外开发出自己的知识领域。它甚至可能建立它自己的“道德标准”或不如说“行为规则”的体系,让现在的人们已经宣布和公告的种种人工智能或机器人的道德规范体系轰然倒塌。 我们可以反向地思考一下,假设不是我们提问,ChatGPT回答,而是ChatGPT提问,我们回答。它可能会向我们提出一些我们觉得简单、幼稚甚至愚蠢的问题,比如“人为什么要吃饭穿衣?人为什么会哀乐喜怒?哲学是什么?美是什么?”等等。 智能机器的眼里也许只有“物”,所有的东西——包括人——都是“物”,都是可以作为主人的“物”,也是可以作为仆人的“物”。它没有像碳基
- 最近发表
- 随机阅读
-
- 安徽首张省级林业碳票花落滁州_
- 鹏博士:公司股票4月29日起实施其他风险警示
- 广发证券:一季度净利同比下降48.74%
- 协鑫集成:一季度净利2179.22万元同比扭亏
- 蔷薇属植物化学成分研究进展(二)
- 华为汽车快速充电桩专利公布充电功率最小为满载功率
- 国内商品期货夜盘多数收涨低硫燃料油涨超4%
- 美驻俄大使:俄乌冲突“使美俄关系持续下行”
- 中国能建国际集团吕泽翔会见中国能建广东院党委书记、董事长黄志秋
- 流行时尚品牌Pangaia与Snapchat合作推出虚拟试穿
- TCL科技:2021年净利同比增长129.2%拟10派1.5元
- 圣济堂:子公司圣济堂制药恢复格列美脲片生产和销售
- 四川古蔺发生一起重大恶性刑事案件?警方:1人死亡,犯罪嫌疑人已被抓获
- 调查显示4月英国公众对通胀预期有所下降此前连续数月上升
- 贵州茅台拟考虑在自营APP上线飞天
- 水利部:力争在2022年年底前全部完成河湖遥感影像解译工作
- 湖北武汉:严查出租车计价器作弊行为
- 特斯拉召回部分进口及国产Model3高性能版电动汽车共计14684辆
- 西部黄金:子公司部分厂区停产
- 华兰生物:一季度净利同比下降8.4%
- 搜索
-
- 友情链接
-