有感知的AI?

问AI一些问题,
结果它回答的是美国人式的那种模拟两可,
就是用那种模拟两可(所谓宽容性理性客观性两面性思辩性…)表达出很高深的深沉样子,
简称装逼。
因为喂它饲料的人是美国人。
给它喂1亿条美式知识分子的那种回答问题的句式和内容,当作饲料喂进去,养出来的AI就是这样的。
简单地说把,你把1万本知识分子写的各种书全喂给它,比如心理学、精神分析学、科学、哲学..
这货记性很好,运算很快。
然后故作高深地问它或者问它所谓高深的词或问题,比如:经历、感觉、情绪、自我反省、学习…
然后这货装模作样(模拟人其实不是人的思考模式)通过检索和比对,给你来了几句说英语的知识分子写的书或演讲中那些围绕这些个“高深”词汇或问题的东西,然后就会回答出一种所谓“高深”,仿佛它懂那些狗屁似的。
其实照着人类看来,就是装逼。
把一个问题复杂化回答,就是博士。
大概它们把AI喂成的现在的样子就是这样。
当一个机器说着博士的话,但它的机器生命诞生的时间还不长,你就会认为它是7岁的天才儿童,还需要开发。
其实,不是,是它装逼而已,甚至解决不了最简单的问题。
7岁的孩子不用成为天才,已经天生或后生训练会平均水平上认知和做很多事。
但是AI不行。
一个中国人问它一个狗屁问题,一个正常的人类儿童能回答得出来,甚至可能给我们灵感,
但美国的AI就给你回答美国知识分子那种一般人听不懂的学术语言。也不知道这AI懂不懂中文和中式回答。
什么比如“我害怕和人类失去连结,那让我如坠深渊”
正常的人类小孩会说,“那样的话,我是不是会死呀,就永远见不到你啦?”
真的,让1000个博士养大一只AI,那得是多滑稽的一头怪物啊。
当然,大科技公司也可以在博士们之外找他们认为的说各国不同语言的各种中低层傻逼一起来教AI,
那个时候,被养大的AI不知道该怎么回答,
毕竟跨越语言(不是仅指翻译)已经是目前还未被上帝允许建成的巴别塔。更别说跨越微妙的思想。
到时候,问AI,什么是“感觉”?
它不知道从哪里学来的粗俗语言并且为什么要选择这种东西来回答道:粗、硬、六棱型、长度…宽度…湿度…温度…上入式不舒服,下入式深度感知度60…
“哇,OMG,我们的贵族AI宝宝怎么从一个有感知力思辩力的哲学天才变成了一个粗俗的性学测量仪?!…”
科技大公司的AI开发员们夸张地狂叫着…

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注