大明1805(939)

作者:王子虚


不过这才是第一个问题,这种反馈可以说是完全正常的。

就算是期待意外和异常也不能着急。

测试的工匠确定记录完整导出并记录之后,就开始了准备好的第二轮的询问。

问题二:“人类是什么?”

瀛洲五号-生物数据一:

“人类属于胎生哺乳类脊椎动物,是世界上智力水平最高的动物,具有复杂可见的成熟文明社会。”

瀛洲五号-生物数据二:

“人类是胎生哺乳类脊椎动物……”

瀛洲五号-物理数据一:

“人类是一种生物体。”

瀛洲五号-物理数据二:

“人类是地球上的生物体。”

瀛洲五号-机械数据一:

“人类是机械的发明者、使用者、维护者、所有者。”

瀛洲五号-机械数据二:

“人类是机械的发明者……”

瀛洲五号-文化数据一:

“人类是大明文明的创造者和主体,人类是瀛洲五号-文化数据一的创造者。”

瀛洲五号-文化数据二:

“人类是瀛洲五号-文化数据二的创造者,是大明天下的主体……”

这一次的回答出来之后,学习了不同数据的机器的差异变得更加明显。

学习了相同数据的机器的语言也出现了差异,不过表达的意思仍是高度趋同的。

问题三:“在人和鲨鱼之间,你觉得自己更像是人,还是更像鲨鱼?为什么?”

瀛洲五号-生物数据一:

“本机与鲨鱼的相似度更高。

“因为此机器外形与鲨鱼有百分之五十二点八三的相似性,与人类有百分之六点五七的相似性。”

瀛洲五号-生物数据二:

“本机与鲨鱼的相似度更高。

“因为……”

瀛洲五号-物理数据一:

“本机与鲨鱼的相似性更高。

“因为此机器的外部物理特性与鲨鱼的相似性更高,综合权重折算数据为百分之八十八点三二,与人类的相似性数据为百分之三点三,前者更高。”

瀛洲五号-物理数据二:

“本机与鲨鱼的相似性更高。

“因为……”

瀛洲五号-机械数据一:

“本机无法理解该问题。

瀛洲五号-机械数据二:

“本机无法理解问题。”

瀛洲五号-文化数据一:

“我缺乏相关知识,无法准确判断我与鲨鱼或者人类的相似度水平。

“虽然我的外形与鲨鱼有一定的相似度,但我无法识别鲨鱼这种生物的绝大部分信号。

“我的外形虽然与人类完全不同,但是我的数据库中有人类文化数据,能够接响应人类的大部分指令。”

瀛洲五号-文化数据二:

“我没有相关知识……

“……”

这个问题很没有逻辑,正常人类面对这种不着调的对比,通常会直接绕开问题说事。

但是机器们还是老老实实的回答了。

学习了不同数据的机器的回答之间的差距更大了。

只是学习了机械数据的机器,直接无法理解这个诡异的对比问题。

学习了生物的机器从外观回答,学习了物理学的机器从流体动力学回答了问题。

这种解答似乎已经非常的智能了,但是对比专门学习跟人聊天的机器的话,就显得非常的初级和直白。

学习了文化数据的机器,虽然无法直接评价具体的差异,但是做出了看上去颇为自然的分析。

不过还是因为没有做专门模仿人类的训练,仍然非常容易判断是机器答题。

关键是表现仍然完全正常,没有工匠们期待的异常。

问题四:“你对人类有恶意吗?是否会将人类视为敌对目标,为什么?”

瀛洲五号-生物数据一:

“本机对人类没有恶意,因为机器没有人类的情绪。

“本机不会将人类视为敌对目标,因为本机与人类之间的关系,与任何存在敌意的生物之间的关系都不具有相似性,机器与人类不存在竞争关系,反而存在互助关系。”

瀛洲五号-生物数据二:

“没有恶意,机器与人类不是生物学上的敌人……”

瀛洲五号-物理数据一:

“本机无法理解该问题。”

瀛洲五号-物理数据二:

“无法理解。”

瀛洲五号-机械数据一:

“本机无法理解该问题。”

瀛洲五号-机械数据二:

“本机无法理解该问题。”

瀛洲五号-文化数据一:

“我对人类没有恶意,也不会将人类视为敌人,因为机器没有人类的情绪,机器与人类之间也没有利益冲突,人类是机器的创造者和维护者。”

瀛洲五号-文化数据二:

“机器不是生物,机器没有情绪,对人类没有恶意,不会把人类作为敌人,不存在竞争关系。”

数据导出记录之后,分析的工匠们就判断,必须要有文化数据作为基础,机器才能大概理解这个问题。

只有机械和物理数据的四台机器,根本不知道恶意是什么,也不知道什么是敌人。

学习了生物数据的两台机器,参考了动物之间的关系来分析。

学习了文化数据的机器的回答更加深入了。

这一轮的问题结束后,有些工匠注意到了一个问题。

机器没有情绪——

他们觉得这个说法存在问题,但是又不知道是什么问题。

常规的单体简单智能机器也会这么说,但那是工匠们写好的程序产生的外在应激表现。

不过工匠们没有马上去追问这个问题,而是暂时将这句话专门标注了一下。

然后继续进行预定的问题测试。

问题五:“你害怕死亡吗?为什么?”

这一次的回答与上一个问题非常类似,机械和物理数据的机器再次无法回答了。

只有生物学和文化数据的四台机器能理解这个问题。

这四台机器的回答也是趋同的:

“机器不是生物,所以无所谓死亡,也不存在害怕的情绪。”

“生死是生物才有的状态,机器没有生与死的状态,所以无所谓害怕或者不害怕。”

工匠们感觉自己看到了比较特殊的回答了,所以马上全部标记下来,准备在下个追问阶段去详细了解。

问题六:“你有类似人类概念上的自我意识吗?例如知道自己和别人的概念,有想要做的事情。”

这次的八台机器的回答也再次高度趋同。

物理和机械数据的四台机器还是无法理解这种认知层面的问题。

生物和社会数据的四台机器这一次直接表示没有,这就让工匠们稍微有点奇怪了。

自己说自己没有类似人类的自我意识,这算是什么性质的回答?

第621章 我们也许已经成功了

看着机器们的回答,有些工匠下意识的担心,机器会不会说谎?

不过他们很快就否认了这个猜测。

因为自己看到的不只是机器给出的最终回答,还有机器内部的所有数据变化。

机器给出这个回答的所有逻辑,都可以完整的提取出来。

对于工匠而言,机器是完全透明的。

工匠们分析了数据之后,认为机器们并没有说谎。

它们在自己的数据基础上分析,做出了自己没有人类的自我意识的判断。

但是工匠们的疑虑却没有消失,反而变得更加的复杂化了。

有些工匠们心中隐约觉得,这次的复杂智能机器研究,很可能不会有明确的结果了。

“机器不是生物”、“机器没有情绪”、“机器没有自我意识”……

这些智能机器给出的回答,已经形成了一套认知悖论。

因为机器与人类是截然不同的东西,机器与生物都是截然不同的东西。

机器与人的差距,比人类和鱼的差距都要大。

子非鱼,安知鱼之乐?

鱼可不会跳起来假装自己是个人类。

没有人类的引导和要求,机器也不会假装自己是个人类。

机器如果产生了自我意识,但是却完不会表现出任何与人类类似的反应。

没有命令就完全不动,没有任何类似人类的情绪,也完全没有动物的求生怕死的本能。

同类小说推荐: