做可不可以。
可以,但也同时带来另一个问题,这些负责为有产者、工场主监控员工的专家,本身的忠诚度又如何保证。
一环扣一环,人心,是如何难测,时至今日人类也未曾发明出“读心术”,没办法透过表象而窥见大脑中的真实思维,既然个体之间依然是“知人知面不知心”,完全的信任,就根本是一种不存在的状态。
这,是客观规律所决定的,并非任何规章和体系所能改变。
除此之外,倘若有产者要完全可靠的体系,求助于人工智能,也是一个很不错的想法。
与终究有自身利益、自我诉求的人相比,ai,是冷冰冰的机器,本质上既没有自我意识、也没有自身利益,这样的存在,自然很受顶层、有产者的器重,否则也不会一下子掀起滔天巨浪,甚至将社会秩序颠覆。
可这里就有一个问题,百分之百可靠、监控所有员工的ai,却又要谁去开发呢。
顶层自己动手,是不可能的,一辈子都不用凭本事吃饭,要让顶层的肥头大耳、脑满肠肥们去研究信息技术、人工智能,基本上都是没可能。
而如果还是雇佣劳动者,让it领域的人才来开发“人工智能监控体系”,就会再一次回到无法判断忠诚度的问题上,谁也无法保证,这监控程序就一定会为有产者服务,而不会被开发者置入后门、潜伏代码与隐藏功能。
况且,即便“国际商用机器”公司雇佣的工程师,没有这些野心和歹念,哪怕只出于对自身前途命运的考量,会承担这种开发任务的it中人,也一定不会太多。
开发“人工智能监控体系”,但凡脑袋清醒,每一个参与开发的it人才,都会意识到这就是在为自己和无数同僚打造镣铐,假以时日,一旦这样的ai被开发出来,自己的命运就会和无数同行一样,被ai死死盯住。
为眼前的利益,开发监牢般的ai监控体系,这种事,大多数人恐怕都没兴趣。
正因如此,“国际商用机器”的724小时监控措施,方然才觉得轻松,自己正在做的一些事,要瞒过同行并不容易,但要瞒过监控体系里的外行,则绰
本章未完,请点击"下一页"继续阅读! 第2页 / 共3页