文章作者 | 杨志刚

打开网易新闻 查看精彩图片

一、两次数字化

七十多年前开始的数字化是由两个基本过程组成的,一个是通信(和控制)的数字化,一个是计算的数字化。控制可以看作是通信的一种特殊目的的情形。这两个过程都是用机器来辅助人进行信息的处理,以提高其处理效率。通信的数字化是通过机器和机器间通信实现的,控制的数字化是通过机器(通信)控制机器实现的,计算的数字化就是由机器来做计算。只不过,它们在信息的处理方式上,都采用了二进制编码化——即0、1数字化的形式。在这两个过程的思想和实践中,最重要的开创性人物是香农(和维纳)和图灵。

打开网易新闻 查看精彩图片

控制论:

或关于在动物和机器中控制和通信的科学

[美] 维纳 / 著

北京大学出版社,2007

从digit这个词开始,日本学者池田信夫谈到了3次数字化。他在谈到数码革命时说,“‘digit’一词本来是‘手指’的意思,可以转义理解为扳手指的‘数字’。即‘数码化’是指用数字或‘有限的数字序列’来表达信息。这并没有什么稀奇,从某种意义上说这是人类认识事物时不可或缺的条件……语言、数字等符号系统是通过一维的数字序列的组合来表达复杂的意思或价值,我们不妨把它叫作原始的(第0次)数码化。”“现在所谓的数码革命的变化特征在于不仅能用数字序列来表达信息,而且能用电气的存储单元(比特)对信息进行机械处理。如果把它叫作‘第一次数码化’,那么在此过程中将复杂的信息变换为简单的数字序列是需要花费(事先的)成本的。通过这种方式将复杂的事物‘抽象化’,简化处理手段从而能够提高(事后)处理的效率。”池田信夫把图灵机看作是第二次数码化,他说,“20世纪后半叶推动电脑发展的技术革新的本质就是数码信号不仅用来表达处理对象,而且也用来表达处理步骤,我们可以把它叫作‘第二次数码化’……第一、第二次的数码化(电脑化)是相辅相成的。”

所以,我们现在所说的数字化(或数字的,digital),是在二进制编码化意义上说的,包括了池田所说的“第一次数码化”和“第二次数码化”。信息的二进制编码化(binary coded)也被视为现代信息技术的起点。数字化给世界带来巨大改变,继之而来的网络化给人类社会化协作带来了重要影响,也成为当前数字经济最受关注的部分。

今天所说的数字化都是这两个数字化基本过程的组合,本质上还是通信(和控制)的数字化、以及计算的数字化。当然,这里所说的计算的数字化不仅是图灵机,还包括以图灵测试为标志的机器智能,也就是发展到今天的人工智能。各行各业的数字化转型不外乎是各行各业的专业知识与这两个数字化过程的种种组合,或者说是这两个基本的数字化过程对各行各业产品、流程和组织方式的改造。

二、数字化给社会规则带来的挑战

数字化大大提高了通信(及控制)和计算的效率,不但改造了社会和经济活动的许多事物和过程,而且创造了数字经济这种新的经济活动形态,给人们的生活方式、生产方式、社会协作方式等带来了巨大变化,也给社会治理和规则制度带来了诸多新的问题和挑战。

一是人与人之间规则的修订。人与人之间对规则的共识(或共同信念)是社会经济活动能够运行的基本条件。进入数字化信息时代以来,数字化信息世界快速膨胀,成为经济活动的一个新空间,产生了很多新的活动形态,原来基于线下信息传递和处理方式建立起来的人与人之间的规则体系遇到了很多挑战。

为规范基于线上信息的经济活动(包括纯线上信息活动、以及由线上信息传递和处理来配置线下资源的活动),人们不断把线下原有的行为规则(原则)向线上延伸,当然其中需要做技术性的调整,像税收(如数字税、税基侵蚀和利润转移(BEPS))、知识产权保护、消费者权益保护等等规则。除了对现有法律法规的修订以外,还新制订了不少法律法规,比如,美国的市场公平法案、欧盟的一般数据保护条例(GDPR)、中国的电子商务法、网约车管理办法等等,以及正在探讨中的数字贸易等规则,但本质上都是基于现有人类社会规则(原则)并适应线上技术特点而修订形成(形式上是新制订)的制度法规

随着数字化信息活动的进一步延伸和深化,这些规则修订活动还将继续深入持续开展。

二是关于人与机器之间关系规则的探讨,主要是关于AI道德伦理的讨论。近十余年来,基于深度学习、强化学习的AI快速发展,似乎正在成为一个新的经济和社会活动主体,不免引起人们对其行为自主性的关注。

2019年4月,欧盟委员会发布了人工智能高级专家组起草的《可信人工智能伦理指南》,提出了人类自主性、防止损害、公平、可解释等原则,以及人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制等7项基本要求。

打开网易新闻 查看精彩图片

Ethics Guidelines for Trustworthy AI

2019年8月,计算机社区联盟加速器和美国人工智能协会在《美国未来20年人工智能研究路线图》中,将人工智能道德问题表述为:关于负责任地使用人工智能,融入人类价值观、尊重隐私、广泛获取人工智能技术、减少人工智能系统偏差,特别是针对边缘化群体、人工智能在分析和预测行为中的作用,以及算法公平、问责制和透明度。

2019年9月,吴文峻、黄铁军、龚克在《中国人工智能道德原则和治理技术发展》中探讨了人工智能道德原则和治理技术,包括保密、安全、透明、可信、鲁棒、问责、公平等AI发展的道德原则提议,以及包括联邦学习、可解释AI、严格的AI安全测试和验证及AI道德评估等在内的治理技术。

从人们提出AI的道德伦理问题的出发点来看,实际上是想探讨人与AI安全共处的心理条件。但从本质上看,现有关于AI道德伦理问题的探讨仍属于人类的道德伦理范畴——即人应该如何开发和使用AI技术的问题,做出选择或决策的主体还是人而不是AI,因而不是真正的AI道德伦理问题。

按照维特根斯坦的观点,人的道德伦理问题都是属于不可说的问题,“伦理是不可说的”,“作为伦理主体的意志是不可说的”。人尚且如此,何况AI。所以,对于AI的道德伦理问题的探讨,先要能够构建出一个或一些真正的、有意义的问题来才好。

数字化信息世界的膨胀带来的社会规则调整和变革是一个历史性进程,这个进程会改变人的存在形态,现在才刚刚开始,需要进一步观察、研究和尝试。对人类而言,后续的尝试过程会面临很多系统性的风险,效率不应成为唯一、或者最优先的考虑事项,否则可能会把人类带入一个无法预知的境地或者说困境,秉持内心向善做出的选择可能比其他任何事情都重要,尽管何为向善也无法定义(就像美那样),而且其结果也尚未可知。但无论怎样,意识到这个问题比无意识或者忽视这个问题,已是前进了一步。

我们欣喜地看到,国务院发展研究中心企业研究所和腾讯研究院联合国内著名专家学者共同著就的一书,就数字化转型所带来的机遇挑战进行了有益的探索,并指出加快制度变革的必要性和紧迫性。值得认真读一读。腾讯研究院此前出品的(2017)、(2019)、(2020),均是了解数字化转型的有益读物。

END