国家品牌网
 | 新闻传播>华夏名家

科技创新与法治-中国质量万里行促进会会长刘兆彬
在“风险变异-保险生态的科技重构逻辑”大会上的讲话
发布时间:2017-09-08
文章来源:国家品牌网
分享到:    收藏
    本网讯:日前,由北京保险研究院主办的“风险变异——保险生态的科技重构逻辑”大会在北京召开,国家质检总局政策法规司原司长、总工程师、中国质量万里行促进会会长刘兆彬应邀出席并做了《科技创新与法治》主题演讲。

中国质量万里行促进会会长、原国家质检总局法规司司长刘兆彬

    刘兆彬表示,科技进步为人类社会的发展提供了更多的福利、更好的保障。我们在读经济学时,觉得人类社会的发展其实就是聚焦了七个字:效率、公平、可持续。科技创新的发展,为了提高效率,保障公平,保障可持续,提供了很多很好的技术手段。但是另一方面,科技创新也会给人们带来一些风险。这就让我想起德国最著名的社会学家之一沃尔里西贝克先生在1986年写了一本书《风险社会》。在那本书里面他提到,除了自然的风险以外,其实在当代的现代社会,最大的风险是人为的风险,还有制度的风险,还有科技进步本身带来的风险。而我在看这本书时,最为震撼的就是他还有一个不太引人注目的观点:人们为了防范控制风险所采取的很多措施的时候,包括采用科技创新手段的时候,本身就在制造新的,甚至是更大的风险。因此,我觉得我们在研究科技创新时,一定要高度重视它所带来的风险。所以我觉得今天这个题目取得非常好,就是把风险作为现代社会一个非常关注的主题。

    他说:
我觉得社会各个行业都在面临巨大的科技进步带来的风险。尤其我特别赞成克劳斯.施瓦布先生在《第四次工业革命》这本书里讲到的,当下用一个什么词来概括我们所处的科技进步的时代呢?他觉得最主要、最有代表性的就是人工智能,包括英国人现在开发的类人工智能。我个人在看了一些资料以后,感觉到各行各业所面临的最大的一个挑战,就是人工智能带来的风险。按照美国人的分法,人工智能分为三个阶段。AlphaGo战胜了围棋的世界冠军,还有不久前四川发生的七级大地震,地震以后的25秒,智能机器人就已经写出了一篇非常优美的文字新闻稿。我们的新华社现在已经有智能机器人在写稿子了,有的比人写的还要好还有诗歌人。但是就是这些机器人,其实还都是处在弱人工智能阶段,它们的智力最高不会突破人类10岁左右的智商。到下一个阶段,有人预计再过20年或30年,会出现人工智能的极点,就是强人工智能阶段出现。具体的数值是什么呢?用人的智商来说,在座的都是聪明人,可能你们的智商都在120-130,这是非常聪明的,80-120是正常的智商。但是强人工智能的智商会达到多少数值呢?我看过一个资料,他们的人工智商数值将达到12000。到了超级人工智能的时候,就像霍金先生所担忧的那样,人类会不会灭亡。


    所以,发达的科技给我们带来了很多风险。刚才姜院长也讲到,比如产品的消失,他举了BB机、平板电脑,包括蒸汽机现在也快没了,产品的消失、行业的消失、职业的消失。日本的一家保险公司,已经用AI系统替代了34名专业的承保人员,那些重复性的大量的劳动,保险业700万人在未来AI的冲击下,还能剩多少。当然,我们还面临着管理和监管的缺失,法律的缺失,标准的缺失,造成了这种秩序混乱的风险。我最担忧的是人类自身的风险,所有的保险最后都落实到人,但是AI技术这种强人工智能未来的出现,将会重新定义什么是人。未来的人类,在我看来可能有五种人。第一种就是在座诸位,跟我一样,我们都是原装人。第二类是机械化人(cyborg)。在湖南卫视的一个节目里面,我看到有一位从哈佛大学来的专家,叫韩必成,他做了一个脑机接口的实验,带了一个设备以后,就让一个没有手臂的残疾人,戴上假肢,就可以用意念喝水,写书法。当时我就想,如果他用人的意念干坏事或者犯罪怎么办。这是非常严峻的法律问题,这是人机混合人。第三种是基因重组人(genetically modified human),据说世界上第一例修改人类胚胎基因的实验就是在国内某大学完成的,引起巨大争议。科学家把人类的染色体重组以后,就会让你的百米跑得像博尔特,身高像姚明,你会成为一个超人,这里有没有伦理和法律上的潜在问题?第四类叫新新人类(transhumanism),未来用生物技术,神经技术可以完全生产出下一代的的新新人类,超越人类繁殖延续的基本定义,甚至超越人类和其他物种的界线。最后一种是机器人,也是我这五个类别里唯一一个无机体。但机器人是否会摆脱人类控制,独立生活?它们或与人类结伴,或成另类一族,这是不是人类的大变化和大挑战?那个时候,我们保险要做什么?人类要做什么?会不会真的出现人类的消失?这不是一个神话,可能就在未来的20年、30年。

    刘兆彬强调:那么我们怎么办?未来的出路是什么?我觉得未来的出路就是要靠法制。只有人类社会设计的规则、制度、强制性的约束力,才会给人类未来的命运上一个大保险,系上一个保险绳。为什么是这样?法制有最基本的五大功能:

 

  第一,法制能够为人类社会提供最基本的安全保障。看过美国教授做过的一个统计,在100年间,有法制的这些国家,它们之间基本上没有发生过战争。我看过从英国搞了宪法,或者用宪法治理国家以后,400年间没有发生过战争。所以法制最根本的一个保障,包括对我们个人,无论你有多少财产,无论你是多大的高官,如果没有法律保障,你没有任何安全感;

 

   第二,法制才能够为人类的行为提供最基本的判定标准。什么叫是,什么叫非,什么叫罪与非罪,酒驾还是醉驾,罚款还是拘留15天,只有法律能够提供最准确的、公开透明的判断标准;

  
    第三,法制能够为我们的未来提供最可靠的预期。预期是人类最基本的一个理性的判断,它决定你现在的决策。法制给我们未来的预期提供了一个框架,你的投资,你的保险,在法律的保障下才会有未来的收益或损失;

  
    第四,法制最基本的功能就是为社会,包括为保险市场提供了最可靠的、稳定的秩序。我们有《保险法》,还有相当多的各种规章,这些法律的要求,给我们的市场竞争有一个秩序;

  
    第五,法制能够实现相对的公平和正义。人类对公平的追求是有本能的一种天性。我看过一个英国人做的实验,把一些人关在房间里,一组
10人。第一组每天发一瓶水,第二组一瓶水都不给发。渴了一天以后,在给没有水的那10个人发水的时候,出现了一个现象,那10个人里面,至少有7到8个人是拒绝领水的。为什么?他们认为不公平。不公平是人类争斗的一个根源。所以我想,当我们研究科技创新给保险业带来的最大风险时,无论是我们的流程再造,还是商业模式的改变,还是社会管理监管体制的变化,我觉得最重要的、最根本的就是要搞好法制。

    最后,刘兆彬会长向与会嘉宾提出了三点建议:
第一,要抓紧立新法,改旧法。我们的保险法从1995年到现在已经改了四次,但是现在科技创新日新月异,对于现在出现的由科技创新的带来的一些新问题,《保险法》需要修改。另外,还要立新法。

    
    第二,在没有新的法律出现时,我们的从业者应当更多地研究当下的一些司法判例。现在法律遇到一些科技的官司,比如像华为、腾讯争夺信息权,比如一个17岁男孩去世以后,他的母亲争夺虚拟财产的继承权,如果你们关注的话,会有许多科技创新的法律官司的判例,包括打游戏直播这种产权的争议,在法院都有一些判例,这些判例可以指引我们应对对保险业带来的风险。

   
    第三,要体现社会共治和自治。我是搞法律的,我们有一个基本的判断,就是一部法律当它出台之日起,就已经滞后了。所以法律的滞后是一个规律。因此我觉得,对风险的治理,更多的是要靠大家的自治,靠行业协会,靠研究院,靠保险企业,制定更多的自律规则、章程、条例和规章,只有这样,才能在法制的指引下,抗衡科技带来的风险。




 

责任编辑:子京

网友评论

>>>