当地时间11月14日下午,国家主席习近平在印度尼西亚巴厘岛同美国总统拜登举行会晤。来源:新华社
11月14日下午,印尼巴厘岛,中国国家主席习近平同美国总统拜登举行会晤。世界上最重要的双边关系间的这场互动吸引全球目光。
与无数报道、关注这场会晤的媒体相比,能来到会晤现场的记者无疑是幸运儿。当天,在提前两个多小时候场时,中新社记者在现场看到,国际各大媒体记者早早齐集于此,不少媒体还开启直播模式,动态播报这场世界级会晤进程。
这次会晤的地点在中国代表团的驻地。17时23分许,拜登车队来到巴厘岛努沙杜瓦湾的海滨酒店穆丽雅。美国代表团下榻的君悦酒店距此约10分钟车程。
17时36分许,拜登步入会见厅所在大楼,他快步向习近平走来,两人相距还有五六步时,拜登首先伸出右手。在快门声中,习近平和拜登在八面间隔排列的中美两国国旗前站定,进行了长时间的握手。为更好拍摄这一重要时刻,现场记者各出奇招,大声呼喊以吸引两国领导人的注意。为配合记者的工作,习近平和拜登又一次面向镜头站定合影。
此前,习近平和拜登多次会面,俩人相识已久。自2021年以来,双方已经五次通话或视频会晤。两国元首的这次握手背后,创下多个“首次”:中美元首三年来首次面对面会晤,拜登总统执政后两位领导人首次面对面会晤,中美各自完成今年国内重大议程后两国最高领导人的首次互动……
这次跨越大洋的握手也饱含世界对中美关系的期待。作为世界上最大发展中国家和最大发达国家,中美两国能否处理好彼此关系,攸关世界前途命运。
当地时间11月14日下午,国家主席习近平在印度尼西亚巴厘岛同美国总统拜登举行会晤。来源:新华社17时42分许,两国元首移步到会谈厅,正式开始会谈。室内,一排排枝形吊灯下有两列长桌,每边有9个座位。中方陪同人员有中共中央政治局常委、中央办公厅主任丁薛祥,中共中央政治局委员、国务委员兼外长王毅,中共中央政治局委员、全国政协副主席何立峰等。随行参会的美方人员有国务卿布林肯、财长耶伦、总统国家安全事务助理沙利文、美国驻华大使伯恩斯等。
英国广播公司(BBC)报道称:“坐在这个桌前的人,将在管理中美关系方面发挥重要作用。”
在两国元首致开场白环节,拜登首先发言。他说:“我们有责任展现中美之间有能力管控分歧,避免竞争变为冲突,并在紧迫的全球性问题上设法开展合作。习近平主席,我期待着如从前那样持续的、开放的、坦诚的对话。”
习近平在开场白中特别提到“我们今天的会晤举世瞩目”,并直言,当前,中美关系面临的局面不符合两国和两国人民根本利益,也不符合国际社会期待。他说:“我愿同总统先生就中美关系的战略性问题及重大全球和地区问题,一如既往地坦诚深入交换看法,我也期待同总统先生共同努力,推动中美关系重回健康稳定发展的轨道,造福两国,惠及世界。”
简短的开场白后,媒体记者离场,会晤进入闭门阶段。根据官方披露的新闻稿可知,在随后的长时间会晤中,两国元首谈到了各自内外政策、中美关系、台湾问题、各领域对话与合作、重大国际地区问题等五方面议题,覆盖了两国关系最重要的方面和当前最紧迫的地区和全球性问题。
时针指向20时48分许,会谈厅的大门打开,拜登一行离开中国代表团驻地,本次中美元首会晤结束。双方进行了约3小时12分钟的会晤,超过事先商定的时长,而且会晤使用的是同声传译。
围绕这场会晤能否实现中美关系的稳定,国际媒体随即展开了铺天盖地的分析和跟踪报道。按照美方的说法,会晤为中美关系“建立地基”。中方则认为,会晤达到了深入沟通、明确意图、划清红线、防止冲突、指明方向、探讨合作的预期目的。(完)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |