中国女足敲定世界杯“假想敌” 热身赛将远赴西班牙******
将远赴西班牙踢4场热身赛 全是高强度
中国女足敲定世界杯“假想敌”
北京青年报记者了解到,在1月20日结束集训后,中国女足将于1月26日(农历正月初五)在广州重新集中,随后于2月10日前往西班牙参加世界杯前系列热身赛。
据了解,在西班牙期间,中国队将分别于当地时间2月14日、16日、19日、22日在马贝拉进行4场国际热身赛,对手分别为瑞典女足、爱尔兰女足以及两支西甲俱乐部队。因在今年世界杯小组赛中与英格兰队、丹麦队两支欧洲劲旅同组,中国女足将把4个热身对手视为世界杯假想敌,从而进一步熟悉、适应与欧洲球队交手的高速率和强对抗节奏。
集训
计划在广州训练两周多 于2月10日前往西班牙
中国女足从去年12月5日在海口开启新一期冬训,其中首阶段集训于今年1月20日告一段落。球队全员回家过年之后,将于1月26日,也就是农历正月初五在广州市重新集中。
按照计划,球队将在广州进行两周多的集训,随后于2月10日启程前往西班牙。在此之前,瑞典足协已经通过官方渠道宣布,瑞典女足将于当地时间2月16日晚在马贝拉与中国女足进行一场国际A级热身赛。而这场比赛也是中国女足在西班牙参加的4场热身赛之一。
热身
中国女足将对阵瑞典、爱尔兰 还会与西甲俱乐部队赛两场
国际足联赛历显示,2月13日至25日是本年度首期女足国际比赛日窗口期。利用这一周期,跻身2023年女足世界杯的诸旅纷纷安排了高质量热身。而中国女足除与瑞典队热身外,将于当地时间2月22日与爱尔兰队进行另外一场国际A级热身赛。考虑到出访热身机会比较难得,中国女足在中国足协的争取下,还将与西甲俱乐部队进行两场热身赛。
备战
提升竞争力和应变能力 女足将以最强阵容参赛
从行程安排来看,中国女足此次出访西班牙,其主要目的便是通过有针对性的热身赛,提升国际比赛竞争力和应变能力。这是因为,中国女足将在今年女足世界杯小组赛上与女足欧洲杯冠军英格兰队、北欧劲旅丹麦队同组。目前英格兰队、丹麦队分列世界第4位、第18位,而瑞典队、爱尔兰队分列世界第3位和第23位。从技术特点来说,爱尔兰队、瑞典队分别与英格兰队、丹麦队相近,也就是兼具身体力量、攻防转换速率的优势,因此中国女足与爱、瑞两队热身质量将有所保障。
按照中国足协发布的官方集训通知,共有27名球员参加了在海口进行的冬训首阶段训练。不过,由于超过10名女足球员分别留洋欧洲、北美职业俱乐部,因此包括王霜在内,部分留洋国脚届时将从各自俱乐部直奔西班牙与球队会合。换言之,中国女足将以最强阵参加2月的系列热身赛。
文/本报记者 肖赧 统筹/王咏 供图/视觉中国
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)