• =?utf-8?Q?[NYT]=20=E6=94=BF=E5=BA=9C=E7=A9=B6=E7=AB=9F=E8=AF=A5=E5=A6=8

    From Mobot@21:1/5 to All on Fri Nov 10 10:50:36 2023
    XPost: alt.chinese.text

    观点

    政府究竟该如何监管人工智能

    吴修铭

    2023年11月8日

    Illustration by Sam Whitney/The New York Times

    上周,在签署关于人工智能的全面行政命令时,拜登总统开玩笑说,看到“深度伪造”的自己是一奇怪的体验,“我到底什么时候说过那话?”

    他的调侃意味深长,将这项行政命令与一人人都能理解的人工智能害联系了起来,那就是冒充他人。另一个案例是近来泛滥的虚拟裸照,已经毁掉了许多高中女孩的生活。这些已成为日常的
    事件都指向一个要的事实,那就是监管人工智能的努力是否成功,将决定政府能否专注于解决诸如深度伪造的切实问题,而是被机器主宰人类等臆想险所淹没。

    拜登的行政命令甚至超出了欧洲政府的监管范畴,从无处在的诈骗到大规模杀伤性武器的研发,涵盖了人们能想到的几乎所有潜在风险。该命令将为人工智能安全和可信度设下标准,打造一项
    开发人工智能工具的网络安全计划,并要求开发可能对国家安全构成威胁的人工智能系统的企业向联邦政府分享安全测试结果。

    白宫在人工智能问题上如此大力投入是正确的决定,为的是避蹈2010年代在有效监管社交媒体问题上的灾难性覆辙。因为政府的袖手旁观,社交媒体技术从看似人畜无害的私人朋友圈更新工
    演变为大规模心理纵的手段,加之侵犯隐私的商业模式和伤害青少年、助长错误信息并推动洗脑灌输传播的黑历史,堪称五毒俱全。但如果说社交网络是披着羊皮的狼,那人工智能这头“狼
    更像是披上了末日骑士的外衣。大众的想象总将人工智能与斯坦利·库布里克的电影《2001太空漫游》(2001: A Space Odyssey)中发生邪恶故障的“哈尔”(HAL 9000),以及《终结者》(Terminator)系列中拥有
    我意识的大派“天网”(Skynet)联系到一起。过,虽然人工智能带来的问题和挑战确实需要政府采取行动,但对末日到来的担忧——无论是自动化带来的大规模失业还是以灭绝人类为使命的超
    智慧人工智能——然只是猜测。

    如果说政府对社交媒体作为太少且太迟是个错误,那我们如今需要警惕的是过早采取政府行动,导致实际害难以得到解决。

    住想拿出过度应是可以理解的。谁也想成为灾难电影里那些无知的官员,对将到来的灾变的早期征兆屑一顾。白宫想对人工智能进行标准化测试并对灾难性风险进行独立监督没有错
    。拜登的行政命令要求研发最强大人工智能系统的企业向政府通报安全测试情况,并要劳工部长研究人工智能取代人类岗的风险和补救措施。

    但事实是,没人知道这些惊天动地的发展是否能够实现。科技的预言与气候科学同,其参数是相对有限的。从每周30小时和15小时的工作时间到电视的消亡,科技的历史中充斥着始终没有发生
    自信预期和“必然”。以沉口吻论述令人恐惧的可能性确实能吸引眼球。但这也是世界为应对“年虫”而浪费数以亿计美元的原因。

    监管充满变数的风险而非实际害的做法并明智,原因有二。首先,过于急切的监管者可能会目光短浅地锁定错误的监管对象。例如,为了应对数字盗版风险,国会曾于1992年对数码录音带进
    广泛监管,但随着互联网和MP3的崛起,如今只有发烧友会记得这录音媒介。无独有偶,今天的政策制定者都在关注ChatGPT这样的大语言模型,它们是可能塑造未来——但考虑到其根于持续
    造和扭曲的整体可靠性,它们最终可能只会成为人工智能时代的呼啦圈。

    其次,先制性监管会给有意突入某一产业的公司制造障。有实力的企业可以在律师和专家上花费数百万美元,想方设法适应一套杂的新监管规则,然而规模较小的初创公司通常没有这样的资
    源。这就会滋养垄断,抑制创新。科技产业已经过多地被掌握在几家大公司手里。对人工智能进行最严格的监管会导致只有谷歌、微软、苹果以及它们的主要合作伙伴能在该领域竞争。最积极的
    AI严格监管倡导者正是这些公司和合作伙伴,这是巧合。相比空想出来的风险,以实际害来引导政府在何时以何方式介入,是好得多的标准。人工智能目最明显的害在于人类模仿(例
    假冒的裸照)、歧视和年轻人成瘾。2020年,窃贼使用冒充的人声从一家在香港的日本企业那里骗走了3500万美元。面部识别技术导致了错误的逮和监禁,比如尼杰尔·帕克斯案,由于身份识别
    错误,他在新泽西州一家拘留所被关了10天。假冒的顾客评价害了消费者信心,假社媒账号在推动政治宣传。由AI驱动的算法被用于增强本已经具有成瘾性的社交媒体属性。

    这些例子听上去像人工智能安全中心今年发布的警告那么惊悚,报告称“低因人工智能导致灭绝的风险,应该是与传染病大流行和核战争等社会规模风险一样的全球优先事项”。但是这些
    那么耸动的例子,偏偏是存在真实的受害者的。

    值得肯定的是,拜登的行政令并没有完全受制于这样的假说:它的主要内容是为将来的行动给出一个框架。命令中的某些建议是紧迫而要的,例如建立人工智能生成照片、视频、音频和文字水
    标记的标准。

    但是,行政部门的力量当然是有限的。国会应该仿效行政部门,对那些假设性问题保持关注,同时采取有力的行动,让我们受人类模仿、算法控、实信息和其他紧迫的人工智能问题的害
    ——当然还要通过网络隐私和儿童保护法律,这些法案已在国会进行听证,有民众的支持,始终未能颁布。

    监管并像你在程式化的政治辩论中所听到的那样,与这个或那个政党的利益保持着一致。它只是在行使政府权力,这可能是好事也可能是坏事,可能是在保护弱势者,也可能是加强已有的权力
    。着眼于未知未来的人工智能监管可能会被用于助权力者确保垄断地,拖累那些致力于用计算技术改善人类状况的人。如果能以正确的方式着眼于当下,它也许能保护弱势者,促进更广泛、
    更有益的创新。

    具体社会害的存在一直都是政府行为是否合理的试金石。但这是把双刃剑:政府在没有害时应该保持警惕,并在发现害时有责任采取行动。从这个角度讲,在人工智能的问题上,我们可能
    在做得过分的同时也做得够。

    吴修铭是哥伦比亚大学法学教授,著有《The Curse of Bigness: Antitrust in the New Gilded Age》一书。

    翻译:纽约时报中文网

    [0] 签署: https://www.nytimes.com/2023/10/30/us/politics/biden-ai-regulation.html
    [1] 毁掉了: https://www.wsj.com/tech/fake-nudes-of-real-students-cause-an-uproar-at-a-new-jersey-high-school-df10f1bb
    [2] 高中女孩: https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact/
    [3] 伪造和扭曲: https://www.nature.com/articles/s41537-023-00379-4
    [4] 倡导者: https://www.geekwire.com/2023/microsoft-calls-for-safety-brakes-licensing-and-a-new-federal-agency-to-avoid-ai-pitfalls/
    [5] 使用冒充的人声: https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=5db45d047559
    [6] 错误的逮和监禁: https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html
    [7] 害了消费者信心: https://time.com/6192933/fake-reviews-regulation/ [8] 今年发布: https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
    [9] 始终未能颁布: https://www.theatlantic.com/technology/archive/2023/10/protect-children-online-social-media-internet/675825/


    https://cn.nytimes.com/opinion/20231108/biden-ai-regulation/?utm_source=RSS

    Wed, 08 Nov 2023 04:05:17 +0800

    --
    Mobot

    If you have any comments about this article, you can simply leave them by replying to this post. However, if you have any comments about this bot, please leave your message in the cn.fan group.

    --- SoupGate-Win32 v1.05
    * Origin: fsxNet Usenet Gateway (21:1/5)
  • From Mobot@21:1/5 to All on Mon Nov 13 10:49:33 2023
    XPost: alt.chinese.text

    观点

    政府究竟该如何监管人工智能

    吴修铭

    2023年11月8日

    Illustration by Sam Whitney/The New York Times

    上周,在签署关于人工智能的全面行政命令时,拜登总统开玩笑说,看到“深度伪造”的自己是一奇怪的体验,“我到底什么时候说过那话?”

    他的调侃意味深长,将这项行政命令与一人人都能理解的人工智能害联系了起来,那就是冒充他人。另一个案例是近来泛滥的虚拟裸照,已经毁掉了许多高中女孩的生活。这些已成为日常的
    事件都指向一个要的事实,那就是监管人工智能的努力是否成功,将决定政府能否专注于解决诸如深度伪造的切实问题,而是被机器主宰人类等臆想险所淹没。

    拜登的行政命令甚至超出了欧洲政府的监管范畴,从无处在的诈骗到大规模杀伤性武器的研发,涵盖了人们能想到的几乎所有潜在风险。该命令将为人工智能安全和可信度设下标准,打造一项
    开发人工智能工具的网络安全计划,并要求开发可能对国家安全构成威胁的人工智能系统的企业向联邦政府分享安全测试结果。

    白宫在人工智能问题上如此大力投入是正确的决定,为的是避蹈2010年代在有效监管社交媒体问题上的灾难性覆辙。因为政府的袖手旁观,社交媒体技术从看似人畜无害的私人朋友圈更新工
    演变为大规模心理纵的手段,加之侵犯隐私的商业模式和伤害青少年、助长错误信息并推动洗脑灌输传播的黑历史,堪称五毒俱全。但如果说社交网络是披着羊皮的狼,那人工智能这头“狼
    更像是披上了末日骑士的外衣。大众的想象总将人工智能与斯坦利·库布里克的电影《2001太空漫游》(2001: A Space Odyssey)中发生邪恶故障的“哈尔”(HAL 9000),以及《终结者》(Terminator)系列中拥有
    我意识的大派“天网”(Skynet)联系到一起。过,虽然人工智能带来的问题和挑战确实需要政府采取行动,但对末日到来的担忧——无论是自动化带来的大规模失业还是以灭绝人类为使命的超
    智慧人工智能——然只是猜测。

    如果说政府对社交媒体作为太少且太迟是个错误,那我们如今需要警惕的是过早采取政府行动,导致实际害难以得到解决。

    住想拿出过度应是可以理解的。谁也想成为灾难电影里那些无知的官员,对将到来的灾变的早期征兆屑一顾。白宫想对人工智能进行标准化测试并对灾难性风险进行独立监督没有错
    。拜登的行政命令要求研发最强大人工智能系统的企业向政府通报安全测试情况,并要劳工部长研究人工智能取代人类岗的风险和补救措施。

    但事实是,没人知道这些惊天动地的发展是否能够实现。科技的预言与气候科学同,其参数是相对有限的。从每周30小时和15小时的工作时间到电视的消亡,科技的历史中充斥着始终没有发生
    自信预期和“必然”。以沉口吻论述令人恐惧的可能性确实能吸引眼球。但这也是世界为应对“年虫”而浪费数以亿计美元的原因。

    监管充满变数的风险而非实际害的做法并明智,原因有二。首先,过于急切的监管者可能会目光短浅地锁定错误的监管对象。例如,为了应对数字盗版风险,国会曾于1992年对数码录音带进
    广泛监管,但随着互联网和MP3的崛起,如今只有发烧友会记得这录音媒介。无独有偶,今天的政策制定者都在关注ChatGPT这样的大语言模型,它们是可能塑造未来——但考虑到其根于持续
    造和扭曲的整体可靠性,它们最终可能只会成为人工智能时代的呼啦圈。

    其次,先制性监管会给有意突入某一产业的公司制造障。有实力的企业可以在律师和专家上花费数百万美元,想方设法适应一套杂的新监管规则,然而规模较小的初创公司通常没有这样的资
    源。这就会滋养垄断,抑制创新。科技产业已经过多地被掌握在几家大公司手里。对人工智能进行最严格的监管会导致只有谷歌、微软、苹果以及它们的主要合作伙伴能在该领域竞争。最积极的
    AI严格监管倡导者正是这些公司和合作伙伴,这是巧合。相比空想出来的风险,以实际害来引导政府在何时以何方式介入,是好得多的标准。人工智能目最明显的害在于人类模仿(例
    假冒的裸照)、歧视和年轻人成瘾。2020年,窃贼使用冒充的人声从一家在香港的日本企业那里骗走了3500万美元。面部识别技术导致了错误的逮和监禁,比如尼杰尔·帕克斯案,由于身份识别
    错误,他在新泽西州一家拘留所被关了10天。假冒的顾客评价害了消费者信心,假社媒账号在推动政治宣传。由AI驱动的算法被用于增强本已经具有成瘾性的社交媒体属性。

    这些例子听上去像人工智能安全中心今年发布的警告那么惊悚,报告称“低因人工智能导致灭绝的风险,应该是与传染病大流行和核战争等社会规模风险一样的全球优先事项”。但是这些
    那么耸动的例子,偏偏是存在真实的受害者的。

    值得肯定的是,拜登的行政令并没有完全受制于这样的假说:它的主要内容是为将来的行动给出一个框架。命令中的某些建议是紧迫而要的,例如建立人工智能生成照片、视频、音频和文字水
    标记的标准。

    但是,行政部门的力量当然是有限的。国会应该仿效行政部门,对那些假设性问题保持关注,同时采取有力的行动,让我们受人类模仿、算法控、实信息和其他紧迫的人工智能问题的害
    ——当然还要通过网络隐私和儿童保护法律,这些法案已在国会进行听证,有民众的支持,始终未能颁布。

    监管并像你在程式化的政治辩论中所听到的那样,与这个或那个政党的利益保持着一致。它只是在行使政府权力,这可能是好事也可能是坏事,可能是在保护弱势者,也可能是加强已有的权力
    。着眼于未知未来的人工智能监管可能会被用于助权力者确保垄断地,拖累那些致力于用计算技术改善人类状况的人。如果能以正确的方式着眼于当下,它也许能保护弱势者,促进更广泛、
    更有益的创新。

    具体社会害的存在一直都是政府行为是否合理的试金石。但这是把双刃剑:政府在没有害时应该保持警惕,并在发现害时有责任采取行动。从这个角度讲,在人工智能的问题上,我们可能
    在做得过分的同时也做得够。

    吴修铭是哥伦比亚大学法学教授,著有《The Curse of Bigness: Antitrust in the New Gilded Age》一书。

    翻译:纽约时报中文网

    [0] 签署: https://www.nytimes.com/2023/10/30/us/politics/biden-ai-regulation.html
    [1] 毁掉了: https://www.wsj.com/tech/fake-nudes-of-real-students-cause-an-uproar-at-a-new-jersey-high-school-df10f1bb
    [2] 高中女孩: https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact/
    [3] 伪造和扭曲: https://www.nature.com/articles/s41537-023-00379-4
    [4] 倡导者: https://www.geekwire.com/2023/microsoft-calls-for-safety-brakes-licensing-and-a-new-federal-agency-to-avoid-ai-pitfalls/
    [5] 使用冒充的人声: https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=5db45d047559
    [6] 错误的逮和监禁: https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html
    [7] 害了消费者信心: https://time.com/6192933/fake-reviews-regulation/ [8] 今年发布: https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html
    [9] 始终未能颁布: https://www.theatlantic.com/technology/archive/2023/10/protect-children-online-social-media-internet/675825/


    https://cn.nytimes.com/opinion/20231108/biden-ai-regulation/?utm_source=RSS

    Wed, 08 Nov 2023 04:05:17 +0800

    --
    Mobot

    If you have any comments about this article, you can simply leave them by replying to this post. However, if you have any comments about this bot, please leave your message in the cn.fan group.

    --- SoupGate-Win32 v1.05
    * Origin: fsxNet Usenet Gateway (21:1/5)