超级智能

  • 为什么霍金认为人工智能威胁需要警惕?

    2014年,斯蒂芬·霍金在接受BBC专访时抛出一个震撼世界的论断:“人工智能的全面发展可能意味着人类的终结。”这位通过AI辅助通信系统与世界对话的物理学家,其警告格外发人深省。他并非反对技术进步,而是以科学家的远见预见了AI失控可能带来的生存危机。 指数级增长的计算能力 霍金反复强调摩尔定律的深远影响:“计算机理论上将在未来100年内通过人工智能超越人类。”…

    2025年11月23日
    30
联系我们
关注微信
关注微信
分享本页
返回顶部