全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
马斯克预言奥特曼戏剧幕后推手——OpenAI可能做出了一个危险的发现
go
lg
...
了OpenAI的竞争对手一个名为 X.
ai
公司
。 周三,马斯克表示,他相信萨茨凯弗拥有“强大的道德指南针”。“他真的为什么是正确的问题而汗流浃背,”马斯克告诉表示,“如果伊利亚觉得足够强烈,想要解雇奥特曼。好吧,我认为世界应该知道是什么原因。“ 本月早些时候,奥特曼暗示,马斯克的人工智能机器人是OpenAI的ChatGPT的竞争对手,是“令人畏惧的婴儿潮一代幽默”。 马斯克曾经警告说,公司需要对涉及人工智能的技术保持谨慎,因为它可能“对公众构成危险”。
lg
...
丰雪鑫99
2023-12-01
国金证券:给予恺英网络买入评级
go
lg
...
新技术领域,紧跟未来产业方向。 1)
AI
:
公司
选择 HOUDINI 作为程序化自动开发的基础工具,进行针对性训练,将训练后的 AI 工具拓展到整个体系进行应用,扩大使用场景,提升效率;探索各类 AIGC 工具的研发与应用;也与复旦大学签署协议探索 AIGC 与 AINPC 的结合;推出 AI驱动的 3D 写实数字人“温碧霞”; 2) XR: 旗下臣旎网络团队成员平均 15 年从业经验,专注于 XR、主机, LBE 以及手机游戏和应用,在研一款动作竞技类 XR 游戏,预计年内上线。 盈利预测 《石器时代: 觉醒》等陆续上线, 公司传奇奇迹盘子稳固,积极拓展新品类, 预计 23-25 年归母净利 15.1/18.6/22.3 亿元,对应 PE 为 17.6/14.3/11.9X,维持“买入”评级。 风险提示 游戏上线或表现不及预期; 版号发放不及预期; 游戏监管 证券之星数据中心根据近三年发布的研报数据计算,东方财富证券高博文研究员团队对该股研究较为深入,近三年预测准确度均值高达99.26%,其预测2023年度归属净利润为盈利15.1亿,根据现价换算的预测PE为17.32。 最新盈利预测明细如下: 该股最近90天内共有34家机构给出评级,买入评级28家,增持评级6家;过去90天内机构目标均价为17.73。 以上内容由证券之星根据公开信息整理,由算法生成,与本站立场无关。证券之星力求但不保证该信息(包括但不限于文字、视频、音频、数据及图表)全部或者部分内容的的准确性、完整性、有效性、及时性等,如存在问题请联系我们。本文为数据整理,不对您构成任何投资建议,投资有风险,请谨慎决策。
lg
...
证券之星
2023-11-26
华工科技:400G相干模块在北美已拿到几K级订单 开始批量出货
go
lg
...
。2)800G LPO全系列模块都正在
AI
公司
、设备商进行测试,预2-3个月左右可以测试完成,目前结果正常、顺利。3)400G/800G DSP系列模块,已经开始批量出货。整体来看,明年一季度末,这三个系列产品都会批量出货。
lg
...
金融界
2023-11-23
AI扫地机器人是智商税吗?
go
lg
...
。 正如Crunchbase报道的全球
AI
公司
融资数字表明的那样,人工智能领域依然是资金追逐的焦点。在人工智能技术发展的前沿,或许厂家真的能找到AI扫地机器人的未来之路。 在这个过程中,我们期待看到的不仅是产品的升级,更是用户对于智能生活的向往。 【声明】:本文为元宇宙之心运营团队原创,未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。 来源:金色财经
lg
...
金色财经
2023-11-23
AI 减速Web3 加速舆论话语与政治
go
lg
...
毁机器的人)不会止步于毁掉他们自己的
AI
公司
。他们也想控制你的公司。 与许多意识形态一样,AI 末日论也演变成了类似共产主义的东西。他们需要控制全世界的 AI,从而控制全世界的计算,进而控制全世界,以『拯救』世界。令人惊讶的是,他们的总体计划让哈里斯负责从超级智能中拯救我们。」 在政治口号喊出来后,Balaji 将矛头转向 OpenAI 的另一个标签「非营利组织」:「非营利组织毁了旧金山,现在又毁了旧金山最好的公司。他们名副其实,非营利组织无利可图。是的,有些原则上的例外。比如 EFF。它做得很好。但我们需要重新考虑非营利组织的激增问题」。是的,他们为了自己的政治叙事,也否定了「非营利组织」。Web3 不再谈论 OpenAI 作为非营利组织的「理想主义」初衷,不再颂扬「造福人类」的理想,只是轻描淡写一句不负责任的话:「它变了」。是啊,变了,多么大的转折,要么更好、要么更差,非此即彼。非营利组织不重要、变了多少不重要、如何变得不重要,重要的是变了,话语的影响就在于此。 更有意思的是,Balaji 的功利主义似乎让他迷失了自己,他的目标只剩下「网络国家」。Twitter 成为了 Balaji 口中对抗另一个主权国家的利器,他过分地褒扬了马斯克,却忘记了这是一个最大的独裁者,Balaji 在赞扬一个他所极力反对的人与事: 「减速论者有国家,但我们有网络。」 过去一年,网络在从国家手中夺回社交、加密货币和 AI 方面取得了重大进展。首先,马斯克收购了 Twitter,解雇了唤醒者,解除了华盛顿特区对社交媒体的核心控制。然后,公民记者揭露了 FTX,摧毁了华盛顿特区对加密货币的理想控制点。现在,有效利他主义也发生了内讧,破坏了他们对 AI 的关键文化控制点。因此,我们有机会争取言论自由、去中心化货币和开源 AI。」Balaji 称,「在每一件事中,Twitter 都是关键」,「即使 FBI 要求 Twitter 进行审查,马斯克也没有对 Twitter 进行审查;Twitter 上的加密社区曝光了 FTX,即使国会为 SBF 开脱;Twitter 上的有效加速主义斥责有效利他主义,即使有效利他主义试图通过行政命令破坏 AI」。 Balaji 说的一点都没错,OpenAI 事件能有如此大的传播离不开 Twitter。他与技术圈名人响马都从发生学的角度指出这场舆论的另一个制造剂——舆论发生的场域 Twitter。是的,没有中心化而又独裁的 Twitter,怎么会有 Balaji 口中与国家进行夺权的「网络」? 为什么「有效利他主义」被这群 Web3 大佬所厌恶?那自然离不开 SBF 与他的 FTX 帝国。SBF 在大学时期就深信有效利他主义,「赚最多的钱,捐给更多的人」。但 FTX 的暴雷对整个加密行业造成了巨大的冲击,「恨一个人也要恨他的信仰」,「有效利他主义」从此「臭名昭著」。在 Brian Amerstrong 看来, 如果这真的是 OpenAI 的有效利他主义、减速论、AI 安全政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。AI 安全涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家
AI
公司
都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
OpenAI闹剧大结局:喜迎Sam Altman“回宫”
go
lg
...
司,并在新董事会的监督下重掌这家领先的
AI
公司
。这一戏剧性的逆转有望终结OpenAI此番人事“地震”。 OpenAI在X平台上发帖称,“我们已原则上达成协议,让Sam Altman重返OpenAI担任首席执行官,并组建由Bret Taylor(主席)、Larry Summers和Adam D‘Angelo组成的新初始董事会。我们正在合作找出细节。非常感谢您对此的耐心等待。” Altman转发了该帖子并配上心形和敬礼表情包。 前总裁Greg Brockman也将回归,他说,重返OpenAI并将于今晚开始写代码,“今天取得了惊人的进展,我们将比以往任何时候都更强大和团结”。 根据“原则协议”,他将在新董事会的监督下任职,该董事会由Salesforce前首席执行官Bret Taylor、前美国财政部长Larry Summers和现任董事会成员兼Quora首席执行官Adam D‘Angelo组成。一位直接了解谈判情况的消息人士表示,这些新董事唯一工作是审查和任命最多9人加入新的正式董事会,重置OpenAI的治理。微软(373.07,-4.37,-1.16%)可能会在扩大后的董事会中占有一席之地,Altman本人也一样。 Altman和微软首席执行官萨提亚·纳德拉(Satya Nadella)都相继发帖。Altman在X上发帖写道:“我喜欢OpenAI,过去几天我所做的一切都是为了让这个团队及其使命保持团结。当我决定在周日晚上加入微软时,很明显这对我和团队来说是最好的道路。在新董事会和纳德拉的支持下,我期待重返Openai,并巩固我们与微软的牢固合作关系。”微软CEO纳德拉转发并表示,对这一变化感到鼓舞。 外媒报道称,Altman或因在人工智能的开发速度和货币化速度上存在分歧,上周五被OpenAI董事会解雇。随后他一直在与该公司就回归事宜进行谈判。据知情人士透露,这些谈判周日陷入僵局,部分原因是Altman和其他人向现有董事会成员施加压力,要求其辞职。 期间,董事会还又任命了一位新CEO——前Twitch首席执行官埃米特·希尔(Emmett Shear),而微软则表示将聘请Altman来领导一个新的内部人工智能团队。在几乎所有员工都威胁要辞职后,事情再度发生逆转。 OpenAI早期的董事会成员包括首席科学家Ilya Sutskever、独立董事D‘Angelo、科技企业家Tasha McCauley以及乔治城安全与新兴技术中心的Helen Toner,他们的突然决定面临着公众的严格审查,而且他们从未提供过全面的信息和解释。 据周二报道,一些OpenAI投资者对之前的董事会感到越来越失望,并开始探索起诉董事会成员的选择。 周日被任命为OpenAI临时领导人的Twitch前首席执行官埃米特·谢尔(Emmett Shear)表示,他对OpenAI的新决定感到满意。他说:“进入OpenAI时,我不确定正确的道路是什么。这是最大限度地提高安全性并让所有利益相关者正确行事的方法。我很高兴能成为解决方案的一部分。”
lg
...
金融界
2023-11-22
OpenAI 新任首席执行官 Emmett Shear 是谁?
go
lg
...
;松雪,金色财经 微软支持的人工智能(
AI
)
公司
OpenAI 在其董事会突然被罢免后,周末领导层发生了重大转变。 接下来的几天里,董事会面临恢复 Altman 首席执行官职务的压力,首席技术官 Mira Murati 被任命为临时首席执行官。 然而,11 月 20 日,也就是 Altman 离职三天后,OpenAI 宣布了新任首席执行官 Emmett Shear。 Shear 是亚马逊旗下视频流媒体平台 Twitch 的联合创始人兼前首席执行官。 Emmett Shear,OpenAI 新任首席执行官。 来源:Reddit 消息公布后不久,Shear 在 X(以前的 Twitter)上发表了一篇关于他对公司未来计划的长文,确认了他接受这个新职位。 他表示,由于成为一名父亲,他从 Twitch 辞职,当 OpenAI 董事会与他接洽时,他并没有轻易做出这个决定。 他表示,围绕“解雇”Altman的过程“处理得非常糟糕,这严重损害了我们的信任”。 据新任首席执行官称,在接下来的 30 天内,他计划聘请一名私家侦探来深入调查导致他被聘用的事件,与剩余员工交谈并改革管理和领导层。 “OpenAI 的稳定性和成功太重要了,不能让动荡像这样扰乱他们,”他说。 “我也会努力解决关键问题,尽管在很多情况下我认为可能需要一个多月的时间才能取得真正的进展。” 他还在帖子中澄清,在担任该职位之前,他探查了这一变化背后的“原因”,并表示: “董事会*没有*因为任何具体的安全分歧而解雇Altman,他们的理由与此完全不同。” Shear 还曾担任风险投资公司 Y Combinator 的兼职合伙人,毕业于耶鲁大学,获得计算机科学学士学位。 自从他被任命为首席执行官以来,Y Combinator 中两位高管的照片开始在社交媒体上流传。 2023 年初,Shear出现在一个播客中,他在播客中称先进人工智能是“本质上非常危险的东西,因为智能就是力量”。 在 OpenAI 任命新首席执行官前几个小时,OpenAI 的主要支持者、大型科技巨头微软宣布将聘请 Altman 和前董事会成员兼总裁格雷格·布罗克曼 (Greg Brockman)。 来源:金色财经
lg
...
金色财经
2023-11-21
突发再翻转!《纽约时报》:董事会坚持开除ChatGPT之父 任命“TA”成为新接替人选
go
lg
...
会诚实、透明,这一点至关重要。” 这家
AI
公司
有着不同寻常的治理结构,它由非营利组织的董事会控制,可以决定公司的领导层,而其投资者没有正式的方式影响决策。 报道提到,一些OpenAI员工誓言,如果董事会不让步,他们将退出公司或加入阿尔特曼新的潜在企业。但就在阿尔特曼极力推销新公司时,投资者仍在积极推动他和OpenAI联合创始人格雷格·布罗克曼(Greg Brockman)的回归。 整个周末,奥尔特曼和他的支持者通过风险投资家、其他科技高管和员工的呼吁向OpenAI董事会施压。三名知情人士表示,微软在这方面处于领先地位,而较小的投资者则通过微软表达了他们的担忧。 知情人士称,此举旨在向公司董事会展示阿尔特曼在OpenAI员工和整个硅谷中的受欢迎程度。 由于缺乏有关阿尔特曼下台原因的详细信息,这让他的支持者变得更加大胆。一些人认为,OpenAI的非营利董事会无法再支持公司所发展的业务,这是一家拥有700名员工、众多客户和企业合作伙伴、有望实现年收入10亿美元的企业。 2018年,亿万富翁马斯克(Elon Musk)与OpenAI分道扬镳后,阿尔特曼将实验室转变为一家由非营利组织及其董事会控制的营利性公司。在接下来的几年里,他筹集了公司开发ChatGPT等技术所需的数十亿美元资金。#ChatGPT火爆全网# 在加入OpenAI之前,希尔带领Twitch从一个名为Justin.tv的新贵平台转型为2014年被亚马逊收购的庞然大物。在这家科技巨头接手后,他继续留任,直到今年早些时候才离开,他说他正在养育孩子。 希尔是一名长期电子游戏玩家,在Twitch被视为一位称职的领导者,但也遭到了批评。人们认为他过于专注于削减成本,以及将亏损的网站转变为利润更高的业务。 董事会在备忘录中表示:“我们对这一突然的流程表示歉意,因为我们认为这是当前情况所必需的。即使理解它提出的问题,我们仍然相信我们的行动是必要的。”
lg
...
小萧
2023-11-20
Sam Altman退出OpenAI时间线一览:一切从一个电话开始
go
lg
...
coin代币短线下跌12% 人工智能(
AI
)
公司
OpenAI董事会在周五的博客文章中宣布罢免了Sam Altman首席执行官和董事会职务,Sam Altman的加密货币项目Worldcoin (WLD)在消息公布后短线下跌12%,现报1.87美元。 受Sam Altman拟回归OpenAI消息推动,WLD过去24小时涨幅超23% Sam Altman拟重回OpenAI并发布“我深爱OpenAI团队”消息后,WorldCoin代币WLD出现快速反弹,Coingecko数据显示报价2.31美元,过去24小时涨幅达到23.7%。 截至发稿,WLD价格为2.323美元,24小时跌幅4.44%。 金色财经将对Altman退出Open AI事件持续跟踪报道。 来源:金色财经
lg
...
金色财经
2023-11-20
突发!OpenAI董事局在与Altman谈判,要他回来
go
lg
...
不久便表态,称将继续坚定地支持与这家
AI
公司
的合作关系。尽管如此,OpenAI 的投资者们对于董事会决定解雇 Altman 一事却是毫无预警,也未有机会表达他们的看法。Altman 不仅是公司的代言人,还是 AI 领域中最有影响力的声音之一,他的离职使 OpenAI 的未来充满了不确定性,尤其是在此时,其他竞争对手正紧锣密鼓地追赶 ChatGPT 取得的空前成功。 OpenAI 目前的董事会成员包括:首席科学家 Ilya Sutskever、Quora 首席执行官 Adam D’Angelo、前 GeoSim Systems 首席执行官 Tasha McCauley,以及乔治城大学安全与新兴技术中心的战略总监 Helen Toner。与常规公司不同,OpenAI 的董事会并非致力于最大化股东利益。它的核心使命是确保创造出对大众有益的人工通用智能(AGI)。 据多方消息,Ilya Sutskever 不仅是 OpenAI 的联合创始人,还领导着其研究团队,据称在本周 Altman 被解职的事件中发挥了决定性的作用。
lg
...
金融界
2023-11-19
上一页
1
•••
47
48
49
50
51
•••
72
下一页
24小时热点
特朗普一句话、油价暴跌近4%!全球狂欢宿醉后等待风暴,今日不止鲍威尔
lg
...
发生了什么?黄金暴动超70美元,一度触及3120 今日两大风暴来袭
lg
...
特朗普突传大消息!彭博独家:特朗普中东之行这些大动作与对华鹰派产生分歧
lg
...
中美重大突发!彭博:中美贸易谈判代表在韩国举行会谈
lg
...
中美突传新禁令、官员谈判陷分歧!比特币10.4万遇强阻 黄金3237避险反弹
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
101讨论
#VIP会员尊享#
lg
...
1958讨论
#CES 2025国际消费电子展#
lg
...
21讨论