全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
亚马逊发布AI聊天机器人Q,争夺企业市场
go
lg
...
先供应商英伟达的关系。人工智能初创公司
Anthropic
的首席执行官Dario Amodei(亚马逊为其提供了高达40亿美元的投资)和英伟达的Jensen Huang都与Selipsky一起上台。 今年早些时候,亚马逊发布了Bedrock,这是一款软件工具,旨在让用户更容易访问其他公司的大型语言模型以及一些新的亚马逊模型,但最初的评价褒贬不一。亚马逊表示,Bedrock拥有超过10,000家客户,其中包括辉瑞公司,该公司用Bedrock来识别潜在的收购目标并检测制造异常情况。
lg
...
金融界
2023-11-29
全球首个标准 AI系统应遵循“安全设计”原则
go
lg
...
8个国家以及微软、谷歌、OpenAI、
Anthropic
、Scale AI等23个网络安全组织参与制定。 点评:这份指南强调了将客户安全、透明度与责任以及建立“安全设计”的组织结构列为优先事项。它适用于所有类型的AI系统,不仅涵盖行业内的“尖端模型”,还包括其他使用外部托管模型或API系统的案例。这个指南被视为全球首个AI安全标准,并为AI系统开发提供了必要的建议。它表明AI系统应该遵循“安全设计”的原则。 国信证券表示,AI在安全运维里为甲乙双方节省的时间和人员成本是显而易见的,且拓展了传统安全的能力边界,不管是利用AI检测未知威胁,还是处理海量事件,均是AI带来的崭新价值,因此我们持续看好网络安全产业,维持“超配”评级。重点关注在AI大模型积极投入的厂商,奇安信、深信服、安恒信息、绿盟科技、启明星辰、天融信等。
lg
...
金融界
2023-11-29
OpenAI的宫斗给微软敲醒警钟
go
lg
...
其他研究人员于2021年成立了竞争对手
Anthropic
。 谷歌母公司Alphabet最近向
Anthropic
投资20亿美元,以资助由对Sam Altman领导不满的OpenAI员工组成的竞争对手。这家人工智能初创公司甚至将使用来自谷歌的TPU,而亚马逊据称已向这家人工智能公司投资了高达40亿美元。以下是
Anthropic
的创始成员: Dario Amodei - 首席执行官,前OpenAI研究副总裁 Jack Clark - 前OpenAI政策总监和传播总监 Tom Brown - OpenAI技术人员 Sam McCandlish - OpenAI研究领导 随着山姆和Greg Brockman重新掌管OpenAI,投资者需要注意新的董事会指导该组织。Bret Taylor、Larry Summers和Adam D'Angelo是一个更强大的董事会,尽管他们不太可能像前任董事会那样肩负人工智能公共安全的核心使命。 来源:OpenAI 一个被释放的山姆,没有为公共安全和造福全人类而构建的董事会,实际上可能会进一步发展生成型人工智能领导力。由乔治城安全和新兴技术中心的海伦·托纳和OpenAI首席科学家Ilya Sutskever领导的董事会成员,他们可能不会因为安全原因而减缓AI的发展。 最终,显然有数百名客户联系了
Anthropic
、谷歌云和人工智能初创公司Cohere,寻求替代的人工智能服务。此外,微软显然在与OpenAI的竞争中遇到了问题,因为山姆可能会进一步转向商业化机会,而不像之前的结构那样努力束缚这些行动,因此在签约客户方面受到的影响更大。 微软肯定会从OpenAI价值高达900亿美元的大笔投资中受益,但该公司也没有完全控制这项技术。OpenAI产生的所有价值并不会全部流入微软,除非它成为这家科技巨头的收入。 陡峭的价值飙升 尽管微软全速推进Copilot和其他人工智能产品,但企业对购买新的人工智能软件工具仍然采取谨慎态度。这家科技巨头仅对第二财季的收入进行了指导,预计为606亿美元,增长15%。 虽然由于人工智能,微软有巨大的增长机会,但其股价现在已经超过了实际的潜力。该公司已经创造了2400亿美元的年收入,预计未来几年将有1000亿美元的人工智能增长,这是一个巨大的推动,但考虑到微软的相对规模,这并不是一个巨大的提高。 该股目前市值接近3万亿美元,24财年(截至6月)的营收为2430亿美元。预计营收仅会以15%的速度增长,而股价接近销售额的12倍。事实上,该公司2028财年的营收为4050亿美元,市盈率为7倍,这表明该公司股价在未来5年内可能不会反弹。其他所有科技巨头的股价现在都比微软低得多,Alphabet和Meta的预期市盈率只有6倍。 数据来源:YCharts 在接下来的几周和几个月里,该股肯定会走得更高。许多分析师给出了400美元以上的目标价。奇怪的是,目前普遍的目标价只有406美元,只有7.6%的上涨空间,而微软在53个评级中有35个评级是强烈买入。 来源:Seeking Alpha 实际上,大多数分析师已经完全看好该股票,从目前的水平来看,提供的额外上涨空间有限。投资者更像是将400美元视为退出点,而不是进入点。 结论 OpenAI的戏剧性事件可能不会损害人工智能业务,但这一戏剧性事件肯定会促使企业研究其他人工智能来源。与科技同行相比,微软的估值已经处于溢价和过高水平。投资者应该利用任何进一步向共识目标价格上涨的机会,在高点退出该股,并意识到这不是未来几年人工智能大幅上涨的起点。 $微软(MSFT)$
lg
...
老虎证券
2023-11-27
Sam Altman被OpenAI驱逐的核心是公司治理失败
go
lg
...
其很容易遭受灾难。其他替代结构,例如
Anthropic
建立的结构,经过更周密的组合,更好地协调多个利益相关者的利益,并且应该更能适应缓慢的目标分歧或突然的组织冲击。 2023 年 11 月 17 日星期五,OpenAI 首席执行官兼联合创始人 Sam Altman 被公司非营利性董事会的四名成员毫不客气地解雇。截至 2023 年 11 月 20 日星期一,即 Sam Altman 被解雇三天后,Sam Altman 似乎将加入微软,担任他将帮助创建的新人工智能部门的首席执行官。奥特曼先生将由前 OpenAI 董事会主席兼首席运营官格雷格·布罗克曼 (Greg Brockman) 加入微软,后者于上周五在奥特曼先生被罢黜并被降级为董事会后数小时内辞职。其他高级员工随后辞职,并打算加入新的微软部门,而且更多的人很可能会这样做。据报道,OpenAI 770 名员工中至少有 650 人签署了请愿书,要求该公司召回 Altman 先生并解散董事会。除了员工的震惊和愤怒之外,OpenAI 的投资者对 Altman 先生突然被解雇感到非常不安,没有事先通知他们任何人,而且似乎没有实质性的挑衅。该公司即将进行另一轮融资,这将需要二次出售员工股票,OpenAI 的估值为 870 亿美元,是当前估值的三倍。该融资似乎处于危险之中(当然,估值无法承受给公司带来的不稳定程度),这损害了员工和先前投资者的利益。 尽管周末忙于修复因被解雇而造成的损失并让 Altman 先生回归,但董事会还是保留了自己的角色(暂时),并迅速将临时首席执行官 Mira Murati(OpenAI 的首席技术官)降职——上周五才被指定为临时首席执行官——支持 Twitch 前首席执行官埃米特·希尔 (Emmett Shear)。周一凌晨,OpenAI 联合创始人兼首席科学家、策划罢免 Altman 的董事会成员之一 Ilya Sutskever表达了悔意。对于所发生的事情:“我对参与董事会的行动深感遗憾。我从来没有想过要伤害 OpenAI。” OpenAI 的命运悬而未决。该公司受到了深深的伤害,如何恢复还有待观察。不管是什么促使董事会首先认为罢免奥特曼先生是合适的,在任何人的完美世界中,罢免及其实施方式所带来的混乱和不确定性肯定不会成为目标。这一切都是一场大惨败。关于莎士比亚戏剧在我们眼前展开的许多事情要说(并且仍有待发现),现在可以肯定地说,这是企业管理的彻底失败。 OpenAI 所发生的事情代表了公司治理的巨大且明确的失败。无论奥特曼在被解雇后是否回来(谁知道,他仍然可能),情况都是如此。他一开始是如何被处决的,以及随后发生的混乱,提供了我们需要的所有失败证据。通过治理的视角,我们可以对 OpenAI 的问题得到一个有趣的、或许也是最有说服力的观点。过去几天的数据点容易受到多次读数的影响。即使那些同意治理失败的人也可能会归咎于不同的原因。一些评论家会很高兴看到董事会的意愿占了上风。他们将认为这是董事会治理的胜利(例如,参见此处,认为 Altman 在被解雇后基于员工和投资者的压力而迅速重返 OpenAI 将是失败的)。其他人可能会指责公司的替代治理结构,并认为任何过于创意或异国情调而使主要股东脱离监督和决策的行为都是有缺陷的。 公司治理基本情况 以营利为目的的公司通常设有董事会。风险投资支持的初创公司董事会通常包括一到两名公司高管,以及来自贡献最多资金的风险投资公司的代表。拥有其他外部或独立董事是健康的,他们可以为治理和管理事务带来新的观点,而不会过度受到自身利益的影响。公司董事会成员对公司负有信托义务,通常是为了促进积极的业务绩效、确保法律和法规合规性以及最大化股东回报。 非营利公司董事会的运作方式大致相同。有独立的董事会董事,可能是该组织的一个或多个最大慈善支持者的代表以及一些管理人员。最大的区别在于,非营利组织的存在并不是为了最大化股东价值或利润。他们通常以慈善或社会福利目标为主要使命。 除了一般性地最大化业务绩效之外,营利性或非营利性董事会对其组织的员工或外部利益相关者(例如客户或业务合作伙伴)都没有特定的信托义务。大多数健康的组织都会注意照顾不同的利益相关者的利益,因为他们知道这样做以及超出信托义务或法律要求可能要求的行为往往会支持业务绩效的实现,无论是在股东价值最大化还是实现慈善或社会福利目标方面。 OpenAI 的公司治理 OpenAI 于 2015 年底作为非营利组织成立。选择非营利形式的目的是“为了造福人类而构建安全、有益的通用人工智能”。正如该公司所描述的那样,OpenAI“相信 501(c)(3) 将是指导安全且广泛受益的 AGI 开发的最有效工具,同时不受利润激励的阻碍。” 然而,经过几年的运营,该公司意识到实现其雄心壮志所需的资金无法仅通过非营利实体获得。正如OpenAI 所解释的那样, “越来越明显的是,仅靠捐款无法与推动核心研究前进所需的计算能力和人才成本相匹配,从而危及我们的使命。因此,我们设计了一种结构来保留非营利组织的核心使命、治理和监督,同时使我们能够为我们的使命筹集资金。” 预计 2019 年将获得微软 10 亿美元的初始投资,OpenAI 在 Altman 先生的领导下在原来的非营利组织下创建了营利性子公司。这些营利性实体将能够合法地接受外部投资并向 OpenAI 员工提供股权。这家主要的营利性子公司采用了“利润上限”机制,投资者只能希望获得高达 100 倍的投资回报,超过的部分将返还给非营利组织,用于其更广泛的使命。 OpenAI 的一般公司结构,唯一的董事会控制着位于上方并控制所有其他附属公司的非营利实体。Sam Altman 被罢免之前的董事会由三名 OpenAI 高管(Greg Brockman(主席)、Sam Altman 和 Ilya Sutskever)以及三名独立董事(Quora 首席执行官 Adam D'Angelo、GeoSim 首席执行官 Tasha McCauley)组成Systems 和乔治敦大学安全与新兴技术中心战略与基础研究资助主任 Helen Toner)。 这种方法并非没有争议。这促使公司高层叛逃,例如导致 Dario 和 Daniela Amodei 于 2021 年创立了
Anthropic
。显然,接受外部资金的决定仍然存在一些紧张局势,而在 2023 年 ChatGPT 取得突破性成功后,随着微软和其他投资者向该公司注入了数十亿美元,这种紧张局势进一步加剧。值得注意的是,Ilya Sutskever 在 2019 年新结构创建时确实承认了这一点,并且似乎对此持乐观态度。他当时表示, “为了建立通用人工智能,你需要数十亿美元的投资……我们创建这个结构是为了筹集资金,同时与我们的使命保持一致。” 治理和判断失败 如前所述,OpenAI 的治理结构是一种改造。它在 11 月 17 日之前经历的治理失败部分是由于这种结构。但在很大程度上,这是由于公司快速变革时忽视了结构。 →让非营利组织董事会成员在 2023 年初倒戈后陷入困境。除了 Altman 先生被解雇和 Brockman 先生于 2023 年 11 月 17 日被降职之前的六名成员之外,OpenAI 董事会此前的成员还包括经验丰富的硅谷公司运营商和投资者 Reid Hoffman、前任董事会成员 Will Hurd。德克萨斯州国会议员和埃隆·马斯克 Neuralink 董事 Shivon Zilis。由于各种冲突,这三人于 2023 年春季辞去董事会成员职务。没有做出任何努力来取代他们或为董事会补充额外的专业知识和经验,而这可能适合一家一夜之间市值数百亿美元的公司。奥特曼先生可能对三位外部董事非常信任,当然也对布罗克曼先生非常信任。但信任有时不足以保持审慎、透明的决策和良好的判断力。目前尚不清楚 Adam D'Angelo、Helen Toner、Tasha McCauley 和 Ilya Sutskever 是否拥有足够深度和广度的经验来指导 OpenAI 实现其非营利使命,更不用说在全球知名的数十亿美元的项目中与更广泛的利益相关者利益相平衡了。企业。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。更不用说这与价值数十亿美元的全球知名企业中更广泛的利益相关者的利益相平衡了。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。更不用说这与价值数十亿美元的全球知名企业中更广泛的利益相关者的利益相平衡了。很明显,他们在解雇奥特曼先生时判断失误。每个人都可以得到一个更大的董事会的更好服务,在有关 AGI 及其预期社会影响的问题上拥有更成熟和多样化的专业知识,并协调这些利益与投资者和其他利益相关者的利益。 → 首席执行官的审查流程不充分。截至撰写本文时,我无法访问 OpenAI, Inc. 的章程或其他管理文件。然而,我们知道解雇奥特曼先生的决定是根据多数票(六名董事中的四名)做出的。首席执行官的任职符合董事会的意愿,并且可以根据多数决定被罢免。然而,对公司战略方向的分歧通常不应涉及解雇一位表现出色的首席执行官,除非存在渎职行为或被认为对业务有害的持续僵局。审慎实践通常涉及对缺陷或不当行为的客观证据进行调查、记录和阐明。OpenAI 董事会声称解雇 Altman 先生的原因是其模糊的描述他对董事会“始终不坦诚”,“阻碍了董事会履行职责的能力”。然而,随后的爆料表明,他没有任何渎职行为,并且“在安全问题上没有具体分歧””。在不了解更多情况的情况下,驱逐奥特曼先生的决定似乎是基于性格冲突或个人分歧,这些冲突或个人分歧似乎应该或可能受到争议解决程序或与其他利益相关者协商的影响。管理文件并不总是规定此类程序,但良好的治理通常涉及在首席执行官未以其他方式提出不当行为或绩效不佳的情况下自愿遵循此类程序。非营利组织的董事会没有投资者席位,甚至没有投资者咨询委员会。一方面,这可能避免了任何腐败影响。另一方面,它剥夺了董事会通常可以带来的智慧,特别是在涉及困难的战略决策或对公司产生重大影响的分歧的情况下。 → 董事会超越了过于狭窄的任务重点。OpenAI 的使命是“确保通用人工智能造福全人类”。在这方面,通用人工智能的安全被列为首要目标。当然,AGI 仍然是 OpenAI 的一个理想目标。据奥特曼先生十一月初报道,该公司目前的LLM产品并不是通往AGI或超级智能的途径。因此,ChatGPT 和 GPT-4 等产品的商业成功并不意味着 AGI 或 AGI 相关的安全性。基于目前向公众提供的人工智能产品,有很多需要关注的直接政策和用户安全问题。但这些不属于与通用人工智能或超级人工智能相关的生存风险或更严重的公共安全风险。也没有承诺允许微软或其他人访问具有潜在危险的技术。例如,至少自 2023 年 6 月起,该公司已明确表示: “虽然我们与微软的合作伙伴关系包括数十亿美元的投资,但 OpenAI 仍然是一家完全独立的公司,由 OpenAI Nonprofit 管理。微软没有董事会席位,也没有控制权。而且……AGI 明确地包含在所有商业和知识产权许可协议中。” 无论 OpenAI 董事会对 Altman 先生领导下的公司商业方向有何担忧,这些都不会立即暗示他们在该非营利组织既定使命下的授权。此外,Sutskever 先生本人还接管了 OpenAI 的 AGI 和超级智能研究,特别是安全地开发和管理这些希望的成果的目标。 这里的总体要点是,一旦 OpenAI 一夜之间发生变化并让世界随之改变,我们就应该非常清楚需要采取更多措施来协调其各种动机和利益。该公司的业务围绕生成人工智能蓬勃发展,但这本身并不是运营该公司的非营利组织的使命重点。要么需要扩大非营利组织的使命,要么需要将其更广泛追求的更多决策和领导权移交给运营其生成人工智能业务的子公司实体。 未能预见到明显的后果 最终的治理失败是董事会未能预见到他们的行为将对 OpenAI 造成极大的破坏。这些可能都是由于缺乏领导智慧、经验和专业知识而造成的。然而,自周五以来出现的那种后果应该是可以预料到的。自一年前公开推出 ChatGPT 以来,Sam Altman 已成为全球人工智能运动的领军人物。他是人工智能令人惊叹的潜力及其风险的可靠、善于表达的大使。此外,他一直是公司融资和产品开发方面的得力管理者,深受投资者、员工和硅谷领导层的喜爱。对于许多人来说,Sam Altman 不仅是 OpenAI 的代言人和代言人,而且他就是这家公司。在这种情况下,董事会有责任为罢免奠定充分的基础。制定连贯的继任计划、复杂的信息传递计划以及提前与关键利益相关者进行保密联系都至关重要。这些措施似乎根本没有采取,或者没有经过充分的深思熟虑和规划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。或者经过充分的深思熟虑和计划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。或者经过充分的深思熟虑和计划。目前尚不清楚董事会是否有合理的建议,不仅涉及解雇奥特曼先生的技术可行性,而且还涉及在解雇发生的情况下这样做的适当性。 具有一致激励措施的替代结构 公测研究项目 ChatGPT 的商业成功让所有人措手不及。它创造了一个没有人预料到、也没有人计划的商业机会区。没有人能做到这一点,因为 ChatGPT 的巨大成功及其对行业转型的影响在技术史上是史无前例的。该非营利组织需要发展,但相反,董事会成员因冲突而流失,并且未能用适合 OpenAI 2023 年发展目标的额外经验或技能来取代或补充他们。因为它没有发展,信任破裂,做出了不健全的判断剩下的董事会多数票通过了,混乱随之而来。奥特曼先生确实也有责任不去关注那些损害他利益的治理缺陷,尽管也许他的信任本性通常是一种美德。即使是善意的,也可能因结构不充分调整激励措施、包含适当的保障措施或充分定义决策程序而被克服。因此,许多人可能会忍不住质疑所有替代结构。我不认为这是有道理的。 非营利组织并不是 OpenAI 在 2015 年实现其雄心壮志的最佳工具,在 2019 年首次重新审视其公司结构时更是如此。自 2013 年以来,特拉华州创建了公益公司(PBC)。这种公司形式表明,公司可能有超越利润最大化的目标,并且希望对股东以外的利益相关者负责。重要的是,人民银行可以在一个有凝聚力的企业结构中同时追求利润和社会效益目标。其董事会可以包括投资者,董事会层面的决策必须始终考虑所有确定的利益相关者的利益。 这是
Anthropic
在其创始人对 OpenAI 的方法感到失望后选择创建的公司形式。除了 PBC 之外,
Anthropic
还成立了长期福利信托 (LTBT)。根据设计,LTBT 是一个轮换机构,其成员任期为一年。LTBT 是“目的”驱动的,旨在在其权力和决策范围内牢记人工智能对社会有益的用途的更广泛使命。他们可以选择 PBC 董事会的绝大多数成员,但他们自己并不担任
Anthropic
董事会成员。作为一种新颖的公司结构,
Anthropic
LTBT + PBC 具有一定的设计灵活性,承认在此过程中可能需要进行一些微调。这种结构还有待考验,无论是危机还是诉讼。然而,根据它的轮廓,我们很容易看出它如何能够更好地应对 OpenAI 所面临的危机。如果 OpenAI 拥有更符合这些思路的结构,不仅可能无法达到终止事件,而且处理该事件的方式可能会比我们过去几天看到的更加负责任。 来源:金色财经
lg
...
金色财经
2023-11-23
AI 减速Web3 加速舆论话语与政治
go
lg
...
4 日,哈里斯会见 Alphabet、
Anthropic
、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、
Anthropic
、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
相比人类:AI真简单
go
lg
...
。董事会还被曝出寻求OpenAI与对家
Anthropic
合并,但被微软叫停。
Anthropic
的创始成员中有相当一部分都是OpenAI的前员工,很多都参与开发过GPT-2和GPT-3,因此其产品Claude系列也有“GPT最强平替”的别名。 10.投资者计划起诉董事会。一些投资者考虑起诉董事会,如果OpenAI就此倒闭,他们之前的大笔投资会就此血本无归。奥尔特曼已经开始与董事会进行新一轮谈判,可能以过渡董事会董事的身份回归,谈判还涉及OpenAI的一些投资者。 11.临时CEO想撂挑子。第二任临时CEO表示如果董事会不能明确告知辞退前CEO奥尔特曼的原因,他也要就此开摆了。 12.微软再次降临。微软一边为接手OpenAI员工做好准备,一边计划改造OpenAI治理结构,包括要求OpenAI扩大董事会规模、提高对成员的经验要求。同时微软也在考虑是否应该让一名自己的高管进入OpenAI董事会,毕竟向OpenAI投资最多的就是微软,至今已有大约130亿美元,无论如何也得掌握更多的否决权,至少也是事先知情权。 13.奥尔特曼与董事会昔日矛盾曝光。在被开除的几周前,奥尔特曼曾谴责一位董事会成员,乔治城大学安全与新兴技术中心的海伦·托纳(Helen Toner),其在参与合著的一篇研究论文中批评OpenAI在AI安全方面的努力,却对
Anthropic
的安全措施赞誉有加。奥尔特曼认为来自董事会成员的任何批评都会对OpenAI造成很大的负面影响,无异于吃里扒外。这件事也被视为二人间的嫌隙,因此也有消息认为将排挤奥尔特曼的“政变”中,海伦同样有幕后指使的嫌疑。 14.结束。OpenAI宣布前CEO官复原职,董事会改组,亚当留任独立董事,细节问题正在被合作解决,奥尔特曼发文称OpenAI会比以前更强大、更团结,微软表示祝贺。 难得一见的年度大戏自此落幕,希望没有尾声或者彩蛋。 来源:金色财经
lg
...
金色财经
2023-11-22
消息称微软正讨论OpenAI董事会治理改革清单
go
lg
...
I董事会寻求与竞争对手人工智能初创公司
Anthropic
合并时,并没有得到微软的批准。微软将寻求加强这些保护,并增加其拥有否决权或至少通知权的场景数量。 微软已经向OpenAI投入了大约130亿美元,知情人士说,微软目前主要是在等待新董事会的出现,以便讨论这些变化。 据知情人士透露,奥特曼、OpenAI董事会成员和临时首席执行官埃米特·希尔(Emmett Shear)已经开始谈判,目的是可能让这位被罢免的创始人复职。一旦奥特曼的回归和现任董事会的命运尘埃落定,谈判和实施微软想要的任何改变都可能是一个不断发展的过程的一部分。 微软CEO萨蒂亚·纳德拉周一明确表示,OpenAI需要对其治理进行重大改革,无论奥特曼是回归,还是像微软和奥特曼周日宣布的那样,在微软负责一个新的AI研究部门。纳德拉表示,OpenAI董事会在解雇奥特曼之后,在对外宣布解雇他之前,只给了他最简短的通知,这让他感到不满。 纳德拉在一次采访中表示:“意外是不好的,我们只是想确保事情以一种能让我们很好地合作的方式完成。”在没有微软参与的情况下进行重大变革是“不好的,我们肯定会确保一些必要的变革发生。” 据了解微软想法的人士透露,微软也在考虑是否应该尝试让一名高管进入OpenAI的董事会。知情人士说,该公司将不得不权衡自己想要获得更多控制权的愿望,以及直接参与这家初创公司可能招致美国监管机构挑战的风险。
lg
...
金融界
2023-11-22
浅谈重塑世界之区块链和AI的交汇
go
lg
...
要参与者,如OpenAI(微软支持)和
Anthropic
(谷歌和亚马逊支持),正在整合资源,并建立起围绕自身模型和数据的壁垒。然而,这种做法可能破坏了最初催生该行业的协作开发周期,抑制了行业的发展势头,尽管他们在计算、数据和分销方面具有早期优势。 区块链,例如以太坊,提供了一个可行的解决方案,并已成为可靠的中立数据和计算系统。它推动了开源创新,并支持了一系列数字原生原语。这些原语在一个越来越由生成式AI塑造的世界中具有重要地位,因此区块链有望成为人工智能领域开源研究和开发的主要力量。 区块链的去中心化特性提供了更加安全、透明和可信的数据管理方式。通过将数据存储在分布式网络中,并使用加密算法确保数据的完整性和真实性,区块链为人工智能研究和开发提供了信任基础和数据共享的机制。 在人工智能领域,数据是至关重要的。然而,数据的获取和管理往往面临许多挑战,如数据安全性、数据隐私和数据分发等。区块链通过建立分布式的数据存储和管理系统,允许参与者共享和访问数据,同时保持数据的安全性和隐私性。这为人工智能研究和开发提供了更加开放和合作的环境。 此外,区块链还可以解决人工智能算法的透明性和可解释性问题。人工智能算法往往是黑箱,难以理解其决策过程和判断依据。区块链可以记录和追溯算法的训练过程和数据输入,使得人工智能的决策过程更加透明和可解释。 总而言之,区块链有着广阔的应用前景,尤其在人工智能领域的开源研究和开发中。它为数据管理、数据共享、算法透明性和可解释性提供了解决方案,促进了人工智能领域的协作和创新。我们相信,区块链将成为人工智能领域开发的重要动力,推动行业朝着更加开放和合作的方向发展。 3、当今市场状况 今年,大量资金已经投入到人工智能的核心基础设施、模型层,甚至是面向用户的应用程序,例如聊天机器人、客户支持和编码助手。然而,在传统领域里,对于人工智能产生的价值在哪里积累并不明显。 当前的场景中,人工智能很有可能成为一股中心化力量,并继续扩张Web2市场主导者的地位。特别是在基础设施和模型层,参与者们已经在扩展硬件和资本资源、数据访问、分销渠道和独特的合作伙伴关系方面进行投资。 许多头部巨头们正朝向全栈模式发展,通过并购或专利合作的方式,从云服务提供商如AWS到硬件制造商如英伟达(Nvidia),再到老牌巨头如微软。这些巨头们正在进行规模和利润的争夺,但超昂贵、高精度的企业API模型的市场可能会受到经济、开源性能趋同、甚至低延迟工作负载需求趋势的限制。 与此同时,中端市场的很大一部分已经出现了类似于“OpenAI API wrapper”产品的商品化趋势,这些产品功能齐全,但却难以区分。这些产品为用户提供了自定义API的灵活性和价值,但也呈现出资金缺乏和扩展能力不足的问题。 在这个市场环境下,开源的解决方案显得尤为重要。开源软件可以提供更好的性能、成本更低、更好的可重复性和可扩展性。在开源的模型、工具和库的基础上,开发者可以更加灵活地构建自己的应用,并快速响应市场和用户需求。 总之,人工智能市场的未来发展趋势与开源和开放合作密不可分。去中心化的开源生态系统可以降低人工智能发展中的壁垒,为更多人提供机会,从而推动行业的发展和技术的进步。 4、开源建设势头 当前,开源系统和工具正在鼓励大大小小的企业直接利用预训练、训练和微调的开源数据集,以及免费访问的基础模型和工具,使创造力得到了更加充分的发挥。 值得注意的是,据谷歌泄露的一篇文章概述,闭源和开源代码世界之间的差距正在迅速缩小。目前,有96%的代码库都使用了开源软件,这一趋势在大数据、人工智能和机器学习领域尤为明显。 与此同时,颠覆云服务寡头垄断的时机或已成熟。过去,AWS、Google Cloud和Azure这三大巨头是通过将工具和服务分层来占领市场,从而在企业竞争中深入巩固自己的地位。然而,这种主导地位给企业带来了许多挑战,从限制性运营依赖到云基础设施相关的过高成本,尤其是考虑到主要提供商收取的溢价。 在这种情况下,开源系统和工具的应用将是一个强大的颠覆者。开源系统和工具可以为企业节省成本,降低依赖性,并提供更加灵活的解决方案。企业可以依据自己的需求选择开源系统和工具,并且可以对其进行定制和优化,以满足自身的业务需求。 总之,开源系统和工具的广泛应用将颠覆云服务寡头垄断的市场环境,并给企业带来更加灵活和经济的解决方案。 现有公司面临着运营重组的费用压力,再加上试图尝试和整合越来越多的开源AI,将为使用去中心化替代方案重构业务创造一个窗口。 因此,开源AI和区块链技术的新兴交叉点为实验和投资提供了一个非凡领域。 5、加密与AI:双向价值关系 我们对人工智能和区块链之间潜在的共生关系感到异常兴奋。 加密中间件可以通过建立有效的计算和数据市场(供应、标签或微调)以及证明或隐私工具,极大地改善人工智能供应方的信息输入。 反过来,去中心化应用程序和协议将通过吸收这种劳动成果达到新的高度。 不可否认,加密技术已经取得了长足的进步,但协议和应用程序仍然受到主流用户使用的仍然不直观的工具和用户界面的影响。同样,智能合约本身可能会受到限制,无论是在开发人员的手动工作负载需求方面,还是在整体功能的流动性方面。 Web3开发人员是一群非常高产的人。高峰时期,仅仅7.5万名全职开发者就创造了价值数万亿美元的产业。编码助手和ML增强DevOps有望助力现有工作,而无代码工具正在迅速赋能新一类建设者。 随着机器学习功能被整合进智能合约并被带到链上,开发人员将能够设计出更加流畅和富有表现力的用户体验,并最终设计出全新的杀手级应用程序。这种链上体验的跨越式功能改进将吸引新的——可能是更多的——受众,催化出重要的采用反馈飞轮。 生成式AI可能就是加密货币缺失的一环,它将改变UI/UX,并催生新一波技术发展浪潮。反过来,区块链技术将利用、泛化和加速人工智能的潜力。 6、使用区块链建设更好的数据市场 使用区块链技术来建设更好的数据市场是一个具有潜力的方向。数据在机器学习中扮演着基础信息输入的角色,庞大的数据库如Common Crawl和The Pile使得基础模型获得了全球的关注。 企业可以利用这些数据来完善产品供应的基础模型,或者用于建立未来的竞争优势。数据最终将成为用户和个人模型之间的桥梁,个人模型可以在本地运行,并不断适应个人需求。 因此,数据的竞争成为了一个必不可少的前沿领域,区块链技术可以在这个领域中占据优势,尤其是在质量成为塑造数据市场的重要属性的情况下。 数据质量比数量更为重要。早期研究表明,未来高达90%的在线内容可能是人工合成的。虽然合成训练数据具有一定的优势,但它也存在模型质量恶化和偏见强化的重大风险。 未来几年,机器学习模型可能会面临非合成数据源的枯竭的风险。区块链技术通过其协调机制和证明原语,为支持去中心化市场提供了优化的可能性,使用户能够共享、拥有或变现用于训练或微调特定领域模型的数据。 因此,Web3可能成为更好、更有效的人工生成训练和微调数据的源头。 目前,区块链技术已经在支持去中心化的训练、微调和推理过程方面取得了进展,同时也可以更好地保存和利用开源智能。 较小的开源模型通过高效的微调过程进行改进,其输出精度已经可以与较大的模型相媲美。因此,在数据来源和微调数据方面,趋势已经开始从数量转向质量。 能够跟踪和验证原始数据和衍生数据生命周期的能力可以促进模型复现性和透明度,从而推动更高质量的模型和输入的发展。 区块链可以建立一个持久的护城河,成为具有多样化、可验证和量身定制数据集的主要领域。这在传统解决方案过度索引算法进度以应对数据不足的情况下尤其有价值。 内容模仿爆发 即将到来的内容模仿浪潮是另一个加密货币先发优势将发挥作用的领域。 这种新的技术范式将以前所未有的规模赋能数字内容创作者,而Web3即插即用的基础设施让这一切都变得简单明了。加密货币具有主场优势,这要归功于多年来围绕以NFT形式建立数字资产和内容的所有权和不可变来源的原语的开发。 NFT可以捕获整个内容创作生命周期,但也可以代表数字原生身份、虚拟资产,甚至现金流。 因此,NFT使数字资产市场(OpenSea、Blur)等新用户体验成为可能,同时也重新思考了书面内容(Mirror)、社交媒体(Farcaster、Lens)、游戏(Dapper Labs、Immutable),甚至是金融基础设施(Upshot、NFTFi)等商业模式。 这项技术甚至可以比另一种选择——使用算法——更可靠地打击深度造假和计算操纵。一个明显的例子就是,OpenAI的检测工具因精度失败而关停。 最后一点:简洁和可验证计算的进步也将升级NFT的动态格局,因为它们包含ML输出以驱动更智能、不断发展的元数据。我们相信,基于区块链技术的AI工具和界面将释放出全面价值,重塑数字内容格局。 利用零知识证明实现机器学习的无限知识 区块链行业正在寻求技术解决方案,既能够实现资源高效计算,又能够保持无需信任的特性,而零知识证明(ZK)正是在这方面取得了重大进展。 虽然最初的设计是为了解决以太坊虚拟机等系统的资源瓶颈问题,但ZK证明实际上提供了许多与人工智能相关的有价值用例。 一个明显的例子是对现有用例进行简单扩展:通过高效而简洁的方式验证计算密集型过程,比如在链下运行机器学习模型,这样最终的产品(如模型推理)可以以ZK证明的形式在链上整合。 通过将存储证明与协同处理相结合,我们可以在不引入新的信任假设的情况下,使得链上应用程序更加灵活和敏捷,大大增强其功能。 当使用ZK证明调用API时,我们可以验证特定模型或数据池是否真正用于生成推断。它还可以隐藏模型在敏感行业如医疗保健或保险中使用的特定权重或数据。 公司甚至可以通过交换数据或知识产权来更有效地进行合作,并从共享学习中受益,同时仍然保持着自己资源的所有权。 最后,ZK证明在区分人工数据和合成数据这一日益相关而又具有挑战性的领域中具有真正的适用性。 这些用例中的一些还需要进一步的技术开发和寻找可持续规模经济的方法,但zkML有可能对人工智能的发展轨迹产生独特的影响。 8、长尾资产及潜在价值 加密货币已经证明了其作为音乐和艺术等传统市场价值流的卓越架构师的作用。在过去的几年里,还出现了代表链下有形资产(如葡萄酒和运动鞋)的链上流动性市场。 继任者自然将涉及先进的ML功能,因为人工智能被带到链上并可让智能合约访问。 ML模型与区块链围栏(rails)相结合,将重新设计以前由于缺乏数据或买家深度而无法获得的非流动性资产背后的担保流程。 一种方法是,机器学习算法查询大量变量,以评估隐藏的关系,并最大限度地减少操纵者的攻击面。Web3已经在尝试围绕社交媒体关系和钱包用户名等新概念创建市场。 与AMM对释放长尾代币流动性的影响类似,ML将通过获取大量定量和定性数据来获得隐性模式,从而彻底改变价格发现。这些新的见解可以形成基于智能合约的市场的基础。 人工智能的分析能力将嵌入去中心化金融基础设施,以发现长尾资产中的潜在价值。 9、去中心化基础设施层 加密货币不仅在吸引和货币化高质量数据方面具有优势,而且在人工智能背后的基础设施支持方面也具有相似的前景。 一些去中心化物理基础设施网络(DePINs),如Filecoin和Arweave,已建立了用于存储的系统,这些系统本身就包含区块链技术。 还有其他公司,如Gensyn和Together,致力于解决分布式网络模型训练的挑战,而Akash则推出了一个令人印象深刻的P2P市场,将过剩的计算资源与需求联系起来。 此外,Ritual以激励网络和模型套件的形式为开源AI基础设施的建设提供基础,将分布式计算设备连接起来,供用户进行推理和微调。 其中最重要的是,像Ritual、Filecoin或Akash这样的DePIN还可以创建一个更大、更有效的市场。他们通过向更广泛的供应端开放,包括能够释放潜在经济价值的被动供应商,或者将性能较差的硬件整合到与高水平同行竞争的池中来实现这一点。 技术栈的各部分都涉及不同的约束和价值偏好,并且对这些层进行规模性实战测试(特别是去中心化模型训练和计算的新兴领域)方面仍有大量工作要做。 然而,基于区块链的计算、存储甚至模型训练解决方案的基础已存在,这些解决方案最终可以与传统市场一较高下。 10、综上所述,加密技术和人工智能的结合已经成为最具前景的设计领域之一,影响到了从内容创作到企业工作流程及金融基础设施等方方面面。 我们相信在未来几十年内,这些技术将对世界进行重塑。最好的团队将结合基础设施、加密经济学和人工智能等技术,以提升产品/服务性能、实现全新行为或实现具有竞争力的成本结构。 加密技术为协作网络引入了前所未有的规模、深度和标准化数据粒度,而人工智能将信息池转换为相关背景或关系的向量。当这两个领域结合在一起时,可以形成一种独特的互惠关系,为去中心化未来的建设者奠定基础。 来源:金色财经
lg
...
金色财经
2023-11-22
给OpenAI董事会一些时间人工智能的未来极大可能取决于他们
go
lg
...
特曼在Y Combinator的时光,
Anthropic
联合创始人决定从OpenAI分拆出去以及他和埃隆·马斯克的散伙。 这些董事会成员并不是第一批质疑奥特曼诚信的人,他们已经在公开场合这么做了。 OpenAI的许多员工、股东和微软似乎都希望奥特曼重新执掌公司。这给OpenAI的非营利性董事会带来了巨大的压力,要求他们放松态度。该董事会由OpenAI首席科学家伊利亚•萨斯克维尔、Quora首席执行官亚当•德安吉洛、科技企业家塔莎•麦考利和乔治城安全与新兴技术中心的海伦•托纳组成。 (奥特曼和联合创始人格雷格•布罗克曼(Greg Brockman)也是董事会成员,直到上周五发生政变。奥特曼被赶下台。布罗克曼被解除了董事长职务,但在辞职前一直留在公司。) 奥特曼拒绝就此事发表评论。 萨姆·奥特曼(图片来源:贾斯汀·沙利文/盖蒂图片社) 我认为董事会不应该为了逃避巨大的公众压力而让步。但他们确实需要更好地解释自己。目前他们把公众沟通搞得一塌糊涂。 董事会并没有明确表达具体的不满。我也不认为董事会的决定是基于任何一个单一的框架。 董事会在声明中表示,它得出的结论是,奥特曼“在与董事会的沟通中并不保持坦诚。” 我们不应该让糟糕的公开信息蒙蔽了我们的双眼,因为奥特曼已经失去了对董事会的信心,而董事会本应使OpenAI的诚信合法化。 一旦你加上超强人工智能带来的生存风险的可能,OpenAI董事会成员Sutskever似乎真的很担心这只会放大信任崩溃的潜在风险。 根据有关人士透露的信息,我对此理解是,董事会的一些成员确实认为奥特曼在与他们的沟通中不诚实、不可靠。一些董事会成员认为,他们无法监督公司,因为他们不相信奥特曼所说的话。然而,一个非营利性董事会的存在是OpenAI值得信赖的一个关键理由。 我不认为我们中的任何人现在真的知道足够的信息来敦促董事会仓促做出决定。我想让你考虑几件事: OpenAI的董事会并不是一个普通的董事会。这是一个非营利性的董事会,旨在让OpenAI与公众利益保持一致。这个董事会的运作方式不同于营利性公司的传统董事会,这是有道理的。奥特曼一直强调,OpenAI是一个非营利组织,在推动和捍卫OpenAI。他告诉国会:“我们是由非营利组织管理的,我们的活动是由我们的使命和章程驱动的,这使我们承诺努力确保人工智能的利益得到广泛分配,并最大限度地提高人工智能系统的安全性。”这个非营利性董事会被用来保护OpenAI的声誉。难道不应该期待同一个董事会在它认为事情不对劲的时候施加影响吗?拥有一个非营利性董事会的全部意义在于,他们可能会以一种让公司投资者感到沮丧的方式行事。 这里有三个关键的历史案例研究:首先,达里奥·阿莫代伊(Dario Amodei)、杰克·克拉克(Jack Clark)和
Anthropic
的团队对OpenAI的方法感到非常困扰,他们需要分拆出来,自己创建更安全、更以一致性为导向的基金会模型公司。到底是什么(或者是谁)让这个团队如此担心,以至于需要跳槽?奥特曼无疑是这个决定的核心人物。 其次,上周五我重新露面时,奥特曼离开Y Combinator一事引发的争议比公众理解的要大。一位消息人士告诉我,时任YC总裁的奥特曼被要求离职。他离开YC时没有任何隶属关系,尽管最初奥特曼应该是YC的董事长,或者至少是顾问。一些类似的问题也在此事发酵。在YC,奥特曼被OpenAI搞得心烦意乱,但也顶着董事会的压力积极进行投资;他想大幅扩张,甚至试图在中国推出YC,但这一决定引起了争议(后来的YC总裁改变了这一决定);YC的品牌也成为了奥特曼的代名词。据报道,在OpenAI,奥特曼一直在谈论与孙正义(Masayoshi Son)和乔尼•艾夫(Jony Ive)一起创办一家硬件公司;他正在推动OpenAI越来越快的扩张;毫无疑问,他已经成为公司唯一的有名无实的领导人。奥特曼似乎有一种几乎无法满足的来增加自己的权力和影响力的欲望。据彭博社报道,奥特曼正在为一家新的芯片企业筹集数十亿美元资金。 第三,别忘了埃隆·马斯克和奥特曼曾因为OpenAI散伙。 对奥特曼持怀疑态度的人私下里总是这么说:他领导过一家失败的初创公司。保罗·格雷厄姆(Paul Graham)很喜欢他,把奥特曼选为格雷厄姆的继任者。奥特曼利用YC的角色积累了巨大的个人名声和财富。但不清楚的是,奥特曼是否才华横溢,还是说YC是一家很强大的组织而他正受益于它的光环。后来,当OpenAI获得成功时,就连奥特曼私下里的批评者也不得不承认,奥特曼之所以伟大,并不仅仅是因为这个YC的头衔。奥特曼经营着当时最重要的初创公司之一,发布了真正突破性的技术。但也许奥特曼私下里的质疑者太快改变了论调。 我想说的是,虽然公众对奥特曼的支持几乎是一致的,但私下里有些人的看法却更为复杂。 我敢肯定,写这封警告信不会让我在硅谷的许多角落受欢迎。但我觉得我们应该放慢脚步,了解更多事实。如果OpenAI引领我们走向人工通用智能或任何接近的地方,我们会希望花一个多周末的时间来思考我们想让谁带领我们去那里。 奥特曼总是可以决定直接创办一家新公司,并带上他的员工和OpenAI的联合创始人格雷格·布罗克曼。如果OpenAI的董事会只剩下一个被彻底破坏的非营利组织,那么董事会在这里的糟糕策略可能最终会让奥特曼在另一个实体内部对人工智能的未来拥有更多的单方面权力。这可能最终成为控制人工智能公司的独特结构的重大挫折。我希望这不是最后的结果。 作为整个情况的背景,OpenAI董事会的一些离职给剩下的董事会成员更大的冲击力。今年,里德•霍夫曼、希冯•齐里斯和威尔•赫德退出了OpenAI董事会。我的感觉是,当前董事会的决定已经酝酿了一段时间。这三名董事会成员的离职赋予了剩余成员更多的投票权。 奥特曼显然是一位才华横溢的招聘人员和关系建设者。他受到许多员工和投资者的崇拜。他已然成为人工智能的伟大公众倡导者,也是华盛顿的一位有影响力的人物。在他的帮助下,OpenAI的估值可能达到860亿美元,同时作为非营利组织的一部分运营,对投资者的回报是有限的。 奥特曼被赋予了很大的权力,披上了非营利组织的外衣,在公众面前的形象比他私下里好坏参半的名声更耀眼。 但我们应该认真对待这一点:他失去了董事会的信任。 让我们给董事会和奥特曼的批评者一些时间来解释自己,并说明OpenAI在奥特曼没有重新掌权的情况下如何向前发展。 来源:金色财经
lg
...
金色财经
2023-11-22
OpenAI“宫斗”落幕?奥特曼将回归OpenAI担任首席执行官,一文回顾事件时间线
go
lg
...
15:07 OpenAI向亚马逊支持的
Anthropic
提出的合并要约被后者的首席执行官Dario Amodei拒绝。 2023-11-21 13:08 OpenAI正在积极讨论“重新团聚”事宜,OpenAI员工与Sam Altman保持着联系,并在与CEO和董事会接触。 2023-11-21 09:41 OpenAI接触
Anthropic
讨论合并事宜 2023-11-21 08:58 OpenAI百余家客户欲转投微软谷歌等 据知情人士透露,许多 OpenAI 客户也在考虑改用微软的 Azure 服务,该服务提供 OpenAI 模型和其他模型的副本。 2023-11-21 07:00 微软CEO Nadella:仍然相信Altman的领导能力 2023-11-21 06:52 Thrive Capital等OpenAI的投资者要求请回Sam Altman 据知情人士透露,Thrive Capital、Khosla Ventures和Tiger Global Management正寻求保护他们的投资。 2023-11-21 06:38 投资者考虑起诉OpenAI董事会 消息人士称,投资者正与法律顾问合作,研究他们的选项。目前还不清楚这些投资者是否会起诉OpenAI。 2023-11-21 04:23 前GitHub首席执行官Nat Friedman拒绝了OpenAI的临时首席执行官职位 2023-11-21 04:04 Sam Altman:他和微软CEO的首要任务是确保OpenAI茁壮成长 2023-11-21 03:51 Salesforce前高管Bret Taylor可能不会再加入OpenAI董事会 2023-11-21 03:50 Sam Altman跳槽微软并非板上钉钉 试图使OpenAI董事会体面退出 如果解雇他的其他董事会成员辞职,他和联合创始人Greg Brockman仍然愿意回到OpenAI。 2023-11-21 02:38 逾700名OpenAI员工联名要求董事会辞职 否则可能集体投奔微软 信中还指出,微软“已经承诺会给所有OpenAI员工提供职位”。 2023-11-21 02:00 OpenAI超过100客户联系竞争对手
Anthropic
OpenAI的客户正在寻找退出的机会,这表明该公司可能会有大量业务流失,从而令这家初创公司遭受重创。 2023-11-21 00:14 OpenAI联名写信敦促董事会辞职的员工人数不断上升 截至周一,OpenAI联名写信敦促董事会辞职的员工人数上升至为770人,他们还要求恢复Sam Altman的首席执行官职务。 2023-11-20 21:54 将近500名OpenAI员工威胁辞职 除非董事会辞职 2023-11-20 20:49 OpenAI临时CEO承诺对Sam Altman遭罢免事件展开调查 2023-11-20 19:50 OpenAI震荡落幕,变局指向何方? 本次冲突也凸显了人工智能行业中的重大裂痕,一些人认为,应该在政府最低限度的监管下推动这项技术的发展,以便快速为人们提供有用的工具;另一些人则担心,人工智能技术发展伴随着的安全问题不容忽视,不完善的AI系统可能会造成不可挽回的后果。 2023-11-20 18:02 回归OpenAI失败,Sam Altman将加入微软 不出意外,这些跟随Sam Altman离开OpenAI的员工,大概率会随着Sam Altman一同加入微软。在Satya Nadella宣布该消息5分钟后,Sam Altman在社交平台上也转发回应称,“使命仍在继续。” 2023-11-20 15:58 微软:OpenAI创始人Sam Altman、Greg Brockman将加入微软 微软CEO Nadella在社交平台X上表示,OpenAI创始人Sam Altman、Greg Brockman将加入微软,领导一个新的高级人工智能研究团队。 2023-11-20 15:46 得知Sam Altman不会回归 数十名OpenAI员工辞职 有OpenAI员工表示,如果Sam Altman创办一家新的AI企业,他们将有兴趣加入。 2023-11-20 13:09 不顾投资者要求Sam Altman复职呼声 OpenAI董事会聘请Twitch前高管Emmett Shear担任CEO 2023-11-20 12:18 OpenAI临时首席执行官Murati计划重新聘请Sam Altman和Brockman 另择CEO,将是对以微软公司和Thrive Capital为主的投资者的激烈反抗——这些投资者已要求董事会下台并希望Sam Altman复职。 2023-11-20 08:19 作为OpenAI最大股东,微软正在考虑,如果Sam Altman重返岗位,微软将在OpenAI董事会中占有一席之地。 2023-11-19 13:13 OpenAI创始人Sam Altman:我非常热爱OpenAI团队 2023-11-18 12:13 两位创始人突然去职 OpenAI会不会转向? 关于OpenAI发展,如果Altman确实如外界猜测出现了与董事会的重大分歧,即他盈利心切,在未经严格安全审查就急于将新产品推向市场(比如刚推出的GPT商店和收入分享计划),那么在Altman离职之后,OpenAI会不会调整其产品形态和新产品上市节奏,甚至某种程度的转向? 2023-11-19 08:08 OpenAI投资者向董事会施压 要求恢复Sam Altman的CEO职务 一些投资者正在积极寻求OpenAI最大股东微软公司的帮助。 2023-11-18 06:54 OpenAI临时CEO:微软对OpenAI具有极大的信心 2023-11-18 05:48 OpenAI将在CEO离职后召开全体员工大会 公司希望能够消除员工对公司未来融资前景等问题的忧虑。 2023-11-18 04:33 OpenAI首席执行官Sam Altman离职 董事会质疑其领导能力和坦诚态度 公司CTO Mira Murati被任命为临时CEO。据悉,对Sam Altman的这一决定是董事会经过认真的审查程序做出的,最后得出结论:他在与董事会的沟通中不能将坦诚一以贯之。
lg
...
金融界
2023-11-22
上一页
1
•••
42
43
44
45
46
•••
59
下一页
24小时热点
特朗普宣布对欧盟和墨西哥商品征收30%关税,金融圈大佬如何看?
lg
...
黄金周评:金价上演“过山车”,震荡中守住涨势!地缘风险叠加通胀预期,机构预判后市或突破上行
lg
...
德银警告:若特朗普罢免鲍威尔,将引发美元与美债抛售潮
lg
...
本周展望:美股冲高后迎“大考” 财报和CPI通胀数据将揭示关税冲击?
lg
...
美债危机阴影下的“黄金战线”——世界黄金协会:赤字激增将长期支撑金价走强
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论