全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
转载|酒业元宇宙云上一带一路北京开启 IRITA 提供底层链服务支持
go
lg
...
是边界智能以区块链跨链、NFT 技术及
大数据
隐私保护技术为核心,自主研发的支持下一代分布式商业系统的企业级联盟链产品线,拥有完善的 API 及 SDK 服务工具,在性能、安全可靠性、认证及权限、可维护性、可扩展性和运维监控等多方面都满足企业级应用需求,可以根据不同业务场景高效打造不同行业应用,为实体经济提供基于区块链信任机制的价值赋能。IRITA 支持包括文昌链、全球数字银行等全国乃至全球多个企业级开放许可链,其创新性的跨链互操作技术可为全球化艺术品、可信全球贸易等提供强大技术支撑,在推进全球贸易互通、促进一带一路文化交流上实现了众多技术创新及应用实践落地。 一直以来,边界智能深入研究区块链跨链、NFT 技术及
大数据
隐私保护等技术,持续推动应用区块链前沿技术服务实体经济,助力催生新产业、新业态、新模式,赋能传统产业转型升级。未来,边界智能将与酒域灵境等众多合作伙伴携手打造更多元宇宙与实体产业的融合标杆,促进数字经济与实体经济深度融合,激发新经济领域的创新活力,推进赋能实体的创新业态。 来源:金色财经
lg
...
金色财经
2023-06-19
AI行业投资泡沫还有多远
go
lg
...
价的涨幅已达约300%,同样大涨的还有
大数据服务
公司Palantir,该股涨幅也超过了130%,而近段时间受到大力追捧的AI芯片巨头英伟达则飙涨了180.2%。 在人工智能概念兴起,相关实物产品未大量落地的情况下,股票市场涨幅明显,很难说这里面没有泡沫。 AI想象美好,商业落地难 AI就像是一片新大陆,充满了巨大的财富和无尽的机会等待我们去探索。然而,这些财富和机会的挖掘并非一蹴而就,需要建立在前辈们长期的努力和不断尝试的基础上。AI还有很长的路要走,它目前只是一个美好的愿景。 实际上,AI在现阶段并没有足够的数据支持,很多初创公司夸大了在业务运营中使用人工智能的程度。尽管人工智能和机器学习被誉为革命性技术,有望为公司创造巨大的价值,但我们不能忽视AI技术在产品落地过程中所面临的难题和痛点。 行业缺乏统一标准 AI行业如同移动应用的兴起,正迫切需要一套全新的跨平台系统,就像安卓和iOS为移动应用打下了基石一样。这套系统将涵盖从模型、算法到软件实现和操作系统的各个方面。它的特点是具备多数据源兼容性(例如多种数据库),多编程语言兼容性(例如TensorFlow、Python),并能够在各种硬件设备上无缝运行,实现跨平台AI的梦想。 然而,当前AI行业面临一个共同的难题,即缺乏统一的标准。各个公司属于各自为王的发展阶段。没有统一的标准,也就无法实现大规模的生产和制造,对于产品的技术形态展示、商业模式运营等仍任重道远。 成本昂贵,无法大众化普及 随着人工智能技术的进步,越来越多的新兴公司发布了他们自家研发的智能大脑,并通过云服务的方式提供给用户使用。这些公司在吸引了大量用户后,却面临一个麻烦:服务器的运行成本太高,有些公司由于缺乏资金和技术实力,没有考虑到这个问题。 人工智能模型的训练可谓是一项巨大的挑战,需要投入大量资源、时间和金钱。有些云服务提供商提供了自动化的模型训练和使用服务,但这些服务的成本相当昂贵,特别是在智能大脑的运行费用方面。如果初创公司提供的服务费用无法覆盖服务器的运行成本,那么这些公司的生存和盈利能力都将受到极大的影响,自然也无法大规模的商业化。 AI商业落地集中,企业亏损严重 根据艾媒咨询发布的《2019年中国人工智能产业研究报告》,安防和金融行业是人工智能在实体经济中应用最广泛的领域,占据了市场份额的绝大部分,约达到70%。然而,这也意味着在其他行业中,人工智能的深度融合和落地还有很大的发展空间。 即使一些独角兽企业在应用落地方面取得了一定的进展,但它们大多仍然面临着亏损的局面。例如,依图科技在2019年扣除非经常性损益后仍然亏损近10亿元,云知声和寒武纪也面临巨额亏损。今年上半年,依旧出现了较大的亏损额,表现如下:依图科技约亏损4.5亿元,云知声约亏损1.1亿元,而AI芯片龙头企业寒武纪的亏损超过2亿元,同比增长幅度高达550%。 AI前景虽好,但不是每个企业都能够在这个赛道中活下来。 AI面临的法律和道德问题 随着人工智能的广泛应用,存在一些道德和法律风险,比如:隐私和数据滥用、偏见和歧视、自主决策的透明度、AI的沉迷和滥用以及责任和法律纠纷。 为了应对新技术出现的道德和法律问题,各国也在相继出台法律法规,据不完全统计,自2016年以来,各国通过了123项与AI相关的法案,其中大多数是近年来通过的。 法律法律的出台为AI的场景化落地提供制度上的保障,但从法律到落地也需要一定时间的过渡期,在此期间许多商业化的AI场景仍然面临着制度的缺陷问题。这也导致了短期内无法大规模商业化的原因之一。 泡沫之后理性发展 AI无疑是未来的一大趋势,但正如行业周期变动规律显示,一个行业的发展必然要经过 快速发展期、泡沫期、理性发展期、成熟期等几个阶段。在这个过程中,众多企业纷纷登上AI的舞台,但在行业竞争和技术迭代的过程中,泡沫过后,当真正比拼技术实力和整体综合能力下,一大批企业又会慢慢死去,企业生产成本降低、各项制度法律成熟,AI回归到行业的正常发展状态,才能真正实现商业化场景落地。 来源:金色财经
lg
...
金色财经
2023-06-19
ETF严选 |
大数据
ETF(515400)6月19日上涨3.13%,年内累计涨幅达51.08%
go
lg
...
跌0.54%,报3255.81点。中证
大数据
产业指数今日收涨3.25%,指数成份股涨幅前五分别为:新点软件上涨10.91%、天下秀上涨10.04%、浪潮信息上涨10%、中科曙光上涨9.57%、润泽科技上涨6.59%。 富国基金
大数据
ETF紧密跟踪中证
大数据
产业指数,今日收涨3.13%,年内累计涨幅达51.08%,基金经理蔡卡尔,在管基金数量12只,在管基金规模105.35亿元。 中证
大数据
产业指数从沪深市场中选取业务涉及
大数据
存储设备、
大数据
分析技术、
大数据
运营平台、
大数据
生产、
大数据
应用等领域的上市公司证券作为指数样本,以反映沪深市场
大数据
产业上市公司证券的整体表现。截至2023年6月16日,该指数的前十大权重股包括科大讯飞、紫光股份、恒生电子、中科曙光、浪潮信息等,前十大权重股集中度为54.11%。 西南证券分析认为,ChatGPT引发海量算力需求,云计算厂商迎来新一轮景气度上行。ChatGPT的孵化也将反哺云厂商的AI能力,随着ChatGPT与云产品的加速融合,行业加速朝“自动化”、“数智化”发展进程,产品竞争力进一步夯实,商业价值再度拓宽。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-19
ETF严选 |
大数据
ETF(515400)6月19日上涨3.13%,年内累计涨幅达51.08%
go
lg
...
富国基金
大数据
ETF紧密跟踪中证
大数据
产业指数,今日收涨3.13%,年内累计涨幅达51.08%,中证
大数据
产业指数今日收涨3.25%,指数成份股新点软件上涨10.91%。 您的浏览器不支持Video标签。
lg
...
有连云
2023-06-19
6月19日主力巨资出逃四大板块(附股)
go
lg
...
横河精密 12.49% 13:16
大数据中心
2.5% 259036.29 新易盛 14.13% 31:38
lg
...
金融界
2023-06-19
6月19日两市板块龙虎榜排名(名单)
go
lg
...
横河精密 12.49% 13:16
大数据中心
2.5% 259036.29 新易盛 14.13% 31:38
lg
...
金融界
2023-06-19
新点软件领涨超10%,科创信息ETF(588260)盘中上涨1.06%
go
lg
...
件和新型信息技术服务、互联网与云计算、
大数据服务
、人工智能等领域上市公司证券作为指数样本,以反映科创板市场新一代信息技术产业上市公司证券的整体表现。 图片来源:中证指数官网 从中证二级行业分类来看,上证科创板新一代信息技术指数前十大权重股主要涉及半导体、计算机、电子、机械制造等领域。 中邮证券认为,AI 芯片迎政策利好,把握内、外双重机遇。近年来国家高度关注人工智能芯片产业的发展,发布一系列产业支持政策,为人工智能芯片行业建立了优良的政策环境,促进行业的发展。 2021 年,《“十四五”规划纲要和 2035 年远景目标纲要》指出,“十四五”期间,我国新一代人工智能产业将聚焦高端芯片等关键领域。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-19
宋奕洋:6.19本周黄金逃不过震荡,如何操作?欢迎咨询
go
lg
...
未真正突破一个方向。本周呢,就不会再有
大数据
公布,但是,会有较多的美联储官员去发表讲话,这个大家需要着重关注,官员大多是鹰派为主,晚间美盘或许空头会变得比较有机会。并且,美联储半年度货币政策报告显示,美联储将逐次会议作出关于进一步加息的决定,信贷条件收紧将拖累美国经济增长,这也将进一步限制黄金上涨的势头。 不过,黄金也并不一定就只开启下跌模式,欧洲央行行长拉加德称,预计通胀将在非常长的时间内居高不下,欧洲央行很有可能在7月份继续加息。大家都知道,欧元对美指的影响也是占据一个大头,若欧央行继续加息,将会去拉动欧元上涨,美元则会走下跌趋势,黄金呢,自然也会跟着拉涨一波。此外,在本周四,英国央行也将公布利率决议,现在对其预期已经是大概率加息,那么英镑上涨,美指就会下跌,黄金也能跟着涨一波。 这样看来,黄金在本周像是又逃不过震荡的魔咒。那么这周就建议大家放平心态,有合适机会去进场短线操作,把握好方向,去在美盘时段放大收益即可。当然,行情若有大突破,我们也将进行新的区间布局。 来看今天盘面情况。 现在黄金的低点支撑是进一步被下压,早上开盘后是依然居于高位震荡。1970是黄金目前的强力阻位,布林带中轨1960属于初步承压为,下方1954是短线内较有力的支撑位。 看K线波动,1小时盘面黄金已经形成“头肩顶”形态,对于短线来讲这是有较好的做空机会。但是现在黄金是延续了小幅下跌的势头,在指标RSI中看到的也是刚刚靠近超卖区临界值,那么不建议继续追空。给出策略建议在支撑位先看回调上涨,差不多在布林带中轨1960的位置再去进空比较合适。 下方支撑可以进一步看黄金分割回调线,1950、1943。若想多空双杀,可以根据指标去短线进多,到达合适阻位再去进空即可。当然,保险起见,只想做一个方向只去等合适机会做空就好。 现在的日线,还是在中间区域波动,方向不明确,想要长线布局还需等到机会。 如果你没有好的操作计划,可以咨询本人宋奕洋(vx:syy17896)申请现价喊单群,现价喊单群内全是免费,准确率百分之八十五。群内(亚欧美盘)的实时行情推送以及(本人私下)现价单欢迎大家考察(进场有理有据、公开公明,可考察) “情绪化的交易是致命的。出色的交易者,必须像专业的潜水运动员小心谨慎地关注着自己的氧气供应那样,盯紧自己的资金。” 目前手上有高位多单或者低位空单,不知道如何处理或者近期出现严重亏损可添加宋奕洋老师微信【syy17896】我会给予最大的帮助。 全方位指导时间:早7:00┄次日凌晨2:00(周末也可供随时咨询)
lg
...
奕洋论金
2023-06-19
阿里旗下南京瓴羊智能增资 增幅400%
go
lg
...
外围设备制造、数据处理和存储支持服务、
大数据服务
等。股权全景穿透图显示,该公司由杭州瓴羊智能服务有限公司全资持股,后者为阿里巴巴(中国)有限公司旗下公司。 据悉,去年7月,阿里巴巴宣布成立专注企业数智服务的瓴羊智能服务公司,瓴羊承担将阿里巴巴集团在消费等领域沉淀的数字化能力转化为智能产品及服务的重任。
lg
...
金融界
2023-06-19
到了2030年 GPT会发展成什么样?
go
lg
...
中表现出超人水平。此外,由于模型变得更
大数据
变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
上一页
1
•••
989
990
991
992
993
•••
1000
下一页
24小时热点
突发重磅消息!美军出动6架B-2隐形轰炸机 美媒:或带巨型钻地弹打击伊朗
lg
...
突然重量级表态!美联储“当红理事”呼吁最早在7月降息
lg
...
6.21黄金下周走势分析有止跌迹象,但仍需进一步确认
lg
...
美元稳定币冲击波 中国会怎么应对?
lg
...
夏洁论金:下周黄金走势的深度分析及短期展望,操作建议!
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论