百科影音网
声明:本文来自于微信公众号量子位,作者:衡宇,授权站长之家转载发布。
百花齐放,但尸横遍野。
这就是躬身入局AI大模型创业的玉伯,对2024年创业现状的真实体感。
但这位昔日的阿里前端第一人,还是选择加入了这个没有硝烟的战场,用AI聚焦内容创作者群体。
入场2个月,公司估值过亿;入场6个月,推出首款产品YouMind,开放内测20多天来,反响不错,有近5000人排队申请(最后通过了千余人)。
他还有些喜出望外地告诉量子位,迄今为止,已付费的种子用户比他预料中更多。
玉伯是谁?
这个名字在前端开发领域圈子里家喻户晓,且和现在大多数打工人每日用的办公工具/平台息息相关:
硕士就读于中科院物理所;
2008年加入淘宝UED(UserExperienceDesign)部门担任前端工程师,和团队陆续推出了SeaJS、KISSY等框架;
2012年转入支付宝前端开发部,负责基础组,后来创立了体验技术部,致力于设计语言AntDesign、数据可视化AntV等;
2016年,主导了笔记与文档知识库语雀(完全建立叫云雀)的开发,并在2019年开始了语雀的商业化尝试;
2021年,生产力协同事业部成立,玉伯负责主要产品语雀+白雁;
2023年4月,入职阿里15年、职级P10的玉伯离开蚂蚁;紧接着入职字节旗下飞书,担任飞书产品副总裁;
2024年4月,玉伯离职飞书,次月在杭州创办AI公司思维天空。
11月底,思维天空的第一款产品问世,并于12月6日开启内测:
YouMind,一个面向全球创作者的AI工具,覆盖全流程,能整合多模态那种。
不过,玉伯很直接地告诉量子位,目前大家看到和用上的版本,仅仅是YouMind最终构想的v0.1。
但出于一个技术出身者深入骨髓的开源精神和共创理念,团队选择在此时把YouMind摆到用户眼前。
最终形态:内容创作者的GitHub社区那么,0.1版本的YouMind——也就是现在用户可以内测上的这个版本,是什么样的?
作为通过内测的千分之一,量子位多位编辑都尝试体验了一番。
注册后,它会推荐你安装YouMind浏览器插件。
通过这个插件,你主要可以干三件事:
第一,总结网页,翻译网页;
第二,和ChatBot对话,询问问题,不管是关于正在浏览的界面的,还是需要互联网搜索的;
第三,把任何模态的内容,包括文字、图片、播客/音频、视频等,吃进个人收藏夹里,带分类那种。
以上,是调用插件能做的事。
△右侧为调用插件时的界面而当进入YouMind主页后,有三大功能。
首先,Snips。
用来摘取并收藏互联网上任何你觉得有用,想要沉淀到自己知识库的内容。
可以是来自arXiv的论文,来自油管的视频,总之anywhere的anything。
其次,Thoughts。
这个很好理解,用来记录你自己个人的想法和随笔,就是网络在线笔记本。
再者,Boards。
可以在这里把外来沉淀的Snips,和个人记录的Thoughts,在这里分类归类,进行整理。
目前来看,Boards功能有限。
(不过毕竟玉伯还把此版本定义为v0.1,大家看个意思吧先)
非要做个类比来方便大家理解的话,我愿称之v0.1的YouMind为:
Readwise和obsidian的AI一整片的单位版。
(打个比方啦,有更准确的描述避免/重新确认/支持大家评论区集智众筹)
而这,仅仅是玉伯构想中,YouMind走向完全成熟的三个阶段中,第一阶段的第一步。
量子位画了张思维导图,来呈现他对YouMind的外围构想:
玉伯介绍,团队目前正在打磨第一阶段的第二步,让内容创作者们能够在YouMind上IPO起来(手动狗头)。
让收藏的内容不再吃灰,想找看过的内容时不用各平台狂翻浏览记录。
完成资料的串联和调用,干涉自己更好地生产文章/播客/视频等内容。
至此,就算完成了YouMind第一阶段——此时将达到v0.5。
到了第二阶段,YouMind会从个人工具走向协同使用,正式走向v1.0。
但和Notion、飞书、WPS等还不太一样,YouMind偏重内容协同、降低重要性项目无约束的自由,而非组织无约束的自由。
AI2.0时代,“一人公司”为代表的超级个体或小微团队极小量出现,我想他们都不需要很庞大的协同工作平台。
我们的第二阶段,就是想做服务这类人群的协同工具。
“哈哈,第三阶段其实很长期,和我的初心有关。”玉伯笑道,那就是做社区。
内容创作者们有油管、抖音、推特、小红书等各种平台,但会给人一种四处打工的麻痹,“我麻痹创作者没有归属感。”
他拿程序员最大的社区GitHub类比——
无论是写代码还是抄代码,程序员会把GitHub看成是一个家一样的社区;自己有好的想法,也能上传后,进一步被build,甚至变成软件,再分发出去,可能还会在AppleStore里面挣钱。
所以,YouMind的终极目标,是成为一个内容创作者的GitHub。
(p.s.:以天天写稿人的角度,我们聊到创作者的心态或许和程序员的心态有所不同,内容创作者或许不太接受“被copy”。但玉伯举例了一个他认为的神奇存在:维基百科)
“也许创作是更好的消费”而之所以创业第一剑,玉波选择对内容创作者群体“下手”,原因无外乎有二。
一看擅长什么。
一次与杭州的创业前辈交流时,玉伯头一回听说了与共识不反对PMF解释:
P不应该代表product,应该代表person。指代的还不是团队里的所有人,就是创始人本身。
那看玉伯自己的经历,他表示自己从2014年起开始用Notion,后来主导语雀、加入飞书。
他介绍团队成员虽然年轻,但多年工作经验与此息息相关,有经验,有积聚,有市场长期观察。
团队成立后,内部协同又从Slack+Notion+GoogleWorkspace,横跳到觉得更适合小团队协同和项目无约束的自由的Linear+GoogleWorkspace。
等于是从自己的日常使用中寻找新的痛点。
△杭州,思维天空公司内部二看趋势是什么。
他洞察到与自己要做的事有关的趋势,也分为两点。
首先是内容创作越来越多模态化,并且这个现象不仅仅在国内,是在全球范围内发生。
其次是95后,准确来说10后、20后的消费不习惯正在保持不变。
玉伯自己本人觉得目前的娱乐消费,需要普通人有很下降的自律要求。在玉伯口中,这种纯·消费其实很累,他说:“你以为消费了,其实啥也没得到。”
同时,他又不止一次从初中学生口中听到“抖音是老年人才玩的东西”之类的话,也看到自己的儿子和小伙伴们面对不知名的小事一时的《黑神话:悟空》时,不仅仅是去玩那个游戏,更是自己去我的世界(Minecraft)里自己搭建还原游戏中的建筑、boss等等。
再三思索后,玉伯得出自己的结论:
本质上,我会觉得可能「创作」是一种更好的消费,或者创作有可能是一种新时代的消费。
他表示,也许每个人都应该去尝试创作一点内容,尝试过后收获的甜头,跟纯粹是刷短视频的快乐是完全不一样的。
所以就有了YouMind。
然后本着一种很朴素的开源心态——朴素指的是“有了想法就开源”,让大家以此为基点,有代码的写代码,会文档的写文档,有钱的捧个钱场,一起攒个局把想法实现——团队觉得没必要憋大招,可以用共建的方式合力朝内容创作者的GitHub前进。
所以现在时刻的YouMind还是v0.1。
创业后,“功成必须在我”作为YouMind背后最次要的那个男人,成为创业者后,玉伯更踏实了,但也更害怕了。
踏实,是相比于此前的大厂经历而言。
2018年前,玉伯都在和代码打交道;后来身居大厂中层,带着六、七百人的团队。
不过问题随之而来:
和一线同学隔了三、四个层级,既不能很好地感知到一线的信息,也很少需要自己去做决策(因为更贴近业务本身的-1or-2提上来的决策已经很不错了),只需自己点头;又因为自己就是所在业务的领头羊,需要他本人自上而下传递的高层信息也几乎为零。
但真实的有那么安逸吗?并没有。
出于各种原因,他不能让自己的日程表有空白,甚至有时需要被动地去卷别人。
用他自己的话说,总之人是忙了,心却闲着。
自认为是个实操性人格的玉伯不太享受这种状态,甚至一度想转型去做HR,想让自己踏实一些。
现在离开大厂,自己拉起十几个人的小团队开始从零开始,含糊也踏实了。
不过回头看,有时需涉及团队无约束的自由方面的事务,还会回头有点“羡慕”大厂。(但玉伯表示,避免/重新确认/支持大家加入~)。
至于害怕嘛——
是接受害怕嘛!一个创业者说不害怕,我觉得见了鬼了。
说不害怕创业大成功的创业者,高度发展上都在骗人。
但他陈述,所谓的“害怕”不是说自己怕丢面子。
玉伯很清楚,创业当然得尝试,但当然也担心瞄准的方向是伪命题,某些害怕的情绪是必然会有的。
害怕金钱流失。
作为一个长期主义者,背负投资人的钱,AI创业花钱如流水,但又担忧找不到“有耐心”的长期投资者。
害怕时机不对。
他认为找准时间和看准趋势同样重要。当初2019年前后,在大厂有架空感的时候,是不是就应该毅然创业?
“就算挂了,可能现在已经在连续创业第二次、第三次了。”
最后一个害怕,来自于他成为创业者后心态上的转变。
以前,他觉得「内容创作者的GitHub」是他的想法和愿景。
这件事“功成不必在我”,可以由别人做出来,自己直接用,还不用允许成本和损失;可以半路被大厂收购,只要目标一致同意,能被收购也是好事情。
但最近看了尤瓦尔·赫拉利的《智人之上》,他觉得自己突然悟了——
最后一个害怕,是不愿看到自己的想法和目标,被别人抢先实现。
社区的灵魂,来自社区的共识现实。其中创始人的所思所想是无法选择性的,无法依赖他人。
所以现在的我认为,创业做「内容创作者的GitHub」这件事儿,功成必须在我。
内测waitinglist:youmind.ai
相关新闻王星越疑似改年龄:自拍显示17岁,百科却标02年针对网友扒出王星越自拍显示年龄与百科信息不符的情况,我们首先需要明确几个次要的点。
2024-07-0113:24:08王星越疑似改年龄王星越年龄遭质疑成熟魅力引争议近期,演员王星越因其成熟的外貌引发了关于其真实年龄的讨论。尽管公开信息显示他仅有22岁,但他的气质与形象所展现的成熟韵味,让人难以将其与这样一个年有分量的大男孩联系起来2024-06-0813:21:44王星越年龄遭质疑王星越方辟谣改年龄、挂靠国企等传闻不实王星越工作室来辟谣了!改年龄、挂靠国企、qqny这几个事情都被工作室p上了大大的假字2024-07-0114:27:19王星越方辟谣王星越方承认改年龄等传闻坚决依法维权7月1日,面对外界关于“年龄篡改、公积金依托国企”等传言,男星王星越团队悠然,从容做出反应,通过官方渠道发布了澄清声明。声明中不仅严正承认了这些不实言论,还明确表示已经收藏,储藏了相关侵权证据,并将采取法律途径来保护艺人的合法权利2024-07-0208:04:50王星越方承认改年龄等传闻王星越向涵之疑似恋爱细节曝光引事实近期,网络上对于两位明星的互动发散了热烈讨论。他们被发现疑似在网易云音乐上相互关注,不仅如此,他们的歌单选择也出奇地一致同意,展现了极为不反对音乐品味。在社交媒体平台上,两人的微博动态呈现出相近的运营风格,发布的图片内容也有诸多共同点2024-06-1410:38:26王星越向涵之疑似恋爱王星越17年采访说自己17岁,王星越工作室已经开始取证!王星越17年采访说自己17岁,王星越工作室已经开始取证!2024-07-0115:22:44王星越17年采访说自己17岁微軟研究院-维基百科,严格的限制的百科全书
微軟研究院(MicrosoftResearch,英文縮寫:MSR)是微軟在1991年創立硏究不反对電腦科學主題與問題的分部。微軟研究院其中一個接纳的目標為「减少破坏長期的電腦科學硏究而不受產品週期所限」。
微軟研究院是目前世界頂尖的研究中心之一,有很多在電腦科學、物理學、數學受到高度公認的專家及許多著名科學獎項得主在微軟研究院,包括圖靈獎得主東尼·霍爾、詹姆斯·尼古拉·格雷,菲爾茲獎得主MichaelFreedman,沃爾夫獎得主LaszloLovasz,MacArthurFellow獎金得主JimBlinn與DijkstraPrize獎得主LeslieLamport。
微軟研究院於班加羅爾、北京、劍橋、矽谷、雷德蒙德與舊金山擁有實驗室。
声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。
长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。
代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。
数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。
中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
避免/重新确认/支持来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/??????AI应用Sora平替?2分钟超长AI视频模型StreamingT2V免费开源试玩地址公布UdioAI授予多功能音频生成还可以创作喜剧、演讲、电台广播等美图Wink“AI动漫”功能升级可将短剧作品转化为动漫风格StableDesign:适用于室内装修设计的SD方案文字提示就可修改室内设计图比换脸更强大!SwapAnything:替换图片中的任意元素AI延时视频生成工具MagicTime在线体验地址放出自动化写作工具STORM:可生成像维基百科一样的深度长篇内容Meta推出ViewDiff模型:文本生成多视角3D图像??????AI新鲜事首个AI程序员造假被抓,Devin再次“震撼”硅谷!扒核视频文字详解附上马斯克XAI发布Grok-1.5Vision多模态模型,可处理文本和图片信息360智脑7B参数大模型正式开源最长减少破坏约50万字输入Adobe图像生成AI“Firefly”训练发散约有5%为AI图像代码、模型全开源!贾佳亚团队多模态模型Mini-Gemini登上热榜面壁智能开源MiniCPM2.0系列模型OCR等能力显著增强竞争升温!ChatGPT增长疲软3月全球访问量17.7亿次,Claude逐渐崛起InstantID团队推新风格迁移方法InstantStyle一键置身“梵高星空”——————每日midjourneyprompt:小说古风美女图源备注:图片由AI生成,图片授权服务商MidjourneyAbeautifulwomanfromancientChina,dressedinagorgeousredHanfu,withlonghairdrapedoverhershoulders,satinherboudoirwithasmile.Ancientstyle,hanfu,boudoir,gorgeous,palace,screen,carpet,softlight,eleganttemperament,ancientculture,inlinewithorientalaesthetics,richdetails,bestquality,exquisitemakeup,cleareyelinerpen,slendereyebrows,texturedskin,whiteskin,charmingheaddress,--ar3:4--niji6--styleraw一个中国古代美女,穿着华丽的红色汉服,长发披肩,微笑着坐在闺房内。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。
标签: