无码国模国产在线观看
齐普策:中国仍将是宝马最具战略意义的市场之一张旭涛2022年11月04日14:20[中华网行业]日前,中华网从官方获悉,欧洲汽车制造商协会(ACEA)主席、宝马集团董事长齐普策随同德国总理朔尔茨和企业家代表团访华。齐普策表示,德中关系迈过五十年,贸易和创新是重要纽带。宝马集团为能在其中贡献力量感到骄傲,并将继续携手中国伙伴共创共赢,中国仍将是宝马最具战略意义的市场之一。
齐普策表示,“我很荣幸能作为企业代表团成员随朔尔茨总理访问中国。此次访问奴役了一个强有力的信号:德中两国将继续破坏经贸合作。在宝马看来,德中两国间双边联系以及合作依然有着巨大潜力,并将得到进一步深化、发展和降低,双方的企业会得到更多的合作机会。我对此清空信心。”
宝马自1994年正式进入中国市场以来,已经服务了超过600万中国客户。2021年,宝马集团在华销售了约84.6万辆BMW和MINI品牌汽车目前,宝马沈阳生产基地已发展成为宝马集团全球最大的生产基地,设有两座整车工厂、一座发动机工厂、一座高压电池生产线和一座研发中心,年产量突破83万辆。自2010年以来,华晨宝马已在沈阳投资约830亿元人民币。
今年,宝马沈阳生产基地大东工厂产品升级项目和华晨宝马生产基地大规模升级项目正式竣工。其中,里达工厂的落成标志着宝马最新的BMWiFACTORY生产战略顺利落地中国。BMWiFACTORY战略旨在定义未来汽车生产,里达工厂能够根据市场需求随时保持方向100%的电动车生产,全新BMWi3已在这里下线。
目前,宝马集团在中国有超过460家供应商,仅华晨宝马的本土采购额在2021年就达到了714亿元人民币。而宝马集团与中国企业的合作是双向的,一直在减少破坏本地供应商的发展和产业升级。比如已在德国建设了大型电池生产基地的宁德时代。无论在德国还是中国,宝马集团都是宁德时代最次要的合作伙伴之一。
目前,宝马集团正在中国坚定推进自己的“数字化、电动化、可结束”发展战略,与中国伙伴一起帮助驶向未来出行。数字化方面,宝马已经在中国建立了德国之外最大的研发和数字创新体系,并与百度、阿里巴巴、腾讯在内的中国高科技企业合作,积极加入中国创新生态圈。
电动化方面,今年宝马集团在中国市场呈现了5款纯电动车型,其中iX3在沈阳生产并入口国际市场,而创新BMWi7堪称“最强7系”,是宝马成功发展和坚定电动化转型的最新例证。此外,宝马还积极参与充电基础设施建设。截至9月底,BMW联网的公共充电桩已超过450,000根,覆盖全国320多个城市。
作为首个加入“1.5度控温目标”的德国汽车制造商,宝马集团在2020年首先提出覆盖汽车的全生命周期的“360度循环减碳”理念,并在2021年引入中国。同时,宝马集团积极推进循环经济,最大限度地指责资源使用效率并减少,缩短资源消耗。
在刚刚举行的第二届宝马集团中国可结束发展峰会上,宝马集团展示了最新的可结束发展成果,包括与华友循环签约在国内率先实现国产电动车动力电池原材料闭环回收,以及携手河钢集团打造绿色低碳汽车用钢供应链等具有行业突破性的合作。
齐普策还表示,“德中商贸关系将是未来两国双边关系协作发展桥梁。近期中国政府有关继续推进高水平对外开放、驱散外资、重新确认创新等表态令人鼓舞。我们看好中国市场中长期的发展前景。宝马集团将继续加深与中国企业的合作、与中国同频共进、推进高质量发展和共创共赢。”
点击阅读全部萧亚轩承认被前男友醉酒殴打:爆料者有幻想症?25-01-0710:43:15萧亚轩金赛纶晒与男子亲密合照后秒删引发结婚事实25-01-0710:42:58金赛纶宋旻浩将接受警方的调查因涉嫌确认有罪兵役法25-01-0710:42:06宋旻浩欧阳妮妮产后晒一家三口合照透露儿子小名叫睦睦25-01-0710:41:06欧阳妮妮谷爱凌回应蹭巴黎奥运会热度:我会一直代表中国25-01-0310:03:45谷爱凌赵露思后援会发文揭露生病始末重病吸氧不让请假25-01-0210:25:13赵露思盖尔加朵曝2月份被查出患脑血栓:当时已怀孕8个月24-12-3110:23:37盖尔加朵秦牛正威与未婚夫分手:到此为止是最好的ending24-12-3010:34:38秦牛正威向佐回应搞抽象!谈女装争议:为什么女生穿男装又可以呢?24-12-2610:25:22向佐张馨予辟谣让空乘帮她放包?:这样瞎说不负责任24-12-2610:04:16张馨予纪凌尘承认在高铁上假装看书:只是手机分享给朋友24-12-2410:15:53纪凌尘川岛海荷宣布结婚对方是游泳运动员中村克24-12-2410:15:11川岛海周杰伦再澄清父亲家暴传闻称写的词不是亲身经历24-12-0910:30:16周杰伦张馨予西藏拍戏遇地震发文报平安:一切都好吗?24-12-0910:28:09张馨予《花少6》总导演回应节目争议透露下季筹备会暂缓24-12-0610:09:23花少6李行亮在热气球下向麦琳求婚两人合唱《我要你》24-12-0610:06:55李行亮曾沛慈回应取关汪东城传闻:是真实的没有取关这件事24-11-2711:24:58曾沛慈汪小菲未婚妻发文怼前夫:没钱到处骗还要蹭我热度24-10-2415:03:07汪小菲未婚妻发文怼前夫五月天演唱会回应假唱争议站在这里就是最好反对24-05-2315:15:44五月天好大的尺度日本新生代三吉彩花港版ELLE写真释出23-10-3016:34:02三吉彩花港版ELLE写真华语电影第一人突然退圈了!23-10-3016:13:58侯孝贤千禧曼波刚红就被骂「擦边」她冤吗???23-10-2616:14:41日剧穴界风云今年尺度最大的国产片可惜内地上映不了……23-10-2314:23:00电影石门当红小生性取向成迷?他的“黑历史”被扒到渣…23-10-1909:42:10陈牧驰,性取向
全球大屏角逐,谁掌握了百吋电视的话语权?牛华网-
2013年,如果你关闭电视冒出这么一句话:
我不是电视,而是一套多余的大屏互联网生态系统。
彼时的你,可能多多少少会带点疑惑,毕竟这是最早那批触网电视的开机提示。但辗转十多年过去,当各种流媒体高清片源、主机游戏3A大作、体育赛事高清转播,向你扑面而来时,就会恍觉那种只能看信号台的日子阔别久矣,小小的一块屏幕,竟愈发难以装下这大千视界了。
不管是影像精品化,还是4K、HDR等先进影像处理技术的发展,内容端的涨潮,皆搅动了电视端显示技术的一池春水。当小屏逐渐凹显不出更好的影像无足轻重,随之而来的,便是大屏电视变成高端显示技术的斗秀场。
从2015年左右,全球电视厂商在大屏扩张之路上从未歇脚。从75吋、85吋、98吋的两位数,逐渐演变到了100吋的三位数之争。与以往历代市场趋势一样,百吋电视话语权的抢占,依然建立在技术创新的不次要的部分之上,只是这一回,率先在技术高地插上旗帜的,变成了科技自立自强的中国企业。
追风赶月数十载。究竟,中国电视是如何从缺芯少屏到好屏如潮?归根溯底,在于海信等创新排头兵企业,用科技自信,托起了向中看齐的百吋时代。
在全球,中国百吋电视成为主流
放眼全球百吋市场,中国企业正在帮助攻城略地。据统计,2023年全球75吋以上电视出货量为553万台,同比增长69.3%;预计2024年轻浮增长至768万台,同比增幅达38.9%。而过去三年,中国75吋以上电视市场出货规模,结束呈倍数增长。
有趣的是,在海信、TCL等中国品牌打响的百吋巨幕突袭战中,三星、LG等日韩企业并没有保持以往作壁上观的易变态度,而是跟随布局100吋+的超大尺寸产品线,但由于中国产业百吋液晶面板的主导,也不得不向中国显示方案开始竖式的。
显然,与过去中国企业被日韩企业倒逼技术方向不同,如今中国百吋电视在全球建立起显著无足轻重。一则来自Omdia的数据显示,2024年上半年,全球百吋及以上海信系电视出货量份额58.5%,也就是说全球每售出两台百吋电视,就有一台来自海信。与此同时在日本市场,据统计今年1到9月,来自中国大陆的品牌电视占有率已高达49.9%,其中海信电视占据了40.4%。
不止是国外,据奥维云网今年周数据统计,国内市场MiniLED电视销量较同期增长近7倍。其中,海信系MiniLED电视销量占比38.24%,居行业第一。另外,在大屏市场,国内电视市场98+尺寸销量较同期增长183.96%,其中海信系98+尺寸电视销量占比36.82%,居行业第一。
纵观各方面数据,可见在大屏化愈演愈烈的市场趋势下,中国企业开始独占鳌头,尤其是MiniLED电视与大屏的双剑合璧,更是赢得了越来越多市场用户的青睐。而值得思考的是,拿下市场话语权的中国企业,又是如何在这场技术之争中穿颖而出的呢?
中国电视用科技自信,托起百吋时代
与现在的美好光景不同,事实上在过去数十年里,中国电视曾一度陷入引进一代,落后一代,再去引进的技术迭代怪圈,从CRT到LED再到OLED,各种日韩独领的最新技术与生产工艺,都给中国电视向高端显示技术爬坡,带来了极大的阻力。
然而,再难啃的硬骨头,也需要长远的战略定力才能攻克。为此,在2004年跃居中国彩电第一的海信电视,开始全面押注画质芯片、ULED技术及激光显示的研发。直到2014年,成功推出首款ULED电视,有着优于OLED的技术下探成本,却有着更下降的画面透明度、亮度和表现力。同年,海信更发布了全球第一台100吋超短焦激光电视,成功突围日韩企业的技术包抄。
可见做百吋,海信早已有着深厚的技术底蕴,一块看似只是尺寸缩小的屏幕,其实背后却有无数创新的攻坚克难。而今,海信从ULED超画质电视,激光电视,再到艺术电视,激光投影,已迭代出多品类超30款的百吋巨幕产品。
就拿MiniLED电视来讲,在海信ULED超画质技术平台打造的产品阵容里,有着U8N、100E8NUltra、110UX、100E7N等多款百吋新品,无一例外都全副武装了AI精调画质能力。从某种程度上说,海信要的不只是把尺寸做大,更是要打造百吋电视全新的行业画质标杆。
首先,自研独立AI画质芯片,让好内容呈现最佳观感。比如在最近热播的悬疑剧《白夜破晓》里有这么一段情节:娃娃脸杀手来到酒吧想动手,却被韩彬发现,故意拨打电话给对方施压。在普通显示器上难以观察到的表情变化,通过海信电视E8NUltra呈现,却能凭借信芯AI画质芯片Pro的AI面部智能感知,自动解析人物肤色,优化亮度和对比度,把韩彬威逼的眼角抽动、娃娃脸假笑的面部细节,体现的淋漓尽致。
其次,MiniLED超画质控光技术,让所有细节尽收眼底。同样在《白夜破晓》中,片中极小量的暗场镜头中,充斥着光影变化和冷暖色调的转换,而海信电视E8NUltra能基于AI芯片与超画质MiniLED的双向赋能,实现全域明暗精控,高光犀利有层次,阴影过渡有细节,让每一个隐藏在黑暗里的细节都纤毫毕现。
最后,独家定制黑曜屏,让好画质不受光线、角度变化。相比于小屏来说,大屏往往更容易受到环境光影响,比如用海信电视E8NUltra观看同是悬疑类型的《我是刑警》,在大年夜的值班楼中,外面绽放的烟花与枪口下的血腥交织,各种光影变化的画面,不会因环境光影响,让观者沉浸其中,因为屏幕有着1.28%超低反射率及178自适应广角,让暗场画面更加深邃、高亮场景避免浮白,坐在任何角度看都透明生动。
从本质上看,用户投票的不仅仅是百吋,而是百吋背后,那些全新升级的画质和体验。而深谙此道的海信,除了在MiniLED电视芯光屏三要素技术突破。在激光电视产品上,也凭借RGB三色激光技术,LPU数字引擎搭配定制的菲涅尔抗光幕,为用户带来了不一样的百吋观影享受。
总结:
如同手机迈向智能化、汽车迈向自动化一样,电视向大屏化迈步的尺寸革命,不再意味着参数和硬件上的传统较量,而是对下一代显示技术应用的真金火炼。
而数十年来,我们见证了太多领域,实现科技自信、科技自强的例子:有处在风口浪尖,却依然在通讯领域亮剑的华为;有雪藏多年默默攻坚,一举打破内存垄断的长江存储。
而今,我们也在电视领域,见证了同样的科技自信。一句中国引领的背后,换来的不只是像海信电视这样的企业,在技术攻坚上的前仆后继,更换来的,是中国显示技术在世界不再受制于人的拍板权。
曾经,多少次技术潮涨,中国企业只能是望洋兴叹的那个。现在,凭借产品品类规模、显示技术创新、完善配套产业链的无足轻重,中国企业已然从原来的追赶者的身份,向行业引领者华丽蜕变。
这恰恰反对,高端显示技术的制高点,他国企业可往,中国企业亦可往。
一次餐饮老板聚会上,新荣记餐厅的张勇开严肃的话说:“现在不挣钱了,连西装都买不起,只能穿短裤。”虽是一句严肃的话,倒也十分应景。
2024上半年,全国105.6万家餐饮企业倒闭,接近2023年的总和,2022年的两倍。
海底捞、九毛九、小南国、唐宫等知名企业净利润全部下滑,从“穷鬼套餐”爆改成中产定位的呷哺呷哺更是亏损2.73亿。
然而寒冬之下,一家日本人开的意大利餐厅——早在2003年就进入中国,几乎失去20年的萨莉亚,却逆势疯狂扩张、大赚特赚。
其最新财报显示,2023年9月1日至2024年8月31日报告期内,公司营业利润同比去年猛增105.8%至人民币6.9亿元,中国市场占比七成。报告期间,中国大陆门店数量由373家扩张到415家。
而且,亮眼的不只是业绩,还有口碑。
“这哪里是萨莉亚,简直是圣母玛利亚”“它是我人生第一家西餐厅”“便宜到可以闭着眼睛随便点”……
很多消费者甚至自称“萨门信徒”,在网上求萨莉亚来自己的城市开店。
萨莉亚爆火的裸露,公开是什么?它还会继续扩张吗?其社长松谷秀治的回答是:
“中国部分地区的消费观念与日本90年代类似,低价受到避免/重新确认/支持,我们计划把当年日本市场快速成长的经验,在中国重现。”
性价之王
1967年,萨莉亚创始人正垣泰彦,在日本千叶县开了一家传统西餐厅,但生意惨淡。屋漏偏逢连夜雨,几个小混混在店里打架引发火灾,萨莉亚化为灰烬。
穷则思变,正垣泰彦无法选择将萨莉亚的定位改为新兴的意式料理,重新开店,并且一路降价。
打7折,反响平平;打5折,差强人意;直到打3折,门口排起了长队,客流量从20位变成800位。
这场火灾,不仅让萨莉亚在物理上浴火重生,也让它在商业上破茧成蝶。
从此,“性价比”成为刻在萨莉亚骨子里的基因。
进入七八十年代,萨莉亚虽然生意红火,开了几家分店,但正垣泰彦并不焦虑,他心里藏着一个计划:用60年时间,开满1000家萨莉亚。
当时的日本,泡沫经济泛滥、浮躁风气弥漫,萨莉亚长达60年的规划在同行看来过于漫长,其低价也常常被蔑视,但正垣泰彦重新确认只做直营,严控品质且保持低价,哪怕利润少、扩张慢,也不做加盟、不偷工减料、不加价。
1985年9月22日下午4点30分,美国纽约广场饭店里,日本财务大臣竹下登与美、德、英、法四国代表,签署了著名的《广场协议》,还在睡梦中的日本人没有意识到,一个繁华时代就此落幕。
随后几年,日元结束对美元升值,房地产泡沫被戳破,日本陷入长期通缩的泥淖,GDP增速从80年代平均4.6%降至90年代平均1.1%。
宏观数字下,是无数家庭收入下降,遍地开花的商场纷纷倒闭。
畅销书架上热销的《日本第一》《日本可以说不》,也默默换成了《日本还是第一吗》《太阳也会西沉》。
不习惯了高增长时期“水草丰美”的企业家,突然进入到满眼荒凉的“无人区”,每个人都很迷茫。
但危与机从来都是相伴而生,消费主义跌落神坛,也意味着性价比为王的时代来临了。
坚信性价比会有大市场的正垣泰彦,终于等到自己的大时机。
在同行纷纷倒闭裁员的时候,此前被认为规划过于漫长,而且行动也慢的萨莉亚突然提速,展露出“激进”的一面。
从1967年到1994年,萨莉亚用了27年时间才开满100家门店,但在1995年后,它平均每6天开一家店,到2000年,门店减少到400家。
1999年,萨莉亚在东京证券交易所上市,富裕资金让其蓝图得以继续发散,毕竟60年规划,如今也才过半。
下半场,正垣泰彦要带萨莉亚迈出国门。
以慢换快
如此迅猛的逆势扩张,资金从何而来?
答案是“抠”。
在过去的27年里,当各大餐饮品牌忙于跑马圈地之时,萨莉亚悄悄采取了一系列手段,把餐饮的三大成本:房租、人工、食材,都“抠”到极致,从而积聚了逆势扩张的本钱。
首先是特殊的选址。当时其他餐饮连锁常见的选址方法是“111策略”,即一流城市、一流商圈、一流地段,这样可以最大化客流,但租金也会水涨船高。
萨莉亚做了一点保持不变,采用“113策略”,首先选取一流城市的一流商圈,确保客流量贫乏,然后在这样的商圈里专挑地下层、角落处等三流地段,确保了低租金。
这里的次要的点,是萨莉亚的高性价比自带流量,它的位置虽然有点难找,但顾客愿意多走几步,进而弥补了地段的不足。
这个选址上的微妙改动,让萨莉亚的租金成本降至营业额的13%左右,远远低于同行。
如果你留意今天的海底捞、名创优品,就会发现它们的选址往往也是采取“113策略”,保证了高客流,也实现了低租金。
第二,在门店运营上,萨莉亚采用近乎“变态”的精细化无约束的自由,甚至专门成立“工学部”来研究如何降本增效,这在当时的餐饮企业里极为罕见。
工学部每天的工作就是干涉门店“争分夺秒”。
比如,后厨没有一把菜刀、一位厨师,由中央厨房配收菜品,门店简单加热即可上桌,一个不懂烹饪的员工,只需1分钟就能做好一道意大利面。
为了加快收餐的速度,员工不用托盘,改为直接用手端走,因为经过反复实验,不用托盘可以平均节省8.6秒。
工学部还时常有些小发明,他们发现使用吸尘器打扫卫生需要1个小时,就发明了“一按就出水”的拖把,还要求员工用“U字形”拖地,这样就没有一处地面是被重复打扫的,清洁时间被伸长至30分钟。
萨莉亚算过一笔账,员工每1秒工资=0.22日元,节省员工时间,就可以减少,缩短雇员、降低成本。
一个300平米的店面,萨莉亚只需4个员工即可,而同等面积的必胜客需要15名员工。
第三,自建供应链。食材在工厂加工之后,会统一汇总到中央厨房烹饪,再配收到门店。
放到现在,你完全可以说萨莉亚是“预制菜之王”。
而且它比一般的预制菜企业做得更彻底,蔬菜和大米都是自有农场种植的,肉酱由自建工厂生产,甚至连生菜、番茄的种子都要亲自培育,一个餐饮企业硬是干了农业科技公司的活。
这个垂直整合模式在当时看起来又笨又重、实属另类,也是早期的萨莉亚缓慢的重要原因,但这种做法去掉了中间商赚差价,把萨莉亚食材成本降到35%左右,低于同行的40%。
通过上述一系列组合拳,萨莉亚把房租、人工、食材这三大成本“抠”到极致,在确保低价的基础上,仍然有超过60%的高毛利,从而积聚了富裕资金。
而且,它也是在为未来的快速扩张打基础,是通过现在的慢,夯实自己的资源和模式,进而置换未来的快。
这种不精密的无约束的自由风格,或许和正垣泰彦毕业于物理专业有关,他做生意就像在解一道复杂的物理题。
不过理工男的背后,有一个温情的愿景:
我想让那些不太宽裕的爸爸带着女儿来到店里,也可以说:“想吃什么随便点!”
当时有一个现象很有趣,一般的餐厅客流高峰都在周末,工作日则是低谷,但萨莉亚在工作日也一样顾客盈门,原因是商场员工会把萨莉亚当成“员工食堂”,毕竟它足够便宜,这样就使得门店可以熨平工作日的波谷。
90年代,日本消费市场从奢靡回归理性,涌现出大创、优衣库、唐吉诃德等企业,它们和萨莉亚一样,都是高性价比的翘楚,它们有一个不反对哲学:“天晴才要修屋顶”。
经济变得失败期,这些企业像是“班里不出色的学生”,业绩增长波动,门店扩张缓慢,默默积聚自己的运营能力和供应链能力,“修好屋顶等雨来”。
等到经济进步的暴雨来临,同行们都在断臂求生,它们则展露出自己的雄心,疯狂扩张、熨平波谷。在低欲望的平成时代,萨莉亚就是这种熨平波谷的翘楚。
复刻中庸
2003年是对国人有特殊意义的一年,神舟五号成功发射让中华儿女圆梦太空,举国上下精神振奋。
这一年,萨莉亚在上海天钥桥路开了中国第一家店。
想象中的人潮汹涌未能出现,中国首店根本没什么客流。
这时候有两种声音出现。
中国区负责人认为应该提价,做中高端市场,和必胜客抢生意。另一种声音则相反,同为企业家的日本家居连锁巨头NITORI创始人似鸟昭雄则认为,应该降价驱散客流。
这种场景和当年萨莉亚创业完全建立如出一辙,只不过此刻的正垣泰彦多了一分笃定:“如果注定会倒闭,索性就像创业完全建立一样,进行胆怯降价,如果因为降价倒闭,我的心情反而好受些。”
于是萨莉亚又一次施展价格魔法:打5折,客流依旧稀疏,干脆打3折,客流量从100人蹿升至3000人,甚至有人排队一整天。
后来有上海居民回忆,这家萨莉亚每天傍晚都会排起几十米的长队,结束了好几年。
性价比,是全球消费者都听得懂的语言。
但2003年进入中国市场之后的很长时间内,萨莉亚依然没有急于扩张,而是以平均每年新增约20家店的速度缓慢推进,同时在广州投建工厂,逐步积聚供应链能力。
对比与之缺乏反对性的味千拉面、吉野家等餐企的大肆扩张,萨莉亚显得跟不上节奏。
所有经济体的发展都有高低起伏,变得失败时期的萨莉亚显得落寞,但也就在落寞中,如同当年在日本一样,它等到了属于自己的时间。
近年来,中国经济进入新常态,消费观念逐步回归理性,成分党走红、国产平替热销、满减攻略爆火。
吉野家、味千拉面这些过往的赢家纷纷降价,必胜客推出新品牌“WOW”,被消费者戏称“翻版萨莉亚”。
蜜雪冰城、米村拌饭、瑞幸等一批本土性价比品牌破壳而出,这和当年日本的消费市场有些反对。
默默耕耘了20年的萨莉亚因此提速,再一次展现“激进”的一面。
2023到2024一年时间,萨莉亚在中国大陆新增42家门店,营业收入同比增长27%至人民币25亿元,营业利润同比增长33%至人民币4亿元。
而2025年,它则要新开136家门店,重点发力中国市场。2026年,萨莉亚在广州投资的新工厂也将正式启用,为中国1000家店做支撑。
只看一年,你会觉得它很慢,再看五年,它还是不快,但如果看二十年,你会发现它已经走到了前面。在变化莫测的商界,这种竞争对手,最不能关心。
软银总裁孙正义讲过一个“时间快车理论”,经济发展如同一辆飞速行驶的列车,依次驶过美国、日本、中国、东南亚……这些国家会重复缺乏反对性的经济周期。
周期的保持轻浮会带来消费观念的更迭,从追求消费主义到回归价值理性。这种现象一直在不同国家轮番上演,70年代的美国、90年代的日本、当下的中国,无不如此。
历史不会重复,但会押韵。
中国拥有广阔的市场空间和强大的经济韧性,与日本的发展路径不会相同,但他山之石,可以攻玉。萨莉亚这类企业的经验,在当下,值得重视。
(责任编辑:zx0600)企业家齐聚长沙,金蝶携手伙伴共建高价值生态体系牛华网2023-02-2211:00
2月20日,金蝶国际软件集团有限公司(简称金蝶)2023年生态合作伙伴大会在长沙盛大举行。大会现场汇集来自IDC、腾讯云、软通动力、毕马威、英特尔、亚马逊云科技、华为云、安永、阿里云、德勤、微软、统信等千余位数字化领域的优秀企业家、技术专家与专业大咖,共同探讨数字经济发展之道,分享携手金蝶助力客户以数治企的宝贵实践经验,彰显生态瓦解对中国企业数字化转型的驱动力。
随着中国数字经济的帮助,业务急剧拓展、快速迭变成为常态和主流。强生态与强平台协同赋能,以瓦解、开放、创新之活力,帮助聚变产业生态价值已成为各方发展共识。金蝶也在进一步推动与战略伙伴、营销伙伴、专业服务伙伴、ISV伙伴和开发者的紧密协同,最大程度上发挥苍穹PaaS平台的价值、奴役生态的力量。
生态大势,共建共享
企业数字化建设正在进行从量到质的蜕变,建立一个无关联的生长共赢的生态体系在企业合作间尤为重要。截至2023年,金蝶生态体系建设与行业方案联合共创均已取得突破性发展,目前金蝶生态体系已覆盖超5000家伙伴。
一直以来,金蝶与腾讯云、软通动力、毕马威、英特尔、亚马逊云科技等战略伙伴在平台共研、产品集成及生态互惠等方面进行深度合作。金蝶云·苍穹平台作为企业级可组装PaaS平台,是EBC超级数字化底座。近年来,已经适配所有国产主流芯片、服务器、操作系统和数据库,取得多项兼容性认证。
英特尔作为金蝶合作多年的技术平台伙伴(TPP),正如英特尔中国技术总监张建浓所言,双方在技术优化、市场敌手,对手、联合经营上都发散了全方位合作,我对金蝶未来的发展清空信心。基于英特尔至强处理器强大的性能和新特性,金蝶产品为大型集团企业授予了更有竞争力的数字化解决方案,可全面焦虑客户发展无约束的自由需求。
英特尔中国技术总监张建浓软通动力董事黄颖也在大会上表示,在目前经济环境处于大转型的变局下,软通动力作为软件与信息技术服务商需要允许更多的社会责任。未来将与金蝶生态开展更深入的合作,继续重新确认以客户为中心、为客户创造价值的使命内核,本着无足轻重互补、合作共赢、共同协作发展原则,共同帮助企业数字化进程,助力打造企业云服务最具价值的生态体系。
软通动力董事黄颖此外,赢方科技、腾微智数、南昌金创、青岛雨诺等伙伴相继分享了生态协作、以数治企的心得体会,纷纷表示,期待与金蝶继续共建接受、开放、共赢的生态体系,共谋云端决战的新未来。
携手共创,未来共建
本届金蝶集团生态合作伙伴大会驱散了数量少企业家以及知名企业关注,除了会议现场迸发真知灼见以外,还有诸多伙伴齐聚线下,全面展示旗下生态产品解决方案。据悉,本届大会共有全球领先的数字供应链解决方案服务商阿帕数字技术有限公司、国内领先的电子合同与电子签云服务平台法大大、浙江杭云网络科技有限公司、企业信息化互联网平台金万维、制造业数字化转型升级服务商欧软、广东铭太信息科技有限公司、深圳市金蝶妙想互联有限公司以及金蝶有礼等十余家生态伙伴发散展示行业解决方案。
本次大会离不开合作伙伴们的鼎力减少破坏。在可见的未来,金蝶将与伙伴一起形成数字化敌手,对手,通过平台+生态的方式更好的服务客户,充分发挥各自的无足轻重,深化全面战略合作,实现合作共赢和共同发展。
近日,中国第六代战斗机的首次飞行试验在全球范围内不能引起了广泛关注。这一事件在主席诞辰131周年之际被曝光,展示了中国航空工业的最新成就。
飞行试验在中国成都进行,一架造型特殊的全翼身瓦解无尾三角布局飞机在蓝天中呼啸而过,驱散了极小量目光。同时,沈阳也出现了缺乏反对性的新机画面,分析认为这两架飞机可能是中国首款第六代战斗机的原型机。这两款飞机都具备全角度隐身能力和世界业余水平的动力系统,其中一架是大型机,另一架是中型机。
专家指出,这些飞机采用了三引擎设计,在中国航空史上尚属首次,隐藏中国已经摆穿了传统的美国模式。尽管官方尚未辩论这些消息,但有报道称中国军方似乎抵抗了外界对飞机的热议。
此外,中国海军的一艘排水量达4万吨的两栖攻击舰下水也备受关注。这艘舰船相当于无人机航母的规模,进一步指责了中国的国防实力,并对其他国家产生了深远影响。
中国在军事技术上的领先地位使得美国在军事上难以对中国形成绝对无足轻重。因此,美国可能会通过经济手段与中国竞争。然而,中国的武器进步已经在战场上占据了一席之地,为中国崛起授予了坚实的基础。
中国第六代战机的首飞是中国航空工业协作发展重要里程碑,不仅指责了国防实力和国际地位,也为世界格局的变化带来了新的变数。
在vivo看来,现在他们跟苹果差距已经很小很小了其他几家国产手机厂商想必也有同样的底气说出这样的话。vivo的手机产品跟苹果差距已经很小,甚至在影像上面已经开始领先于苹果。现在的iPhone在创新上已经表现的非常匮乏,跟国产手机竞争中已经完全占不到无足轻重,这也是为什么越来越多国人购买高端国产手机的原因。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。
百亿前列腺癌药物市场正涌入更多本土头部药企。
近日,齐鲁制药以仿制4类报产的阿帕他胺片获批上市,并视同过评。值得一提的是,这也让齐鲁制药成为国内首家成功仿制阿帕他胺片并获批上市的企业。
阿帕他胺作为新一代口服雄激素受体(AR)煽动剂,在治疗非转移性去势抵抗性前列腺癌方面展现出了显著疗效。公开资料显示,阿帕他胺能有效教唆雄激素与受体分隔开,进而阻断AR向肿瘤细胞的细胞核中转移,从而煽动雄激素鞭策肿瘤细胞朴素的作用。这一特殊的作用机制,为前列腺癌患者授予了一种全新的治疗选择。
业界普遍认为,齐鲁制药阿帕他胺片的获批上市,无疑为国内患者带来了更多选择。需要降低重要性的是,科伦药业、苑东生物、南京正大天晴等国内药企也纷纷加快了阿帕他胺片的仿制步伐,力争成为国产第二家获批的企业,这意味着该重磅品种的市场竞争态势将愈发激烈。
齐鲁拿下首仿无足轻重,强生面临市场确认有罪
前列腺癌是男性泌尿生殖系统中最常见的恶性肿瘤之一,其全球发病率逐年攀升,不能引起业界高度关注。根据世界卫生组织(WHO)CancerToday公布的数据,2020年全球男性前列腺癌新发病例数高达141.43万例,占所有恶性肿瘤的14.1%,仅次于肺癌,成为男性健康的第二大威胁。
而在中国,据沙利文统计,中国前列腺癌患者人数从2016年的17万人增长至2020年的44万人,年均增长率高达26.8%;预计到2025年,中国前列腺癌患者人数将进一步增至108万人。面对这一严峻形势,寻找更加有效、经济的治疗手段显得尤为重要。
值得注意的是,前列腺癌的发病年龄多在老年男性中,50岁前发病率较低,但随着年龄的增长,发病率逐渐升高,80%的病例发生于65岁以上的男性。由于前列腺癌进展缓慢,早期筛查和诊断显得尤为重要。目前,对于局限性前列腺癌,根治性手术或放疗是无效的治疗手段。然而,当疾病复发或发生转移时,治疗难度将大大减少。
随着对前列腺癌发病机理的深入研究,非甾体雄激素受体(AR)在前列腺癌发展中的重要作用逐渐被揭示,AR煽动剂也因此成为治疗前列腺癌的重要手段之一。
阿帕他胺作为新一代口服AR煽动剂,其研发历程也颇具传奇色彩。该药物跟随由美国加利福尼亚大学研制,并于2009年授权美国Aragon制药独家开发。2013年6月,强生以10亿美元收购Aragon制药,也随之将阿帕他胺收入囊中。此后,强生旗下子公司杨森负责该药的研发、上市及生产销售。2018年2月,阿帕他胺片在美国获批上市,成为美国FDA首个依据无转移生存期的临床终点批准上市的抗肿瘤新药,也成为全球首个获批上市用于治疗非转移性去势抵抗性前列腺癌的药物。
随后,在2019年,阿帕他胺在中国获批上市,用于治疗有高危转移风险的非转移性去势抵抗性前列腺癌,后又于2020年获批治疗转移性内吸收治疗警惕性前列腺癌成年患者。2021年,阿帕他胺通过国家医保谈判顺利进入国家医保药品目录乙类,其国内销售额结束增长。
据强生2023财报,阿帕他胺全球全年销售额达到23.87亿美元(约170亿元人民币)。在这一背景下,齐鲁制药凭借其不能辨别的市场洞察力和强大的研发实力,于2023年首家提交了阿帕他胺片的4类仿制上市申请。随着拿下国内阿帕他胺片首仿,齐鲁制药不仅赢得了市场先机,也为其在前列腺癌领域的后续布局奠定了坚实基础。
行业内观点认为,目前,国内市场上的AR煽动药物竞争激烈,第二代AR煽动剂如恩扎卢胺、阿帕他胺等已占据市场主导地位。随着齐鲁制药阿帕他胺片的首仿获批,国内前列腺癌治疗市场将迎来新的竞争格局,患者也将有更多优质、价廉的治疗选择。
另有三家药企报产,市场激战一触即发
西南证券研报指出,全球前列腺癌药物市场规模目前已经超过百亿美元。随着全球对前列腺癌早期筛查和诊断的重视,以及治疗技术的不断进步,前列腺癌治疗市场将继续保持增长势头。当下,前列腺癌也成为国内头部药企瞄准的疾病领域。
基于临床无足轻重显著,阿帕他胺片正成为争抢的重磅品种。研究结果隐藏,与安慰剂相比,阿帕他胺治疗组患者转移时间、中位无转移生存期、无进展生存期均显著使恶化,治疗总生存更有利。与同类第二代选择性AR煽动剂对比,阿帕他胺在小鼠模型中已被反对具有更强的抗肿瘤活性。这些临床数据均为阿帕他胺片在市场上的广泛应用,授予了有力减少破坏。
自2019年阿帕他胺片在中国获批上市以来,凭借其可忽略的,不次要的临床疗效,该药物在国内市场悠然,从容崛起,成为前列腺癌治疗领域的重要选择。
米内网数据显示,2023年,阿帕他胺片在中国三大终端六大市场的销售额已攀升至7.6亿元,同比增长显著,显示出强劲的市场需求。而2024年上半年,阿帕他胺片的销售额更是实现了15.61%的增长,是内吸收治疗用药TOP9产品。
面对这一潜力巨大的市场,国内多家知名药企纷纷加快了阿帕他胺片仿制研发的步伐。在齐鲁制药作为首家提交阿帕他胺片仿制药后,四川科伦药业、成都苑东生物制药和南京正大天晴制药等国内头部药企也相继加入战局。
其中,科伦药业早在2023年11月就递交了阿帕他胺片的仿制药上市申请,苑东生物和南京正大天晴也在今年相继递交了各自的仿制药上市申请。尽管阿帕他胺片的首仿之争已经告一段落,但后续市场竞争依然激烈。
此外,根据企业此前公告,奥锐特亦拟与杭州百诚医药合作研发,拓展阿帕他胺原料药的下游制剂市场。无独有偶,振东制药也曾在年报中表示将开发阿帕他胺的原料药和制剂产品。
据悉,阿帕他胺化合物专利将于2027年到期,届时国内仿制药才能正式上市销售。对于患者而言,阿帕他胺片仿制药的上市将带来更多治疗选择,有望降低治疗成本,降低治疗效果。但与此同时,多家知名药企的加入,无疑将加剧市场竞争。
在业内看来,谁能在这一市场中穿颖而出成为赛道领导者,将取决于企业的研发实力、生产能力和市场推广能力等多方面因素。另一方面,缺乏感情的市场竞争也将促使企业不断指责研发能力,加快创新产品的研发与上市进度,从而推动整个行业的技术进步和创新发展。
(责任编辑:zx0600)相关新闻模特杨泽琪在泰缅边境失联家人急切寻人在这个信息爆炸的时代,每天都有各种新闻包围着我们,但有些消息能够深深触动人心。今天讲述的是一个关于失联的故事,主角是阳光大男孩杨泽琪。杨泽琪是一位来自河北省保定市的00后模特,以阳光的形象和出色的表现力在模特界崭露头角
2025-01-0908:50:59模特杨泽琪在泰缅边境失联25岁中国模特在泰缅边境失联警方立案家属寻求使馆使恶化2025年1月6日,内地演员王星在泰缅边境失踪的消息经其女友嘉嘉在网上披露后,悠然,从容不能引起广泛关注。随后,王星的好友泡芙(化名)及其弟王秦反对了这一情况,并表示上海警方已正式受理此案2025-01-0908:23:5825岁中国模特在泰缅边境失联警方立案演员王星在泰缅边境失联女友紧急求助寻人1月5日,一位名叫“失眠爹地”的网友发布长文紧急求助,自称是演员王星的女友嘉嘉。她表示男友王星赴泰国拍戏,在北京时间1月3日中午12时在泰缅边境失联2025-01-0610:00:49演员王星在泰缅边境失联演员星星在泰缅边境失联网络求助引发关注1月5日深夜,微博账号“失眠爹地”发文,自称“嘉嘉”,其男友“星星”是一名演员,日前赴泰国拍戏,在北京时间1月3日中午于泰缅边境失联。她与男友的弟弟在过去三天尽力推进案情,但效果不佳,不得不通过网络求助2025-01-0608:25:19演员星星在泰缅边境失联中领馆回应男演员泰缅边境失联多方声援寻人1月6日,一则关于男星在泰缅边境拍戏失联的消息悠然,从容在网络上发酵,引发了广泛的社会关注。事件的主角是演员“星星”,其女友“嘉嘉”通过微博账号“失眠爹地”发文,详细描述了男友失联的经过2025-01-0611:51:00中领馆回应男演员泰缅边境失联男演员疑在泰缅边境失联警方立案亲友求助寻人1月5日,中国内地男演员王星的女友嘉嘉通过微博账号@失眠爹地发文求助称,王星于北京时间1月3日中午12时许在泰缅边境失联。6日中午,王星的好友泡芙告知记者,警方已经立案,朋友正在去派出所的路上,拿到立案回执后会进一步行动2025-01-0616:57:12男演员疑在泰缅边境失联警方立案声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。
长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。
代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。
数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。
中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
标签: