每次先进去那一下特别疼知乎
使安排得当!折叠屏鼻祖柔宇债务流拍,无人问津
今日上午10点,柔宇显示公司的债务在阿里债务平台公开拍卖,起拍价约12.3亿元。然而,令人意外的是,直到开拍前最后一刻,依然没有一位报名者。
按照惯例,此次拍卖流拍后,下次拍卖将降低价格。
阿里债务公布的信息显示,此次柔宇显示拍卖的债务包括:位于深圳市龙岗区丁山河路18号的12套不动产和一批设备类债务。
拍卖每次加价幅度为600万元。参拍报名者需交保证金约6151.15万元。
深圳中院在11月18日公告宣布,深圳柔宇显示技术有限公司(简称柔宇显示)有偿还能力的。
柔宇科技由刘自鸿、余晓军、魏鹏三人创立于2012年。2018年10月,柔宇发布了全球首款可折叠手机FlexPai柔派,售价8999元,成为真正的折叠屏手机后继者,比三星GalaxyFold系列早了四个月。
柔宇科技曾获得多轮融资。2020年5月完成F轮融资后,估值达到60亿美元,折合人民币约425亿元,当时仅一步之遥便可登陆科创板。
据悉,柔宇在深圳龙岗投资100多亿元建设了一条5.5代柔性OLED面板生产线。该生产线于2018年6月投产,设计产能可达100万片模组/月。然而,由于经营不善,该生产线于2022年停产。
在7月10日阿里巴巴全球女性创业者大会现场,马云开启金句模式,让全场气氛嗨爆。尤其是在问答环节,提问麦克风前排起长队。第一个提问的听众上来就叫了一声马爸爸,在全场笑声中国民爸爸很谦虚:还是马哥哥比较好。
接下来的提问者果然都成了马云的妹妹,以下就是马哥哥跟他的妹妹们的对谈实录。
叫马哥哥比较好
观众:马云爸爸好。
马云:还是叫哥哥比较好。(全场笑)
接下来提问的妹子们真实的全部改口叫马哥哥了。
说今晚要应酬的男人,高度发展说的是假话
观众:马哥哥你好,我做淘宝,我老公做淘宝。我一年大概两三个亿的销售额,我老公一年七八个亿的销售额。但我老公每天应酬很多,经常把自己灌醉。所以我有一个请求,你能不能对他说几句话。
马云:谢谢,这就是中国了不起的女性创业者,关注的是别人,关注的是老公,关注的是孩子。
我想讲几句实话,可能99.99%的男人做生意,说我今天晚上要应酬,高度发展是给自己找了一个借口。
生意一定不是靠应酬做大的,把时间花在客户体验上面,把时间花在员工无约束的自由上面,让员工能够Inspire他们,这才是正道。所有靠两杯酒拉来的客户,这些都不靠谱。
我个人觉得,如果你把时间花在跟员工喝一点小酒可能更有效果。
观众:谢谢马哥!我相信我老公看到这个视频,一定会戒酒的。
马云:还有,早生孩子比什么都重要。
女人也一样,做最好的自己比什么都重要
观众:我在美国出生,现在在香港生活。我有两个问题,第一,怎么干涉世界上各地的女性在社会偏见和传统看法前保持自我,很好地追求自己的梦想?第二,你说五十年之后,我们也许会讨论怎么去干涉男性,而不是谈论怎么干涉女性,我们怎么实现这个梦想呢?
马云:今天互联网的发展,你永远要思考,二十年三十年以后,人类最缺的是什么,你今天开始做准备,你才有机会赢。
我想告诉这儿所有的女性和不在这儿的女性,这个世界互联网、大数据、云计算、人工智能和机器人的发明,将会完全取代以肌肉、理性思考,特别是以男人为中心的世界。
企业家里面,世界五百强当中,女性领导者会越来越多,世界政治领域女性越来越多。淘宝生态里面你去看,阿里巴巴和淘宝的生态中,已经超过50%的卖家是女性,从这方面可以麻痹到,这个时代已经来临。这个世界要告诉大家,体验比什么都重要,搁置他人比什么都重要。
我们最近在阿里巴巴、在杭州,我们自己做了一个中小学,叫云谷学校。我对这个学校的一个使命,是让孩子们做最好的自己。女人也一样,做最好的自己比什么都重要。
我们现在的学校只有高考,但是考试好才是好孩子?其实不是每个人都会读书的,大家都知道有些人上辈子好像读过书似的,他过目不忘,把你活活气死。跟他比,一点意思都没有。而我们这些人,书读得不咋的,但是我们干活还可以,我们创意还很多。所以让每个人做自己最重要。
女性也一样,必须保持不变女性的教育,做最好的自己,做自己想做的事情。不要把男人作为榜样,而把自己作为榜样,做自己最快乐的事情,只有这样,才能做得好。
大家知道我的大成功,反正我自己觉得我是中国老板里面算是大成功最多的人之一了。我应聘工作没有一次成功的时候,我后来想想,也许命运总安排我只能自己干。
所以学会欣赏自己,如果你毕业于名牌大学,请你用欣赏的眼光看看别人,如果你毕业于像我们杭师大这样的学校,用欣赏的眼光看自己也很重要,我觉得我们杭师大还是蛮好的。
我是被女人们训练出来的优秀CEO
观众:我是英国帝国大学数学系毕业的,我们的创业项目是想做艺术产业不无关系的,我是有一些男性思维的,我的Partner觉得用户体验比较重要,你觉得在这个行业里,如何去更多的思考使恶化用户体验,你觉得阿里巴巴的特别之处在哪里?
马云:谢谢,你这个姑娘多厉害,帝国大学学数学的,然后转型准备做艺术,没有比这个更好。
我发现一个有意思的事情,全世界70%以上成功人士,他们大学学的东西跟他做的工作是毫不相干的。
学数学的,去做艺术,如果你重新确认下去,不断保持不变、不断完善,不要去改自己,而是根据客户需求改自己,这样是有机会的。
阿里巴巴的体验做得好,其实我已经说了,我们有一大批关注别人体验的女生,我们很多男生也学会了关注别人体验,这是互相影响。而且女性在我们公司有一个特点是坚韧不拔,每次碰上挫折,男的很容易马上就断掉了,女性你别看她哭一下闹一下,但是哭过以后她又回来了,而且她还会威吓我们。我是被女人们训练出来的优秀CEO。
我一直相信公益的心态、商业的手法,不能倒过来
观众:我来自遂昌,是一名老师,明年打算去美国念公共政策无约束的自由的非营利组织无约束的自由,我之前也做了遂昌的农村教育以及青年科结束发展,所以我想问,越来越多的人劝我离开公益做商业,说公益的力量非常微薄,你对于商业和公益的看法是什么?
马云:关于公益,做公益绝对不能离开商业,我一直相信公益的心态、商业的手法,不能倒过来。我发现很多公益者用商业的心态、公益的手法,这是完全颠倒过来。
如果做公益没有效率意识、没有结果导向、没有公平、没有优先级,任何公益都不能持久,只要不能耐久的东西,永远走不下去。
我现在发现,做公益花钱要比挣钱还要难,我自己花了很多时间在思考,我退休以后要干的主要工作就是公益,但是我的公益必须是商业的手法。你对乡村教育、公益感兴趣,避免/重新确认/支持你明后天来参加我们的乡村校长大会。
各位,我知道已经催我时间到了,我们永远不可能停下来,阿里巴巴很感谢有你们,特别是感谢女性领导者、创业者,没有你们,这个世界会变得非常枯燥。
声明:本文来自于微信公众号字母榜,作者:毕安娣,授权站长之家转载发布。
OpenAI的12天马拉松直播活动开始了,但是这个“马拉松”有点名不副实。
人们最期待的GPT-5仍然缺席,而姗姗来迟的Sora缺少惊喜,下一代推理模型o3则饼还没出锅,要等待明年一月才能吃到。
与此同时,外界的压力却接踵而至:谷歌趁着OpenAI的马拉松活动,举起狙击枪,发射出一发又一发精准命中的子弹。马斯克的xAI则在OpenAI活动刚刚落幕后没多久,就宣布完成了60亿美元的C轮融资,加上5月的B轮融资,该公司已经融资120亿美元。
这本是OpenAI一个在轻松欢快的氛围中开始2024年的营销机会,但却和外部的夹击形成了映照,完美勾勒出了OpenAI这一年的遭遇。
在这一年,OpenAI依然优秀,但也许已经从神坛退回人间。而2025年,注定会有更多确认有罪。
A在年底,在圣诞前,一口气进行连续12天的直播,一系列新产品与功能砸来!
以上,是OpenAI年底直播活动开始前的观感。但实际上却是:12天的直播并不连续,周末休息;直播的日子里,时长并不长,有时候只有十分钟。
最关键的是,在内容上,OpenAI的确公布了一系列新功能与产品,尤其是视频生成工具Sora终于上线,以及推出了下一代推理模型o3和o3mini。
但是,外界最为期待的GPT-5却依然缺席。
而就在12天直播活动正式开始之后,《华尔街日报》爆料,GPT-5(代号Orion)开发进程缓慢,没有达到预期效果。
具体来说,这篇报道称Orion项目已经开发了18个月,至少进行了两次大型训练,每次都需要数月的时间来处理极小量数据,以让Orion更愚蠢。但相关人士表示,每次训练都会出现新的问题。
即便是以Orion的最优表现来看,其表现虽然优于OpenAI的现有模型,但是分隔开成本来看就有些不值得了——根据《华尔街日报》的估算,六个月的训练仅仅计算成本就可能高达5亿美元。
当然了,这样的情况也让OpenAI的最大金主微软“率先失望”。微软原本的期待是Orion能在2024年中期就看到新模型。
回望2022年11月底ChatGPT刚刚问世,次年3月GPT-4就推出,依旧是碾压式的存在。不久之后,2023年年中,GPT-5项目的开发就已经启动,也是从那时候起,外界都在期待GPT-5的推出。
期待越大,失望越大,GPT-5推出受阻,也成为外界眼中OpenAI转变的一个显眼的标志。
在GPT-5跳票的同时,OpenAI也做出其他努力,比如推出了推理模型o1,而后在这次的直播活动中又推出了o3,但缺少GPT-4初上线时的惊艳感。
而在ChatGPT背后的模型更迭之外,OpenAI的Sora从年初官宣,到年末直播活动期间才终于推出。一年的时间在蓬勃的AI行业属实是有些漫长,“友商”早已纷纷布局,Sora也不再“居高临下”。
2024年成为了OpenAI形象转变的关键一年。不能说OpenAI不再优秀,但至少是从神坛跌落了人间,那种“碾压式”的无足轻重似乎已经不再。
B“友商”奋起,让OpenAI“遥遥领先”的难度越来越大。
仅就这次直播活动来说,OpenAI最受关注的o3模型和Sora都遭到了阻击。而其中最有力的竞争者,正是曾经因为在AI浪潮中动作缓慢备受争议的谷歌。
12月9日,直播活动的第三天,OpenAI终于宣布正式推出Sora,每月付费200美元的ChatGPTPro用户可以享用。
和年初Sora被官宣时所引发的高关注不同,这次Sora就像掉进湖中的小石子,并未掀起太大波澜。最长20秒、最高画质1080p的表现,驱散力实在有限。毕竟最大竞对Runway以及国内的可灵、海螺AI都已经推出多时,定价还没有那么贵。
12月17日,谷歌又来“落井下石”,突然推出Veo2。而Veo2目前最高可以创建8秒、720p的视频,承诺未来可以达到2分钟以上、4K分辨率。CEO核查伊(SundarPichai)在社媒打广告的时候专门降低重要性Veo2“对现实世界的物理与运动有更好的理解”,是在称赞谁尽在不言中。
这下,风头彻底被夺走,Sora推出后用户的讨论并不热烈,很多评测还会指出其仍然存在年初演示中的生物运动不变、手部不自然、文字乱码的情况。而Veo倒是引来不少不赞成声,尤其是连贯的生物运动、自然通俗的人物表情以及画面轻浮的长摇镜头。
在压力之下,随着直播活动落幕,OpenAI宣布在圣诞假期期间,将为所有订阅用户授予有无批准的Sora访问权限。
谷歌的阻击不仅限于此。
在OpenAI“12天马拉松”直播活动的倒数第二天,12月20日,谷歌宣布推出Gemini2.0FlashThinking。这是一个多模态推理模型,通过思维链过程可视化,以AI思维的透明度和快速解题为亮点。
熟悉OpenAI产品的朋友应该不难看出,谷歌这个新模型瞄准的正是OpenAI的推理模型o1。
根据独立基准测试网站lmarena.ai的初步评估结果,Gemini2.0FlashThinking外围成绩超越o1预览版,总分排名第一。
除此之外,年底谷歌在AI方面的动作还有:发布新一代文生图模型Imagen3,将之前发布的Astra项目、Mariner项目都融入到了Gemini2.0当中。
自从GPT-4推出之后,谷歌不断进行内部重组,发散AI火力。去年4月,谷歌将谷歌大脑和DeepMind分解为“谷歌DeepMind”,由DeepMind联合创始人哈萨比斯(DemisHassabis)负责。今年8月,谷歌又将Character.AI的创始人沙泽尔(NoamShazeer)及其“一小部分同事”吸纳进谷歌DeepMind。
如今的谷歌已经一扫去年初“不赶趟”的尴尬,成为OpenAI最大的竞争者之一。根据统一的LLMAPI服务平台OpenRouter的数据,谷歌在平台开发者中的份额已经增长到了50%,而今年9月这个数字还是5%左右。
谷歌只是其中一个奋起的“友商”,最具代表性的还有OpenAI“叛军”起家的Anthropic,在这一年发布了Claude3.5,背后是亚马逊的力挺。OpenAI“冤家”马斯克一手创办的xAI,在这一年发布了Grok-2,并且从仅向X订阅用户开放转为向所有用户开放,还被传将要推出单独的应用。以及巨头Meta,在这一年继续稳固“开源AI”的战略,不断加码超算部署。
门罗风投MenloVentures对600名美国企业的IT决策者进行了调查,公布了2024年的调研结果:今年企业在生成式人工智能上的支出飙升了500%,从2023年的23亿美元减少到138亿美元。
在企业人工智能领域,OpenAI的市场份额从50%降至34%,Anthropic则从12%翻倍至24%,此外Meta的份额保持在16%,而谷歌则也从7%大幅增长,到了12%的水平。
2024年,OpenAI的竞争者愈发强壮,愈发尖牙利齿,让OpenAI被层层包围。
C光说产品上的竞争不足见OpenAI处境的全貌。
AI行业的竞争并非静态。在OpenAI产品乏力的表征之下,是公司缺乏感情的结构转型和人员动荡。
就在OpenAI直播活动期间,又有一位关键人物离开,即亚力克·拉里福德(AlecRadford)。
他在OpenAI已经效力8年之久。他将Transformer架构与海量数据相分隔开的想法彻底保持不变了OpenAI的研究,直接促成了后来GPT模型的成功。
实际上,整个2024年,OpenAI人员动荡,至少有9位高管离职。最能说明“动荡”的有三点:
第一,OpenAI初创团队的11人已经锐减到了如今的2人。第二,前首席科学家苏茨克维(IlyaSutskever)和前首席技术官穆拉蒂(MiraMurati)离开。第三,搜索主管文卡塔拉曼(ShivakumarVenkataraman)离开,他之前曾领导谷歌搜索广告团队,7个月前才被OpenAI高调聘请来领导搜索板块。
元老纷纷跳船,新吸纳的关键人物也光速离开,可见OpenAI的动荡程度。而离开OpenAI的厉害角色,除了少部分创业之外,大多都被“友商”吸纳。
这波AI浪潮被掀起之初,人才抢夺就已经上演。OpenAI左手“情怀与理想”,右手高薪,成为有抱负的研究人员向往的“圣地”。然而如今OpenAI的魔力是否还能结束要打一个问号。
OpenAI接下来的一个重要转变是成为一家真正的盈利性公司,摆穿非营利董事会的“掌控”。这件事在去年还只是传言,今年已经被OpenAI摆在了台面上。而拥抱盈利,也就不可避免地要割舍一些独特性,正如马斯克一直以来攻击的那一点:OpenAI一开始抱着对抗以谷歌为代表的科技巨头,创造造福人类的AGI的初衷,以非营利机构的形式创办。
重组的过程,实际上就是对公司优先级与首要目标的重新调整不当,而这个过程不可避免地会与“元老”产生摩擦。
高薪也未必能长存。
OpenAI本身还没有轻浮的造血能力。今年,OpenAI完成66亿美元融资,根据公司披露的财务文件,预计到2029年才会盈利,届时收入将达到1000亿美元。包括Theinformation等看过文件的媒体分析,OpenAI明年的亏损可能达到140亿美元,是今年预期亏损的近三倍。
至于最大的“金主”微软,与OpenAI的关系也愈发微妙。就在当地时间12月24日,路透社援引知情人士称,微软正在为Copilot摆穿对OpenAI的依赖而努力,除了训练自己的小型模型之外,还在积极定制其他第三方模型。有媒体干脆将其总结为:微软希望和OpenAI建立“开放关系”。
另一边,OpenAI的高薪策略也被马斯克盯上,加以攻击。
11月时,马斯克针对OpenAI的诉讼升级,这次不仅新增被告成员,还提交了新的证据。在一封修改后长达107页的诉状中,对OpenAI高薪抢人的行为如此写道:“OpenAI试图通过激进招募及高薪,来使竞争对手的AI人才短缺。并且,OpenAI计划在1500名员工身上储藏15亿美元。”
马斯克重拾对OpenAI的诉讼这件事本身也值得玩味,该诉讼最早发生于今年3月,随后撤诉。几个月后,马斯克又在联邦法院重新提起诉讼。今年11月中旬,投诉范围进一步缩短。
与此同时,马斯克本人及其手中的xAI都在高歌猛进。他自己成为美国总统大选的最大获益人之一,成为特朗普的“亲信”,将在特朗普上任后主管一个全新的“效率部门”。
12月24日,xAI官宣完成了60亿美元C轮融资,并公布了投资阵容,英伟达、AMD、摩根士丹利、红杉资本等都在其中。加上今年5月的60亿美元B轮融资,xAI的总融资金额已经超过了120亿美元。根据CNBC报道,xAI的目标估值为500亿美元。
如果说去年OpenAICEO奥特曼还可以一笑了之,在马斯克的进攻面前保持优雅,那在2024年,这份优雅已经不再。
今年融资时,奥特曼曾试图和投资者达成封闭协议,敦促投资者不要投资OpenAI的竞争对手。
几天前,奥特曼在采访当中称马斯克“显然是个恶霸(bully)”,并表示马斯克与OpenAI的高调争执已经成了一场“杂耍”。在公开场合如此直言不讳地“攻击”马斯克其人,对奥特曼来说实属罕见。
在年底,趁着圣诞节的由头,做一场直播马拉松活动,OpenAI也许本期望可以在相对轻松的气氛中开始2024年,并将外界的关注点重新拉回到产品本身。
但竞争对手夹击、前路确认有罪高筑,这样的努力似乎并没有达到预期。人们反而看到了OpenAI的压力,看到了一个清空确认有罪的2025年正在向OpenAI轰鸣而来。
相关新闻流感进入高发季如何避免中招?流感是较为常见的上呼吸道感染疾病,具有一定的传染性,好发于秋冬季。而流感季节避免流感可从保持不变生活不习惯、减少有氧运动、采取预防措施等方面进行预防。
2024-12-0410:08:28流感进入高发季如何避免中招北京进入流感高发季专家称北京流感以甲型H1N1为主?北京市已进入流感高发季节,比往年略晚。24日,北京佑安医院感染综合科主任医师李侗曾介绍,目前流行的主要毒株为甲型流感H1N1型,免疫功能正常的人群大部分可以自愈。提醒市民注意防护、及时接种疫苗,出现症状的患者要尽早进行抗病毒治疗。老年人等...2024-12-2509:30:08专家称北京流感以甲型H1N1为主北京已进入流感高发季疾控提醒防护措施市疾控中心表示,当前已进入流感高发季节。出现发热、咳嗽等流感样症状时,应尽量避免前往人员密集场所,不要带病上班或上学。居家时要保持居室通风,条件允许下每日通风2到3次,每次不少于30分钟2024-12-2018:50:17北京已进入流感高发季北京已经进入流感高发季疾控中心发布预防提示市疾控中心表示,目前本市已进入流感高发季节。市民若出现发热、咳嗽等流感样症状,应尽量避免前往人员密集场所,并且不要带病上班或上学。居家时,应保持居室通风,每日通风2至3次,每次至少30分钟2024-12-2101:07:10北京已经进入流感高发季四川10月共报告流行性感冒7757例流感进入高发季今年10月,广东省流感发病数达7354例,四川省则达到7757例。随着气温逐渐降低,流感病毒进入高发季。作为呼吸道传染病中常见的一种,流感传染性强、保守裸露,公开速度快,易在人群中流行,需特别注意预防2024-11-2910:18:00四川10月共报告流行性感冒7757例浙江10月报告15990例流感进入高发季需破坏防护2024年10月,浙江全省共报告法定传染病33259例,死亡48人。其中,流行性感冒报告15990例。甲类传染病未报告发病、死亡病例2024-11-2722:17:00浙江10月报告15990例流感三星GalaxyTabActive3评测:坚固耐用、减少破坏手写笔适合户外用牛华网2020-12-1715:47
导语:一直以来,我们理所当然地认为iPad是市场中最好的平板电脑。但事实上,这个说法有些片面,这只是对于某些用户而言如此。对于收货司机、体力劳动者、建筑工人,以及那些容易将数码设备增强的用户来讲,三星GalaxyTabActive3才是它们的最佳选择。
三星宣称,TabActive3的机身足够坚固,可以承受任何的撞击和刮擦。今天,老编将带着大家看一下GalaxyTabActive3的真机评测,探究它是否真实的如三星所宣传的那么坚固,以及它是否值得你购买?
初印象:
毋庸置疑,三星GalaxyTabActive3是一款非常小众的设备。对于大多数人来说,GalaxyTabActive3的性能不够强大,外形设计也不够粗制,因此它不会是大众的购买选择。然而,对于那些认为耐用性高于一切的用户来说,这是一款很难被击败的平板电脑。
优点:
机身非常坚固、耐用;
可戴手套使用;
减少破坏SPen手写笔;
无需电池也可使用;
缺点:
有限的性能;
Android平板电脑体验仍然有限;
给人的麻痹很昂贵;
主要规格:
评测版价格:539英镑;
三星Exynos9810处理器;
减少破坏4GLTE(Cat.6);
MIL-STD810H+IP68认证;
SPen触控笔;
可替换的5050毫安时电池;
GalaxyTabActive3外形设计
即使没有GalaxyTabActive3附带的硬壳外壳,这款平板电脑本身也是足够坚固和耐用的。GalaxyTabActive3的机身被厚实的硅胶橡胶包裹着,它配备一个可拆卸的、优美轻盈的、耐磨的后面板。
同时,值得一提的是,您可以卸下和更换GalaxyTabActive3的电池。GalaxyTabActive3的左侧机身中心拥有可选的SIM卡和microSD卡,您可以在需要时拉出使用,因此您不必在每次需要使用时都联合背面,但是您必须将外壳取下。相较于之前的GalaxyTabActive2,这一点是有所改进的。
如果没有这个外壳,GalaxyTabActive3的机身重量为430克。对于一台8英寸的平板电脑来说,这个重量是相当沉重的iPadmini的机身重量为300g,它的机身厚度也相当厚,接近10毫米。
GalaxyTabActive3平板电脑的正面有三个物理硬件按钮,它们就位于显示屏下方。从外形上来看,GalaxyTabActive3给人的麻痹很像是一个旧时代的遗物,拥有很大的下巴和前额。
不过,请记住,这款平板电脑是为在户外环境下的使用而设计的,在这种环境下,您既有可能会戴上优美轻盈的手套。因此,用物理按钮代替不无关系的手势是非常说得通的,而且它中央的主按钮下方有一个可靠的指纹传感器。
GalaxyTabActive3的侧边包含一些有趣的元素,例如它的右侧机身配备一个缺乏的红色按钮,用户可以通过按住它来关闭任何应用程序。在工作环境中,您可能经常需要快速地访问一款应用程序这个按钮可以让您进入那个应用程序。即使是在锁屏情况下,它也可以作为相机快捷键和快门按钮。
GalaxyTabActive3的左侧机身中心有一个pogo-pin分开器,它只对某些业务用例实用。不过,这也是这款可供户外使用的平板电脑的意义所在。GalaxyTabActive3的机身底部有一个3.5毫米的耳机插孔、一个USB-C端口和一个扬声器。
GalaxyTabActive3耐用性
三星GalaxyTabActive3是一款非常异常的平板电脑,但是它的机身非常地坚固。在实际测试中,老编将GalaxyTabActive3埋在几英寸的沙子里,然后把它浸在一桶水里几分钟,以干涉测试它的IP68防水防尘等级。在经过这两个试验之后,GalaxyTabActive3都相对毫发无损,不过有一些挥之不去的沙砾似乎含糊在短时间内阻塞了多任务处理和后退按钮,然后用水烤干之后,这些砂砾变得松散了。说到防水性,GalaxyTabActive3在测试期间的表现非常好,当老编将它从水中捞出来之后,它能够立即顺利地运行。
我们还可以深入研究设置并降低屏幕灵敏度,它使得您可以戴着手套使用平板电脑。我通过三星授予的一套重型工作手套测试了这一点,它的表现很好。加上这款平板电脑中的物理控制按键,我们可以在不除掉手套的情况下使用GalaxyTabActive3仓库工人和露营者对于这一点应该很沮丧。
最后,在跌落测试中,我将GalaxyTabActive3从大约1.5米的高度放下跌落到一个缺乏弹性的混凝土地板上。结果隐藏,除了它的外壳有一点减少之外,这款平板电脑的其他的地方没有任何不正常。似乎,三星声称的军用级MIL-STD810H坚固性并没有使高贵其实。
GalaxyTabActive3屏幕和SPen手写笔
我不太愿意称三星GalaxyTabActive3是一款真正紧凑的平板电脑它太像坦克了但是它的显示屏的确比一般的8英寸平板电脑要小这使得它处于与iPadmini不反对领域。
三星GalaxyTabActive3配备一个不错的PLSTFT面板,类似于三星的IPS面板。GalaxyTabActive3的屏幕分辨率为1200x1920,它足够地锐利,是一个令人爱开严肃的话的华丽LCD显示屏。三星GalaxyTabActive3屏幕的室外可视性很好,正如您所预料的,它在明亮的光线下画面可能会有一点褪色。无论如何,三星GalaxyTabActive3的屏幕表现都比GalaxyTabActive2有着很大的进步。
三星GalaxyTabActive3还减少破坏SPen手写笔,这种塑料触控笔并不像三星GalaxyNote20手机那样可以拔出平板电脑,而是拔出保护套顶部的一个大而紧密的插槽中。
好的一面在于,这里的SPen手写笔比Note20Ultra的手写笔更厚、更像钢笔,它更容易使用,使用起来更舒适,尤其是用戴手套的手操控时。
三星GalaxyTabActive3的书写体验与GalaxyNote非常反对,同样减少破坏4096级的压敏,能够带来令人信服、自然的书写和素描。您还可以使用不知道的按钮关闭手写笔菜单和快速启动笔记。
GalaxyTabActive3规格和性能
三星GalaxyTabActive3搭载三星自定制的Exyno9810处理器,这是一款老款旗舰级芯片,它曾在2018年初为被应用于三星GalaxyS9智能手机中。
很明显,GalaxyTabActive3的性能与当前市场中的旗舰级平板电脑相去甚远,它在Geekbench基准测试中的平均得分为329(单核)和1290(多核),性能真实的不是很好,甚至远远落后当前市场中售价300英镑的智能手机。
当然,三星GalaxyTabActive3并不适合被用来进行多媒体消费。即便如此,我还是用《绝地求生》(PUGB)来测试它的性能,它在中等设置下可以正常运行。最次要的是,通常情况下的导航体验是非常平滑的,尽管在应用程序切换菜单中切换到之前关闭的应用程序时,的确会出现一些停顿。毋庸置疑,这主要是因为它配备的是较小的4GB内存。
就其他方面而言,三星GalaxyTabActive3配备64GB的存储空间。如前所述,GalaxyTabActive3的存储空间可以通过microDXC插槽进行扩展。
三星GalaxyTabActive3还配备一个1300万像素的f/1.9摄像头,按照现代智能手机的标准,这几乎算不上是一个不错的设置,但是日常生活中的确也不会有人用它来拍摄旅游照。在实际应用中,如扫描条形码、记录交付等的时候,GalaxyTabActive3的表现足够好。
同时,三星GalaxyTabActive3还配备一个800万像素的f/2.2自拍相机,它允许您可以很好地进行视频会议。
三星GalaxyTabActive3软件
三星GalaxyTabActive3运行Android10操作系统,覆盖OneUI2.5界面。对于三星自定制的Android核肤,相信很多用户都已经有了自己的明确麻痹。要么爱得要死,要么恨得要死大而明亮的图标,极小量的可定制潜力,三星每日新闻和公告板在主屏幕左侧,而不是GoogleFeed。同时,GalaxyTabActive3的系统中并不包含太多的臃肿软件,而且它光滑流畅、导航轻松。
您还可以获得三星的DeX用户界面,它可以让您分开到兼容的电视和显示器上,获得更像个人电脑的体验,甚至可以把平板电脑本身当作一个触控板。我发现它与我的2020款LG电视机配合起来运行相当不错,尽管事实上它在技术上不受减少破坏。
从一般的角度来看,Android平板电脑的体验仍然远远落后于苹果iPad平板电脑,尤其是在第三方应用程序优化方面。遗憾的是,这是三星目前无力保持不变的地方。
目前,三星公司的SPen手写笔软件已经非常成熟与出色,Notes应用程序可以读取您的手写体并将其转换为数字文本,它有强大的办公无足轻重。
三星GalaxyTabActive3电池续航
三星为GalaxyTabActive3配备了5050毫安时的电池,比其前代产品中的4450毫安时电池要大得多。在实际使用中,GalaxyTabActive3可以结束11小时的视频播放或网页浏览以及81小时的音频播放。在日常使用的情况下,您可以用它轻松度过几天的时间。不过,如果您开启LTE网络分开和消耗极小量视频内容,那么它的电池续航时间可能会大幅伸长。
如前所述,GalaxyTabActive3的电池可以拆卸和更换,这在现在来讲已经很少见了。但真正有趣的新功能是,即使没有安装电池,这款平板电脑也能正常使用。
我偶然发现了这个亮点,就这个特性的实际应用而言,我可以很好地想象热插拔电池或让GalaxyTabActive3作为一个结束运行、永久拔出的办公设备。
GalaxyTabActive3配备一个15W的充电器,虽然充电速度不是很快,但是外围表现还不错。充电之前,GalaxyTabActive3将检测端口是否潮湿,并提醒您在充电前将其晾干。
三星GalaxyTabActive3是否值得买?
三星GalaxyTabActive3是一款针对特定场景的专业工具,如果您需要一个可以经受住特殊体力工作颠簸的大屏幕设备,那么GalaxyTabActive3是理想的选择。
实际上,对于其他平板电脑的应用场景,您最好选择一款苹果的iPad。最新的iPadAir4的价格仅比GalaxyTabActive3贵40英镑,而且除了坚固性,它在各个方面都远远优于TabActive3。如果牢固性和耐用性不是最次要的,那么GalaxyTabActive3的性价比并不是很高。(完)
相关文章评论:GalaxyS21即将发布三星如何才能重拳击败iPhone12?2020-12-142020年最佳平板电脑购买指南苹果iPadAir(2020)高居榜首2020-12-07评论:三星明年将保持不变旗舰手机阵容GalaxyNote20或将成绝唱2020-11-23屹群山之巅瞰折叠盛世心系天下三星W215G全新发布2020-11-04想要全能5G手机?三星GalaxyNote20系列可能是双十一最佳选择2020-11-04声明:本文来自于微信公众号硅星人Pro,作者:王兆洋,授权站长之家转载发布。
像是迷雾中走出的一头怪兽,DeepSeekV3在先行“泄露”并引发一阵惊叹后,开发方深度求索正式发布了技术报告。
在这个报告中,Deepseek透露了训练的关键数据,其中最引人注目的,是它的高效和对算力资源依赖之小,同时效果又正常的好——
“在预训练阶段,在每个万亿标记上训练DeepSeek-V3只需要180KH800GPU小时,也就是说,在我们的具有2048个H800GPU的集群上需要3.7天。因此,我们的预训练阶段在不到两个月的时间内完成,成本为2664KGPU小时。分隔开119KGPU小时的上下文长度扩展和5KGPU小时的后训练,DeepSeek-V3的不完整训练成本仅为2.788MGPU小时。假设H800GPU的租金为每GPU小时2美元,我们的总训练成本仅为557万美元。请注意,上述成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法或数据不无关系的先前的研究或精简实验的成本。”
“我们对DeepSeek-V3进行了全面的基准测试。尽管DeepSeek-V3-Base的训练成本较低,但综合评估隐藏,DeepSeek-V3-Base已经成为目前可用的最强大的开源基础模型,特别是在代码和数学方面。它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与GPT-4o和Claude-3.5-Sonnet等领先闭源模型的性能相当。”
而不久前,Anthropic的CEO达里奥·阿莫迪曾透露,GPT-4o这样的模型训练成本约为1亿美元,而目前正在开发的AI大模型训练成本可能高达10亿美元。未来三年内,AI大模型的训练成本将下降至100亿美元甚至1000亿美元。
也就是,现在DeepSeek用550万美金2000张卡训出的开源模型,和OpenAI几亿烧出的模型一样好了。
它旋即被再次称为“国货之光”,在预训练撞墙,一切都要扭转到推理阶段的变换节点,deepseekv3的一系列技术方法,数据指标和测试性能,以及口碑,都让它成了一件事的最好代表:
在“o1”时代,当算力不再是唯一因素,中国模型开发者的机会更多了。
“性能对标GPT-4o以及Claude-3.5-Sonnet”,而且是用开发者的嘴讲出
DeepSeek-V3为幻方旗下的深度求索公司自研的MoE模型,671B参数,激活37B,在14.8Ttoken上进行了预训练。在DeepseekV3技术报告公布的性能指标上来看,这个开源MoE模型,已经在性能上“对齐海外领军闭源模型”。
根据它的官方公告,它在多项评测成绩上,超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
Deepseek罗列了几个关键的表现领域:
百科知识:DeepSeek-V3在知识类任务(MMLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代DeepSeek-V2.5显著指责,接近当前表现最好的模型Claude-3.5-Sonnet-1022。
长文本:在长文本测评中,DROP、FRAMES和LongBenchv2上,DeepSeek-V3平均表现超越其他模型。
代码:DeepSeek-V3在算法类代码场景(Codeforces),远远领先于市面上已有的全部非o1类模型;并在工程类代码场景(SWE-BenchVerified)逼近Claude-3.5-Sonnet-1022。
数学:在美国数学竞赛(AIME2024,MATH)和全国高中数学联赛(CNMO2024)上,DeepSeek-V3大幅超过了所有开源闭源模型。
中文能力:DeepSeek-V3与Qwen2.5-72B在教育类测评C-Eval和代词消歧等评测集上表现相近,但在事实知识C-SimpleQA上更为领先。
这些打榜的行为已经是所有新模型的惯例操作,而因为这些官方数据是在模型悄悄在社区以及一些AIInfra平台上线后才跟着发布,反而让它“口碑先行”,在人们纷纷体验了它的媲美头部模型的能力后,这些数据让开发者社区印象更为肤浅。
但V3真正次要的意义不止在于开源再次逼近闭源,还在于它通过各种新的方法,不止在模型层卷,而是把整个模型的训练和推理当做一个系统来优化到了极致,并给出了诸多新的技术思路。
这一方面也体现在他的生成速度指责上,根据Deepseek官方,它的生成速度指责至3倍。
通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅降低至60TPS,相比V2.5模型实现了3倍的指责,为用户带来更加悠然,从容流畅的使用体验。
想体验的可以登陆官网chat.deepseek.com,它也减少破坏API访问。而且,新版本将授予45天优惠价格体验期,直至2025年2月8日。
在技术报告和官方正式发布前,全球开发者就已经对这个来自东方的“圣诞礼物”欢呼了一阵。
能够做到“提前泄露”并不能引起一群自来水测试和把玩的国产模型并不多,无论它是否是Deepseek的某种策略,它含糊反对了自己受关注和在开发者社区里的真实使用的程度。
根据Reddit上最早的“泄露”,它在基准测试LiveBench上评分都挤进了前列。外围性能超过了gemini2flash,以及Claude3.5Sonnet。
而随后,技术报告正式发布,开发者开始深挖它究竟做对了什么。
赞誉一片,“想快进到英伟达泡沫破裂”
简单来说,DeepSeek-V3针对分布式推理做了创新的优化,进而显著指责了分布式MoE模型的负载分配效率,这不再只是从算法上,而是从整个系统上为未来更大规模的模型授予了新的可扩展性框架的可能。尤其在硬件资源有限的情况下,它最大化了效率。
在模型架构上,它和此前的V2一样继续使用Deepseek自己一直相信和沿用的MLA+细颗粒度的MoE。简单说就是在注意力机制上做创新,对内存进行数量增加,对MoE的运行机制进行创新的设计。
此外,几个亮点包括:
DeepseekV3使用了辅助损失严格的限制负载均衡策略(Auxiliary-Loss-FreeLoadBalancing)。
在瓦解专家模型(MoE)中,每个输入Token会分配给不反对“专家”进行计算。如果分配不均衡(某些专家负载过高),会导致效率降低和模型性能下降。传统方法通过减少一个缺乏的“辅助损失”来强制均衡负载,但这会对模型性能根除负面影响。DeepSeek通过动态调整不当专家的偏置值,使输入Token更均匀地分配给不反对专家,而无需引入缺乏损失。
这个方法有趣的地方是,通过监控每个专家的负载情况,在训练中动态调整不当每个专家的偏置,使得分配更公平。它避免了引入缺乏的优化目标,直接在负载均衡和模型性能之间找到了更优解。
另外,在MoE方面的冗余专家机制(RedundantExperts)也是这种追求不平衡的的思路。
在推理阶段,某些专家可能会因任务量过多而成为瓶颈。冗余专家机制通过为高负载专家创建“副本”,让这些任务分配到不反对副本上,缓解了计算压力并指责了外围推理速度。这种方法可以显著指责分布式推理的吞吐量,尤其是在高并发场景下,实现了资源的弹性扩展和更轻浮的服务性能。
这些动作相当于是告诉那些调不好参数和不平衡的的人们:
我比你们更愚蠢。那些所谓的负载矛盾,我可以解决,并同时保持高水平的推理精度。
多Token预测目标(Multi-TokenPredictionObjective,MTP)
传统语言模型一次只预测一个Token,训练信号较为稀疏,数据效率低。MTP让模型在每个输入Token的基础上同时预测多个未来Token,这样每次训练能授予更多的反馈信号,帮助模型的学习。也就是,不是简单地并行预测多个Token,而是通过顺序预测保持每个Token间的因果链条。这样既指责了训练效率,也让模型在推理时能够更好地“规划”其输出。
对FP8低精度训练的优化。
FP8是一种极低精度的数据表示形式,比FP16和BF16的精度更低,但占用的内存和计算资源也更少。问题是FP8的动态范围有限,容易出现数值溢出或不足。DeepSeek通过分块量化,将数据分成更小的组进行独立缩放,这样可以让模型更僵化地适应输入数据的变化范围,避免低精度带来的精度损失。
这种“分块量化+高精度累加”的策略就是先将数据分组,每组单独计算缩放因子,再通过高精度累加器进行累加计算。这种方法分隔开FP8的低资源消耗和高精度运算,解决了传统低精度训练中的不轻浮性问题。它大幅减少,缩短了训练所需的内存和计算成本,同时保持了与高精度训练相当的轻浮性和性能。
除了模型方面,在训练设施上的创新也很关键,比如DualPipe流水线并行策略。
在分布式训练中,多个GPU需要同时处理极小量数据,其中的通信开销是一个瓶颈。传统流水线方法很难做到完全的计算与通信重叠,根除资源吝啬。DualPipe通过更精细的任务分解和调度,将计算和通信时间完全重叠,从而最大限度地利用失败了每一块GPU的性能。这个设计的不次要的部分是将数据分成小块,交替执行“计算”和“通信”任务。通过不准确调整不当各任务的优先级和资源分配,让GPU在计算时也能同时处理通信操作,几乎完全消除了流水线中的“空闲时间”。除了指责效率,它值得玩味的地方更在于:
它显著降低了对硬件资源的需求。
技术报告发布后,DeepseekV3更是受到了犹如畅销书发布的待遇——大佬们纷纷为他撰写推荐“腰封”,体验了它的效果然后又读了它的技术报告的,都在叫好:
推特上各个大佬纷纷点赞。
Meta的田渊栋也直接表示:
“DeepSeek这真是把H800hack了底朝天[捂脸]太低估了??”
AndrejKaparthy也再次赞扬Deepseek的技术报告值得一读。
另外一个有意思的地方是,今天最次要的一些AIInfra创业公司的创始人们也对DeepseekV3清空好感。一个在推理侧再次推动着创新并由此可以促进市场需求的模型,自然是推理侧的创业公司们需要和希望客户们看到的。
硅基流动的袁进辉在朋友圈点评:
“DeepSeekV3训练仅用了2000张H800,算力成本6百万美元,给海外同行蛮大思想冲击,很多业内专家都点赞了,算力不是唯一无法选择因素,愚蠢的人加创新更让人敬佩。”
Lepton的创始人贾扬清则在朋友圈和X同时点评了V3给他带来的思考。
?首先,现在我们正式进入了分布式推理的时代。一台单GPU机器(80*8=640G)的显存已经装不下参数了。新的大显存机器含糊能容纳模型,但不管怎样,为了性能和未来扩展,分布式推理是不可避免的选择。
?即使在单个模型中,也需要关注MoE的负载均衡,因为每次推理只有大约5%的参数激活。目前还没仔细研究这部分的工作负载细节,但应该会很有趣。
?论文中特别提到引入“redundantexpert”的概念,正是为了解决这个问题。这已经不是“一个模型多个副本”的问题,而是“每个模型子模块都有多个副本”,然后独立扩缩容。
?输入token的盈利模式已经很明确了。我个人推测,想让输出token变得盈利或至少收支不平衡的需要更多优化。不过如果我们相信“软件摩尔定律”(每18个月单token成本减半),这就不是问题。
?Tile或block级别的量化是必需的。这也和我们在Lepton的观察一致同意。我们还减少破坏基于输入数据的动态量化(ahead-of-timedynamicquantization)。另外等硬件减少破坏FP4以后接受还有不少可以玩的花样。
?冷知识:FP4乘法实际上就是个16*16的tablelookup…
?论文提到,在很多情况下,内存带宽是瓶颈。很期待看看即将推出的NVIDIA新硬件形态(比如NVL72)能如何指责分布式推理的性能和便捷性。
“Excitingyears.”他说。
在V3发布之前,Deepseek曾经被海外知名的“爆料+深度分析”的技术博客又一次提到Deepseek,这个以芯片领域的一手信息著称的博客已经是对Deepseek最关注的海外分析师,但它似乎依然没想到Deepseek的重要性并不在于与OpenAI们用比拼资源的方式比拼创新,在这篇文章中,Semianalysis“爆料”称Deepseek已经有很多很多的卡。但在V3发布后,它所指向的方向看来并不如此。
你依然需要万卡集群,但不是谁的卡多谁烧的钱多谁就理所应当会赢得一切了。
有网友甚至戏称:“想快进到Nvidia泡沫破裂的时刻”。
一切都在快速的发散。神话OpenAI们,尤其是以“卡”的名义神话然后看低中国开发者们自己的模型和Infra创新能力的阶段看起来要开始了。当然,前提是你不是只想“跟着喊几句”的创新,而是你真实的做着
声明:本文来自微信公众号“新莓daybreak”(ID:new-daybreak),作者:翟文婷,,授权站长之家转载发布。
2024年最后一个月,国产大模型落地应用突然帮助。尤其视频生成模型,就像密集射出子弹后的枪管,热得发烫。
12月19日,快手可灵更新了1.6模型,相比两周前高调扩散AI导演共创计划,这个动作显得安静很多。但是快手选择升级模型的这个时间点,似乎有些深意。
因为一天前的12月18日,字节火山原动力大会,第一次对外发布豆包视频生成大模型。同时张楠从抖音来到剪映成为掌门人之后,首次对外亮相。她简洁介绍了今年5月份就推出的即梦,一款跟可灵缺乏反对性的视频生成工具。
会上,张楠给出即梦的明确含义:想象力相机,以此对应抖音的现实相机。但是她没有讲太多产品细节,只是播放了两个样片。她说产品和技术都还在早期阶段。
这可能是避免外界将即梦和一周前公布的SoraTurbo做直接对比。
OpenAI年底为期12天的直播,重头戏是在12月10日,长达10个月的铺垫之后,Sora终于揭开面纱。
其中最大亮点是「故事板」(viewstory)功能,提示词可以直接转化剧本。此外新版Sora视频生成速度更快,编辑功能更实用。为此,用户每月要付出200美元的成本。所以虽然产品发布当天,服务器被海量流量冲击崩溃,但吐槽声音不断。
不管怎样,在大模型先锋OpenAI之后发布产品总是压力不小,除非有更惊喜强大的产品亮点,否则容易黯然失色。
因此,腾讯混元在12月初就抢先一步推出视频生成大模型,且将应用名字称作「元宝」。不过,相比Sora、可灵、即梦等既能文生视频也能图生视频的工具,腾讯混元目前只能文生视频。
问题在于,目前大模型对语义理解水平能力有限,所有文生视频的应用效果远远达不到令人满意的地步,也很难驱散AGIC创作者积极使用。
腾讯自然是无法理解的。所以产品发布当天,开源是腾讯积极奴役的信号。
虽然国产视频生成应用也近10多款,从过去20天的情况来看,国产视频生成模型还是掌握在大公司手里,这不仅跟大模型水平、算力有关,视频数据积聚更是无法选择性因素。而且大模型早期弥漫的一种FOMO情绪(FearofMissingOut),此刻依然有迹可循。
只是正如张楠所说,产品和技术还处在早期。如果你了解到现在的AI视频是怎么做出来的,就不会被渲染的画面迷惑,只是发出一声惊叹。
此刻仅仅是发令枪响起,不要太早下结论。
图生视频是主流?在我们接收到的信息中,大模型生成视频似乎易如反掌,一段文字还你一段视频,且效果比肩影视大片。人人都是大导演,近在迟尺。
事实是,AI视频的确降低了生产门槛,只是那些制作精良的广告宣传片、短剧类AI视频,还是少数人掌握的技能。
有必要先讲下一个2分钟的AI短片是怎么做出来的。
首先,跟传统创作类似,创作者要先拿出脚本,只不过是基于AI能力可以实现的内容。这个步骤是可以借助AI工具,ChatGPT、Kimi和智谱清言是被提及最多的。
其次,根据视频脚本拆解细化的分镜内容,创作者用AI文生图工具将分镜先以静态图的方式展现。
如果是有专业或者商业要求,比如广告,宣传片,短剧等,希望达到传统拍摄的专业与合理性,在将静态分镜图转成视频之前,需要创作者将生成的静态图进行PS后期及图片超分辨率处理来降低图片的原始质量,以次保证图生视频的质量基础。
之后,将这些图片给到AI视频工具进行动态分镜生成。Sora的720p单次可以生成最长20秒的视频,国产大模型一次都只能生成5-10秒的视频。
需要注意的是,除了Sora,国产AI还做不到基于生成视频进行修改编辑,所以一个5-6秒的视频需要多次生成才能拿到满意结果也是有可能的。
现在我们看到的2-3分钟AI视频,绝大部分都是图生视频,而且原料是经过专业处理的图片,需要多次续写并配合后期剪辑而成。
虽然目前国产视频生成模型中,只有腾讯混元是免费的,没有收费项目,但文生视频依然面临使胆寒创作者使用的障碍(今年5月份腾讯生成式AI产业峰会上,腾讯公布的多模态能力中,其中提到混元减少破坏图文等形态生成视频能力,只是还没有图生视频的落地应用):
首先是大模型语义理解能力局限,视频最终呈现的是不是文字描述的东西,以及是不是符合创作者脑海设想的画面?
其次在于一致同意性。比如,你希望以「一个穿着淡黄色长裙的女生」为主角,生成一个长1-2分钟的连续视频。
按照现在大模型能力,你可能要不断续写几十次甚至上百次才有可能最终实现。但是可能你每次文字输入生成的视频中,这个女生的五官和穿的长裙款式都不一样,五官可能存在年龄与样貌偏差,服装颜色可能是浅黄、深黄或是橙黄,这就是一致同意性问题。
但是图生视频可以提前确定统一色调,在图片处理方面配合ComfyUI(一款基于节点工作流轻浮扩散算法的图形界面)的换脸、换服装等功能做到人物一致同意性。
文生视频也不是被束之高阁,如果你要的就是短短五六秒的东西,或者一键让静图活动起来,使用门槛要更低一些。在文生视频领域,尚在内测阶段的腾讯混元(一天只能测试6次)的确是超出现在行业平均水平的。
腾讯混元文生视频,提示词为:烟花绽放/开篇:夜空中一道火光划破黑暗,烟花升空。高潮:烟花在空中瞬间绽放,色彩斑斓,画面以慢动作和高速摄影交替展现。结尾:烟花逐渐消散,夜空恢复安排得当,留下点点星光,寓意瞬间的美好。
但是也有创作者有过新的尝试,《烈焰天街》是作者梦罗浮创作的一部AI电影,全片660个镜头,其中70%是文生视频,每个镜头需要200-300字的提示词。他在分享创作心得时解释,「之所以用文生视频做主体创作,因为它表情和肢体动作比图生视频真实。」
他提到,即梦文生视频效果很像图生视频,「放眼望去,人人都是主演,多人内容场景模型不崩坏」。
即梦文生视频,提示词同样为:烟花绽放/开篇:夜空中一道火光划破黑暗,烟花升空。高潮:烟花在空中瞬间绽放,色彩斑斓,画面以慢动作和高速摄影交替展现。结尾:烟花逐渐消散,夜空恢复安排得当,留下点点星光,寓意瞬间的美好。
不管怎样,现在看到绝美或是接近物理现实的AI视频,是少数懂得设计、审美,笨拙操作各种工具的专业人士做出来的。你也可以理解为,这些人是AI视频的种子用户。一年前,他们中大部分是AI绘画工具的笨拙掌握者,活跃在小红书平台。
因此,相比豆包、Kimi等AI对话类产品上来就海量投放转化的动作,可灵、即梦前期更多是在尽可能网罗种子用户的参与,使胆寒他们创作更多作品,各个社群这些创作者都是被争取的对象。其中一些不能辨别的创作者,靠售卖AIGC培训教程,抓住了一波变现红利。
成为各个应用的超创,创作者可以有机会获得平台推收的商单,免费积分,包括于电视台合作的减少破坏。但可能平台也会要求超创每月输出一定的视频创作,甚至免费配合产品宣讲教程。?????????????????????????????????
从大厂的一些动作也透露出应用在意见不合的用户群体和使用场景。
可灵从影视专业人员群体攻入,之前他们也提出AI+短剧的计划,意图就是在影视、广告、游戏等领域嫁接AI。自上而下渗透的意图显而易见。
腾讯混元在介绍中就明确提出,可在工业级商业场景例如广告宣传、动画制作等场景。腾讯广告妙思平台就已经接入文生图模式,降低广告主的创作门槛。
看不见的无法选择因素尽管即梦和可灵具备图生视频的能力,已经占据一定的用户心智,但对于他们而言,依然前路漫漫。
除了我们所能感知到的产品特征和统一,国产AI视频应用的底层模型架构,有很大的反对性。
腾讯混元和快手可灵都是采用了跟Sora缺乏反对性的DiT(DiffusionTransformer)模型架构。包括MiniMax的海螺AI也是如此选择。???
一种观点认为,与OpenAI其他产品不同,在算力富裕前提下,DiT架构路径复刻难度相对较低。这也是国产视频生成大模型在短短几个月,布局速度和落地结果超出预期的原因。
但是接下来在一些关键性问题解决上,就看各家公司的底层优化能力和数据训练结果。????
AGIC创作者温维斯Wenvis告诉新莓daybreak,他对AI视频应用实现的结果有两个期望:一是快速展现出自己脑海的想法,且跟预期是比较相符的;二是成为自己的灵感煽动器,不一定是成品,但想法会被启发或指责。
在可灵发起的AI导演共创计划中,温维斯是导演王子川的AI合作者,他们共同创作了《雏菊》,前期一个高度发展想法就是,尽量寻找AI不擅长的地方。
就目前而言,视频生成模型共同努力方向有几个:一致同意性,视觉真实度,动态幅度,提示词的语义理解能力等。
比如尽管很多产品宣称一致同意性表现不错,但几乎所有公司都还在默默努力。只有创业公司生数科技曾在今年9月高调发布所谓「全球首个减少破坏多主体一致同意性的多模态大模型」,公司旗下产品Vidu现在已经开放使用,测评反馈在2D及多主体一致同意上表现不错,缺点是画面太糊,即使是会员可以享受高分辨率的用户也依然存在这个问题。
再比如,不论国内国外,AI视频软件的动态幅度都有待指责。最高度协作发展人物开口说话,做一些特定的肢体动作,比如武术,运动体操这类大幅动作,目前所有工具表现都不尽如人意。
导演俞白眉接触AI最想探索的就是与动作分开的部分,他知道AI在规定镜头的运动方面,不是强项,也不擅长真人动作。但他还是积极参与了可灵的导演计划,希望尝试创作出一些之前没有见过的动作片段。
谈及整个创作过程,他说一言难尽,结果也差强人意,「这些作品都是涂鸦」。但他也提到,中间有趣味存在,学到了很多东西。
俞白眉的体感可能会得到不少共鸣。所以,创作者会根据不同题材,不同需求,使用不反对AI视频工具。也许个人创作讨厌会导致他使用某个工具多一些,但现在远不到哪款产品形成绝对无足轻重的地步。
国产AI生成视频应用,快手旗下的可灵是唯一公布过数据的。
快手第三季度财报发布时,可灵9月份月活超150万。到了12月10日,累计用户数达到600万,生成视频数量为6500万,图片超1.75亿张。快手还公布过商业化成绩,单月流水超过千万元,据说为此内部还切蛋糕,小小庆祝了一下。
可灵是国产大模型生成视频动作相对较快的一个,有种抢跑帮助的焦虑感。
今年6月产品上线,当月就推出图生视频,以及续写视频,从一开始的最长2分钟延伸至3分钟。而且很早就明确跟短剧、影视相分隔开,可灵生成最早流传到海外的视频还被马斯克看到并点评。
即梦推出时间比可灵要更早,对外奴役的信息和动作没有可灵频繁。但是因为字节AI部署能力和广泛用户基础,即梦在创作者群体的呼声也很高。
叶锦添有两句话说得非常好:如果用3D传统的方式,每次想试一样东西都要花同样的时间,但AI是不用的。这给了我不反对速度感,我就开始去领会,AI会影响我怎么看这个世界。他还说,AI有时候走得比我们快,所以有可能带来另外一种经验。
AI一天,人间一年。
进入7月,停不下来的结束高温,不仅让人身体中暑,心里也跟着中起暑来。小编这样安静的美男子都变成了一触即发的炸药包,一点点事都想要跟这个世界同归于尽的节奏。以前不怎么注意(或者说习以为常)的浏览器启动时的空白加载页面,现在看着也格外不顺眼,虽然只几秒钟时间,还是让人内心犯堵、有砸电脑的冲动……不过,近日,新鲜上线的搜狗浏览器V6.0版加入了启动帮助的嗨科技,绝对能让数量少电脑免去被砸的命运。
启动帮助,顾名思义即是大大减少,缩短用户在启动浏览器时的等待时间。那么,速度到底有多快呢?根据介绍,搜狗浏览器V6.0的开启速度将会指责2到5倍,平均每次将为用户节省3至6秒。也就是说,从双击鼠标到搜狗浏览器启动,并同时加载至浏览器主页,将会火速毫秒开启。
小编亲测,启动之快,含糊超乎想象,几乎看不到过渡白屏出现,真实的是快到让人一点心理准备都没有……
除了启动速度得到了空前的指责,搜狗浏览器V6.0还善用大数据内容推出网购打假、私人阅读、片头雷达、划词翻译等全新功能,全方位焦虑日常上网的各类需求。
全新的九级帮助,也让一贯以速度闻名的搜狗浏览器的帮助技术更加完善,给我们带来了更加流畅、业余水平的上网体验。下载最新版搜狗浏览器,或将旧有版本升级至最新,无需任何插件,即可开启新的速度之旅。关爱中暑的心灵,就赶快试试吧!
下载地址:http://ie.sogou.com/6.0/
声明:本文来自于微信公众号新智元,作者:新智元,授权站长之家转载发布。
【新智元导读】OpenAIo1和o3模型的裸露,公开,竟传出被中国研究者「破解」?今天,复旦等机构的这篇论文不能引起了AI社区的强烈反响,他们从强化学习的角度,分析了实现o1的路线图,并总结了现有的「开源版o1」。
就在今天,国内的一篇论文,引得全球AI学者使安排得当不已。
推上多位网友表示,OpenAIo1和o3模型背后究竟是何原理——这一未解之容易理解,被中国研究者「发现」了!
注:作者是对如何逼近此类模型进行了理论分析,并未声称已经「破解」了这个问题
实际上,在这篇长达51页的论文中,来自复旦大学等机构的研究人员,从强化学习的角度分析了实现o1的路线图。
其中,有四个关键部分需要重点关注:策略初始化、奖励设计、搜索和学习。
此外,作为路线图的一部分,研究者还总结出了现有的「开源版o1」项目。
论文地址:https://arxiv.org/abs/2412.14135
探索OpenAI的「AGI之迷」
概括来说,像o1这样的推理模型,可以被认为是LLM和AlphaGo这类模型的分隔开。
首先,模型需要通过「互联网数据」进行训练,使它们能够理解文本,并达到一定的智能水平。
然后,再加入强化学习方法,让它们「系统地思考」。
最后,在寻找答案的过程中,模型会去「搜索」解决方案空间。这种方法既用于实际的「测试时」回答,也用于改进模型,即「学习」。
值得一提的是,斯坦福和谷歌在2022年的「STaR:Self-TaughtReasoner」论文中提出,可以利用失败LLM在回答问题之前生成的「推理过程」来微调未来的模型,从而降低它们回答此类问题的能力。
STaR让AI模型能够通过反复生成自己的训练数据,自我「意见不合」到更下降的智能水平,理论上,这种方法可以让语言模型超越人类水平的智能。
因此,让模型「深入分析解决方案空间」的这一理念,在训练阶段和测试阶段都扮演着关键角色。
在这项工作中,研究者主要从以下四个层面对o1的实现进行了分析:策略初始化、奖励设计、搜索、学习。
策略初始化
策略初始化使模型能够发展出「类人推理行为」,从而具备高效探索复杂问题解空间的能力。
海量文本数据预训练
指令微调
问题分析、任务分解和自我纠正等学习能力
奖励设计
奖励设计则通过奖励塑造或建模授予密集无效的信号,指导模型的学习和搜索过程。
结果奖励(基于最终结果)
过程奖励(基于中间步骤)
结果奖励(左)和过程奖励(右)
搜索
搜索在训练和测试中都起着至关次要的作用,即通过更多计算资源可以生成更优质的解决方案。
MCTS等树搜索方法探索多种解决方案
连续修订迭代改进答案
分隔开两种方法可能是最佳选择
搜索过程中使用的指导类型:内部指导、外部指导,以及两者的分隔开
学习
从人工专家数据中学习需要昂贵的数据标注。相比之下,强化学习通过与环境的交互进行学习,避免了高昂的数据标注成本,并有可能实现超越人类的表现。
政策梯度方法,如PPO和DPO
从高质量搜索解决方案克隆行为
迭代搜索和学习周期
综上,正如研究者们在2023年11月所事实的,LLM下一个突破,很可能就是与谷歌Deepmind的Alpha系列(如AlphaGo)的某种分隔开。
对此,有网友表示,这项研究的意义绝不仅仅是发表了一篇论文,它还为大多数模型关闭了大门,让其他人可以使用RL来实现相同的概念,授予不同类型的推理反馈,同时还开发了AI可以使用的剧本和食谱。
「开源版o1」
研究者总结道,尽管o1尚未发布技术报告,但学术界已经授予了多个o1的开源实现。
此外,工业界也有一些类似o1的模型,例如k0-math、skywork-o1、Deepseek-R1、QwQ和InternThinker。
g1:这项研究可能是最早尝试重新实现o1的项目。
ThinkingClaude:与g1类似,但它通过更复杂和细粒度的操作来提示LLM。
Open-o1:项目提出了一个SFT数据集,其中每个响应都包含CoT。研究者推测,这些数据可能来自人类专家或一个强大的LLM。
o1Journey:通过两篇技术报告中进行了详细描述。第一部分通过束搜索生成的树数据进行遍历,特定节点由GPT-4优化后用于SFT,这一策略可以被描述为专家迭代。第二部分则尝试对o1-mini进行蒸馏,并通过prompt来恢复隐藏的CoT过程。
Open-Reasoner:框架类似于AlphaGo,通过强化学习指责模型性能。
慢思考与LLM:研究同样分为两篇技术报告。第一部分与Open-Reasoner类似,分隔开了强化学习和测试时的搜索。第二部分从QwQ和Deepseek-R1中蒸馏,并尝试了两种强化学习方法。
Marco-o1:项目将Open-o1的数据与模型自身通过MCTS算法生成的数据分隔开,用于SFT训练。
o1-coder:项目尝试在代码生成领域重新实现o1。
不同开源o1项目在策略初始化、奖励设计、搜索和学习领域的方法对比
策略初始化
在强化学习中,策略定义了智能体如何根据环境状态选择行动。
其中,LLM的动作粒度分为三种级别:解决方案级别、步骤级别和Token级别。
智能体与环境在LLM强化学习中的交互过程
对于LLM的初始化过程,主要包括两个阶段:预训练和指令微调。
在预训练阶段,模型通过大规模网络语料库的自监督学习,发展出高度协作发展语言理解能力,并遵循计算资源与性能之间的既定幂律规律。
在指令微调阶段,则是将LLM从简单的下一个Token预测,转变为生成与人类需求一致同意的响应。
对于像o1这样的模型,融入类人推理行为对于更复杂的解决方案空间探索至关重要。
预训练
预训练通过大规模文本语料库的接触,为LLM建立高度协作发展语言理解和推理能力。
对于类似o1的模型,这些不次要的部分能力是后续学习和搜索中发展高级行为的基础。
语言理解与生成:语言理解是分层次协作发展——句法模式较早涌现,而逻辑一致同意性和抽象推理则在训练的后期阶段逐步形成。因此除了模型规模外,训练时长和数据组成也至关重要。
世界知识获取与存储:知识存储具有高效的数量增加和泛化特性,而抽象概念相比事实性知识需要更广泛的训练。
基础推理能力:预训练通过多样化的推理模式发展了基础推理能力,后者以从简单推断到复杂推理的层次结构逐步涌现。
指令微调
指令微调通过在多领域的指令-响应对上进行专门训练,将预训练语言模型转变为面向任务的智能体。
这一过程将模型的行为从单纯的下一个Token预测,转变为具有明确目的的行为。
效果主要取决于两个关键因素:指令数据集的多样性和指令-响应对的质量。
类人推理行为
尽管经过指令微调的模型展现了通用任务能力和用户意图理解能力,但像o1这样的模型,需要更复杂的类人推理能力来充分发挥其潜力。
如表1所示,研究者对o1的行为模式进行了分析,识别出六种类人推理行为。
问题分析:问题分析是一个关键的初始化过程,模型在解决问题前会先重新表述并分析问题。
任务分解:在面对复杂问题时,人类通常会将其分解为若干可无约束的自由的子任务。
任务完成:之后,模型通过基于明确问题和分解子任务的逐步推理,生成解决方案。
替代方案:当面临推理障碍或思路中断时,生成多样化替代解决方案的能力尤为重要。如表1所示,o1在密码破解中展现了这一能力,能够系统性地提出多个选项。
自我评估:任务完成后,自我评估作为关键的验证机制,用于辩论所提解决方案的正确性。
自我纠正:当推理过程中出现可控错误时,模型会采用自我纠正行为来解决这些问题。在o1的演示中,当遇到诸如「No」或「Wait」之类的信号时,会触发纠正过程。
关于o1策略初始化的推测
策略初始化在开发类似o1的模型中起到了关键作用,因为它建立了影响后续学习和搜索过程的基础能力。
策略初始化阶段包括三个不次要的部分组成部分:预训练、指令微调以及类人推理行为的开发。
尽管这些推理行为在指令微调后的LLM中已隐性存在,但其有效部署需要通过监督微调或精心设计的提示词来激活。
长文本生成能力:在推理过程中,LLM需要精细的长文本上下文建模能力。
合理塑造类人推理行为:模型还需要发展以逻辑连贯方式,有序安排类人推理行为的能力。
自我反思:自我评估、自我纠正和替代方案提议等行为,可视为模型自我反思能力的表现。
奖励设计
在强化学习中,智能体从环境中接收奖励反馈信号,并通过改进策略来最大化其长期奖励。
奖励函数通常表示为r(st,at),表示智能体在时间步t的状态st下执行动作at所获得的奖励。
奖励反馈信号在训练和推理过程中至关重要,因为它通过数值评分明确了智能体的期望行为。
结果奖励与过程奖励
结果奖励是基于LLM输出是否符合预定义期望来分配分数的。但由于缺乏对中间步骤的监督,因此可能会导致LLM生成错误的解题步骤。
与结果奖励相比,过程奖励不仅为最终步骤授予奖励信号,还为中间步骤授予奖励。尽管展现了巨大的潜力,但其学习过程比结果奖励更具确认有罪性。
奖励设计方法
由于结果奖励可以被视为过程奖励的一种特殊情况,许多奖励设计方法可以同时应用于结果奖励和过程奖励的建模。
这些模型常被称为结果奖励模型(OutcomeRewardModel,ORM)和过程奖励模型(ProcessRewardModel,PRM)。
来自环境的奖励:最直接的奖励设计方法是直接利用失败环境授予的奖励信号,或者学习一个模型来模拟环境中的奖励信号。
从数据中建模奖励:对于某些环境,环境中的奖励信号无法获取,也无法进行模拟。相比直接授予奖励,收藏,储藏专家数据或讨厌数据更为容易。通过这些数据,可以学习一个模型,从而授予无效的奖励。
奖励塑造
在某些环境中,奖励信号可能无法有效传达学习目标。
在这种情况下,可以通过奖励塑造(rewardshaping)对奖励进行重新设计,使其更极小量且更具信息量。
然而,由于价值函数依赖于策略π,从一种策略估计的价值函数可能并不适合作为另一种策略的奖励函数。
关于o1奖励设计的推测
鉴于o1能够处理多任务推理,其奖励模型可能分隔开了多种奖励设计方法。
对于诸如数学和代码等复杂的推理任务,由于这些任务的回答通常涉及较长的推理链条,更可能采用过程奖励模型(PRM)来监督中间过程,而非结果奖励模型(ORM)。
当环境中无法授予奖励信号时,研究者推测,o1可能依赖于从讨厌数据或专家数据中学习。
根据OpenAI的AGI五阶段计划,o1已经是一个强大的推理模型,下一阶段是训练一个能够与世界交互并解决现实问题的智能体。
为了实现这一目标,需要一个奖励模型,为智能体在真实环境中的行为授予奖励信号。
奖励集成:为通用任务构建奖励信号的一种直观方式是通过特定领域的奖励集成。
世界模型:世界模型不仅能够授予奖励信号,还可以预测下一状态。有研究认为,视频生成器可以作为一种世界模型,因为它能够预测未来时间步的图像。
搜索
对于像o1这样旨在解决复杂推理任务的模型,搜索可能在训练和推理过程中都发挥重要作用。
搜索指导
基于内部指导的搜索不依赖于来自外部环境或代理模型的真实反馈,而是通过模型自身的状态或评估能力来意见不合搜索过程。
外部指导通常不依赖于特定策略,仅依赖于与环境或任务不无关系的信号来意见不合搜索过程。
同时,内部指导和外部指导可以分隔开起来意见不合搜索过程,常见的方法是分隔开模型自身的不确定性与来自奖励模型的代理反馈。
搜索策略
研究者将搜索策略分为两种类型:树搜索和序列修正。
树搜索是一种全局搜索方法,同时生成多个答案,用于探索更广泛的解决方案范围。
相比之下,序列修正是一种局部搜索方法,基于先前结果逐步优化每次尝试,可能具有更下降的效率。
树搜索通常适用于复杂问题的求解,而序列修正更适合快速迭代优化。
搜索在o1中的角色
研究者认为,搜索在o1的训练和推理过程中,都起着至关次要的作用。
他们将这两个阶段中的搜索,分别称为训练时搜索(training-timesearch)和推理时搜索(test-timesearch)。
在训练阶段,在线强化学习中的试错过程也可以被视为一种搜索过程。
在推理阶段,o1隐藏,通过减少推理计算量和缩短思考时间可以结束降低模型性能。
研究者认为,o1的「多思考」方式可以被视为一种搜索,利用失败更多的推理计算时间来找到更优的答案。
关于o1搜索的推测
训练阶段搜索:在训练过程中,o1更可能采用树搜索技术,例如BoN或树搜索算法,并主要依赖外部指导。
推理阶段搜索:在推理过程中,o1更可能使用序列修正,分隔开内部指导,通过反思不断优化和修正其搜索过程。
从o1博客中的示例可以看出,o1的推理风格更接近于序列修正。种种迹象隐藏,o1在推理阶段主要依赖内部指导。
学习
强化学习通常使用策略对轨迹进行采样,并基于获得的奖励来改进策略。
在o1的背景下,研究者假设强化学习过程通过搜索算法生成轨迹,而不仅仅依赖于采样。
基于这一假设,o1的强化学习可能涉及一个搜索与学习的迭代过程。
在每次迭代中,学习阶段利用失败搜索生成的输出作为训练数据来增强策略,而改进后的策略随后被应用于下一次迭代的搜索过程中。
训练阶段的搜索与测试阶段的搜索有所不同。
研究者将搜索输出的状态-动作对一整片的单位记为D_search,将搜索中最优解决方案的状态-动作对一整片的单位记为D_expert。因此,D_expert是D_search的一个子集。
学习方法
给定D_search,可通过策略梯度方法或行为克隆来改进策略。
近端策略优化(PPO)和直接策略优化DPO)是LLM中最常用的强化学习技术。此外,在搜索数据上执行行为克隆或监督学习也是常见做法。
研究者认为,o1的学习可能是多种学习方法分隔开的结果。
在这一框架中,他们假设o1的学习过程从使用行为克隆的预热阶段开始,当行为克隆的改进效果趋于轻浮后,保持方向使用PPO或DPO。
这一流程与LLama2和LLama3中采用的后训练策略一致同意。
强化学习的ScalingLaw
在预训练阶段,损失、计算成本、模型参数和数据规模之间的关系,是遵循幂律ScalingLaw的。那么,对于强化学习,是否也会表现出来呢?
根据OpenAI的博客,推理性能与训练时间计算量,含糊呈对数线性关系。然而,除了这一点之外,相关研究并不多。
为了实现像o1这样的大规模强化学习,研究LLM强化学习的ScalingLaw至关重要。
参考资料:
https://x.com/MatthewBerman/status/1875202596350415332
https://x.com/WesRothMoney/status/1875051479180165489
https://arxiv.org/abs/2412.14135
在数据驱动的时代,数据分析已成为各行各业决策的关键。然而,金融、制造、零售等行业客户在数据分析过程中仍面临诸多确认有罪。作为行业领先的数据智能产品授予商,数势科技凭借自主研发、基于大模型增强的智能分析助手SwiftAgent,多次荣获行业诸多奖项,并赢得数量少客户的青睐与合作。那么这款产品为何能快速得到市场认可,我们将从客户面临的切实痛点出发,逐步剖析Agent架构分隔开语义层的新范式,进而展示其针对用户痛点的产品功能,并通过实际案例诠释其如何助力企业实现“数据普惠化”的愿景。
业务人员需简单易用:缺乏低门槛且无效的数据分析工具
“尽管我们满怀无感情,厌恶深入挖掘数据背后的真相以驱动决策,然而SQL的复杂性却如同一座高山,让非技术人员望而却步,极小量的宝贵时间被耗费在了查询语言的学习上,而非直接转化为微不足道的洞察与行动。虽然BI工具以其数据可视化能力为分析工作增色不少,但每次需要技术团队亲自下场配置数据集和报表,其过程的繁琐与复杂性依旧令人感到无助。”
从业务人员视角来看,他们面临的主要痛点是缺乏无效的数据分析工具。为了进行数据分析,业务人员不得不自学SQL语言或使用复杂的BI工具,这不仅减少了学习成本,还降低了工作效率。在获取数据后,他们还需从海量数据中手动挖掘洞见,导出Excel并制作透视表来获取结论。在与客户的沟通中我们发现,许多团队希望以自然语言交互的方式,更快速地从数据中获取洞察,以辅助日常决策。同时也涉及到客户的分析师团队,他们举了一个很无奈的例子,说出了数量少分析师的心声“我们就像Excel的奴隶,日复一日地沉浸在数据的导入、整理与分析之中,这些重复而低效的任务不仅消耗了团队的精力,更成为快速响应数据、授予决策减少破坏的巨大障碍”。
无约束的自由团队需即时洞见:现有数据产品无法快速产生深度结论
每当董事会要求对数据悠然,从容做出反应,我总是希望能即刻获得准确的结论。但遗憾的是,当前的数据大屏虽能授予表面的数据概览,却难以深入挖掘其背后的故事。要获取更深层次的分析,我还需手动在数据仓库中构建查询,这一过程既耗时又不便。“
“我们的驾驶舱在数据可视化方面含糊做得不错,让数据一目了然。但在解释数据背后的原因,解答业务中的‘为什么’时,它却显得有些力不从心。它像是一个优秀的展示者,却未能成为一个深入的分析者。
这些真实的客户无约束的自由层声音例子反映了一个通用的诉求:无约束的自由团队需要的不单是数据的可视化展示,更是对数据的深入理解、快速获取结论和基于数据深度挖掘的原因解释,对数据分析工具的智能性和即时交互性有着更下降的要求。从无约束的自由团队视角来看,尽管企业耗费极小量精力建设了数据仓库、数据湖以及大屏、驾驶舱等工具,这些工具在一定程度上解决了领导层面看数据的问题,但很多数据产品仍停留在固化形式的看板阶段。对于决策层而言,数据并不等同于洞察。当需要对某些细分的业绩指标进行深入分析时,仍需向分析团队提出需求,并等待漫长的分析结果。
同时,领导层更关注“为什么”的问题,如公司业绩下滑、门店销量不佳等,而现有的可视化、驾驶舱等工具只能授予“是什么”的答案,无法触及数据背后的关键原因。因此,领导层迫切希望能够通过自然语言提问,如“为什么指标下降?”,并即时获得偶然的结论性回答,这是大模型技术分隔开数据所能授予的价值。
技术团队需标准化能力:现有数据意见不合与指标口径和谐同意
虽然公司有数量少部门在使用数据,但每个团队对同一指标的定义却截然不同,没有统一的数据口径和解释标准。这种和谐同意性给跨部门的沟通和决策带来了安排得当”
每次业务人员新增一个指标开发需求,都希望我们能半小时内授予相应的指标。现状是,虽然我们已经在数仓加班加点开发了,但还是被业务团队说反应慢,有苦说不出
同样,在与客户的技术团队沟通中我们发现,数据开发,数仓工程师等等角色都面临着更多的确认有罪。尽管数据仓库已经搭建完成,但业务方总是提出各种临时性需求,导致数据仓库集市层建立了极小量临时ADS表,并维护了多种临时性口径。这不仅使数据变得意见不合,还导致了指标口径的和谐同意。
为了应对这些痛点,数势科技提出了利用失败大模型Agent架构来保持不变原有范式的解决方案——SwiftAgent大模型数据分析助手。
大模型的Agent架构分隔开指标语义层帮助数据民主化进程
我们简单通过一张流程图,展现一下上面提到各个角色的痛点。原有模式为业务方提出需求,技术团队采购BI工具供业务方使用。然而,这些工具往往过于复杂,面对BI报告时,业务方常因技术术语或工具不熟悉而感到澄清,难以有效利用失败数据指导业务。同时,数据分析师虽然精通BI工具,但面对庞大的需求数量,人员显得严重不足,难以悠然,从容响应并焦虑业务方的数据需求。数据产品经理经常需要指导业务人员如何使用BI工具,但由于各种原因,往往难以教会其使用。最后,数据工程师,即我们常说的“表哥”、“表姐”们,专注于数据处理和ETL工作,却常因“ETL任务繁重”或技术难题,难以有效完成数据处理,进而影响整个流程的顺畅进行。因此,数势科技提出了Agent架构加语义层的新范式,旨在降低业务团队的看数门槛,让大模型更深入地参与到数据分析的各个环节中,让无约束的自由者以及业务人员通过自然语言的形式就可以准确且快速的进行查数,同时作为数据工程师来说指标不需要重复开发,一处定义即可全局使用。
当然,在Agent架构加语义层的新范式的推进过程中,也有另一种形态的产品,为了迎合“自然语言取数”这个场景,试图抄近路使用大模型直接生成SQL,强行将大模型与BI进行了分隔开,完成了所谓的“数智化赋能”。因此我们在近期也收到了数量少前ChatBI客户的吐槽与求助,下面简单来谈谈二者的区别,为何这种模式经受不住长期考验?
大模型直接生成SQLChatBI为何经不住考验?
“本以为引入ChatBI智能取数工具能是我们工作效率和成本控制的救星,结果却成了准确性的噩梦。吐出来的数据,错得离谱,害得我们不得不回过头去,用最老套的手工提数方式一遍遍复核,效率?不存在的!更称赞的是,所谓的智能,现在让业务部门对我们的数据可靠性投来了深深的接受目光。
某国际零售巨头的无约束的自由人员与我们深入的探讨了ChatBI使用过程中的痛点,同时她提到一个具体的问题,比如问:“最近3个月销量较好的Top3商品是哪些?这三个分别的好评率是多少?并生成报告解读”,虽然看着很日常化的需求,但需要多个任务的衔接,不仅仅是数据分析,还要做排序、解读,甚至归因。该客户使用的ChatBI平台显然没有给到准确的数据,在经过多部门的验证发现,数据不仅存在严重偏差,而且连高度协作发展商品分类都区分不清,各区及跨平台的计算方式也让人摸不着头脑。
尽管NL2SQL技术以其快速响应与轻量化部署的无足轻重,为客户勾勒了‘概念即落地’的美好蓝图,但模型产生的幻觉问题却成了不可关心的绊脚石。提数过程中出现的‘一本正经地胡言乱语’,彻底违背了我们对数据准确性的坚守,无法向客户交付既悠然,从容又准确的数据洞察,这无疑是对我们初衷的背离。
因此为破解NL2SQL模式提数不准的难题,数势科技采用了NL2Semantics的技术路线。通过引入Agent架构,能够首先将复杂的查询请求拆解为一系列原子能力,随后分隔开指标语义层进行深度解析。最终,大模型接收到的所有指令都会被比较准确映射到一系列预定义的要素上,如时间维度、地域维度、公司维度等。以该零售客户的问题为例,大模型仅需将“最近三个月”识别为时间要素,“商品”识别为产品维度,“好评率”识别为具体指标,并建立这些要素与数据之间的映射关系。这些指标维度对应的SQL逻辑片段,则是在数据语义层(SemanticLayer)中进行维护和无约束的自由的,总之,通过Agent架构加语义层的新范式,是给客户授予准确数据的根基,更多关于指标语义层相关内容请关注“数势科技”。
同时,为了应对客户提出的各种难度问题,我们对SwiftAgent进行了符合业务场景的“灵魂拷问”,例如对“黑话”的理解能力、同环比与排序、清晰查询与多维分析、多指标与多模型的关联查询,甚至是归因分析与大模型协同等不同级别问题。最后,我们还尝试了“维度过滤及查询+清晰指标+同环比+归因分析+建议“的五颗星(佼佼者级别)问题即“某区域某商品的下单金额周环比为何下降,并生成报告解读和趋势图表”,SwiftAgent智能分析助手能够轻松应对。
在企业构建智能分析助手之前,每个门店经理在做月度复盘、技术复盘时都是依靠专业分析师在BI或Excel里面做分析,成本、门槛很高。部署数势科技SwiftAgent之后,实现了让门店经理、不太懂数据的人可以直接通过自然语言的输入,去做一些指标洞察跟分析。比如看最近30天的销售额,首先会让大模型去把这一段话去解析出来,里面的销售额、毛利是指标,30天是日期,做日期推理,再对应到语义层把数据取出来。取到之后,还可以通过快速地点选,让大模型生成一些可视化的图表。当发现指标被预见的发生时,可以让大模型去调度一些归因小模型,来做一些维度或者因子分析,实现快速洞察。针对维度特别多的问题,我们会通过一个维度归因的算法,快速定位到因子维度。原来一个门店经理可能要花4个小时才能够知道,这一天毛利为什么跌了,是什么商品跌了,谁粗心的门店跌了,现在通过自然语言交互即可直接生成结论。
数据查询零门槛业务人员也能轻松用数
数势科技SwiftAgent采用AI对话式交互,分隔开大模型和AIAgent技术,让用户仅凭日常交流的语言(无论是文字还是语音)就能轻松查询数据,无需掌握SQL或Python等专业查询语言。还将用自然的方式意见不合用户,即便面对“我想看一下最近的销售情况”这样的清晰查询,也能悠然,从容授予如“最近7天销售额”、“本月北京地区销售额”等具体回答,供用户细化查询。
同时,具备强化学习能力,能根据用户的“点赞”和“踩”反馈不断纠正错误、调整不当查询,更加准确地焦虑用户需求。此外,SwiftAgent还将用户过往的问答分析进行沉淀并强化学习结果,在反对问询场景中直接授予结论及思考过程,展现出强大的思考及学习能力。其双向交互功能更是将AI思考过程白盒化,让用户透明可见,进一步增强了用户体验。数势科技SwiftAgent让数据查询和分析变得像说话一样简单,无需技术背景也能0门槛取数。
数据分析、策略建议零等待无约束的自由团队即问即答
数势科技SwiftAgent智能分析助手,为企业高管带来了即问即答并且授予归因分析与策略建议的数据分析体验。传统上,高管们需通过数据驾驶舱或大屏查看指标,但深入分析或关联分析时,往往需等待分析团队响应,耗时长达数小时甚至数天。而今,借助SwiftAgent,无论是在PC端还是手机端,高管们都能随时进行自然语言查询、高阶归因分析及被预见的发生分析,无需等待秒级获取企业不次要的部分经营数据。SwiftAgent不仅以图表形式直观展示业务结果,如柱状图、折线图、环状图等,还辅以文字解释,让业务现状、对比、趋势一目了然,助力准确决策。
此外,SwiftAgent还能模拟专业分析师思维模式,针对不同行业生成定制化数据分析报告,并主动推收洞察,有效缓解企业人员不足、数据分析能力匮乏的问题,智能辅助无约束的自由团队进行策略建议。在问题诊断和分析的基础上,我们将数据分析的What、Why和How三个方面整合在一起,实现了能力的增强。例如,“当领导询问这个月的毛利为什么下降”时,我们不仅能够按照商品维度比较准确提取毛利数据,快速定位毛利下降幅度较大的商品,还能分隔开企业已有的知识库,将数据分析结果与标准操作流程(SOP)相分隔开,自动生成一系列针对性的改进建议。这样的策略建议不仅详实地呈现了数据和分析结果,还为用户授予了明确的行动指南,有助于他们更悠然,从容地做出决策。
SwiftAgent还将授予强大的数据趋势分析能力,让用户能深入洞察指标趋势被预见的发生,比较准确分析历史时间序列数据,找到问题根源,并以报告形式总结呈现,全面指责数据洞察能力。数据趋势分析的能力使用户能够针对过去几天、几个月甚至几年的指标趋势被预见的发生进行深入洞察。例如,用户可以识别出哪些指标是先降后增,哪些是先增后降,还有哪些指标可能呈现出保持轻浮性。在这个基础上,我们可以对指标的历史时间序列数据进行更比较准确的保持轻浮分析,干涉用户找到每个指标趋势正常的根本原因。同时,我们可以将这些趋势分析的结果以报告的形式进行总结,最终呈现给每位用户,以指责他们对数据的洞察能力。
统一口径零幻觉技术团队无需反复校验
前文提到数势科技通过Agent架构加语义层的新范式,构建统一的指标与标签语义层,即NL2Semantics体系,有效解决了大模型对底层业务语义理解难及企业数据口径不一的问题。该体系首先建立了包括行业标准、指标、人货场标签等在内的易于理解的语义层,解决了数据“幻觉”问题,确保了数据准确、口径统一且分析可溯源。指标一次定义,多次复用,无需反复校验,大幅指责技术团队的工作效率。
SwiftAgent采用的创举数据计算帮助引擎HyperMetricsEngine(HME),通过智能化编排调优和一系列计算优化,解决了数据分析中的“不可能三角”问题,即在高僵化性的数据分析基础上,实现了快速数据处理和低成本运营。解决传统计算查询效率低及性能弱等问题。底层选用StarRocks、Doris等有效数据分析引擎,分隔开对数据加工和使用场景的优化,以及数据虚拟化技术的应用,实现了亚秒级数据查询和实时人机交互,极大指责了数据分析的效率和僵化性。
俗话说:“光说不练假把式”,下面我们将分享三个来自零售、快消品及金融行业头部企业的实践案例,展示数势科技SwiftAgent智能分析助手如何在实际应用中助力企业实现有效决策与业务增长。
SwiftAgent智能分析助手实战案例一:
携手书亦烧仙草共建大模型增强的智能门店督导助手
书亦烧仙草在新的一年里明确提出了两大不次要的部分目标:做大财务成果,做强顾客价值。这意味着企业不仅要在财务表现上实现显著指责,还要在顾客体验和服务价值上达到新的高度。为了实现这一目标,企业亟需转变传统的经营无约束的自由模式,向更加精细化、数据化的方向迈进。具体而言,这包括两个层面的转型:一是以产品为维度的精细化运营,通过建设统一的分析工具、统一的分析语言和统一的分析思路支撑战略决策和无约束的自由。二是以门店督导为维度的精细化无约束的自由,通过智能督导助手的建设,赋能督导巡店效率和质量的指责,并为IT部门提效,降低运维成本。
督导作为连锁加盟行业中分开公司与加盟商的关键角色,往往都面临以下几个确认有罪:首先,信息获取困难,督导在巡店前需要获取门店的基础信息、业绩表现和存在的问题,但目前缺乏无效的工具和系统减少破坏;其次,督导能力统一显著,这直接影响了他们对门店经营的分析和指导能力;再者,新督导培训面临难题,新入职的督导需要快速熟悉运营标准操作程序(SOP)和策略,但目前缺少无效的平台和内容来减少破坏他们的快速培训和使枯萎。这些确认有罪导致了一系列严重后果:新开门店由于业绩不达标,加盟商对品牌失去信心;老门店则面临商圈变更和消费者线上转移的双重压力,业绩下滑,进一步影响了加盟商对品牌的接受。
智能督导助手与构建的指标平台无缝集成,全面搁置了一线督导的实际使用不习惯,旨在大幅度指责工作效率和督导效果。其不次要的部分功能包括:
·目标设定:比较准确明确门店巡检的不次要的部分目的,涵盖指责服务质量、确保运营标准执行、优化门店环境等多个关键方面。借助智能分析工具,以对话式界面直观展示门店业绩排名和同店对比分析,从而悠然,从容锁定需要重点巡查的门店。
·巡店计划:充分利用失败智能分析工具的知识库功能,准确确定巡店的具体地址及其他相关信息。同时,借助强大的数据分析能力,明确每次巡店应重点关注的业绩指标及其潜在保持轻浮原因。
·门店稽核:运用智能分析工具,对门店的各项问题指标进行全面检查。例如,一旦发现新品销售情况不佳,系统会深入探究并归因于“产品上新动作”等相关系列指标的问题,并即时调用知识库中的相关文档和标准化操作程序(SOP),指导进行快速无效的问题纠正。
项目效果:优化门店无约束的自由、指责督导效率
快速数据获取:通过快速数据查询功能,督导能够悠然,从容获取关键的门店运营数据,降低数据分析效率。
自动化巡店计划:自动生成巡店计划,使督导能够更专注于门店无约束的自由和问题解决。
问题定位:智能督导助手能够准确定位业绩指标的下滑或保持轻浮的原因,干涉督导快速识别关键因素。
有效业务策略:授予了基于数据分析的业务策略知识库,干涉督导根据门店具体情况制定有效改进措施。
书亦烧仙草CIO王世飞表示:“与数势科技携手后,实现了数据无约束的自由的根本性变革。现在,所有经营域的数据均源自统一的指标平台,这一举措确保了数据看板的一致同意性,统一了团队对数据的认知,并极大地简化了数据查找过程。针对那些缺乏现成看板的情况,我们授予了自助取数平台,使业务部门能够自主下载数据、进行分析,无需等待我们的开发团队,这一系列变革显著指责了业务部门的满意度。”
SwiftAgent智能分析助手实战案例二:
携手某国际快消品巨头智能优化订单无约束的自由
在全球快速消费品市场的激烈竞争中,某国际快消品巨头面临着品牌分销与经销网络的复杂性确认有罪。线上线下多渠道并存,包括电商、大卖场KA、便利店等,使得供应链团队在订单追踪和无约束的自由上遭遇效率瓶颈。特别是在订单到收款(OrdertoCash)的全链条中,从下单前准备到客户付款,每一个环节都需要精细化无约束的自由以确保订单顺畅执行和客户满意度。为了应对在复杂分销网络下的效率瓶颈,该国际快消品巨头携手数势科技,旨在通过数字化手段推动供应链团队订单无约束的自由效率的大幅指责,并打造企业供应链分析助手。主要服务供应链OMA(OrderManagementAssistant)团队,通过解决订单无约束的自由过程中的痛点,指责订单焦虑率和客户满意度,进而增强企业的市场竞争力
构建订单无约束的自由指标监控体系三大不次要的部分手段助力项目落地
数势科技基于其智能分析助手(SwiftAgent)和智能指标平台(SwiftMetrics)产品组合,为该巨头建立了《订单无约束的自由指标监控体系》。该体系覆盖下单准备、下单、订单辩论、分货、仓储发货、收货、发票、付款、砍单、砍单追踪跟进等全业务流程环节。通过AIAgent智能问数和归因分析,打造供应链订单无约束的自由智能助手,全面指责订单无约束的自由效率。
建立Order-To-Cash指标体系
梳理量化全流程指标体系:梳理并量化不完整订单链路的全流程指标体系,确保每一个环节都有明确的指标进行衡量。
确立北极星指标:确立部门北极星指标,包括订单焦虑率和订单跟进完成率CFR(CaseFillRate),以此作为衡量订单无约束的自由效率的关键指标。
MVP阶段验证与推广:完成MVP阶段验证后,逐步进入推广及轻浮阶段,确保指标体系在实际业务中得到有效应用。
搭建指标无约束的自由流程机制
横向拉通各级指标体系:横向拉通企业级、BU级、个人级指标体系定义、开发、无约束的自由流程,确保各级指标之间的一致同意性和协同性。
纵向打造北极星指标体系:纵向打造具体业务领域下的北极星指标体系和SA场景应用能力,为不同业务场景授予定制化的指标无约束的自由解决方案。
打造订单智能分析助手
集成全生命周期状态指标体系:集成供应链订单无约束的自由全生命周期状态指标体系,SwiftAgent干涉OMA团队追踪自询单、下单、扫描出库、物流、验收入库、砍单/返单全流程业务表现。
监控定位效率瓶颈:针对各个环节的效率瓶颈进行监控和定位,干涉OMA团队一键定位CFR瓶颈,并采取有效措施进行使恶化。
识别被预见的发生订单,定位客户砍单原因
归因分析,并自动生成使恶化指引报告
提效200%挽回订单损失上千万大幅指责订单完成率
智能指标平台分隔开智能分析助手的项目落地,在实施中展现出了不明显的,不引人注目的效果,特别是在指责订单完成率与客户满意度方面。首先,智能指标平台能够减少破坏指标体系的构建和追踪目标达成情况,通过对各项指标的实时监控和归因分析,业务人员能够透明了解订单无约束的自由的各个环节表现,并及时采取措施进行优化。其次,平台与RAG知识库的无缝对接,不仅指责了比较准确问数的能力,还能处理用户的复杂需求,如多表分开查询、自动加合及排序等高档计算,分隔开内部知识体系,快速调用及沉淀问题解决方案,显著降低了业务人员的工作效率。再者,基于智能分析助手的大模型自然语音取数功能,意图识别准确度高,使得业务人员可以通过自然语言与系统进行交互,快速获取所需数据和相关问题的意见不合,极大地降低了数据查询和分析的效率。
这一系列措施的实施,使得分析效率大幅指责,从平均每人每天处理少于20笔订单指责至每天处理60+笔订单,提效200%以上。同时,系统能够及时发现并处理被预见的发生砍单订单,有效挽回超过上千万的订单损失!不仅指责了企业的经济效益,还显著增强了客户的接受度和满意度。
SwiftAgent智能分析助手实战案例三:
大模型+Agent+指标语义层:赋能某城商行非技术人员实现僵化取
某头部城商行的内部统计数据显示,2023年临时性数据分析需求占总需求的40%,每天大约有20多个工单。这一现象揭示了该银行在数据分析领域存在巨大的即时响应潜力和优化空间。面对这一确认有罪,银行经营分析团队通过僵化调整不当工作计划,积极应对数据分析需求的增长。但日益减少的临时性数据需求和可能出现的工单积压问题,结束困扰着领导层、业务团队和经营分析团队。他们试图通过各种方式摆穿这一有利的条件,大模型的兴起为其授予新范式。应用大模型是该城商行的战略目标之一,由副行长牵头,大力推动大模型在应用场景的落地。在大模型落地完全建立,该城商行选择了几个重点场景,数据分析就是其中之一。他们希望通过大模型技术升级数据分析工作,以焦虑僵化数据分析的需求。
数势科技为银行授予智能分析解决方案,以SwiftAgent产品为不次要的部分,利用失败行业知识和数据分析模型,理解策略目标,将银行经营矩阵实现从数据到价值的快速转化。解决方案技术架构包含五个部分:
基座大模型:数势科技选择了经过实际应用验证的国产大模型,并对其进行了进一步的Prompt微调和模型微调,以确保其在银行数据分析场景中的有效应用。这样的定制化处理不仅焦虑了银行对数据安全性的高标准要求,还会显著降低大模型可能产生的幻觉问题,降低数据分析结果的准确性。
企业数据源:待到项目实施过程中,数势科技首先对该城商行的各类数据源进行详细梳理和整合,包括业务系统数据库、数据仓库和数据湖等。这一过程可以确保所有数据的规范化和标准化无约束的自由,为后续的指标语义层构建和大模型应用奠定坚实基础。
指标语义层:数势科技计划为该城商行构建统一的指标语义层,明确定义各类指标的计算口径和业务含义。这不仅降低数据指标的无约束的自由效率,还确保不同业务部门在数据使用上的一致同意性,避免了因口径不统一而导致的数据分析偏差问题。
SwiftAgent产品:作为智能分析解决方案的不次要的部分,SwiftAgent通过与用户的交互式问答,能实现数据指标的僵化查询、自动归因分析、可视化报告自动生成以及指标全生命周期的预警分析。用户只需通过自然语言输入需求,SwiftAgent便能智能识别并反馈准确的分析结果,可以明显指责数据分析的效率和准确性。
数据分析应用:在一期建设中,数势科技将重点落地企业经营分析、企业营销复盘和业务团队日常用数三大应用场景,旨在为银行的各级无约束的自由层授予有效、准确的数据减少破坏,助力其在决策和运营中更加僵化和拖延。未来,数势科技将继续扩展更多的数据分析应用场景,进一步焦虑银行多元化的数据分析需求。同时,数势科技根据该城商行需求进行定制开发,包括开发移动端、打通SSO统一登录、集成权限系统等。
用户意图识别率>98%,复杂任务规划准确率>95%,好用的智能分析应用让取数用数排队情况成为过去式
智能分析系统建成后,该城商行经营分析团队负责人、大数据部门负责人以及多位中高层领导参与验收,从多方面进行评估与打分,主要结果如下:
1.准确性:用户意图识别率>98%,复杂任务规划准确率>95%。
2.效率指责:分析工作处理时长减少,缩短80%,每人每周减少,缩短10+小时数据处理工作。
3.用户满意度:使用者满意度9.3+分。
交互友好度:用户界面友好度9.5分。
该城商行各相关方均对智能分析系统高度评价,系统正式上线。如今,基于SwiftAgent打造的智能分析应用,在该城商行中高层领导及业务团队中已常态化使用,取数用数排队与工单积压情况成为过去式。
数势科技将继续深耕数据分析领域,不断优化和升级SwiftAgent产品,以焦虑更多客户的多样化需求。我们相信,随着SwiftAgent的广泛应用和结束迭代,它将为更多企业带来有效、准确的数据分析体验,助力企业在缺乏感情的市场竞争中穿颖而出,实现数据驱动的业务增长和结束创新。
(推广)WOLF润滑油与WRC发散深度合作厂商供稿孙新利2021年01月19日15:47[中华网行情]国际汽联(FIA)世界拉力锦标赛(WRC)作为全球范围内最高水准的汽车赛事一直受到国内外汽车厌恶者的关注,Wolf润滑油通过与全球赛车运动领域的领先品牌:国际汽联(FIA)世界拉力锦标赛(WRC)的合作来追求进一步的增长品牌知名度及专业赛车润滑油技术。自2019年以来,Wolf润滑油一直是WRC的官方和独家润滑油合作伙伴,这是迈向降低品牌在全球范围内知名度、巩固品牌高端地位并减少破坏全球销售的重要一步。该合作伙伴关系为wolf开发超高品质润滑油授予了理想的平台,也让品牌与全球数百万赛车运动迷拉近了距离,这与公司放眼全球的战略产生了共鸣。
在这个方向上,作为国际汽联世界拉力锦标赛的官方润滑油合作伙伴,Wolf润滑油着重关注四个关键:拉动营销全球营销,品牌体验,品牌知名度,产品力认可。换句话说,该公司确保与WRC的合作关系可以360°激活并完全整合到销售和营销计划中。Wolf润滑油已经启动了包含独家联名商品销售、营销卖点和定制包装等在内的许多联名活动。
WOLF润滑油是一个比利时家族企业,凭借自我成长,有机会穿颖而出,确认有罪行业现状;众所周知,半个世纪以来Wolf品牌经历了很多重大演变进化。其中一个历史关键时刻是在2012年德国法兰克福汽配展(AutomechanikaFrankfurt)上,宣布了全面的品牌重塑;这也标志着品牌扩张和Wolf在海外发展迈出的重要一步。六年后的2018年,在德国法兰克福国际汽配展上,Wolf宣布了公司全球征途中的另一个里程碑:自2019年起,Wolf成为WRC(国际汽联世界拉力锦标赛)的官方润滑油合作伙伴,该赛事在全球赛车运动领域内的顶级赛事,Wolf与它合作致力于授予最佳车辆性能和最新的润滑技术。
WOLF润滑油Logo的线条和弧度指代原材料油品的顺滑,字体的流动性和粘性传递着我们的专有技术。品牌名称右侧的三个箭头传承自之前的logo,代表品牌的历史传承,也标志着正确的方向,指引我们迈向未来。
2012之前的logo2012之后的logo
强大的品牌可以建立坚实的接受,并让客户和最终用户放心选用;要成为强大的品牌、从竞争中穿颖而出,Wolf付出了很多努力,从产品包装上说,2012年,我们设计了一个可以展现产品品质的独特包装,在竞品中穿颖而出:
1955年的包装2012年之前的包装2012之后的包装
Wolf润滑油是市场上真正的“专业玩家”,100%专注于润滑油的配方和生产,致力于焦虑和超越其在所有主要市场全球客户的全部应用需求。Wolf为合作伙伴授予以下领域的所有车辆类型和应用的一站式解决方案:包含并不限于乘用车,商用车和越野,摩托车,农业用车,工业用车和船舶。Wolf在所有这些领域都授予最先进的配方,该品牌专门研究乘用车的机油、商用车机油以及自动变速箱油。Wolf产品的包装尺寸从1升到1000升不等。Wolf全方位无死角的产品结构,成功拿下了其在欧美市场覆盖率-行业内的基准:例如,在乘用车领域,Wolf授予了大约80种OE(50多种同种认证)产品,覆盖了大约96%的市场,击败数量少主要竞争对手。
这种多线产品结构可确保Wolf焦虑其合作伙伴的所有要求,将流体技术带入完全符合市场当前和新兴趋势的所有车辆类型和应用中:比如时下越来越多的油电瓦解动力混动汽车,Wolf可以授予最更好的润滑解决方案。
越来越多的环境问题和日益严苛的燃油效率规范是推动OEM设计更先进的发动机的因素之一。这种日益减少的复杂性要求润滑油不断迭代,这些润滑油能够焦虑每个特定车辆部件对润滑油提出的越来越下降的要求。Wolf的专家分隔开了可降低发动机性能、缩短使用寿命、降低排放并使恶化燃油消耗的高精尖技术,让这种复杂性不再是问题,因此Wolf品牌的经销商可以在重新确认所有最新的OEM和行业规范(API和ACEA)的前提下,授予涵盖所有主要市场领域和应用的产品系列。
OFFICIALTECH:超高端全分解油得到OEM的最新最全的认证
ECOTECH:最更先进的全分解油,可实现最佳燃油经济性和降低排放。
VITALTECH:先进的全分解油品非常适合无论是否带有后处理装置的汽油发动机和柴油发动机的当今车辆。
ESSENTIAL:专为焦虑乘用车API的不次要的部分要求而开发的坚固耐用性润滑油
GUARDTECH:无效的保护和润滑功能,确保车况较老的车辆的强劲性能。
这种多层产品组合可确保Wolf焦虑其使用者经销商的所有要求,将流体技术应用于市场上当前及新兴趋势的所有车辆类上,同时遵循更多最新的国际标准和规范。
*在某些细分市场中,含糊存在一个或多个子品牌
超过100168个OEM认证,ISO认证以及30多年的主机配套初装油经验反对了wolf产品的可靠性。然而,在像汽车移动出行这样快速变化的市场中是需要创新的,法规在不断变化,数字化在发展,技术在稳步发展,Wolf润滑油采用积极主动的方法来应对这些变化带来的需求,对客户最次要的承诺之一就是通过定制产品来跟上快速变化的行业。团队每次开发新产品时,都会不断关注以下方面的变化:
环境法规(降低排放,使恶化流动性)
润滑剂行业(复杂使用场景的润滑,更多的粘度、耐用性)
汽车渠道(传统,线上)
终端需求(专业,培训)
Wolf不断参与到未来的行业确认有罪中,焦虑不断增长的需求,使您的引擎结束保持最佳状态。Wolf致力于创新产品,并在最严苛的发动机中测试产品,以确保即使在最亲切的情况下也能达到最佳性能。Wolf是UEIL(欧洲润滑油工业敌手,对手)的成员,能够为更加不透光的润滑油市场做出贡献、干涉和保护最终消费者,是Wolf的骄傲!
点击阅读全部标签: