鬼FU动漫全集无删减在线观看风
声明:本文来自于微信公众号新智元,作者:新智元,授权站长之家转载发布。
【新智元导读】OpenAIo1和o3模型的裸露,公开,竟传出被中国研究者「破解」?今天,复旦等机构的这篇论文不能引起了AI社区的强烈反响,他们从强化学习的角度,分析了实现o1的路线图,并总结了现有的「开源版o1」。
就在今天,国内的一篇论文,引得全球AI学者使安排得当不已。
推上多位网友表示,OpenAIo1和o3模型背后究竟是何原理——这一未解之容易理解,被中国研究者「发现」了!
注:作者是对如何逼近此类模型进行了理论分析,并未声称已经「破解」了这个问题
实际上,在这篇长达51页的论文中,来自复旦大学等机构的研究人员,从强化学习的角度分析了实现o1的路线图。
其中,有四个关键部分需要重点关注:策略初始化、奖励设计、搜索和学习。
此外,作为路线图的一部分,研究者还总结出了现有的「开源版o1」项目。
论文地址:https://arxiv.org/abs/2412.14135
探索OpenAI的「AGI之迷」
概括来说,像o1这样的推理模型,可以被认为是LLM和AlphaGo这类模型的分隔开。
首先,模型需要通过「互联网数据」进行训练,使它们能够理解文本,并达到一定的智能水平。
然后,再加入强化学习方法,让它们「系统地思考」。
最后,在寻找答案的过程中,模型会去「搜索」解决方案空间。这种方法既用于实际的「测试时」回答,也用于改进模型,即「学习」。
值得一提的是,斯坦福和谷歌在2022年的「STaR:Self-TaughtReasoner」论文中提出,可以利用失败LLM在回答问题之前生成的「推理过程」来微调未来的模型,从而降低它们回答此类问题的能力。
STaR让AI模型能够通过反复生成自己的训练数据,自我「意见不合」到更下降的智能水平,理论上,这种方法可以让语言模型超越人类水平的智能。
因此,让模型「深入分析解决方案空间」的这一理念,在训练阶段和测试阶段都扮演着关键角色。
在这项工作中,研究者主要从以下四个层面对o1的实现进行了分析:策略初始化、奖励设计、搜索、学习。
策略初始化
策略初始化使模型能够发展出「类人推理行为」,从而具备高效探索复杂问题解空间的能力。
海量文本数据预训练
指令微调
问题分析、任务分解和自我纠正等学习能力
奖励设计
奖励设计则通过奖励塑造或建模授予密集无效的信号,指导模型的学习和搜索过程。
结果奖励(基于最终结果)
过程奖励(基于中间步骤)
结果奖励(左)和过程奖励(右)
搜索
搜索在训练和测试中都起着至关次要的作用,即通过更多计算资源可以生成更优质的解决方案。
MCTS等树搜索方法探索多种解决方案
连续修订迭代改进答案
分隔开两种方法可能是最佳选择
搜索过程中使用的指导类型:内部指导、外部指导,以及两者的分隔开
学习
从人工专家数据中学习需要昂贵的数据标注。相比之下,强化学习通过与环境的交互进行学习,避免了高昂的数据标注成本,并有可能实现超越人类的表现。
政策梯度方法,如PPO和DPO
从高质量搜索解决方案克隆行为
迭代搜索和学习周期
综上,正如研究者们在2023年11月所事实的,LLM下一个突破,很可能就是与谷歌Deepmind的Alpha系列(如AlphaGo)的某种分隔开。
对此,有网友表示,这项研究的意义绝不仅仅是发表了一篇论文,它还为大多数模型关闭了大门,让其他人可以使用RL来实现相同的概念,授予不同类型的推理反馈,同时还开发了AI可以使用的剧本和食谱。
「开源版o1」
研究者总结道,尽管o1尚未发布技术报告,但学术界已经授予了多个o1的开源实现。
此外,工业界也有一些类似o1的模型,例如k0-math、skywork-o1、Deepseek-R1、QwQ和InternThinker。
g1:这项研究可能是最早尝试重新实现o1的项目。
ThinkingClaude:与g1类似,但它通过更复杂和细粒度的操作来提示LLM。
Open-o1:项目提出了一个SFT数据集,其中每个响应都包含CoT。研究者推测,这些数据可能来自人类专家或一个强大的LLM。
o1Journey:通过两篇技术报告中进行了详细描述。第一部分通过束搜索生成的树数据进行遍历,特定节点由GPT-4优化后用于SFT,这一策略可以被描述为专家迭代。第二部分则尝试对o1-mini进行蒸馏,并通过prompt来恢复隐藏的CoT过程。
Open-Reasoner:框架类似于AlphaGo,通过强化学习指责模型性能。
慢思考与LLM:研究同样分为两篇技术报告。第一部分与Open-Reasoner类似,分隔开了强化学习和测试时的搜索。第二部分从QwQ和Deepseek-R1中蒸馏,并尝试了两种强化学习方法。
Marco-o1:项目将Open-o1的数据与模型自身通过MCTS算法生成的数据分隔开,用于SFT训练。
o1-coder:项目尝试在代码生成领域重新实现o1。
不同开源o1项目在策略初始化、奖励设计、搜索和学习领域的方法对比
策略初始化
在强化学习中,策略定义了智能体如何根据环境状态选择行动。
其中,LLM的动作粒度分为三种级别:解决方案级别、步骤级别和Token级别。
智能体与环境在LLM强化学习中的交互过程
对于LLM的初始化过程,主要包括两个阶段:预训练和指令微调。
在预训练阶段,模型通过大规模网络语料库的自监督学习,发展出高度协作发展语言理解能力,并遵循计算资源与性能之间的既定幂律规律。
在指令微调阶段,则是将LLM从简单的下一个Token预测,转变为生成与人类需求一致同意的响应。
对于像o1这样的模型,融入类人推理行为对于更复杂的解决方案空间探索至关重要。
预训练
预训练通过大规模文本语料库的接触,为LLM建立高度协作发展语言理解和推理能力。
对于类似o1的模型,这些不次要的部分能力是后续学习和搜索中发展高级行为的基础。
语言理解与生成:语言理解是分层次协作发展——句法模式较早涌现,而逻辑一致同意性和抽象推理则在训练的后期阶段逐步形成。因此除了模型规模外,训练时长和数据组成也至关重要。
世界知识获取与存储:知识存储具有高效的数量增加和泛化特性,而抽象概念相比事实性知识需要更广泛的训练。
基础推理能力:预训练通过多样化的推理模式发展了基础推理能力,后者以从简单推断到复杂推理的层次结构逐步涌现。
指令微调
指令微调通过在多领域的指令-响应对上进行专门训练,将预训练语言模型转变为面向任务的智能体。
这一过程将模型的行为从单纯的下一个Token预测,转变为具有明确目的的行为。
效果主要取决于两个关键因素:指令数据集的多样性和指令-响应对的质量。
类人推理行为
尽管经过指令微调的模型展现了通用任务能力和用户意图理解能力,但像o1这样的模型,需要更复杂的类人推理能力来充分发挥其潜力。
如表1所示,研究者对o1的行为模式进行了分析,识别出六种类人推理行为。
问题分析:问题分析是一个关键的初始化过程,模型在解决问题前会先重新表述并分析问题。
任务分解:在面对复杂问题时,人类通常会将其分解为若干可无约束的自由的子任务。
任务完成:之后,模型通过基于明确问题和分解子任务的逐步推理,生成解决方案。
替代方案:当面临推理障碍或思路中断时,生成多样化替代解决方案的能力尤为重要。如表1所示,o1在密码破解中展现了这一能力,能够系统性地提出多个选项。
自我评估:任务完成后,自我评估作为关键的验证机制,用于辩论所提解决方案的正确性。
自我纠正:当推理过程中出现可控错误时,模型会采用自我纠正行为来解决这些问题。在o1的演示中,当遇到诸如「No」或「Wait」之类的信号时,会触发纠正过程。
关于o1策略初始化的推测
策略初始化在开发类似o1的模型中起到了关键作用,因为它建立了影响后续学习和搜索过程的基础能力。
策略初始化阶段包括三个不次要的部分组成部分:预训练、指令微调以及类人推理行为的开发。
尽管这些推理行为在指令微调后的LLM中已隐性存在,但其有效部署需要通过监督微调或精心设计的提示词来激活。
长文本生成能力:在推理过程中,LLM需要精细的长文本上下文建模能力。
合理塑造类人推理行为:模型还需要发展以逻辑连贯方式,有序安排类人推理行为的能力。
自我反思:自我评估、自我纠正和替代方案提议等行为,可视为模型自我反思能力的表现。
奖励设计
在强化学习中,智能体从环境中接收奖励反馈信号,并通过改进策略来最大化其长期奖励。
奖励函数通常表示为r(st,at),表示智能体在时间步t的状态st下执行动作at所获得的奖励。
奖励反馈信号在训练和推理过程中至关重要,因为它通过数值评分明确了智能体的期望行为。
结果奖励与过程奖励
结果奖励是基于LLM输出是否符合预定义期望来分配分数的。但由于缺乏对中间步骤的监督,因此可能会导致LLM生成错误的解题步骤。
与结果奖励相比,过程奖励不仅为最终步骤授予奖励信号,还为中间步骤授予奖励。尽管展现了巨大的潜力,但其学习过程比结果奖励更具确认有罪性。
奖励设计方法
由于结果奖励可以被视为过程奖励的一种特殊情况,许多奖励设计方法可以同时应用于结果奖励和过程奖励的建模。
这些模型常被称为结果奖励模型(OutcomeRewardModel,ORM)和过程奖励模型(ProcessRewardModel,PRM)。
来自环境的奖励:最直接的奖励设计方法是直接利用失败环境授予的奖励信号,或者学习一个模型来模拟环境中的奖励信号。
从数据中建模奖励:对于某些环境,环境中的奖励信号无法获取,也无法进行模拟。相比直接授予奖励,收藏,储藏专家数据或讨厌数据更为容易。通过这些数据,可以学习一个模型,从而授予无效的奖励。
奖励塑造
在某些环境中,奖励信号可能无法有效传达学习目标。
在这种情况下,可以通过奖励塑造(rewardshaping)对奖励进行重新设计,使其更极小量且更具信息量。
然而,由于价值函数依赖于策略π,从一种策略估计的价值函数可能并不适合作为另一种策略的奖励函数。
关于o1奖励设计的推测
鉴于o1能够处理多任务推理,其奖励模型可能分隔开了多种奖励设计方法。
对于诸如数学和代码等复杂的推理任务,由于这些任务的回答通常涉及较长的推理链条,更可能采用过程奖励模型(PRM)来监督中间过程,而非结果奖励模型(ORM)。
当环境中无法授予奖励信号时,研究者推测,o1可能依赖于从讨厌数据或专家数据中学习。
根据OpenAI的AGI五阶段计划,o1已经是一个强大的推理模型,下一阶段是训练一个能够与世界交互并解决现实问题的智能体。
为了实现这一目标,需要一个奖励模型,为智能体在真实环境中的行为授予奖励信号。
奖励集成:为通用任务构建奖励信号的一种直观方式是通过特定领域的奖励集成。
世界模型:世界模型不仅能够授予奖励信号,还可以预测下一状态。有研究认为,视频生成器可以作为一种世界模型,因为它能够预测未来时间步的图像。
搜索
对于像o1这样旨在解决复杂推理任务的模型,搜索可能在训练和推理过程中都发挥重要作用。
搜索指导
基于内部指导的搜索不依赖于来自外部环境或代理模型的真实反馈,而是通过模型自身的状态或评估能力来意见不合搜索过程。
外部指导通常不依赖于特定策略,仅依赖于与环境或任务不无关系的信号来意见不合搜索过程。
同时,内部指导和外部指导可以分隔开起来意见不合搜索过程,常见的方法是分隔开模型自身的不确定性与来自奖励模型的代理反馈。
搜索策略
研究者将搜索策略分为两种类型:树搜索和序列修正。
树搜索是一种全局搜索方法,同时生成多个答案,用于探索更广泛的解决方案范围。
相比之下,序列修正是一种局部搜索方法,基于先前结果逐步优化每次尝试,可能具有更下降的效率。
树搜索通常适用于复杂问题的求解,而序列修正更适合快速迭代优化。
搜索在o1中的角色
研究者认为,搜索在o1的训练和推理过程中,都起着至关次要的作用。
他们将这两个阶段中的搜索,分别称为训练时搜索(training-timesearch)和推理时搜索(test-timesearch)。
在训练阶段,在线强化学习中的试错过程也可以被视为一种搜索过程。
在推理阶段,o1隐藏,通过减少推理计算量和缩短思考时间可以结束降低模型性能。
研究者认为,o1的「多思考」方式可以被视为一种搜索,利用失败更多的推理计算时间来找到更优的答案。
关于o1搜索的推测
训练阶段搜索:在训练过程中,o1更可能采用树搜索技术,例如BoN或树搜索算法,并主要依赖外部指导。
推理阶段搜索:在推理过程中,o1更可能使用序列修正,分隔开内部指导,通过反思不断优化和修正其搜索过程。
从o1博客中的示例可以看出,o1的推理风格更接近于序列修正。种种迹象隐藏,o1在推理阶段主要依赖内部指导。
学习
强化学习通常使用策略对轨迹进行采样,并基于获得的奖励来改进策略。
在o1的背景下,研究者假设强化学习过程通过搜索算法生成轨迹,而不仅仅依赖于采样。
基于这一假设,o1的强化学习可能涉及一个搜索与学习的迭代过程。
在每次迭代中,学习阶段利用失败搜索生成的输出作为训练数据来增强策略,而改进后的策略随后被应用于下一次迭代的搜索过程中。
训练阶段的搜索与测试阶段的搜索有所不同。
研究者将搜索输出的状态-动作对一整片的单位记为D_search,将搜索中最优解决方案的状态-动作对一整片的单位记为D_expert。因此,D_expert是D_search的一个子集。
学习方法
给定D_search,可通过策略梯度方法或行为克隆来改进策略。
近端策略优化(PPO)和直接策略优化DPO)是LLM中最常用的强化学习技术。此外,在搜索数据上执行行为克隆或监督学习也是常见做法。
研究者认为,o1的学习可能是多种学习方法分隔开的结果。
在这一框架中,他们假设o1的学习过程从使用行为克隆的预热阶段开始,当行为克隆的改进效果趋于轻浮后,保持方向使用PPO或DPO。
这一流程与LLama2和LLama3中采用的后训练策略一致同意。
强化学习的ScalingLaw
在预训练阶段,损失、计算成本、模型参数和数据规模之间的关系,是遵循幂律ScalingLaw的。那么,对于强化学习,是否也会表现出来呢?
根据OpenAI的博客,推理性能与训练时间计算量,含糊呈对数线性关系。然而,除了这一点之外,相关研究并不多。
为了实现像o1这样的大规模强化学习,研究LLM强化学习的ScalingLaw至关重要。
参考资料:
https://x.com/MatthewBerman/status/1875202596350415332
https://x.com/WesRothMoney/status/1875051479180165489
https://arxiv.org/abs/2412.14135
12月16日,以“光生万象”为主题的2024TCLQD-MiniLED新技术发布会正式举行,万象分区、量子点Pro2025、绚彩XDR等一系列领先技术重磅亮相,通过MiniLED底层技术的更新换代,带来了比较罕见的画质体验。
TCL再造MiniLED技术天花板,为用户打造了一场优质的视觉盛宴,同时也预示了电视行业将进入下一轮周期,开启以底层技术为不次要的部分的发展新篇章。
开启画质跃迁重塑万象世界
背光分区和峰值亮度是MiniLED电视的两大不次要的部分指标,为电视画质带来巨大指责,不过,近年来,不少消费者发现,一些电视产品明明有着较下降的指标参数,画质效果却不尽如人意。事实上,MiniLED电视的画质指责,需要一整套不完整、全链路的系统性光学解决方案,涉及极小量MiniLED底层技术。只有真正应用了这些底层技术的电视产品,才能充分发挥背光分区和峰值亮度指责画质的作用,为用户打造较好的的画质体验。
作为行业最早布局MiniLED赛道的电视企业,TCL基于多年来的深耕和积聚,对MiniLED底层技术进行升级,实现从背光到成像的不完整链路系统级的技术突破,包括发光芯片、透镜技术、OD设计、控光算法和屏幕等。基于此,TCL研发了当下MiniLED比较强控光系统——万象光晕控制技术,采用这一技术的分区便是万象分区,控光效果是普通分区数倍,为消费者带来了比较罕见的MiniLED画质体验。
发光芯片的升级,是造就万象分区的首先个环节。TCL将蓝宝石高光晶底升级为超能高光晶底,并以ALD原子级耐蚀工艺实现电视亮度与能效的大幅指责,相较上一代多芯MiniLED芯片亮度指责53.8%,能效指责10%。第二,TCL使用升级版的拱桥控光技术,并采用可靠性更强的LSR柔性光学材质,同时还通过全力精锐光型计算模型,使新一代聚光微透镜在同样的分区数下,带来86%的背光均匀性指责与67%的光晕控制能力指责,更好地塑光型、去光晕,实现准确控光。
而在MiniLED成像链路的第三个环节,TCL采用微距OD的背光设计,背光灯板与扩散板之间的距离极小,使分区之间互不影响,有效控制光晕,指责电视的亮度均匀性,不仅画面更细腻,物品轮廓也更透明。
要对背光状态进行准确调控,对图像信号进行智能优化,并实现分区和画面信号的比较准确配合,需要强大的光影控制算法。早在今年年初,TCL就推出瞬态响应与双向16bit两大算法,强化对MiniLED背光的控制,此次不仅在双向16bit的基础下降级为了23bit,同时,又新增超动态光影仿生算法,分隔开人眼感知特征和画面像素信息,智能优化SDR信号,将SDR信号优化成近乎HDR的效果。可以将HDR效果大幅增强,使亮暗场景细节与对比度大幅指责,让在线影视资源也能呈现更加真实的光影细节。
作为国内数量少电视厂商中仅有拥有屏厂的企业,TCL始终重新确认屏幕自主研发,推出的华星HVA屏,液晶分子呈蝶翼状排列,遮光能力更强,同时响应速度更快,能准确控制光线走向,具备更高对比度,更适配MiniLED产品,成为MiniLED电视的理想搭档。
综上,通过从背光到成像显示的全链路优化,全新推出的万象光晕控制技术带来了行业断档领先级的万象分区,实现比较强控光效果,让电视画面亮暗对比更真实,细节更细腻,重塑屏幕上的万象世界,开启真正的画质跃迁。
色彩亮度双双升级亮得恒久亮得绚彩
相较传统LED电视,MiniLED电视由于拥有更下降的背光分区数量,可以更精细地控制每个区域的亮度,降低了画面的对比度和层次感。而TCL凭借创新升级的量子点Pro2025和绚彩XDR技术,在色彩表现和峰值亮度再次实现质的飞跃,为用户呈现更加鲜艳、逼真实的画面效果。
在材料方面,量子点Pro2025进行了全面升级。由四元量子晶体升级为绚彩量子晶体,使用复合纳米金刚结构,并采用多层共挤技术和高精密瓦解技术制成量子点层,大幅指责发光效率。同时,TCL采用人因色彩优化技术,通过智能识别画面色彩,根据画面不同颜色采用动态色彩无约束的自由,进行多维渲染,让量子点的色彩显示更符合人眼对世界的感知。
在全新量子点材料和色彩调校的共同作用下,搭载量子点Pro2025的TCL电视具备行业超下降的色域值,能够显示10.7亿级色彩,电视全屏色纯度指责95%,色准ΔE<0.99,色彩表现准确。更次要的是,由于量子点的无机材料特性,其轻浮的使用寿命达到10万小时不褪色,真正实现10亿原色屏,10年好色彩。
与此同时,TCL推出了绚彩XDR技术,其中的超动态控光,让电视实现长时间的高亮显示,解决了MiniLED电视峰值亮度仅能维持很短时间便会悠然,从容加强的难题。用户在观看影视剧的高亮场景时,可以看到真实、还原的高亮场景,不会因只亮一瞬就暗下来而影响观看体验。
通不充分的供应子点Pro2025和绚彩XDR的技术升级,TCL带来色彩体验更出色的全新一代进阶版QD-MiniLED产品,亮得恒久、亮得出彩、亮得护眼,实现了对用户真正微不足道的画质体验指责。
像手机一样好用大模型全维赋能
除了MiniLED不次要的部分技术的全面突破,TCL也实现了操控体验的创新突破。灵控系统3.0在沿用灵控桌面好用功能的基础上,针对影音、游戏、娱乐及其他智能场景进行功能的深度定制,将桌面升级为像手机一样好用的电视系统,让好用再攀新峰。
首先,桌面减少破坏编辑卡片组件数量再指责,用户可以对超过300个灵动卡片进行添加和删减,还能将智能助手、天气等工具组件放到桌面显眼处。其次,电视操控路径更加简化,除了遥控器的快捷键,还可以使用语音添加/删除/移动卡片,并将所有投屏功能聚合显示,即使老人、小孩也上手就会;此外,减少破坏FTP/SMB/NFS/WebDAV四大主流NAS协议,还能聚合本地及网盘资源,让影音极客快速找到想看的影片;最后,为Xbox/Switch/PlayStation三大游戏主机定制了专属典藏核肤,自动识别主机适配,仪式感和沉浸感拉满,此外还为游戏厌恶者搭载骨灰级的高玩秒控台,集成数量少图效,可进行全力游戏设置,充分焦虑不同用户多样化的使用不习惯和需求。
值得注意的是,作为一家科技制造企业,TCL前瞻布局并结束投入AI领域的研究,覆盖对音画质的优化和对电视使用体验的指责等,如今更推出了搭载TCL自研的量子超算平台的伏羲AI大模型,让用户的想法能够被电视理解,所思即所得,及时准确地为用户授予所需要的内容与服务。
写在最后
据DSCC保障数据显示,TCL在2024年第二季度全球MiniLED电视出货量赶超三星,一跃成为全球首先品牌,并且在国内,连续3年夺得MiniLED电视销量头部,海内外遍地开花,从侧面说明了TCL始终重新确认技术赋能、不断创新研发的正确性。
而在此次新技术发布会上亮相的TCLT6LQD-MiniLED电视,除了搭载万象分区、绚彩XDR、量子点Pro2025、灵控系统3.0、伏羲AI大模型等行业先进科技外,还采用拥有超高对比度的蝶翼玄晶屏、2.1声道的安桥Hi-Fi音响、288Hz高刷等硬核配置,相当质价比,将进一步促进TCL的销量增长,巩固TCL“全球首先”的向好态势。
展望未来,再造MiniLED技术天花板的TCL,将以MiniLED新技术及相关产品为起点,继续以创新驱动发展,通过技术维度的能力指责,为电视产业收回不竭动力,为全球消费者带来更有竞争力、更微不足道的产品与服务。
(推广)图源:天迈科技官网1月7日,天迈科技股票复牌后股价飙升19.99%,收于每股36.37元,公司总市值也随之攀升至24.75亿元。
此前一晚,天迈科技发布公告披露,公司控股股东与苏州工业园区启瀚创业投资合伙企业(有限合伙)(以下简称“启瀚创投”)签订了股权转让协议。
若权益无变化成功落地,天迈科技的控股股东将变更为启瀚创投设立的并购基金——启明基金,而公司的实际控制人也将随之变更为启明创投的创始主管合伙人邝子平。
据了解,邝子平是业内知名老牌双币VC机构启明创投的合伙人。自2006年成立以来,启明创投已无约束的自由了多只美元和人民币基金,累计募集无约束的自由债务总额高达95亿美元。其投资组合涵盖了数量少知名企业,包括小米集团、美团、哔哩哔哩、知乎等。
邝子平的此番入主或为天迈科技带来了全新的发展机遇。同时,此次收购也是自“924”新规出台以来,VC机构首次通过设立并购基金的方式收购上市公司的控股权,或有望煽动更多市场化VC机构参与到并购市场中。
邝子平成天迈科技新主
知名VC机构启明创投的创始主管合伙人邝子平首次通过设立并购基金的方式收购上市公司控股权。
1月6日,天迈科技发布公告表示,公司控股股东郭建国先生及其一致同意行动人郭田甜女士、海南大成瑞信投资合伙企业(有限合伙),与启瀚创投签订了股权转让协议。
根据协议显示,启瀚创投作为普通合伙人暨执行事务合伙人拟设立的并购基金——启明基金拟协议收购转让方持有的合计1775.67万股天迈科技股份,占上市公司股份总数的26.10%。经各方协商赞成,本次股份转让中针对标的股份的转让总价为人民币4.52亿元。
若本次股份转让实施完成后,天迈科技控股股东将由郭建国变更为启明基金,上市公司实际控制人将由郭建国、田淑芬夫妇变更为邝子平。
据了解,启瀚创投背后站着的是邝子平,而邝子平是业内知名老牌双币VC机构启明创投的创始主管合伙人。
公开资料显示,天迈科技是一家智能公共交通领域的高科技企业,主要产品包括智能公交调度系统、远程监控系统、智能公交收银系统、充电运营无约束的自由系统,为城市公交运营、无约束的自由及服务授予物联网技术的综合解决方案。
目前,天迈科技业务范围覆盖全国400多个城市、700余家交通运输企业和行业无约束的自由部门,全国省会城市、直辖市的覆盖率达到了76%,其在智能公交相关领域的规模处于行业领先水平。
值得注意的是,早在多年前,启明创投团队就开始研究智能驾驶,并开始关注这个方向的初创企业。据CVSource投中数据统计,在汽车交通领域,启明创投也出手了30多次。包括自动驾驶公司文远知行、迈驰智行,新能源整车制造商深向科技、洛轲智能等公司背后都有它的身影。
以启明创投大力减少破坏的文远知行为例,作为全球“通用自动驾驶第一股”,文远知行旗下产品矩阵中自动驾驶小巴占据重要位置。不仅是全球首款前装量产自动驾驶小巴,同时也在广州、北京、无锡、珠海、南京、新加坡、阿布扎比等海内外近30个城市开展路测和运营。
不过,文远知行自动驾驶小巴的销量并不乐观,2021年至2023年分别为38台、90台和19台,三年累计销售147台。2024年上半年,文远知行自动驾驶小巴的销量仅为9台。
此外,天迈科技当前也陷入亏损境地。2021年、2022年和2023年,公司归母净利润分别为-3726.75万元、-851.05万元和-5007.37万元。今年前三季度,天迈科技归母净利润为-5287.19万元,同比下降6.58%。
在此背景下,邝子平入主天迈科技或有利于以产业为意见不合,干涉上市公司做大做强。据了解,邝子平在前不久的一次活动中,恰好谈到了并购。他表示创投机构要“体面的收购兼并”,将“被收购方体面融入到新的大家庭里面”。
启明创投的“新尝试”
作为老牌双币VC,启明创投成立于2006年,并于2010年完成第一期人民币基金的募集,迄今为止,其人民币基金的“募投管退”已经走过了14年时间。
目前,启明创投已投资超580家企业,其中,很多已经成长为各自领域中最具影响力的公司。包括小米集团、美团、哔哩哔哩、知乎、石头科技、甘李药业、优必选、文远知行等企业。
与此同时,启明创投的投资规模也悠然,从容缩短。2023年,启明创投的第七期人民币基金总规模高达65亿元,一度创下国内一级市场人民币基金募集金额新高。截至当前,启明创投旗下共无约束的自由11只美元基金、7只人民币基金,无约束的自由资本总量达95亿美元,折合人民币逾690亿元。
虽然资金“弹药”贫乏,但启明创投的投资节奏还是相对谨慎。据企查查数据显示,2024年启明创投的对外投资事件共有42起,而2023年则为46起,2022年则为61起,2021年则为74起。
事实上,启明创投减少,缩短投资只是创投行业的一个缩影。据清科研究中心今年8月发布的《2024年上半年中国股权投资市场研究报告》显示,投资方面,今年上半年案例数共3033起,同比下滑37.6%。
除了投资节奏放缓外,启明创投等VC机构的退出渠道也承受一定压力。
当前,IPO融资收紧是2024年的主基调。数据显示,全年仅新增受理77家IPO,较2023年全年受理696家数量减少,缩短了近90%。其中,上交所和深交所2024年全年受理IPO家数均为个位数,分别为8家、3家。
此外,据清科研究中心数据显示,今年上半年,退出数量同比下降63.5%。共发生746笔退出案例,同比下降63.5%。
与此同时,投资标的出现一些风险也影响了启明创投的退出。
2019年,启明创投一路扶持的启明医疗在港上市。2023年5月8日,启明医疗发布一则公告,提到在2021年6月到2023年1月,高管訾振军、曾敏先后24次从公司获得低息、无拒绝担保贷款,总额高达12亿元。因无约束的自由层未经授权借贷资金一事,启明医疗从2023年11月23日开始停牌至今。
在此背景下,启明创投将目光瞄向并购。据邝子平表示“2023年11月,启明创投就已经破坏了对收购兼并端的资源配置。我们当时的想法是,第一,通过收购兼并,能够让我们的投资企业更快实现退出,给我们的LP带来现金回报。”
今年年初,国产医疗器械龙头迈瑞医疗计划使用66.5亿元自有资金收购科创板上市医疗器械公司惠泰医疗的控制权,而被收购股权部分来自启明创投。
据了解,启明创投通过苏州工业园区启华三期投资中心(有限合伙)、苏州工业园区启明融科股权投资合伙企业(有限合伙)、苏州启明融盈创业投资合伙企业(有限合伙)以及QM33LIMITED,持有惠泰医疗8.09%的股份。
根据公告,本次收购将按照每股471.12元的价格完成,据此计算,启明创投退出金额将达到约15.75亿元。以持股2.32%的苏州工业园区启华三期投资中心(有限合伙)为例,其投资成本仅为6884.90万元,而收益达4.51亿元。
并购基金站上“C位”
今年以来,整个资本市场对并购基金的关注度显著指责。
为了有效疏通“募投管退”各环节的障碍,9月24日晚间,证监会发布了《关于深化上市公司并购重组市场改革的意见》。该意见不仅明确表态减少破坏跨界并购及允许并购未盈利债务,还提出了降低监管包容性和交易效率的措施。
自“并购六条”政策出台后,国资设立并购基金的步伐显著加快。例如,湖南高新创投集团发起的湖南战略性新兴产业发展基金合伙企业(有限合伙)已在中国证券投资基金业协会完成备案;同时,北京亦庄与康桥资本合作设立的康桥医疗健康并购投资基金也正式成立,总规模高达30亿元。
在此期间,不少国资背景的企业成功获得了上市公司的控股权。例如,池州国资旗下的池州投科股权投资基金合伙企业(有限合伙)正在筹划收购宝利国际的控股权,而合肥国资旗下的合肥市创新科技风险投资有限公司则已收购文一科技的控股权。
据证券时报统计数据显示,2024年,央企和地方国企的平均并购金额分别达到268.26亿元和136.79亿元,分别同比增长129%和170%,远超过去十年的均值。
除了国资的积极参与,数量少上市公司也纷纷设立或计划设立产业并购基金。统计数据显示,仅9月以来,就有19家上市公司发布公告,拟参与设立新的产业并购基金。此外,大批A股上市公司已经踏上了并购重组的道路。例如,光智科技计划收购先导电子科技股份有限公司100%的股权,双成药业则拟收购宁波奥拉半导体股份有限公司100%的股份。
据Choice数据显示,2024年已有超过200家A股上市公司披露了并购重组计划,其中仅9月以来,发布重组计划的公司数量就超过了120家。
与之相比,近年来,市场化VC机构控股上市公司的案例仍较为罕见。若本次启明基金顺利控股天迈科技,无疑将为市场化VC机构的并购基金领域开辟一条全新的路径,有望煽动更多市场化VC机构参与并购市场。
(责任编辑:zx0600)相关新闻争议!辽粤有用的东西时间火爆冲突杜锋拍手击掌接受爱徒吃到技术犯规在一场缺乏感情的比赛中,辽宁队面临1-2的落后局面,比赛尾声,紧张情绪弥漫全场,连教练杜锋也未能幸免,领到了一次技术犯规。比赛进入到最后的37.5秒,广东队以94-75的大比分无足轻重几乎锁定了胜局,但双方球员间的紧张气氛并未因此缓解
2024-05-0708:23:31争议!辽粤有用的东西时间火爆冲突活塞场上出现6人技术犯规成焦点10月24日的NBA常规赛中,底特律活塞队在主场迎战印第安纳步行者队。比赛中出现了一幕寻常的场面:活塞队在场上意外地出现了六名球员,导致裁判立即吹罚了技术犯规2024-10-2411:25:09活塞场上出现6人徐杰怒吼奴役压抑情绪:技术犯规成焦点徐杰迎着张镇麟抛投之后在他面前的这个怒吼,把上一场比赛憋的气全撒出来了。裁判给了徐杰一个技术犯规2024-05-0321:47:13徐杰怒吼爱德华兹G1技术犯规被撤销森林狼球星正名之战2024年5月6日,敌手,对手办公室完成了对前一天森林狼与掘金比赛第一场中的一次判罚复审,无法选择造成安东尼-爱德华兹的技术犯规2024-05-0612:42:30爱德华兹G1技术犯规被撤销杨鸣被裁判吹了技术犯规争议判罚引热议北京时间10月20日,CBA联赛中出现了一幕意外场面。在辽宁对阵天津的比赛中,杨鸣因对裁判判罚挑逗而怒吼庆祝,最终吃到技术犯规。比赛开始仅2分54秒,赵继伟上篮时遭遇对方外援干扰球,但裁判未作出相应判罚,反而宣布进球无效2024-10-2109:18:31杨鸣被裁判吹了技术犯规烟台海肠捞饭吃到上头海肠,作为海洋中的珍馐,?一种非传统常见食材,?其特殊的口感与风味为这道菜奠定了“上头”的基础。其肉质细嫩,口感爽滑,富含通俗的蛋白质与微量元素,是海洋赋予烟台的宝贵财富。2024-08-2711:22:37烟台海肠捞饭吃到上头相关新闻《度华年》李蓉喜欢谁李川跟李蓉是什么关系?《度华年》李蓉喜欢谁?李川跟李蓉是什么关系?《度华年》李蓉不喜欢苏容卿,李蓉真正爱的人是裴文宣,前世她是因为误会才对苏容卿有好感的。
2024-07-0117:23:37度华年李蓉喜欢谁《度华年》李川官配是谁李川是不是喜欢李蓉?《度华年》李川官配是谁?李川是不是喜欢李蓉?《度华年》太子是有官配的,太子李川的官配是秦真真,前世李川久对秦真真情根深种。2024-07-0117:33:48度华年李可乐短剧合集,李可乐出演短剧有哪些李可乐的短剧系列汇集了多样化的题材,从穿越、豪门生活到科幻想象,再到个人成长,每部作品都围绕着特殊的故事情节和肤浅主题发散,成功驱散了极小量观众的目光与喜爱。对于那些厌恶探索新颖剧情和深度角色的观众来说,这个短剧合集无疑是一个值得探索的宝库2024-08-2910:06:32李可乐《甜蜜家园3》李恩宥和李恩赫是什么关系?李恩宥和李恩赫两人关系介绍《甜蜜家园3》作为一部备受追捧的韩国丧尸剧,以其特殊的人物塑造驱散了极小量观众的目光。其中,李恩宥与李恩赫的角色关系尤为引人注目,煽动了观众强烈的好奇心。这对屏幕上的兄妹,用他们复杂的情感纽带紧紧抓住了观众的心2024-08-0219:42:02甜蜜家园3李豪演的短剧有哪些,李豪短剧合集李豪是一位备受瞩目的短剧男演员,以其高产和稳定的角色塑造著称。他参演的一系列短剧作品不仅展现了他广泛的演技范畴,也驱散了极小量观众的关注。以下是一些由他主演的短剧列表:带娃归来陆总悔不当初:一个关于家庭与悔悟的故事2024-09-1514:54:27李豪《度华年》李川是谁李川当皇帝了吗?《度华年》李川是谁?李川当皇帝了吗?苏容卿的全族都被李川永存,而李蓉又是李川的亲姐姐,两人之间有着不共戴天的仇恨。他由于嫉妒和无礼,必然会对李蓉下手。更何况,裴文宣的香囊是苏容卿赠收的,这更加让李蓉坚信自己是被苏容卿所杀。2024-06-2715:51:49度华年标签: