PaLM-E:具身化的多模态大语言模型
PaLM-E是由谷歌于3月6日提出的最新大语言模型,其特点在于引入具身化和多模态概念。具身化指的是在机器学习中涉及物理实体,对应PaLM-E指导现实的机器人完成相应任务;多模态指的是PaLM-E在模型输入中嵌入了文本、图像、具身数据等信息。PaLM-E的核心思想在于,通过将多模态信息编码为与语言相似的形式,嵌入已有的PaLM模型,实现多模态的联合训练。其中,规模最大的PaLM-E参数达5620亿,是目前最大的视觉语言模型。从训练结果看,PaLM-E具有很强的泛化和迁移能力,不仅能完成机器人具身推理任务,还能完成常规的视觉语言任务和通用语言任务。 PaLM-E解决了机器学习的grounding问题 机器学习的grounding问题,指的是如何将抽象的符号或概念与真实世界的物体或事件联系起来的问题。例如,让机器学习模型将“苹果”这个词与“具有形状、颜色、味道等属性的水果”相关联。已有的很多模型是基于文本数据训练,没能与真实世界的视觉和物理传感器模态建立良好联系,且多模态输入尚未普及,限制了模型在现实世界中的推理能力。PaLM-E通过将图像、文字、具身数据联合训练,并引入多模态输入,增强了模型对现实中对象的理解,实现了机器人处理具身推理任务,较好解决了grounding问题。 编码器是实现多模态输入的关键 对应不同类别的多模态,需要分别设计不同类型的编码器进行编码。根据多模态的种类,PaLM-E涉及的编码器主要包括:1)状态估计向量,实现物体位置、尺寸和颜色等状态信息编码;2)ViT:实现2D图像编码;3)对象为中心的表示:实现对视觉输入中各对象的编码;4)OSRT:实现对3D场景的编码;5)实体引用:实现对难以用自然语言表述的对象的指代。完成编码后,即可注入已有模型进行训练和下游任务执行。 PaLM-E以“在环路”的方式指导现实机器人完成具身任务 PaLM-E训练数据集包含数十个子训练集,涉及视觉、语言和具身数据。由于以往的LLM在具身研究和相应数据集积累上较少,因此训练集中的具身数据占比仅8.9%。在实际执行任务时,PaLM-E以“在环路”的方式,一步一步指导机器人操作,并根据机器人的反馈调节输出指令。在任务与运动规划、桌面环境操作和移动操作等具身任务中,PaLM-E能在部分仿真任务上取得优于SOTA的结果,并成功指导现实中机器人完成长期任务。 PaLM-E同样在视觉/语言任务上取得较好效果 虽然完成机器人具身任务是PaLM-E模型研究的重点,但是经过文本、图像和具身混合数据集联合训练后,PaLM-E同时获得了良好的通用视觉语言任务处理能力,甚至在某些测试集中取得了优于微调模型的结果。但是,在自然语言生成等通用语言任务上,多模态训练使得小参数规模的PaLM-E存在灾难性遗忘问题,PaLM-E-12B相比其原版PaLM-8B的自然语言生成性能下降87.3%。不过,可以通过增加模型参数量实现性能改善。当模型参数增大到PaLM-E-562B时,性能仅下降3.9%。 风险提示:宏观经济波动,技术进步不及预期。本报告内容均基于客观信息整理,不构成投资建议。 研究报告全文:证券研究报告计算机GPT系列具身化多模态PaLM-E华泰研究计算机增持维持2023年3月14日中国内地专题研究研究员谢春生PaLM-E具身化的多模态大语言模型SACNoS0570519080006xiechunshenghtsccomSFCNoBQZ938862129872036PaLM-E是由谷歌于3月6日提出的最新大语言模型其特点在于引入具身化和多模态概念具身化指的是在机器学习中涉及物理实体对应PaLM-E联系人袁泽世PhD指导现实的机器人完成相应任务多模态指的是PaLM-E在模型输入中嵌入SACNoS0570122080053yuanzeshihtsccom了文本图像具身数据等信息PaLM-E的核心思想在于通过将多模态862128972228信息编码为与语言相似的形式嵌入已有的PaLM模型实现多模态的联合训练其中规模最大的PaLM-E参数达5620亿是目前最大的视觉语言行业走势图模型从训练结果看PaLM-E具有很强的泛化和迁移能力不仅能完成机器人具身推理任务还能完成常规的视觉语言任务和通用语言任务计算机沪深30018PaLM-E解决了机器学习的grounding问题8机器学习的grounding问题指的是如何将抽象的符号或概念与真实世界的物体或事件联系起来的问题例如让机器学习模型将苹果这个词与具3有形状颜色味道等属性的水果相关联已有的很多模型是基于文本数14据训练没能与真实世界的视觉和物理传感器模态建立良好联系且多模态24输入尚未普及限制了模型在现实世界中的推理能力PaLM-E通过将图像Mar-22Jul-22Nov-22Mar-23文字具身数据联合训练并引入多模态输入增强了模型对现实中对象的资料来源Wind华泰研究理解实现了机器人处理具身推理任务较好解决了grounding问题编码器是实现多模态输入的关键对应不同类别的多模态需要分别设计不同类型的编码器进行编码根据多模态的种类PaLM-E涉及的编码器主要包括1状态估计向量实现物体位置尺寸和颜色等状态信息编码2ViT实现2D图像编码3对象为中心的表示实现对视觉输入中各对象的编码4OSRT实现对3D场景的编码5实体引用实现对难以用自然语言表述的对象的指代完成编码后即可注入已有模型进行训练和下游任务执行PaLM-E以在环路的方式指导现实机器人完成具身任务PaLM-E训练数据集包含数十个子训练集涉及视觉语言和具身数据由于以往的LLM在具身研究和相应数据集积累上较少因此训练集中的具身数据占比仅89在实际执行任务时PaLM-E以在环路的方式一步一步指导机器人操作并根据机器人的反馈调节输出指令在任务与运动规划桌面环境操作和移动操作等具身任务中PaLM-E能在部分仿真任务上取得优于SOTA的结果并成功指导现实中机器人完成长期任务PaLM-E同样在视觉语言任务上取得较好效果虽然完成机器人具身任务是PaLM-E模型研究的重点但是经过文本图像和具身混合数据集联合训练后PaLM-E同时获得了良好的通用视觉语言任务处理能力甚至在某些测试集中取得了优于微调模型的结果但是在自然语言生成等通用语言任务上多模态训练使得小参数规模的PaLM-E存在灾难性遗忘问题PaLM-E-12B相比其原版PaLM-8B的自然语言生成性能下降873不过可以通过增加模型参数量实现性能改善当模型参数增大到PaLM-E-562B时性能仅下降39风险提示宏观经济波动技术进步不及预期本报告内容均基于客观信息整理不构成投资建议免责声明和披露以及分析师声明是报告的一部分请务必一起阅读1计算机正文目录PaLM-E具身化的多模态大语言模型3现有模型不能很好解决grounding问题4将多模态输入LLM的关键设计编码器5状态估计向量描述物体状态5ViTs解决2D图像编码5对象为中心的表示将视觉输入分离成对象5OSRT提供3D场景表示5实体引用直接指定引用对象5PaLM-E模型设置训练集选择实验结果6模型构建构建了从小到大多种尺寸的PaLM-E6训练数据集多种数据的混合6实验设置多种环境下进行任务设计7实验结果迁移特性良好能够指导真实机器人完成任务7任务与运动规划8桌面环境操作9移动操作11其他实验通用视觉语言任务和通用语言任务13风险提示14免责声明和披露以及分析师声明是报告的一部分请务必一起阅读2计算机PaLM-E具身化的多模态大语言模型PaLM-E引入具身化和多模态概念谷歌在2022年提出的PaLM模型基础上引入了具身化和多模态概念实现了指导现实世界机器人完成相应任务的功能PaLM-E的字面理解是以PaLM作为预训练的语言模型并使其具身化Embodied其中机器学习中的具身化是指一种涉及到物理实体如机器人的机器学习方法它可以使人工智能通过感知行动和交互来学习和推理具身化的机器学习方法可以处理多模态的数据如语言视觉和触觉并且可以适应不同的环境和任务PaLM-E主要思想是利用现有LLM和语言嵌入方法解决多模态问题PaLM-E的主要架构思想是将连续的具体的多模态观察如图像状态估计或其他传感器模态转化为和语言token嵌入空间维数相同的向量序列用和语言token同样的方式注入预训练语言模型的语言嵌入空间embeddingspace使得LLM能够以处理文本的方式处理多模态信息从而建立文字和感知之间的联系解决机器人相关的具身问题PaLM-E是一个仅基于解码器decoder的自回归的生成类LLM在给定前缀prefix或提示prompt的情况下能够自回归地生成文本补全PaLM-E输入为多模态输出为纯文本PaLM-E的输入是多模态句由文本和连续观察组成与观察相对应的多模态token可以包括图像image神经3D表示neural3Drepresentations状态states例如QWhathappenedbetweenimg1andimg2其中imgi代表的就是图片的嵌入PaLM-E的输出是由模型自回归生成的文本可以是问题答案也可以是由PaLM-E以文本形式生成的机器人可执行的一系列决策图表1PaLM-E的模型示意图和任务示例模型示意图主要任务主要是与控制机器人相关的任务其他图像文字任务和移动规划输移动操作入以谷歌提出的PaLM大语言模型LLM为基础桌面操作输出文字视觉问答图像描述纯语言类任务次要任务与视觉问答和语言相关的任务资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究PaLM-E有很强的迁移和泛化能力谷歌指出虽然不是实验的主要目的但PaLM-E还是表现出广泛地能力包括零样本学习多模态思维链chain-of-thoughtCoT一种利用大模型的上下文学习能力来完成任务的方法少样本提示无需OCR光学字符识别的数学推理多图推理尽管只在单张图像提示上进行过训练等能力免责声明和披露以及分析师声明是报告的一部分请务必一起阅读3计算机图表2PaLM-E-562B能够实现的部分任务少样本提示下基于视觉约束讲冷笑话零样本多模态思维链零样本多图关系识别无需OCR的数学推理其他任务机器人视觉感知对话与规划物理预测空间问题机器人主动权端到端的自我中心问答和对话资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究现有模型不能很好解决grounding问题现有模型没有很好的处理grounding问题限制了模型在现实世界中的推理机器学习的grounding指如何将抽象的符号或概念与真实世界的物体或事件联系起来的问题例如如何让机器学习模型理解苹果这个词不仅是一个符号而且是一个具有形状颜色味道等属性的水果grounding问题的处理在涉及大量符号和感知信息的计算机视觉领域尤为重要现有模型的主要问题表现在1表示与现实没有建立很好的联系虽然在大量文本数据上训练出的LLM能得到与物理世界相关的表示representation即某种特征但是在计算机视觉和机器人领域中表示与真实世界的视觉和物理传感器模态没有建立起很好的联系2多模态输入尚未普及现有的研究将LLM的输出与机器人相连接来实现决策但是这些LLM只能够以文本方式输入不能很好地适应与几何场景配置相关的任务比如移动积木块等3很多模型不能实现机器人具身推理任务目前已有的SOTA视觉语言模型是在典型的视觉语言任务如视觉问题回答VQA上进行训练的不能直接解决机器人相关的具身推理任务免责声明和披露以及分析师声明是报告的一部分请务必一起阅读4计算机将多模态输入LLM的关键设计编码器针对不同类型的任务设计编码器实现将不同的多模态信息输入到LLM中PaLM-E模型相关任务涉及的多模态信息主要包括状态图片3D场景等需要分别设计编码器编码器经过端到端训练以自然文本的形式输出决策序列使得具身智能体embodiedagent例如执行任务的机器人能够根据这些决策执行基本动作或针对一些具身问题进行回答主要的编码器包括状态估计向量ViTOSRT实体参照等状态估计向量描述物体状态状态估计向量是PaLM-E最简单的一种输入形式状态估计向量stateestimationvectors描述了场景中物体的状态例如位置尺寸颜色等可以用多任务感知机MLP也叫前馈神经网络是最早发明的简单人工神经网络直接映射到语言嵌入空间ViTs解决2D图像编码ViT是一种将图像映射为一组token嵌入的Transformer架构主要面向2D图像ViTVisionTransformers视觉Transformer是Transformer在视觉领域的重要应用模型之一PaLM-E采用的ViT包括一个40亿参数的ViT-4B和一个220亿参数的ViT-22B这两个模型都已经在图像分类任务中完成预训练同时还考虑了一种端到端训练的ViTtoken学习架构ViTTL对象为中心的表示将视觉输入分离成对象对象为中心的表示将视觉输入分离成不同的对象与语言不同视觉输入并没有预先构造成有意义的实体和关系这会导致两个问题1与基于符号进行预训练的LLM交互时存在问题2在解决需要物理物体之间相互作用的具身问题时存在问题因此构造结构化的编码器对象为中心的表示object-centricrepresentations将视觉输入分离成不同的对象token表示场景中的独立物体然后再将其输入到LLM中OSRT提供3D场景表示OSRT提供了以3D为中心的神经场景表示OSRTobjectSceneRepresentationTransformer对象场景表示Transformer不需要ground-truth指训练集中的正确标注它反映了数据的真实类别或属性即不依赖对象的外部知识而是通过对结构进行归纳偏置inductivebiases帮助机器学习算法从一些例子中寻找共性泛化形成一个较通用的规则的过程以无监督的方式自我发现ground-truthOSRT提供了以3D为中心的神经场景3D-centricneuralscene使用神经网络来表示和渲染三维场景的方法表示实体引用直接指定引用对象实体引用直接指定难以通过自然语言识别的对象对于具体的计划任务PaLM-E必须能够在其生成的计划中引用对象在许多情况下场景中的物体可以通过它们的一些独特属性在自然语言中识别出来但是还是存在一些场景其中的对象不容易通过语言简单地识别例如在同时在桌面上存在的相同颜色不同位置的积木块此时可以用实体引用entityreferrals的方式直接在输入提示prompt中对相应物体的多模态token进行标记例如Object1isobj1Objectjisobjj指定完成后PaLM-E可以在生成的输出语句中通过objj形式的特殊标记引用对象免责声明和披露以及分析师声明是报告的一部分请务必一起阅读5计算机PaLM-E模型设置训练集选择实验结果模型构建构建了从小到大多种尺寸的PaLM-EPaLM-E构建了多个不同尺寸的模型PaLM-E由LLM和编码器构成LLM方面选取80亿620亿和5400亿参数的PaLMPaLM是仅使用解码器的LLM且已完成预训练编码器方面选取40亿参数和22亿参数的ViT两者结合分别构建了参数为120亿的PaLM-E-12B840亿的PaLM-E-84B5620亿的PaLM-E-562B其中PaLM-E-562B是目前现有最大的视觉语言vision-language模型图表3不同尺寸PaLM-E的构建方法LLMViT8BPaLM4BViTPaLM-E-12B62BPaLMPaLM-E-84B22BViT540BPaLMPaLM-E-562B资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究PaLM-E有两种训练策略1各模态的编码器和PaLM一起训练同时更新参数2考虑到LLM在给定合适的提示prompt时能够表现出很好的推理能力可以冻结freezeLLM只训练与模态相关的编码器训练数据集多种数据的混合完整的PaLM-E训练数据集包含数十个子训练集涉及视觉语言和具身数据PaLM-E进行跨任务的联合训练其训练集为包含视觉语言和具身数据其中完全混合fullmixture的数据集由来自各种任务的互联网规模的视觉和语言数据组成通过设置采样频率使得其中89的数据为具身数据值得注意的是目前具身数据的训练数据集还远少于图像和语言训练数据集图表4完全混合fullmixture数据集的成分组成具身数据embodieddata资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究免责声明和披露以及分析师声明是报告的一部分请务必一起阅读6计算机实验设置多种环境下进行任务设计PaLM-E从两个思路出发与基线模型进行结果比较1比较不同的输入表示状态估计向量ViT等编码器在性能泛化能力数据有效性方面的表现2聚焦单一的PaLM-E架构预训练的ViTPaLM将原始图像作为连续输入针对不同的联合训练策略和模型参数比较其在性能泛化能力数据有效性方面的表现比较基线选取的是SOTA视觉语言模型PaLI未在机器人具身数据上训练SayCan算法机器人模型人工提供了机器人最优动作序列指导oracleaffordances实验涉及3种不同的机器人环境任务1任务与运动规划TaskandMotionPlanningTAMP机器人必须对物体进行抓取堆放等操作2桌面环境操作table-toppushingenvironment主要是对桌面上的积木块等物体进行操作3移动操作mobilemanipulationdomain机器人在厨房环境中解决各种任务包括在抽屉里寻找物品挑选物品并将其交给人类PaLM-E分别在各领域的专业数据集上进行训练例如桌面环境使用的训练集为Language-Tabledataset每种环境下均进行规划planning和视觉问答VQA两种任务测试对于桌面环境操作和移动操作PaLM-E被集成到现实世界的控制环路中从而在存在外部干扰或低级控制策略失效时重新调整计划实验结果迁移特性良好能够指导真实机器人完成任务总体来说单一的PaLM-E在混合数据集上实现了很好的迁移特性单一的PaLM-E模型在混合数据集上跨任务跨机器人具身训练后可以同时在所有任务上实现高性能并超过针对单一任务训练的现有结果表现出很强的迁移特性图表5PaLM-E在混合数据集上实现了很好的迁移特性资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究免责声明和披露以及分析师声明是报告的一部分请务必一起阅读7计算机图表6完全混合fullmixture数据集能够训练出性能更好的模型资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究任务与运动规划训练场景包含桌面上3-5个不同大小颜色和初始位置的立方体物体训练数据集包含96000个该环境下的训练场景任务包括4个视觉问答和2个规划问题其中4个视觉问答问题q1问题是关于物体的颜色q2是关于物体-桌面的关系q3是关于物体-物体的关系q4是关于判断计划是否可行2个规划任务问题p1是关于规划如何抓取物体p2是关于规划如何堆叠物体图表7任务与运动规划环境布置资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究免责声明和披露以及分析师声明是报告的一部分请务必一起阅读8计算机图表8视觉问答与任务规划问题示例资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究对于场景中的3-5个对象与训练集中的对象数量相同大多数编码器都有较好表现然而当增加对象的数量时使用预训练的LLM可以显著提高性能特别是在实体引用方面而基线算法SayCan在任务规划上表现欠佳图表9任务与运动规划实验结果资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究桌面环境操作仿真环境下基线算法PaLI和SayCan均不能完成任务而PaLM-E能够较好的完成任务结果再次证明了在互联网规模的视觉和语言上进行联合训练可以产生更有效的机器人规划模型且能够在仅有10次的少样本学习下取得更好的效果免责声明和披露以及分析师声明是报告的一部分请务必一起阅读9计算机图表10桌面环境操作实验结果leftTab资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究PaLM-E能够指导真实机器人完成多阶段桌面操作任务具体过程如下PaLM-E以1Hz的频率将基于语言text的子目标输出到已有的机器人操作策略中策略以5Hz的频率输出基础机器人动作随后根据机器人看到的图像结果PaLM-E能够继续以1Hz的频率进行重新规划指导后续动作图表11PaLM-E参与到机器人的控制循环中资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究PaLM-E表现出良好的抗干扰性和泛化能力1对人类的对抗性干扰保持健壮性robust图a-c2能够进行one-shot和zero-shot图b-c即在100个不同的长期任务上对PaLM-E进行了微调每个任务都有一个训练示例3PaLM-E可以将zero-shot泛化到涉及新对象的任务图c甚至是原始机器人数据集或微调数据集中未见的对象的任务例如玩具乌龟图d免责声明和披露以及分析师声明是报告的一部分请务必一起阅读10计算机图表12PaLM-E表现出良好的抗干扰性和泛化能力资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究移动操作移动操作环境下主要包括可视性预测affordanceprediction故障检测failuredetection和长期计划long-horizonplanning三种测试1可视性预测例如让PaLM-E预测某个操作技能能否在当前场景下使用可以用视觉问答的形式来提问例如GivenimgQIsitpossibletoskillhere2故障检测例如让PaLM-E预测某个操作技能在当前场景下是否成功多模态提示例如GivenimgQWasskillsuccessful以上两种测试PaLM-E均得到了超越参考基线的SOTA结果免责声明和披露以及分析师声明是报告的一部分请务必一起阅读11计算机图表13可视性预测与故障检测实验结果资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究3长期规划真实机器人该测试涉及移动操作任务的端到端具身规划任务涉及的提示结构为HumaninstructionRobotstephistoryIseeimgPaLM-E基于历史步骤和对当前场景图像的观察生成下一步计划输入到机器人中执行直到PaLM-E输出终止指令在真实的厨房场景下对模型进行了定性评估发现即使在对抗性干扰下模型也可以执行长期移动操作任务图表14PaLM-E指导真实机器人完成厨房场景下的长期任务资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究免责声明和披露以及分析师声明是报告的一部分请务必一起阅读12计算机其他实验通用视觉语言任务和通用语言任务PaLM-E在通用视觉语言任务取得很好的效果PaLM-E-562B模型在OK-VQA上获得了SOTA优于专门针对OK-VQA进行微调的模型表明PaLM-E不仅能完成机器人任务的具身推理还具有很好的视觉语言多面手能力图表15通用视觉语言任务实验结果资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究在通用语言任务上PaLM-E存在语言能力的遗忘问题但可以通过增加参数量弥补评估了PaLM-E在21个自然语言理解NLU和自然语言生成NLG任务的通用语言基准上的平均性能结果表明经过多模态训练PaLM-E在语言能力上存在灾难性遗忘问题最小PaLM-E-12B模型的NLG性能相对下降873但是该问题可以通过增加模型参数解决最大模型PaLM-E-562B的NLG性能仅下降39图表16通用语言任务上的灾难性遗忘可以通过扩大模型参数量解决资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究免责声明和披露以及分析师声明是报告的一部分请务必一起阅读13计算机图表17自然语言生成和理解结果-39资料来源PaLM-EAnEmbodiedMultimodalLanguageModelDannyDriess等2023华泰研究图表18提及公司列表公司代码公司简称GOOGLUS谷歌资料来源Bloomberg华泰研究风险提示宏观经济波动若宏观经济波动产业变革及新技术的落地节奏或将受到影响宏观经济波动还可能对AI投入产生负面影响从而导致整体行业增长不及预期技术进步不及预期若AI技术和大模型技术进步不及预期或将对相关的行业落地情况产生不利影响本报告内容均基于客观信息整理不构成投资建议免责声明和披露以及分析师声明是报告的一部分请务必一起阅读14计算机免责声明分析师声明本人谢春生兹证明本报告所表达的观点准确地反映了分析师对标的证券或发行人的个人意见彼以往现在或未来并无就其研究报告所提供的具体建议或所表迖的意见直接或间接收取任何报酬一般声明及披露本报告由华泰证券股份有限公司已具备中国证监会批准的证券投资咨询业务资格以下简称本公司制作本报告所载资料是仅供接收人的严格保密资料本报告仅供本公司及其客户和其关联机构使用本公司不因接收人收到本报告而视其为客户本报告基于本公司认为可靠的已公开的信息编制但本公司及其关联机构以下统称为华泰对该等信息的准确性及完整性不作任何保证本报告所载的意见评估及预测仅反映报告发布当日的观点和判断在不同时期华泰可能会发出与本报告所载意见评估及预测不一致的研究报告同时本报告所指的证券或投资标的的价格价值及投资收入可能会波动以往表现并不能指引未来未来回报并不能得到保证并存在损失本金的可能华泰不保证本报告所含信息保持在最新状态华泰对本报告所含信息可在不发出通知的情形下做出修改投资者应当自行关注相应的更新或修改本公司不是FINRA的注册会员其研究分析师亦没有注册为FINRA的研究分析师不具有FINRA分析师的注册资格华泰力求报告内容客观公正但本报告所载的观点结论和建议仅供参考不构成购买或出售所述证券的要约或招揽该等观点建议并未考虑到个别投资者的具体投资目的财务状况以及特定需求在任何时候均不构成对客户私人投资建议投资者应当充分考虑自身特定状况并完整理解和使用本报告内容不应视本报告为做出投资决策的唯一因素对依据或者使用本报告所造成的一切后果华泰及作者均不承担任何法律责任任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效除非另行说明本报告中所引用的关于业绩的数据代表过往表现过往的业绩表现不应作为日后回报的预示华泰不承诺也不保证任何预示的回报会得以实现分析中所做的预测可能是基于相应的假设任何假设的变化可能会显著影响所预测的回报华泰及作者在自身所知情的范围内与本报告所指的证券或投资标的不存在法律禁止的利害关系在法律许可的情况下华泰可能会持有报告中提到的公司所发行的证券头寸并进行交易为该公司提供投资银行财务顾问或者金融产品等相关服务或向该公司招揽业务华泰的销售人员交易人员或其他专业人士可能会依据不同假设和标准采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和或交易观点华泰没有将此意见及建议向报告所有接收者进行更新的义务华泰的资产管理部门自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策投资者应当考虑到华泰及或其相关人员可能存在影响本报告观点客观性的潜在利益冲突投资者请勿将本报告视为投资或其他决定的唯一信赖依据有关该方面的具体披露请参照本报告尾部本报告并非意图发送发布给在当地法律或监管规则下不允许向其发送发布的机构或人员也并非意图发送发布给因可得到使用本报告的行为而使华泰违反或受制于当地法律或监管规则的机构或人员本报告版权仅为本公司所有未经本公司书面许可任何机构或个人不得以翻版复制发表引用或再次分发他人无论整份或部分等任何形式侵犯本公司版权如征得本公司同意进行引用刊发的需在允许的范围内使用并需在使用前获取独立的法律意见以确定该引用刊发符合当地适用法规的要求同时注明出处为华泰证券研究所且不得对本报告进行任何有悖原意的引用删节和修改本公司保留追究相关责任的权利所有本报告中使用的商标服务标记及标记均为本公司的商标服务标记及标记中国香港本报告由华泰证券股份有限公司制作在香港由华泰金融控股香港有限公司向符合证券及期货条例及其附属法律规定的机构投资者和专业投资者的客户进行分发华泰金融控股香港有限公司受香港证券及期货事务监察委员会监管是华泰国际金融控股有限公司的全资子公司后者为华泰证券股份有限公司的全资子公司在香港获得本报告的人员若有任何有关本报告的问题请与华泰金融控股香港有限公司联系免责声明和披露以及分析师声明是报告的一部分请务必一起阅读15计算机香港-重要监管披露华泰金融控股香港有限公司的雇员或其关联人士没有担任本报告中提及的公司或发行人的高级人员有关重要的披露信息请参华泰金融控股香港有限公司的网页httpswwwhtsccomhkstockdisclosure其他信息请参见下方美国-重要监管披露美国在美国本报告由华泰证券美国有限公司向符合美国监管规定的机构投资者进行发表与分发华泰证券美国有限公司是美国注册经纪商和美国金融业监管局FINRA的注册会员对于其在美国分发的研究报告华泰证券美国有限公司根据1934年证券交易法修订版第15a-6条规定以及美国证券交易委员会人员解释对本研究报告内容负责华泰证券美国有限公司联营公司的分析师不具有美国金融监管FINRA分析师的注册资格可能不属于华泰证券美国有限公司的关联人员因此可能不受FINRA关于分析师与标的公司沟通公开露面和所持交易证券的限制华泰证券美国有限公司是华泰国际金融控股有限公司的全资子公司后者为华泰证券股份有限公司的全资子公司任何直接从华泰证券美国有限公司收到此报告并希望就本报告所述任何证券进行交易的人士应通过华泰证券美国有限公司进行交易美国-重要监管披露分析师谢春生本人及相关人士并不担任本报告所提及的标的证券或发行人的高级人员董事或顾问分析师及相关人士与本报告所提及的标的证券或发行人并无任何相关财务利益本披露中所提及的相关人士包括FINRA定义下分析师的家庭成员分析师根据华泰证券的整体收入和盈利能力获得薪酬包括源自公司投资银行业务的收入华泰证券股份有限公司其子公司和或其联营公司及或不时会以自身或代理形式向客户出售及购买华泰证券研究所覆盖公司的证券衍生工具包括股票及债券包括衍生品华泰证券研究所覆盖公司的证券衍生工具包括股票及债券包括衍生品华泰证券股份有限公司其子公司和或其联营公司及或其高级管理层董事和雇员可能会持有本报告中所提到的任何证券或任何相关投资头寸并可能不时进行增持或减持该证券或投资因此投资者应该意识到可能存在利益冲突评级说明投资评级基于分析师对报告发布日后6至12个月内行业或公司回报潜力含此期间的股息回报相对基准表现的预期A股市场基准为沪深300指数香港市场基准为恒生指数美国市场基准为标普500指数具体如下行业评级增持预计行业股票指数超越基准中性预计行业股票指数基本与基准持平减持预计行业股票指数明显弱于基准公司评级买入预计股价超越基准15以上增持预计股价超越基准515持有预计股价相对基准波动在-155之间卖出预计股价弱于基准15以上暂停评级已暂停评级目标价及预测以遵守适用法规及或公司政策无评级股票不在常规研究覆盖范围内投资者不应期待华泰提供该等证券及或公司相关的持续或补充信息免责声明和披露以及分析师声明是报告的一部分请务必一起阅读16计算机法律实体披露中国华泰证券股份有限公司具有中国证监会核准的证券投资咨询业务资格经营许可证编号为91320000704041011J香港华泰金融控股香港有限公司具有香港证监会核准的就证券提供意见业务资格经营许可证编号为AOK809美国华泰证券美国有限公司为美国金融业监管局FINRA成员具有在美国开展经纪交易商业务的资格经营业务许可编号为CRD298809SEC8-70231华泰证券股份有限公司南京北京南京市建邺区江东中路228号华泰证券广场1号楼邮政编码210019北京市西城区太平桥大街丰盛胡同28号太平洋保险大厦A座18层邮政编码100032电话862583389999传真862583387521电话861063211166传真861063211275电子邮件ht-rdhtsccom电子邮件ht-rdhtsccom深圳上海深圳市福田区益田路5999号基金大厦10楼邮政编码518017上海市浦东新区东方路18号保利广场E栋23楼邮政编码200120电话8675582493932传真8675582492062电话862128972098传真862128972068电子邮件ht-rdhtsccom电子邮件ht-rdhtsccom华泰金融控股香港有限公司香港中环皇后大道中99号中环中心58楼5808-12室电话852-3658-6000传真852-2169-0770电子邮件researchhtsccomhttpwwwhtsccomhk华泰证券美国有限公司美国纽约公园大道280号21楼东纽约10017电话212-763-8160传真917-725-9702电子邮件Huataihtsc-uscomhttpwwwhtsc-uscom版权所有2023年华泰证券股份有限公司免责声明和披露以及分析师声明是报告的一部分请务必一起阅读17
|
相关行业报告
|
||||||||||||||||||||||||||
