首页 / 应用于手术室场景的对象关系识别方法、装置、电子设备、存储介质和程序产品

应用于手术室场景的对象关系识别方法、装置、电子设备、存储介质和程序产品实质审查 发明

技术领域

[0001] 本公开总体说来涉及图像处理技术领域,更具体地讲,涉及一种应用于手术室场景的对象关系识别方法、装置、电子设备、存储介质和程序产品。

相关背景技术

[0002] 手术室场景理解对于手术有着重要的意义,人工智能算法通过解析手术室中医生之间的空间占位关系、医生和设备之间的空间关系、设备和设备之间的空间关系,实现对手术室场景的理解,从而在手术中对不正确的占位和环境提出预警,优化手术流程,提高手术效率,实现手术治疗质量的提高。
[0003] 相关技术中存在一种基于多模态大模型的手术室场景理解方案,该方案首先对三维点云与RGB图像同时提取视觉特征,再将视觉特征与大语言模型进行对齐和微调,从而完成对真实世界的手术室场景关系的理解。然而,在真实世界的应用中,从多视角视频流中完成场景点云的重建需要耗费较长的时间,难以满足手术中场景理解和解析的实时要求。

具体实施方式

[0028] 为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
[0029] 需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
[0030] 在此需要说明的是,在本公开中出现的“若干项之中的至少一项”均表示包含“该若干项中的任意一项”、“该若干项中的任意多项的组合”、“该若干项的全体”这三类并列的情况。例如“包括A和B之中的至少一个”即包括如下三种并列的情况:(1)包括A;(2)包括B;(3)包括A和B。又例如“执行步骤一和步骤二之中的至少一个”,即表示如下三种并列的情况:(1)执行步骤一;(2)执行步骤二;(3)执行步骤一和步骤二。
[0031] 下面,将参照附图详细描述根据本公开的示例性实施例的应用于手术室场景的对象关系识别方法及装置、电子设备、存储介质。
[0032] 图1是根据本公开的示例性实施例的应用于手术室场景的对象关系识别方法的流程图。应理解,手术室场景中的对象,可以包括手术室内的医生、护士、病人等人物,也可以包括光源、桌椅、手术工具等物体。该应用于手术室场景的对象关系识别方法可以由具有足够计算能力的电子设备执行。
[0033] 参照图1,在步骤S101中,获取手术室的多个手术图像。
[0034] 多个手术图像由多个图像传感器在同一时刻拍摄得到,多个图像传感器布置在手术室内的不同方位并用于捕捉手术过程。这多个手术图像能够从不同视角对手术过程中的图像进行全方位捕捉。具体地,这多个图像传感器可通过通信网络与执行本公开的示例性实施例的对象关系识别方法的电子设备相连接,从而将捕捉到的手术图像传输至电子设备。作为示例,多个图像传感器的拍摄可以由电子设备统一控制,以提高同步性;多个图像传感器也可以按照预设的周期定时拍摄手术图像并传输至电子设备;多个图像传感器还可以各自拍摄视频(例如可采用相同的帧率拍摄视频),再将视频流发送至电子设备,由电子设备将多个视频流的时间对齐,并从多个视频流中分别提取同一时刻的图像帧,作为同一时刻的多个手术图像,本公开对此不作限制。应理解,这里的“同一时刻”并非严格意义的分毫不差的相同时刻,允许受到控制精度、通信延时等技术限制而存在合理的误差。
[0035] 在步骤S102中,按照预设网格模板,对多个手术图像进行拼接处理,得到一个手术室图像。
[0036] 预设网格模板用于规定多个不同的图像按照什么位置进行拼接,为手术室图像提供了统一的拼接标准,保障了手术室图像拼接形式的一致性和稳定性,有助于降低后续进行对象关系识别处理时因拼接格式的不同而产生的识别误差,有助于提高识别效率。
[0037] 关于预设网格模板,作为示例,可以仅要求网格的行数或者列数,然后根据实际的手术图像数量灵活调整网格的列数或者行数,此时若手术图像的数量不是网格的行数或者列数的整倍数,导致存在多余的单元格(即网格中的当个格子),则可使用预定的无意义图像(例如纯白色图像)来填充多余的单元格,从而形成一幅完整的手术室图像;也可以提前设定手术图像的数量,并按照该数量设计预设网格模板,进一步地,若提前设定每个手术图像的视角,那么还可令预设网格模板进一步具体限定每个单元格对应的视角,从而在拼接时将每个手术图像放置在相应视角的单元格处。本公开对于预设网格模板的具体形式不作限制。
[0038] 在执行拼接处理的过程中,作为示例,可以直接将获取的多个手术图像按照预设网格模板进行拼接,也可以先对多个手术图像进行预处理,再将预处理得到的多个图像按照预设网格模板进行拼接,预处理例如包括但不限于图像对齐和视角转换,以提高图像质量,确保最终生成的手术室图像能够清晰地反映手术场景的实际情况。本公开对具体的拼接处理不作限制。
[0039] 在步骤S103中,对手术室图像进行对象关系识别处理,得到手术室内的不同对象之间的对象关系信息。
[0040] 根据本公开的示例性实施例的应用于手术室场景的对象关系识别方法,通过将多个视角的手术图像按照预设网格模板拼接为一个手术室图像,能够便捷、集中地收集手术室内的丰富细节,无需花费大量时间来构建三维点云,从而有效节约对象关系识别处理的时间,满足手术中场景理解和解析的实时要求。
[0041] 接下来对步骤S103具体如何进行对象关系识别处理做进一步介绍。
[0042] 在一些实施例中,可选地,步骤S103可基于ResNet和PointNet等一系列视觉小模型来处理手术室图像,此时需要先使用对象检测模型来进行医生和设备的对象检测,再使用关系识别模型来进行所检测到的对象的关系识别,得到手术室内不同对象之间的对象关系信息。
[0043] 在另一些实施例中,可选地,步骤S103包括:提取手术室图像的图像特征;获取针对手术室中不同对象的关系的提问文本;使用大语言模型,处理图像特征和提问文本,得到手术室内的不同对象之间的对象关系信息。通过使用大语言模型来处理手术室图像的图像特征和提问文本,能够利用大语言模型强大的语义理解能力和语言处理能力,对手术室图像的含义进行更可靠地理解,并将图像中的对象关系识别问题,转换为语义理解与应答问题,有助于大幅提升信息处理效率,提高对象关系识别处理的响应效率,可靠满足手术中场景理解和解析的实时要求。此外,由于大语言模型本身具有较强的适应性,使得该实施例的对象关系识别方案能够很好地适应真实世界、开放环境中的复杂任务。
[0044] 作为示例,大语言模型可采用多模态大语言模型,从而同时处理图像特征和提问文本。
[0045] 在上述另一些实施例中,关于提取手术室图像的图像特征的操作,进一步可选地,该操作包括:使用基于深度学习的图像语义分析方法,例如但不限于使用CLIP(Contrastive Language‑Image Pretraining,对比语言‑图像预训练)模型,提取手术室图像的图像特征。基于深度学习的图像语义分析方法通过将图像转化为词语或一段文本来描述,利用深度卷积神经网络和深度自动编码器提取图像的多层特征,并据此提取图像的语言描述(visual word),建立倒排索引,产生一种有效而准确的图像搜索方法。具体地,CLIP模型是一种多模态模型,能够将图像和文本进行有效配对,通过具体使用CLIP模型来将手术室图像语言化,能够实现手术室图像的图像特征的高效提取,使得提取到的图像特征包含语言的信息。
[0046] 可选地,CLIP模型是针对手术室场景,采用有监督方法训练得到的,使得CLIP模型能够更有针对性地理解手术室场景,有助于提升对手术室图像的图像特征的准确提取。具体地,该训练是基于预训练的CLIP模型,针对手术室场景进行微调。在使用有监督方法训练CLIP模型时,其训练样本可包括样本手术室图像和预先标记的真实图像特征,样本手术室图像可以是按照预设网格模型对多个不同视角的样本手术图像进行拼接处理得到。
[0047] 在上述另一些实施例中,关于使用大语言模型,处理图像特征和提问文本,得到手术室内的不同对象之间的对象关系信息的操作,进一步可选地,所使用的大语言模型包括基于LLaMA(Large Language Model Meta AI)系列模型的LLaVA(Large Language and Vision Assistant)模型。LLaMA系列模型旨在通过预训练在广泛的文本数据上,提升自然语言处理能力。LLaVA模型是一种结合了语言和视觉处理能力的模型,能够理解和生成与图像相关的文本,支持多模态交互,能够提供对场景的全面理解。基于LLaMA系列模型的LLaVA模型是指在处理文本时使用了LLaMA系列模型的LLaVA模型。通过使用该模型,能够充分处理手术室图像的图像特征和针对手术室中不同对象的关系的提问文本,从而基于图像特征对提问进行回答,得到对象关系信息。作为示例,具体可使用基于LLaMA3的LLaVA模型。
LLaMA3是LLaMA系列目前的最新版本,拥有强大的语言理解与生成能力,这一模型由Meta AI团队开发,旨在提供一个轻量级但功能强大的语言模型,使得更广泛的研究社群和开发者能够接触并利用最先进的技术。LLaMA系列模型的开源性质则允许个人和企业不受高昂费用的限制,自由地探索和创新,能够有效降低方案的应用成本。
[0048] 具体地,该操作可包括:将图像特征转换为一维的图像特征,并将该一维的图像特征映射到语言空间中,得到语言特征;将提问文本转换为一维的分词序列;将语言特征和分词序列合并为一个序列,传入大语言模型,得到大语言模型输出的手术室内的不同对象之间的对象关系信息。通过将图像特征和提问文本分别转换为一维向量,并对一维的图像特征进行语言空间的映射,从而得到能够被大语言模型所理解和处理的语言特征,再进行向量合并,例如将两个一维向量拼接为一个维度更高的一维向量,可得到大语言模型的输入数据,保障了大语言模型的顺利处理。作为示例,对于语言空间映射,可使用一个多层感知器(Multi‑Layer Perceptron,MLP)来实现,得到一维的语言特征,从而将视觉信息转换为大语言模型能够直接利用的数据格式。
[0049] 可选地,大语言模型是针对手术室场景,采用有监督方法训练得到的,使得大语言模型能够更有针对性地理解手术室场景,有助于提升对手术室内的不同对象之间的对象关系的准确提取。具体地,该训练是基于预训练的大语言模型,针对手术室场景进行微调。在使用有监督方法训练大语言模型时,其训练样本可包括样本手术室图像的图像特征和预先标记的真实对象关系信息,样本手术室图像可以是按照预设网格模型对多个不同视角的样本手术图像进行拼接处理得到。用于将图像特征转换为语言特征的网络(例如上述的多层感知器)可以随大语言模型一起训练。
[0050] 接下来介绍根据本公开一个具体实施例的应用于手术室场景的对象关系识别方法。
[0051] 该具体实施例的目的在于解决手术室场景的人物‑物体关系识别的两个关键问题:(1)如何理解多视角的手术室场景图像;(2)如何表示和生成人物和物体的关系。
[0052] 针对于此,该具体实施例提供了一种基于多模态大语言模型的多视角场景关系理解网络结构,包括储存模块、图像处理模块和大语言模型模块。储存模块负责存储手术室中各种物体的图像数据以及相关的元数据,元数据具体是多视角摄像机采集的原始的视频或图像,并将多视角的手术图像传输给图像处理模块。图像处理模块接收来自存储模块的多视角的手术图像,进行必要的预处理操作,得到手术室图像,并且基于预训练的视觉模块提取手术室图像的高维特征。图像的高维特征会被转换为一维的语言特征,并与提问文本整合,交由大语言模型模块处理,最终生成场景中的人物‑物体关系。
[0053] 具体实践时,可以将以下提示词输入到综合的大语言模型中,以指导该模型执行本具体实施例的对象识别方法。
[0054] 提示词(Prompt):
[0055] 你希望完成一份使用大语言模型识别手术室场景中物体关系的说明书摘要。其中包括:储存模块、图像处理模块和大语言模型模块。大语言模型使用了基于LLaMA3模型的LLaVA模型。方法主要分六个步骤:
[0056] 1.收集手术室的多视角图像。
[0057] 2.整合多视角图像为单一图像。
[0058] 3.将整合的图像输入预训练的CLIP模型中,提取图像特征。
[0059] 4.将图像特征映输入到多模态大模型的视觉‑语言模态对齐模块中,通过模态对齐,将图像特征翻译到语言空间中,得到图像的语言特征。
[0060] 5.将图像的语言特征和关于场景中的关系的问题一同输入到微调过的大语言模型中。
[0061] 6.大语言模型生成场景中的人物和物体关系。
[0062] 输入该提示词后,综合的大语言模型可执行本具体实施例的对象识别方法,对应于上述提示词,该方法包括如下6个步骤:
[0063] 步骤S1,收集手术室的多视角图像,存储到储存模块。在手术室中部署多个高分辨率摄像头,从不同角度捕捉手术过程中的图像(对应前文的手术图像)。这些多视角图像能够提供手术场景的全面视图,包括手术团队的动态、手术工具的使用以及患者的情况。
[0064] 步骤S2,整合多视角图像为单一图像。对于大语言模型,同时处理多视角图像是极为复杂的任务,因此多张图像的信息需要被整合。在此处,例如图2所示,6个视角图像(从手术室的6个不同方位朝向手术台所在方位拍摄的图像)被图像处理模块拼接成了一张三行两列网格图像,对应前文的手术室图像。这种看似简单的方法有多种优势。首先,将多视角的图像整合到一张图像上,方便后续处理。其次,多张图像的信息都不会在整合的过程中丢失。
[0065] 步骤S3,将整合的图像输入预训练的CLIP模型中,提取图像的图像特征。图像处理模块还利用预训练的CLIP模型对整合后的图像进行分析,提取与图像内容相关的图像特征。CLIP模型通过在大规模数据集上联合训练图像和文本,学习理解这两种不同模态之间的关联。这使得CLIP模型能够更好地理解和解释图像内容及其与文本描述之间的关系,从而能够令提取得到的图像特征包含较准确的语言信息。同时,CLIP模型展示了出色的泛化能力。它能够有效处理在训练数据中未曾直接出现的新场景或对象,这在手术室等特定场景中尤其重要,因为手术环境可能会有很多变数。
[0066] 步骤S4,将图像特征映射到大语言模型的特征中,作为语言特征。图像处理模块还将CLIP模型提取出的图像特征转化为新的特征向量,这些特征向量能够被大语言模型所理解和处理。这一步骤是将视觉信息转换为大语言模型能够直接利用的数据格式。同时,图像特征作为用于描述图像的特征,其表达形式仍然为二维,大小为H×W,其中,H和W分别表示图像的高度和宽度。二维的图像特征将被展平为长度等于H·W的一维特征,每一个一维元素代表二维图像中一个像素的特征。此处的映射器为一个多层感知器(MLP),其映射可表示为:
[0067] fllm=MLP(fclip)。
[0068] 其中,fllm表示映射后的语言特征,fclip表示映射前的特征,即一维的图像特征,两者长度均为H·W。
[0069] 步骤S5,将语言特征和关于场景中的关系的问题一同输入到微调过的大语言模型中。将转换后的特征向量与关系问题一起输入到已经针对医疗手术场景进行微调的大语言模型中。这一步骤利用模型的强大语言理解能力,对手术场景中的物体关系进行分析和推理。
[0070] 具体来说,大语言模型需要序列表达的输入和输出。关系问题可以是用户人为提出的,比如“手术室中所有医生之间的关系是什么?”、“手术室中所有关于主刀医生的场景关系有哪些?”、“手术室中存在的所有关系是什么?”。此处使用统一的关系问题“What are the relationships among humans and instruments in the given images?”。为了让大语言模型理解语言,这个问题会被传入分词器(tokenizer),并使用分词(token)序列来表示。一维的语言特征和一维的分词序列被合并成一个序列,传入大语言模型。
[0071] 步骤S6,大语言模型生成场景中的人物和物体关系。大语言模型根据输入的特征和问题,生成详细的描述手术场景中物体和人物间关系的报告。
[0072] 大语言模型的输出形式具体是一个概率序列,该概率序列与一个表示对象关系的分词序列相对应。对象关系分词序列中的每个元素表示的是两个对象之间的关系,可使用的形式,表示的是对象obja1和obja2之间具有relationshipa这一关系。概率序列中的每个元素是一个独热编码,用于表示分词序列中相应元素的概率。
[0073] 此外,步骤S4至步骤S6所涉及的大语言模型是针对手术室场景,采用有监督方法训练得到的。训练过程如下:
[0074] 首先,在数据准备阶段,对于预先标记有真实对象关系信息的样本手术室图像,需先将真实对象关系信息改写成大语言模型的输出形式,以便于作为基准,与大语言模型输出的对象关系信息作对比,据此对预训练的大语言模型进行微调。
[0075] 对于一组人物或物体的关系,可以通过三元关系组来表示,例如表达为:
[0076] [,,]。
[0077] 其中,表示场景中的人或物体,而则表示人物或者物体之间的关系。
[0078] 场景中的三元关系组会被改写成文字段,例如表示为:
[0079] \n
[0080] \n
[0081] ……
[0082] 一个三元关系组中的每个元素之间使用空格间隔开,每个三元关系组之间用换行符\n间隔开。三元关系组的文字段也会被传入分词器,表示成对象关系分词序列。每一个分词基于真实对象关系信息,使用独热编码的形式表示,同时也代表了每个分词被预测的事实概率,得到事实概率序列:
[0083]
[0084] 然后,在微调阶段每次调整参数时,先使用待训练的大语言模型来针对样本手术室图像执行上述的步骤S3至步骤S6,得到模型输出的概率序列。待训练的大语言模型具体使用预训练好的基于LLaMA3的LLaVA模型,主要架构为Transformer。模型输出的概率序列记为预测概率序列:
[0085] [t1,t2,t3,…,tn]。
[0086] 预测概率序列中的每个元素是模型预测的每个分词对应的三元关系组的概率。
[0087] 再对事实概率序列和预测概率序列,计算交叉熵作为损失,更新大语言模型的网络参数。交叉熵Lce可表式为:
[0088]
[0089] 其中,大语言模型使用LoRA(Low‑Rank Adaptation,低秩自适应)的方式进行更新,子步骤S4中提到的映射器也参与更新,并具体用反向传播的方式进行更新。
[0090] 该具体实施例通过高效地结合多视角图像处理技术和先进的大语言模型技术,能够提供对复杂手术场景的深入理解,从而帮助医疗团队在手术中做出更准确的决策,提高手术成功率。
[0091] 图3是根据本公开的示例性实施例的应用于手术室场景的对象关系识别装置的框图。参照图3,该对象关系识别装置300包括获取单元301、合并单元302、处理单元303。
[0092] 获取单元301可获取手术室的多个手术图像,其中,多个手术图像由多个图像传感器在同一时刻拍摄得到,多个图像传感器布置在手术室内的不同方位并用于捕捉手术过程。
[0093] 合并单元302可按照预设网格模板,对多个手术图像进行拼接处理,得到一个手术室图像。
[0094] 处理单元303可对手术室图像进行对象关系识别处理,得到手术室内的不同对象之间的对象关系信息。
[0095] 可选地,处理单元303还可:提取手术室图像的图像特征;获取针对手术室中不同对象的关系的提问文本;使用大语言模型,处理图像特征和提问文本,得到手术室内的不同对象之间的对象关系信息。
[0096] 可选地,处理单元303还可使用CLIP模型,提取手术室图像的图像特征。
[0097] 可选地,大语言模型包括基于LLaMA系列模型的LLaVA模型。
[0098] 可选地,处理单元303还可:将图像特征转换为一维的图像特征,并将一维的图像特征映射到语言空间中,得到语言特征;将提问文本转换为一维的分词序列;将语言特征和分词序列合并为一个序列,传入大语言模型,得到大语言模型输出的手术室内的不同对象之间的对象关系信息。
[0099] 可选地,大语言模型是针对手术室场景,采用有监督方法训练得到的;CLIP模型是针对手术室场景,采用有监督方法训练得到的。
[0100] 关于上述实施例中的装置,其中各个单元执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
[0101] 图4示出根据本公开的示例性实施例的电子设备的结构框图。
[0102] 参照图4,电子设备400包括:至少一个存储器401和至少一个处理器402,所述至少一个存储器401中存储有计算机可执行指令,当计算机可执行指令被至少一个处理器402运行时,促使至少一个处理器执行如上述示例性实施例所述的目标对应方法。
[0103] 作为示例,电子设备400可以是PC计算机、平板装置、个人数字助理、智能手机、或其他能够执行上述指令集合的装置。这里,电子设备400并非必须是单个的电子设备400,还可以是任何能够单独或联合执行上述指令(或指令集)的装置或电路的集合体。电子设备400还可以是集成控制系统或系统管理器的一部分,或者可被配置为与本地或远程(例如,经由无线传输)以接口互联的便携式电子设备400。
[0104] 在电子设备400中,处理器402可包括中央处理器(CPU)、图形处理器(GPU)、可编程逻辑装置、专用处理器系统、微控制器或微处理器。作为示例而非限制,处理器402还可包括模拟处理器、数字处理器、微处理器、多核处理器、处理器阵列、网络处理器等。
[0105] 处理器402可运行存储在存储器401中的指令或代码,其中,存储器401还可以存储数据。指令和数据还可经由网络接口装置而通过网络被发送和接收,其中,网络接口装置可采用任何已知的传输协议。
[0106] 存储器401可与处理器402集成为一体,例如,将RAM或闪存布置在集成电路微处理器等之内。此外,存储器401可包括独立的装置,诸如,外部盘驱动、存储阵列或任何数据库系统可使用的其他存储装置。存储器401和处理器402可在操作上进行耦合,或者可例如通过I/O端口、网络连接等互相通信,使得处理器402能够读取存储在存储器中的文件。
[0107] 此外,电子设备400还可包括视频显示器(诸如,液晶显示器)和用户交互接口(诸如,键盘、鼠标、触摸输入装置等)。电子设备400的所有组件可经由总线和/或网络而彼此连接。
[0108] 根据本公开的示例性实施例,还可提供一种存储指令的计算机可读存储介质,其中,指令在被至少一个处理器运行时,促使至少一个处理器执行如上述示例性实施例所述的目标对应方法。这里的计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD‑ROM、CD‑R、CD+R、CD‑RW、CD+RW、DVD‑ROM、DVD‑R、DVD+R、DVD‑RW、DVD+RW、DVD‑RAM、BD‑ROM、BD‑R、BD‑R LTH、BD‑RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、卡式存储器(诸如,多媒体卡、安全数字(SD)卡或极速数字(XD)卡)、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其他装置,所述任何其他装置被配置为以非暂时性方式存储计算机程序以及任何相关联的数据、数据文件和数据结构并将所述计算机程序以及任何相关联的数据、数据文件和数据结构提供给处理器或计算机使得处理器或计算机能执行所述计算机程序。上述计算机可读存储介质中的计算机程序可在诸如客户端、主机、代理装置、服务器等计算机设备中部署的环境中运行,此外,在一个示例中,计算机程序以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得计算机程序以及任何相关联的数据、数据文件和数据结构通过一个或多个处理器或计算机以分布式方式存储、访问和执行。
[0109] 根据本公开的示例性实施例,还可提供一种计算机程序产品,包括计算机指令,该计算机指令在被至少一个处理器运行时,执行如上述示例性实施例所述的目标对应方法。
[0110] 本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
[0111] 应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

当前第1页 第1页 第2页 第3页
相关技术
关系识别相关技术
场景对象相关技术
吴锦林发明人的其他相关专利技术