JP2022027629A - ビデオイベント識別方法、装置、電子デバイス及び記憶媒体 - Google Patents
ビデオイベント識別方法、装置、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP2022027629A JP2022027629A JP2021124075A JP2021124075A JP2022027629A JP 2022027629 A JP2022027629 A JP 2022027629A JP 2021124075 A JP2021124075 A JP 2021124075A JP 2021124075 A JP2021124075 A JP 2021124075A JP 2022027629 A JP2022027629 A JP 2022027629A
- Authority
- JP
- Japan
- Prior art keywords
- event
- term
- node
- video
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000015654 memory Effects 0.000 claims description 19
- 230000014509 gene expression Effects 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 235000006040 Prunus persica var persica Nutrition 0.000 description 1
- 240000006413 Prunus persica var. persica Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
- G06F16/7343—Query language or query format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
Claims (21)
- ビデオイベント識別方法であって、
何れか一つのイベントがそれぞれ前記イベントのM(Mは1より大きい正整数である)個の項役割及び各項役割の項を含むビデオイベントマップを構築することと、
識別すべきビデオについて、前記ビデオに対応する識別すべきイベントの前記M個の項役割の項を取得することと、
識別された前記ビデオに対応するイベントとして、取得された項に基づいて前記ビデオイベントマップから1つのイベントを選択することと、を含む、
方法。 - 前記M個の項役割は、空間シーン、動作、人物、物体、及び関連語を含む、請求項1に記載の方法。
- 前記ビデオに対応する識別すべきイベントの前記M個の項役割の項をそれぞれ取得することは、
前記ビデオに対して視覚理解を行って前記識別すべきイベントの前記空間シーンの項役割の項、前記動作の項役割の項、前記人物の項役割の項、及び前記物体の項役割の項を得ることと、
前記ビデオに対応するテキストに対してテキスト理解を行って前記識別すべきイベントの前記関連語の項役割の項を得ることと、を含む、
請求項2に記載の方法。 - 前記ビデオに対して視覚理解を行って前記識別すべきイベントの空間シーンの項役割の項、動作の項役割の項、人物の項役割の項、及び物体の項役割の項を得ることは、
前記ビデオに対して空間シーン識別を行って前記識別すべきイベントの前記空間シーンの項役割の項を得、前記ビデオに対して動作識別を行って前記識別すべきイベントの前記動作の項役割の項を得、前記ビデオに対して顔識別を行って前記識別すべきイベントの前記人物の項役割の項を得、前記ビデオに対して共通物体識別を行って前記識別すべきイベントの前記物体の項役割の項を得ること、を含む、
請求項3に記載の方法。 - 前記ビデオに対応するテキストに対してテキスト理解を行って前記識別すべきイベントの前記関連語の項役割の項を得ることは、
前記テキストに対してエンティティ識別とキーワード抽出を行って前記識別すべきイベントの前記関連語の項役割の項を得ること、を含む、
請求項3に記載の方法。 - 前記取得された項に基づいて前記ビデオイベントマップから一つのイベントを選択することは、
得られた項に基づいて3層のノードが含まれるイベントグラフを構築することであって、第1層ノードの数は1つであり、前記識別すべきイベントに対応し、第2層ノードの数はM個であり、各第2層ノードはそれぞれ1つの項役割に対応し、第3層ノードの数はM個の項役割の項数の和に等しく、各第3層ノードはそれぞれ1つの項に対応し、各第2層ノードはそれぞれ前記第1層ノードに接続され、各第3層ノードはそれぞれ所属する項役割に対応する第2層ノードに接続されることと、
前記イベントグラフに対応するグラフ埋込み表現を取得し、前記イベントグラフに対応するグラフ埋込み表現と前記イベントグラフにおける各イベントに対応するグラフ埋込み表現との類似度をそれぞれ算出し、類似度が最も高いイベントを選択されるイベントとすることと、を含む、
請求項2に記載の方法。 - 前記イベントグラフに対応するグラフ埋め込み表現を取得することは、
前記イベントグラフにおける各ノードからN(Nは、1より大きく前記イベントグラフに含まれるノードの数より小さい正整数である)個の中心ノードを選択することと、
いずれか一つの中心ノードについて、前記中心ノードに接続されたノードである前記中心ノードの近傍ノードを取得し、前記中心ノードと前記近傍ノードとからなるサブグラフに対応するベクトル表現を決定する処理をそれぞれ行うことと、
得られた各ベクトル表現を畳み込みニューラルネットワークに入力して前記イベントグラフに対応するグラフ埋め込み表現を得ることと、を含む、
請求項6に記載の方法。 - 前記イベントグラフにおける各ノードからN個の中心ノードを選択することは、
前記空間シーンの項役割に対応するノード、前記動作の項役割に対応するノード、前記物体の項役割に対応するノード、及び前記関連語の項役割に対応するノードを前記中心ノードとすること、を含む、
請求項7に記載の方法。 - いずれか一つの中心ノードについて、取得された前記中心ノードの近傍ノードの数PがK(Kは1より大きい正整数)より小さい場合、K-P個のダミーノードを補充し、補充されたダミーノードも前記中心ノードの近傍ノードとすることと、
取得された前記中心ノードの近傍ノードの数PがKよりも大きい場合、取得された前記中心ノードの各近傍ノードを所定の規則に従ってソートし、ソート後のK+1番目及びそれ以降の近傍ノードを廃棄することと、を更に含む、
請求項7に記載の方法。 - ビデオイベント識別装置であって、マップ構築モジュール及びイベント識別モジュールを備え、
前記マップ構築モジュールは、何れか一つのイベントがそれぞれ前記イベントのM個の項役割及び各項役割の項を含むビデオイベントマップを構築し、Mは1より大きい正整数であり、
前記イベント識別モジュールは、識別すべきビデオについて、前記ビデオに対応する識別すべきイベントの前記M個の項役割の項を取得し、取得された項に基づいて前記ビデオイベントマップから1つのイベントを、識別された前記ビデオに対応するイベントとして選択する、
装置。 - 前記M個の項役割は、空間シーン、動作、人物、物体、及び関連語を含む請求項10に記載の装置。
- 前記イベント識別モジュールは、前記ビデオに対して視覚理解を行って前記識別すべきイベントの前記空間シーンの項役割の項、前記動作の項役割の項、前記人物の項役割の項、及び前記物体の項役割の項を得、前記ビデオに対応するテキストに対してテキスト理解を行って前記識別すべきイベントの前記関連語の項役割の項を得る、
請求項11に記載の装置。 - 前記イベント識別モジュールは、前記ビデオに対して空間シーン識別を行って前記識別すべきイベントの前記空間シーンの項役割の項を得、前記ビデオに対して動作識別を行って前記識別すべきイベントの前記動作の項役割の項を得、前記ビデオに対して顔識別を行って前記識別すべきイベントの前記人物の項役割の項を得、前記ビデオに対して共通物体識別を行って前記識別すべきイベントの前記物体の項役割の項を得る、
請求項12に記載の装置。 - 前記イベント識別モジュールは、前記テキストに対してエンティティ識別とキーワード抽出を行って前記識別すべきイベントの前記関連語の項役割の項を得る、請求項12に記載の装置。
- 前記イベント識別モジュールは、得られた項に基づいて3層のノードが含まれるイベントグラフを構築し、第1層ノードの数は1つであり、前記識別すべきイベントに対応し、第2層ノードの数はM個であり、各第2層ノードはそれぞれ1つの項役割に対応し、第3層ノードの数はM個の項役割の項数の和に等しく、各第3層ノードはそれぞれ1つの項に対応し、各第2層ノードはそれぞれ前記第1層ノードに接続され、各第3層ノードはそれぞれ所属する項役割に対応する第2層ノードに接続され、
前記イベント識別モジュールは、前記イベントグラフに対応するグラフ埋込み表現を取得し、前記イベントグラフに対応するグラフ埋込み表現と前記イベントグラフにおける各イベントに対応するグラフ埋込み表現との類似度をそれぞれ算出し、類似度が最も高いイベントを選択されるイベントとする、
請求項11に記載の装置。 - 前記イベント識別モジュールは、前記イベントグラフにおける各ノードからN個の中心ノードを選択し、Nは、1より大きい正整数で且つ前記イベントグラフに含まれるノードの数よりも小さく、
前記イベント識別モジュールは、いずれか一つの中心ノードについて、前記中心ノードに接続されたノードである前記中心ノードの近傍ノードを取得し、前記中心ノードと前記近傍ノードとからなるサブグラフに対応するベクトル表現を決定する処理をそれぞれ行い、得られた各ベクトル表現を畳み込みニューラルネットワークに入力して前記イベントグラフに対応するグラフ埋め込み表現を得る、
請求項15に記載の装置。 - 前記イベント識別モジュールは、前記空間シーンの項役割に対応するノード、前記動作の項役割に対応するノード、前記物体の項役割に対応するノード、及び前記関連語の項役割に対応するノードを前記中心ノードとする、
請求項16に記載の装置。 - 前記イベント識別モジュールは、さらに、いずれか一つの中心ノードについて、取得された前記中心ノードの近傍ノードの数PがK(Kは1より大きい正整数)より小さい場合、K-P個のダミーノードを補充し、補充されたダミーノードも前記中心ノードの近傍ノードとし、取得された前記中心ノードの近傍ノードの数PがKよりも大きい場合、取得された前記中心ノードの各近傍ノードを所定の規則に従ってソートし、ソート後のK+1番目及びそれ以降の近傍ノードを廃棄する、
請求項16に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~9のいずれか一つに記載の方法を実行させる電子デバイス。 - コンピュータに請求項1~9のいずれか一つに記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1~9のいずれか一つに記載の方法を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010745261.1 | 2020-07-29 | ||
CN202010745261.1A CN112001265B (zh) | 2020-07-29 | 2020-07-29 | 视频事件识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022027629A true JP2022027629A (ja) | 2022-02-10 |
JP7242994B2 JP7242994B2 (ja) | 2023-03-22 |
Family
ID=73462507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021124075A Active JP7242994B2 (ja) | 2020-07-29 | 2021-07-29 | ビデオイベント識別方法、装置、電子デバイス及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11557120B2 (ja) |
EP (1) | EP3945456B1 (ja) |
JP (1) | JP7242994B2 (ja) |
KR (1) | KR102553763B1 (ja) |
CN (1) | CN112001265B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112905829A (zh) * | 2021-03-25 | 2021-06-04 | 王芳 | 一种跨模态人工智能信息处理系统及检索方法 |
US11873715B2 (en) | 2021-11-04 | 2024-01-16 | Halliburton Energy Services, Inc. | Pulse power drilling assembly transformer with a core having a non-conductive material |
CN114780866B (zh) * | 2022-04-11 | 2022-11-01 | 山东省人工智能研究院 | 一种基于时空上下文兴趣学习模型的个性化智能推荐方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172724A (ja) * | 1998-12-05 | 2000-06-23 | Lg Electronics Inc | 内容ベ―スで映像を検索する検索システム及び検索方法 |
US20140324864A1 (en) * | 2013-04-12 | 2014-10-30 | Objectvideo, Inc. | Graph matching by sub-graph grouping and indexing |
WO2019078164A1 (ja) * | 2017-10-16 | 2019-04-25 | 日本電気株式会社 | 検索装置、端末装置、解析装置、検索方法、端末装置の動作方法、解析方法及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8554710B2 (en) * | 2010-02-12 | 2013-10-08 | Raytheon Company | Converting video metadata to propositional graphs for use in an analogical reasoning system |
CN103530281B (zh) * | 2013-10-15 | 2016-06-22 | 苏州大学 | 一种论元抽取方法和系统 |
CN103677950A (zh) * | 2013-11-29 | 2014-03-26 | 北京航空航天大学 | 一种基于与或图的视频事件处理方法 |
US20170357625A1 (en) * | 2016-06-14 | 2017-12-14 | Northrop Grumman Systems Corporation | Event extraction from documents |
US11544455B2 (en) * | 2017-06-21 | 2023-01-03 | Nec Corporation | Information processing device, information processing method, and recording medium |
US10339420B1 (en) * | 2018-08-30 | 2019-07-02 | Accenture Global Solutions Limited | Entity recognition using multiple data streams to supplement missing information associated with an entity |
KR101994592B1 (ko) * | 2018-10-19 | 2019-06-28 | 인하대학교 산학협력단 | 비디오 콘텐츠의 메타데이터 자동 생성 방법 및 시스템 |
US11113293B2 (en) * | 2019-01-18 | 2021-09-07 | Adobe Inc. | Latent network summarization |
CN111027376A (zh) * | 2019-10-28 | 2020-04-17 | 中国科学院上海微系统与信息技术研究所 | 一种确定事件图谱的方法、装置、电子设备及存储介质 |
CN111222305B (zh) * | 2019-12-17 | 2024-03-22 | 共道网络科技有限公司 | 一种信息结构化方法和装置 |
CN111291205B (zh) * | 2020-01-22 | 2023-06-13 | 北京百度网讯科技有限公司 | 知识图谱构建方法、装置、设备和介质 |
CN111414482B (zh) * | 2020-03-20 | 2024-02-20 | 北京百度网讯科技有限公司 | 一种事件论元抽取方法、装置以及电子设备 |
-
2020
- 2020-07-29 CN CN202010745261.1A patent/CN112001265B/zh active Active
-
2021
- 2021-06-16 EP EP21179704.8A patent/EP3945456B1/en active Active
- 2021-06-17 US US17/350,731 patent/US11557120B2/en active Active
- 2021-07-29 JP JP2021124075A patent/JP7242994B2/ja active Active
- 2021-07-29 KR KR1020210100015A patent/KR102553763B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172724A (ja) * | 1998-12-05 | 2000-06-23 | Lg Electronics Inc | 内容ベ―スで映像を検索する検索システム及び検索方法 |
US20140324864A1 (en) * | 2013-04-12 | 2014-10-30 | Objectvideo, Inc. | Graph matching by sub-graph grouping and indexing |
WO2019078164A1 (ja) * | 2017-10-16 | 2019-04-25 | 日本電気株式会社 | 検索装置、端末装置、解析装置、検索方法、端末装置の動作方法、解析方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112001265A (zh) | 2020-11-27 |
KR102553763B1 (ko) | 2023-07-07 |
CN112001265B (zh) | 2024-01-23 |
JP7242994B2 (ja) | 2023-03-22 |
US20220036085A1 (en) | 2022-02-03 |
EP3945456A1 (en) | 2022-02-02 |
KR20220014865A (ko) | 2022-02-07 |
EP3945456B1 (en) | 2023-05-24 |
US11557120B2 (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7170082B2 (ja) | 情報を生成するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
RU2688271C2 (ru) | Поиск изображений на естественном языке | |
JP7242994B2 (ja) | ビデオイベント識別方法、装置、電子デバイス及び記憶媒体 | |
JP2021082308A (ja) | マルチモーダルコンテンツ処理方法、装置、機器及び記憶媒体 | |
US11521370B2 (en) | Point cloud data processing method, apparatus, electronic device and computer readable storage medium | |
CN111860167B (zh) | 人脸融合模型获取及人脸融合方法、装置及存储介质 | |
KR20210038467A (ko) | 이벤트 테마 생성 방법, 장치, 기기 및 저장 매체 | |
CN111488740B (zh) | 一种因果关系的判别方法、装置、电子设备及存储介质 | |
JP2021174516A (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN111967297B (zh) | 图像的语义分割方法、装置、电子设备及介质 | |
CN111553279B (zh) | 兴趣点的表征学习、识别方法、装置、设备及存储介质 | |
CN112000763B (zh) | 兴趣点竞争关系确定方法、装置、设备和介质 | |
US11423650B2 (en) | Visual positioning method and apparatus, and computer-readable storage medium | |
CN112580822A (zh) | 机器学习模型的对抗训练方法装置、电子设备和介质 | |
CN114357105A (zh) | 地理预训练模型的预训练方法及模型微调方法 | |
JP2022020588A (ja) | アクティブインタラクションの方法、装置、電子デバイス及び可読記憶媒体 | |
CN115082740A (zh) | 目标检测模型训练方法、目标检测方法、装置、电子设备 | |
CN114550313A (zh) | 图像处理方法、神经网络及其训练方法、设备和介质 | |
CN112115387B (zh) | 兴趣点poi推荐模型的训练方法、装置和电子设备 | |
Kharroubi et al. | Marker-less mobile augmented reality application for massive 3d point clouds and semantics | |
CN110738261B (zh) | 图像分类和模型训练方法、装置、电子设备及存储介质 | |
CN112488126A (zh) | 特征图处理方法、装置、设备以及存储介质 | |
CN112288483A (zh) | 用于训练模型的方法和装置、用于生成信息的方法和装置 | |
CN114724254B (zh) | 确定动作类别的方法、装置、设备、存储介质 | |
CN112508163B (zh) | 神经网络模型中子图的展示方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7242994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |