JP7295132B2 - ニューラルネットワークを利用して状況を認知する拡張現実提供装置、提供方法、およびコンピュータプログラム - Google Patents
ニューラルネットワークを利用して状況を認知する拡張現実提供装置、提供方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP7295132B2 JP7295132B2 JP2020548651A JP2020548651A JP7295132B2 JP 7295132 B2 JP7295132 B2 JP 7295132B2 JP 2020548651 A JP2020548651 A JP 2020548651A JP 2020548651 A JP2020548651 A JP 2020548651A JP 7295132 B2 JP7295132 B2 JP 7295132B2
- Authority
- JP
- Japan
- Prior art keywords
- situation
- image
- information
- module
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title claims description 78
- 238000000034 method Methods 0.000 title claims description 63
- 238000013528 artificial neural network Methods 0.000 title claims description 35
- 238000004590 computer program Methods 0.000 title claims description 17
- 238000009877 rendering Methods 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 59
- 230000008859 change Effects 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 239000013598 vector Substances 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000001934 delay Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 235000015220 hamburgers Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005358 geomagnetic field Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Description
に関する。
Claims (14)
- ニューラルネットワークを利用して状況を認知する拡張現実提供方法をプロセッサに実行させるためのコンピュータプログラムであって、前記拡張現実提供方法は、
プロセッサが映像を取得する段階と、
前記プロセッサが、前記映像を分析し、前記映像に含まれる平面に仮想オブジェクトを配置するように前記映像をレンダリングする段階と、
前記映像に含まれる現在フレームを以前フレームと比較することにより、前記現在フレームの場面転換の有無を決定することを含む判断基準に基づいて、前記仮想オブジェクトが配置された前記映像に対する状況認知処理の可否を決定する段階と、
前記状況認知処理の可否が真と決定された場合、ニューラルネットワークを利用して前記映像および/またはセンサ部から受信されたセンシング値を分析して1つ以上の状況情報を算出する段階と、
前記状況情報を適用した追加コンテンツを生成し、前記追加コンテンツを提供する段階と、
を含み、
前記映像に対する状況認知処理の可否を決定する段階において、前記映像の出力フレームレートが平均フレームレート未満であることを感知すると、前記状況認知処理の可否を偽と決定し、
前記追加コンテンツを提供する段階は、前記状況情報に基づき、前記映像に含まれる物の名称を、テキスト、イメージ、音声のいずれかの形式で提供するか、または、前記映像に含まれる物の名称を含む会話コンテンツを生成し、前記仮想オブジェクトであるキャラクターがユーザに対して前記会話コンテンツを提供する、
コンピュータプログラム。 - 前記映像に対する状況認知処理の可否を決定する段階において、前記判断基準は、
前記プロセッサの処理能力が閾値を超過するかを決定することをさらに含む、
請求項1に記載のコンピュータプログラム。 - 前記場面転換の有無を決定することは、
前記現在フレームのピクセルをカラー値によって分布させた分布図を算出し、前記分布図を前記以前フレームの分布図と比較することにより、場面転換の有無を決定する、
請求項1または2に記載のコンピュータプログラム。 - 前記場面転換の有無を決定することは、
前記現在フレームから検出したエッジ情報を利用し、前記エッジ情報を総合して物体の色および形態を抽出し、前記物体の色および形態を利用して場面転換の有無を決定する、
請求項1乃至3のいずれか一項に記載のコンピュータプログラム。 - 前記状況情報を算出する段階は、
入力されたユーザ入力に対応して算出する状況情報の種類を、前記ユーザ入力によって限定して取得する、
請求項1乃至4のいずれか一項に記載のコンピュータプログラム。 - 前記映像は、カメラによって撮影されるか、他のアプリケーションによって生成されて出力される画像データである、
請求項1乃至5のいずれか一項に記載のコンピュータプログラム。 - 前記1つ以上の状況情報を算出する段階は、
各状況情報のマッチング確率をさらに含む確率マップの形態で算出し、
各状況情報のマッチング確率に基づいて前記1つ以上の状況情報を順位化して伝達する、
請求項1乃至6のいずれか一項に記載のコンピュータプログラム。 - 1つ以上のプロセッサによって実行可能な命令を含むメモリ、および
前記メモリに結合されて前記命令を実行可能な1つ以上のプロセッサ、を含む映像処理装置であって、
前記メモリは、
映像を取得し、前記映像を分析し、前記映像に含まれる平面に仮想オブジェクトを配置させるように前記映像をレンダリングするレンダリングモジュールと、
前記映像に含まれる現在フレームを以前フレームと比較することにより、前記現在フレームの場面転換の有無を決定することを含む判断基準に基づいて、前記仮想オブジェクトが配置された前記映像に対する状況認知処理の可否を決定する判断モジュールと、
前記状況認知処理の可否が真と決定された場合、ニューラルネットワークを利用して前記映像および/またはセンサ部から受信されたセンシング値を分析して1つ以上の状況情報を算出する状況認知モジュールと、
前記状況情報を適用した追加コンテンツを生成し、前記追加コンテンツを提供する編集モジュールと、を含み、
前記判断モジュールは、前記映像の出力フレームレートが平均フレームレート未満であることを感知すると、前記状況認知処理の可否を偽と決定し、
前記追加コンテンツを提供することは、前記状況情報に基づき、前記映像に含まれる物の名称を、テキスト、イメージ、音声のいずれかの形式で提供するか、または、前記映像に含まれる物の名称を含む会話コンテンツを生成し、前記仮想オブジェクトであるキャラクターがユーザに対して前記会話コンテンツを提供する、
ニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記判断基準は、前記プロセッサの処理能力が閾値を超過するかを決定することをさらに含む、
請求項8に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記場面転換の有無を決定することは、
前記現在フレームのピクセルをカラー値によって分布させた分布図を算出し、前記分布図を前記以前フレームの分布図と比較することにより、場面転換の有無を決定する、
請求項8または9に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記場面転換の有無を決定することは、
前記現在フレームから検出したエッジ情報を利用し、前記エッジ情報を総合して物体の色および形態を抽出し、前記物体の色および形態を利用して場面転換の有無を決定する、
請求項8乃至10のいずれか一項に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記状況認知モジュールは、入力されたユーザ入力に対応して算出する状況情報の種類を、前記ユーザ入力によって限定して取得する、
請求項8乃至11のいずれか一項に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記映像は、
カメラによって撮影されるか、他のアプリケーションによって生成されて出力される画像データである、
請求項8乃至12のいずれか一項に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。 - 前記状況認知モジュールは、
各状況情報のマッチング確率をさらに含む確率マップの形態で算出し、各状況情報のマッチング確率に基づいて前記1つ以上の状況情報を順位化して伝達する、
請求項8乃至13のいずれか一項に記載のニューラルネットワークを利用して状況を認知する拡張現実提供装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/002868 WO2019177181A1 (ko) | 2018-03-12 | 2018-03-12 | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021520535A JP2021520535A (ja) | 2021-08-19 |
JP7295132B2 true JP7295132B2 (ja) | 2023-06-20 |
Family
ID=67907288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548651A Active JP7295132B2 (ja) | 2018-03-12 | 2018-03-12 | ニューラルネットワークを利用して状況を認知する拡張現実提供装置、提供方法、およびコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11501500B2 (ja) |
JP (1) | JP7295132B2 (ja) |
KR (2) | KR20220106855A (ja) |
WO (1) | WO2019177181A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7150894B2 (ja) | 2019-10-15 | 2022-10-11 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
JP7449672B2 (ja) * | 2019-11-05 | 2024-03-14 | ユニ・チャーム株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
US20210342686A1 (en) * | 2020-04-30 | 2021-11-04 | Nvidia Corporation | Content management using one or more neural networks |
KR102525583B1 (ko) | 2020-10-15 | 2023-04-26 | 한국전자기술연구원 | 경량형 증강현실장치의 스테레오 프레임을 이용한 3차원 맵을 생성하기 위한 장치 및 이를 위한 방법 |
KR102472568B1 (ko) | 2020-10-15 | 2022-12-01 | 한국전자기술연구원 | 포즈 정보와 뎁스 정보를 기초로 증강 현실을 제공하기 위한 3차원 맵을 구성하기 위한 장치 및 이를 위한 방법 |
KR20220115433A (ko) * | 2021-02-10 | 2022-08-17 | 삼성전자주식회사 | Ar 객체를 표시하는 방법 및 전자 장치 |
US11798273B2 (en) * | 2021-03-12 | 2023-10-24 | Lawrence Livermore National Security, Llc | Model-based image change quantification |
KR102555524B1 (ko) * | 2021-06-29 | 2023-07-21 | 주식회사 케이에스앤픽 | 영상 콘텐츠 플랫폼을 제공하는 서버 및 그 방법 |
KR20230087952A (ko) * | 2021-12-10 | 2023-06-19 | 세종대학교산학협력단 | 카메라 움직임에 따른 레이 트레이싱 화질조절방법, 이를 수행하는 화질조절장치 및 이를 저장하는 기록매체 |
US20230260208A1 (en) * | 2022-02-14 | 2023-08-17 | Meta Platforms, Inc. | Artificial Intelligence-Assisted Virtual Object Builder |
CN116311519B (zh) * | 2023-03-17 | 2024-04-19 | 北京百度网讯科技有限公司 | 动作识别方法、模型训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008022442A (ja) | 2006-07-14 | 2008-01-31 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2012504830A (ja) | 2008-10-03 | 2012-02-23 | スリーエム イノベイティブ プロパティズ カンパニー | 複数の視点のシーン解析のシステム及び方法 |
JP2015526168A (ja) | 2012-07-26 | 2015-09-10 | クアルコム,インコーポレイテッド | 拡張現実を制御するための方法および装置 |
US20160048723A1 (en) | 2014-08-14 | 2016-02-18 | Samsung Electronics Co., Ltd. | Method and apparatus for providing image contents |
JP2017156886A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101130734B1 (ko) * | 2010-08-12 | 2012-03-28 | 연세대학교 산학협력단 | 상황 구조 생성 방법 및, 상황 구조 생성 시스템 |
US9495760B2 (en) * | 2010-09-20 | 2016-11-15 | Qualcomm Incorporated | Adaptable framework for cloud assisted augmented reality |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
KR20140082610A (ko) * | 2014-05-20 | 2014-07-02 | (주)비투지 | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 |
KR101732890B1 (ko) * | 2015-08-19 | 2017-05-08 | 한국전자통신연구원 | 증강대상의 모션에 기반한 미러 디스플레이 상에서의 증강현실 렌더링 방법 및 이를 이용한 장치 |
US10565635B2 (en) * | 2016-03-16 | 2020-02-18 | Paypal, Inc. | Item recognition and interaction |
KR20170112406A (ko) * | 2016-03-31 | 2017-10-12 | 한국전자통신연구원 | 증강 현실 아바타 사진 촬영 장치 및 방법 |
KR20170122443A (ko) * | 2016-04-27 | 2017-11-06 | 삼성에스디에스 주식회사 | 공간 관리 시스템 및 방법과 이를 수행하기 위한 모바일 기기 |
US11144907B2 (en) * | 2017-04-12 | 2021-10-12 | Visa International Service Association | Resource provider aggregation and context-based content notification system |
SG11201909605VA (en) * | 2017-04-19 | 2019-11-28 | National Science And Tech Development Agency | System for recording, analyzing risk(s) of accident(s) or need of assistance and providing real-time warning(s) based on continuous sensor signals |
KR101834925B1 (ko) * | 2017-09-25 | 2018-03-06 | 주식회사 대경바스컴 | 객체 위치 변화를 벡터로 변환하여 영상 및 음향 신호를 동기화한 가상스튜디오 방송 편집 및 송출 기기와 이를 이용한 방법 |
US10659526B2 (en) * | 2018-01-03 | 2020-05-19 | Verizon Patent And Licensing Inc. | Edge compute systems and methods |
-
2018
- 2018-03-12 WO PCT/KR2018/002868 patent/WO2019177181A1/ko active Application Filing
- 2018-03-12 KR KR1020227024827A patent/KR20220106855A/ko not_active Application Discontinuation
- 2018-03-12 KR KR1020207025178A patent/KR102423903B1/ko active IP Right Grant
- 2018-03-12 JP JP2020548651A patent/JP7295132B2/ja active Active
-
2020
- 2020-09-10 US US17/016,845 patent/US11501500B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008022442A (ja) | 2006-07-14 | 2008-01-31 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2012504830A (ja) | 2008-10-03 | 2012-02-23 | スリーエム イノベイティブ プロパティズ カンパニー | 複数の視点のシーン解析のシステム及び方法 |
JP2015526168A (ja) | 2012-07-26 | 2015-09-10 | クアルコム,インコーポレイテッド | 拡張現実を制御するための方法および装置 |
US20160048723A1 (en) | 2014-08-14 | 2016-02-18 | Samsung Electronics Co., Ltd. | Method and apparatus for providing image contents |
JP2017156886A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US11501500B2 (en) | 2022-11-15 |
KR20200108484A (ko) | 2020-09-18 |
KR20220106855A (ko) | 2022-07-29 |
WO2019177181A1 (ko) | 2019-09-19 |
KR102423903B1 (ko) | 2022-07-22 |
US20200410770A1 (en) | 2020-12-31 |
JP2021520535A (ja) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7295132B2 (ja) | ニューラルネットワークを利用して状況を認知する拡張現実提供装置、提供方法、およびコンピュータプログラム | |
US10664060B2 (en) | Multimodal input-based interaction method and device | |
CN112379812B (zh) | 仿真3d数字人交互方法、装置、电子设备及存储介质 | |
CN108874126B (zh) | 基于虚拟现实设备的交互方法及系统 | |
JP6684883B2 (ja) | カメラエフェクトを提供する方法およびシステム | |
EP2877254B1 (en) | Method and apparatus for controlling augmented reality | |
CN102262440B (zh) | 多模态性别识别 | |
CN112835484B (zh) | 基于操作体的动态显示方法、装置、存储介质及电子设备 | |
WO2022173579A1 (en) | Image capturing in extended reality environments | |
JP2017536600A (ja) | 複数モードでの会話的対話における話された言語の理解のための凝視 | |
CN112633208A (zh) | 一种唇语识别方法、服务设备及存储介质 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
EP3654205A1 (en) | Systems and methods for generating haptic effects based on visual characteristics | |
WO2020124363A1 (en) | Display-based audio splitting in media environments | |
KR102256314B1 (ko) | 얼굴 인식 카메라의 동적 컨텐츠를 제공하는 방법 및 시스템 | |
KR20180008345A (ko) | 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램 | |
US20200219294A1 (en) | Sound Actuated Augmented Reality | |
KR102026172B1 (ko) | 사물 의인화 및 사물 컨텍스트를 이용한 인공지능 대화 방법 및 시스템 | |
Han et al. | Connecting users to virtual worlds within MPEG-V standardization | |
CN112633211A (zh) | 一种服务设备及人机交互方法 | |
CN114510142A (zh) | 基于二维图像的手势识别方法及其系统和电子设备 | |
CN111696548A (zh) | 显示行车提示信息的方法、装置、电子设备以及存储介质 | |
CN113096134A (zh) | 基于单阶段网络的实时实例分割方法及其系统和电子设备 | |
CN111984818A (zh) | 跟唱识别方法和装置、存储介质、电子设备 | |
US20240354963A1 (en) | Method for image segmentation and system therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220808 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230224 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230307 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7295132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |