JP2022526772A - インタラクティブ方法、装置、デバイス、及び記憶媒体 - Google Patents
インタラクティブ方法、装置、デバイス、及び記憶媒体 Download PDFInfo
- Publication number
- JP2022526772A JP2022526772A JP2021556968A JP2021556968A JP2022526772A JP 2022526772 A JP2022526772 A JP 2022526772A JP 2021556968 A JP2021556968 A JP 2021556968A JP 2021556968 A JP2021556968 A JP 2021556968A JP 2022526772 A JP2022526772 A JP 2022526772A
- Authority
- JP
- Japan
- Prior art keywords
- interactive
- objects
- information
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Holo Graphy (AREA)
Abstract
【選択図】図1
Description
Claims (22)
- インタラクティブ方法であって、
カメラによって収集された、透明表示スクリーンを利用してインタラクティブオブジェクトを表示する表示デバイスの周辺の画像を取得するステップと、
前記画像内の関連する1つまたは複数のオブジェクトに対して検出を実行するステップと、
前記画像内の関連する少なくとも2つのオブジェクトが検出されたことに応答して、検出された前記少なくとも2つのオブジェクトの特徴情報に基づいて、前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択するステップと、
前記目標オブジェクトに対する検出結果に基づいて、前記表示デバイスの透明表示スクリーン上に表示された前記インタラクティブオブジェクトを駆動して前記目標オブジェクトに対して応答を実行するようにするステップと、を含む
ことを特徴とするインタラクティブ方法。 - 前記特徴情報は、オブジェクト姿勢情報および/またはオブジェクト属性情報を含む
ことを特徴とする請求項1に記載のインタラクティブ方法。 - 前記検出された前記少なくとも2つのオブジェクトの特徴情報に基づいて、前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択するステップは、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報と所定の姿勢特徴との間の姿勢マッチング程度、または、前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト属性情報と所定の属性特徴との間の属性マッチング程度に基づいて、前記少なくとも2つのオブジェクトの中から前記目標オブジェクトを選択するステップを含む
ことを特徴とする請求項2に記載のインタラクティブ方法。 - 前記検出された前記少なくとも2つのオブジェクトの特徴情報に基づいて、前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択するステップは、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報に基づいて、所定の姿勢特徴を満たす1つまたは複数の第1オブジェクトを選択するステップと、
前記第1オブジェクトが少なくとも2つある場合、前記インタラクティブオブジェクトを駆動して前記少なくとも2つの第1オブジェクトを案内してそれぞれ所定の情報を出力するようにし、検出された前記第1オブジェクトが前記所定の情報をそれぞれ出力する順序に基づいて、前記目標オブジェクトを確定するステップと、を含む
ことを特徴とする請求項2に記載のインタラクティブ方法。 - 前記検出された前記少なくとも2つのオブジェクトの特徴情報に基づいて、前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択するステップは、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報に基づいて、所定の姿勢特徴を満たす1つまたは複数の第1オブジェクトを選択するステップと、
前記第1オブジェクトが少なくとも2つある場合、前記少なくとも2つの第1オブジェクトのそれぞれのオブジェクト属性情報に基づいて、前記少なくとも2つの第1オブジェクトのそれぞれのインタラクティブ応答優先レベルを確定し、前記インタラクティブ応答優先レベルに基づいて前記目標オブジェクトを確定するステップと、を含む
ことを特徴とする請求項2に記載のインタラクティブ方法。 - 前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択した後に、前記インタラクティブオブジェクトを駆動して前記目標オブジェクトに対して確認情報を出力するようにするステップをさらに含む
ことを特徴とする請求項1乃至5の何れか1項に記載のインタラクティブ方法。 - 現在タイミングで前記画像からオブジェクトが検出されなかったし、かつ、現在タイミングの前の所定の時間帯内で前記画像からオブジェクトが検出されなかったし、かつ、オブジェクトが追跡されなかったことに応答して、前記インタラクティブオブジェクトのインタラクティブ待ちオブジェクトが空であると確定し、前記表示デバイスがオブジェクト待ち状態になるようにするステップをさらに含む
ことを特徴とする請求項1乃至6の何れか1項に記載のインタラクティブ方法。 - 現在タイミングで前記画像からオブジェクトが検出されなかったし、かつ、現在タイミングの前の所定の時間帯内で前記画像からオブジェクトが検出されたかまたはオブジェクトが追跡されたことに応答して、前記インタラクティブオブジェクトのインタラクティブ待ちオブジェクトが最近の1回のインタラクティブを実行したオブジェクトであると確定するステップをされに含む
ことを特徴とする請求項1乃至6の何れか1項に記載のインタラクティブ方法。 - 前記表示デバイスは、前記透明表示スクリーンを利用して前記インタラクティブオブジェクトの倒影を表示するか、または、底板上に前記インタラクティブオブジェクトの倒影を表示する
ことを特徴とする請求項1乃至8の何れか1項に記載のインタラクティブ方法。 - 前記インタラクティブオブジェクトは、立体効果を有する仮想人物を含む
ことを特徴とする請求項1乃至9の何れか1項に記載のインタラクティブ方法。 - インタラクティブ装置であって、
カメラによって収集された、透明表示スクリーンを利用してインタラクティブオブジェクトを表示する表示デバイスの周辺の画像を取得するための画像取得ユニットと、
前記画像内の関連する1つまたは複数のオブジェクトに対して検出を実行するための検出ユニットと、
前記検出ユニットによって前記画像内の関連する少なくとも2つのオブジェクトが検出されたことに応答して、検出された前記少なくとも2つのオブジェクトの特徴情報に基づいて、前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択するためのオブジェクト選択ユニットと、
前記目標オブジェクトに対する検出結果に基づいて、前記表示デバイスの透明表示スクリーン上に表示された前記インタラクティブオブジェクトを駆動して前記目標オブジェクトに対して応答を実行するようにするための駆動ユニットと、を備える
ことを特徴とする請求項に記載のインタラクティブ装置。 - 前記特徴情報は、オブジェクト姿勢情報および/またはオブジェクト属性情報を含む
ことを特徴とする請求項11に記載のインタラクティブ装置。 - 前記オブジェクト選択ユニットは、さらに、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報と所定の姿勢特徴との間の姿勢マッチング程度、または、前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト属性情報と所定の属性特徴との間の属性マッチング程度に基づいて、前記少なくとも2つのオブジェクトの中から前記目標オブジェクトを選択する
ことを特徴とする請求項12に記載のインタラクティブ装置。 - 前記オブジェクト選択ユニットは、さらに、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報に基づいて、所定の姿勢特徴を満たす1つまたは複数の第1オブジェクトを選択し、
前記第1オブジェクトが少なくとも2つある場合、前記駆動ユニットが前記インタラクティブオブジェクトを駆動して前記少なくとも2つの第1オブジェクトを案内してそれぞれ所定の情報を出力するようにし、検出された前記第1オブジェクトが前記所定の情報をそれぞれ出力する順序に基づいて、前記目標オブジェクトを確定する
ことを特徴とする請求項12に記載のインタラクティブ装置。 - 前記オブジェクト選択ユニットは、さらに、
前記少なくとも2つのオブジェクトの中の各々のオブジェクトのオブジェクト姿勢情報に基づいて、所定の姿勢特徴を満たす1つまたは複数の第1オブジェクトを選択し、
前記第1オブジェクトが少なくとも2つある場合、前記少なくとも2つの第1オブジェクトのそれぞれのオブジェクト属性情報に基づいて、前記少なくとも2つの第1オブジェクトのそれぞれのインタラクティブ応答優先レベルを確定し、前記インタラクティブ応答優先レベルに基づいて前記目標オブジェクトを確定する
ことを特徴とする請求項12に記載のインタラクティブ装置。 - 確認ユニットをさらに備え、
前記確認ユニットは、
前記オブジェクト選択ユニットが前記少なくとも2つのオブジェクトの中から目標オブジェクトを選択したことに応答して、前記駆動ユニットが前記インタラクティブオブジェクトを駆動して前記目標オブジェクトに対して確認情報を出力するようにする
ことを特徴とする請求項11乃至15の何れか1項に記載のインタラクティブ装置。 - 待ち状態ユニットをさらに備え、
前記待ち状態ユニットは、
前記検出ユニットによって、現在タイミングで前記画像からオブジェクトが検出されなかったし、かつ、現在タイミングの前の所定の時間帯内で前記画像からオブジェクトが検出されなかったし、かつ、オブジェクトが追跡されなかったことに応答して、前記インタラクティブオブジェクトのインタラクティブ待ちオブジェクトが空であると確定し、前記表示デバイスがオブジェクト待ち状態になるようにする
ことを特徴とする請求項11乃至16の何れか1項に記載のインタラクティブ装置。 - 終了状態ユニットをさらに備え、
前記終了状態ユニットは、
前記検出ユニットによって、現在タイミングで前記画像からオブジェクトが検出されなかったし、かつ、現在タイミングの前の所定の時間帯内で前記画像からオブジェクトが検出されたかまたはオブジェクトが追跡されたことに応答して、前記インタラクティブオブジェクトのインタラクティブ待ちオブジェクトが最近の1回のインタラクティブを実行したオブジェクトであると確定する
ことを特徴とする請求項11乃至16の何れか1項に記載のインタラクティブ装置。 - 前記表示デバイスは、前記透明表示スクリーンを利用して前記インタラクティブオブジェクトの倒影を表示するか、または、底板上に前記インタラクティブオブジェクトの倒影を表示する
ことを特徴とする請求項11乃至18の何れか1項に記載のインタラクティブ装置。 - 前記インタラクティブオブジェクトは、立体効果を有する仮想人物を含む
ことを特徴とする請求項11乃至19の何れか1項に記載のインタラクティブ装置。 - インタラクティブデバイスであって、
プロセッサと、
前記プロセッサによって実行できる命令を記憶するためのメモリと、備え、
前記命令が実行されるときに、前記プロセッサが請求項1乃至10の何れか1項に記載のインタラクティブ方法を実現するようにする
ことを特徴とするインタラクティブデバイス。 - コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
ここで、前記コンピュータプログラムがプロセッサによって実行されるときに、前記プロセッサが請求項1乃至10の何れか1項に記載のインタラクティブ方法を実現するようにする
ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910803899.3A CN110716634A (zh) | 2019-08-28 | 2019-08-28 | 交互方法、装置、设备以及显示设备 |
CN201910803899.3 | 2019-08-28 | ||
PCT/CN2020/104466 WO2021036624A1 (zh) | 2019-08-28 | 2020-07-24 | 交互方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022526772A true JP2022526772A (ja) | 2022-05-26 |
JP7224488B2 JP7224488B2 (ja) | 2023-02-17 |
Family
ID=69209574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556968A Active JP7224488B2 (ja) | 2019-08-28 | 2020-07-24 | インタラクティブ方法、装置、デバイス、及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220179609A1 (ja) |
JP (1) | JP7224488B2 (ja) |
KR (1) | KR102707660B1 (ja) |
CN (1) | CN110716634A (ja) |
TW (1) | TWI775134B (ja) |
WO (1) | WO2021036624A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110716641B (zh) * | 2019-08-28 | 2021-07-23 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及存储介质 |
CN110716634A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及显示设备 |
CN111443801B (zh) * | 2020-03-25 | 2023-10-13 | 北京百度网讯科技有限公司 | 人机交互方法、装置、设备及存储介质 |
CN111459452B (zh) * | 2020-03-31 | 2023-07-18 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
CN111627097B (zh) * | 2020-06-01 | 2023-12-01 | 上海商汤智能科技有限公司 | 一种虚拟景物的展示方法及装置 |
CN111640197A (zh) * | 2020-06-09 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种增强现实ar特效控制方法、装置及设备 |
CN114466128B (zh) * | 2020-11-09 | 2023-05-12 | 华为技术有限公司 | 目标用户追焦拍摄方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005189426A (ja) * | 2003-12-25 | 2005-07-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報表示装置および情報入出力装置 |
JP2011513847A (ja) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | 認識されたジェスチャーを用いた高機能化入力 |
US20140267311A1 (en) * | 2010-06-11 | 2014-09-18 | Microsoft Corporation | Interacting with user interface via avatar |
JP2015036915A (ja) * | 2013-08-14 | 2015-02-23 | 富士通株式会社 | インタラクション装置、インタラクションプログラムおよびインタラクション方法 |
WO2017086108A1 (ja) * | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
KR101370897B1 (ko) * | 2007-03-19 | 2014-03-11 | 엘지전자 주식회사 | 이미지 제어 방법 및 그를 위한 단말기 |
EP2919094A1 (en) * | 2014-03-10 | 2015-09-16 | BAE Systems PLC | Interactive information display |
TW201614423A (en) * | 2014-10-03 | 2016-04-16 | Univ Southern Taiwan Sci & Tec | Operation system for somatosensory device |
CN104978029B (zh) * | 2015-06-30 | 2018-11-23 | 北京嘿哈科技有限公司 | 一种屏幕操控方法及装置 |
KR20170029320A (ko) * | 2015-09-07 | 2017-03-15 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
CN106056989B (zh) * | 2016-06-23 | 2018-10-16 | 广东小天才科技有限公司 | 一种语言学习方法及装置、终端设备 |
CN106203364B (zh) * | 2016-07-14 | 2019-05-24 | 广州帕克西软件开发有限公司 | 一种3d眼镜互动试戴系统及方法 |
CN106325517A (zh) * | 2016-08-29 | 2017-01-11 | 袁超 | 一种基于虚拟现实的目标对象触发方法、系统和穿戴设备 |
JP6768597B2 (ja) * | 2017-06-08 | 2020-10-14 | 株式会社日立製作所 | 対話システム、対話システムの制御方法、及び装置 |
CN107728780B (zh) * | 2017-09-18 | 2021-04-27 | 北京光年无限科技有限公司 | 一种基于虚拟机器人的人机交互方法及装置 |
CN107728782A (zh) * | 2017-09-21 | 2018-02-23 | 广州数娱信息科技有限公司 | 交互方法及交互系统、服务器 |
CN108153425A (zh) * | 2018-01-25 | 2018-06-12 | 余方 | 一种基于全息投影的互动娱乐系统和方法 |
WO2019148491A1 (zh) * | 2018-02-05 | 2019-08-08 | 深圳前海达闼云端智能科技有限公司 | 人机交互方法、装置、机器人及计算机可读存储介质 |
KR101992424B1 (ko) * | 2018-02-06 | 2019-06-24 | (주)페르소나시스템 | 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템 |
CN108470205A (zh) * | 2018-02-11 | 2018-08-31 | 北京光年无限科技有限公司 | 基于虚拟人的头部交互方法及系统 |
CN108415561A (zh) * | 2018-02-11 | 2018-08-17 | 北京光年无限科技有限公司 | 基于虚拟人的手势交互方法及系统 |
CN108363492B (zh) * | 2018-03-09 | 2021-06-25 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN108682202A (zh) * | 2018-04-27 | 2018-10-19 | 伍伟权 | 一种文科用全息投影教学设备 |
CN109522790A (zh) * | 2018-10-08 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 人体属性识别方法、装置、存储介质及电子设备 |
CN109739350A (zh) * | 2018-12-24 | 2019-05-10 | 武汉西山艺创文化有限公司 | 基于透明液晶显示屏的ai智能助理设备及其交互方法 |
CN110119197A (zh) * | 2019-01-08 | 2019-08-13 | 佛山市磁眼科技有限公司 | 一种全息互动系统 |
CN110288682B (zh) * | 2019-06-28 | 2023-09-26 | 北京百度网讯科技有限公司 | 用于控制三维虚拟人像口型变化的方法和装置 |
CN110716634A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及显示设备 |
-
2019
- 2019-08-28 CN CN201910803899.3A patent/CN110716634A/zh active Pending
-
2020
- 2020-07-24 WO PCT/CN2020/104466 patent/WO2021036624A1/zh active Application Filing
- 2020-07-24 KR KR1020217031185A patent/KR102707660B1/ko active IP Right Grant
- 2020-07-24 JP JP2021556968A patent/JP7224488B2/ja active Active
- 2020-08-25 TW TW109128905A patent/TWI775134B/zh active
-
2022
- 2022-02-25 US US17/681,026 patent/US20220179609A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005189426A (ja) * | 2003-12-25 | 2005-07-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報表示装置および情報入出力装置 |
JP2011513847A (ja) * | 2008-02-27 | 2011-04-28 | ジェスチャー テック,インコーポレイテッド | 認識されたジェスチャーを用いた高機能化入力 |
US20140267311A1 (en) * | 2010-06-11 | 2014-09-18 | Microsoft Corporation | Interacting with user interface via avatar |
JP2015036915A (ja) * | 2013-08-14 | 2015-02-23 | 富士通株式会社 | インタラクション装置、インタラクションプログラムおよびインタラクション方法 |
WO2017086108A1 (ja) * | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム |
Also Published As
Publication number | Publication date |
---|---|
WO2021036624A1 (zh) | 2021-03-04 |
KR102707660B1 (ko) | 2024-09-19 |
TW202109246A (zh) | 2021-03-01 |
CN110716634A (zh) | 2020-01-21 |
US20220179609A1 (en) | 2022-06-09 |
JP7224488B2 (ja) | 2023-02-17 |
KR20210131415A (ko) | 2021-11-02 |
TWI775134B (zh) | 2022-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022526772A (ja) | インタラクティブ方法、装置、デバイス、及び記憶媒体 | |
US9836889B2 (en) | Executable virtual objects associated with real objects | |
JP2022526511A (ja) | インタラクティブ方法、装置、デバイス、及び記憶媒体 | |
US9412201B2 (en) | Mixed reality filtering | |
US9977492B2 (en) | Mixed reality presentation | |
CN102999160B (zh) | 混合现实显示器中用户控制的现实对象的消失 | |
US9429912B2 (en) | Mixed reality holographic object development | |
WO2022022036A1 (zh) | 一种展示方法、装置、设备、存储介质及计算机程序 | |
EP2887322B1 (en) | Mixed reality holographic object development | |
US20130342568A1 (en) | Low light scene augmentation | |
US20140173504A1 (en) | Scrollable user interface control | |
US11062140B2 (en) | Display method, electronic device and storage medium having the same | |
CN112333498A (zh) | 一种展示控制方法、装置、计算机设备及存储介质 | |
CN111918114A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
US11321927B1 (en) | Temporal segmentation | |
CN114063785A (zh) | 信息输出方法、头戴式显示设备及可读存储介质 | |
CN111915737A (zh) | 一种基于增强现实的人与物交互系统 | |
Ahad et al. | Action Datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7224488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |