JP2022515307A - インタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体 - Google Patents
インタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP2022515307A JP2022515307A JP2021521785A JP2021521785A JP2022515307A JP 2022515307 A JP2022515307 A JP 2022515307A JP 2021521785 A JP2021521785 A JP 2021521785A JP 2021521785 A JP2021521785 A JP 2021521785A JP 2022515307 A JP2022515307 A JP 2022515307A
- Authority
- JP
- Japan
- Prior art keywords
- interactive object
- driving
- voice
- response
- drive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 351
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000005236 sound signal Effects 0.000 claims abstract description 115
- 230000004044 response Effects 0.000 claims abstract description 109
- 238000012544 monitoring process Methods 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims description 40
- 230000007613 environmental effect Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 abstract description 5
- 230000009471 action Effects 0.000 description 17
- 230000003993 interaction Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Circuit For Audible Band Transducer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、2019年11月28日に提出された、出願番号が2019111952805である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が援用により本願に組み入れられる。
本発明は、コンピュータビジョン技術分野に関し、具体的にインタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体に関する。
Claims (23)
- インタラクティブオブジェクト駆動方法であって、
表示デバイスの周辺のオーディオ信号を取得することと、
前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第1駆動データを取得することと、
前記第1駆動データが出力されたことに応じて、目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングすることと、
前記オーディオ信号中の前記目標オブジェクトの音声の存在状態に応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにすることと、を含む
ことを特徴とするインタラクティブオブジェクト駆動方法。 - 前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第1駆動データを取得することは、
前記オーディオ信号から目標情報が検出されたことに応じて、前記目標情報にマッピングする第1指定動作を確定することと、
前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが前記第1指定動作を実行するようにするための第1駆動データを取得することと、を含む
ことを特徴とする請求項1に記載のインタラクティブオブジェクト駆動方法。 - 前記第1駆動データは、第1オーディオ駆動データ及び/または第1動作駆動データを含み、前記第1オーディオ駆動データは、前記第1指定動作を実行するときに発生する音声のデータであり、
前記第1駆動データが出力されたことに応じて、目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングすることは、
前記第1動作駆動データが出力されたことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作を実行するようにし、前記目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングすること、または、
前記第1オーディオ駆動データに基づいて音声が出力されたことに応じて、前記目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングすることを含む
ことを特徴とする請求項2に記載のインタラクティブオブジェクト駆動方法。 - 前記オーディオ信号中の目標オブジェクトの音声存在状態に応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにすることは、
第1所定時間内で前記目標オブジェクトの音声が検出されたことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作を循環的に実行するようにすることを含む
ことを特徴とする請求項1から3の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 前記オーディオ信号中の目標オブジェクトの音声存在状態に応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにすることは、
第1所定時間内で前記目標オブジェクトの音声が検出されなかったことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作の実行を終了した後で初期姿勢に回復するようにすることを含む
ことを特徴とする請求項1から3の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作の実行を終了した後で初期姿勢に回復するようにした後、前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを取得することと、
前記第2駆動データに基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにすることと、を更に含み、
前記第2駆動データは、第2オーディオ駆動データ及び/または第2動作駆動データを含む
ことを特徴とする請求項5に記載のインタラクティブオブジェクト駆動方法。 - 前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを取得することは、
前記オーディオ信号をサーバへ送信することによって、当該サーバが、前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを生成するようにすることと、
前記サーバによって送信される第2駆動データを受信することと、を含む
ことを特徴とする請求項6に記載のインタラクティブオブジェクト駆動方法。 - 前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが前記第1指定動作の実行を終了した後で初期姿勢に回復するようにした後、前記サーバによって送信される第2駆動データが第2所定時間内で受信されなかったことに応じて、予め設定された第3駆動データを呼び出して前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにすることを更に含み、
前記第3駆動データは、第3オーディオ駆動データ及び/または第3動作駆動データを含む
ことを特徴とする請求項7に記載のインタラクティブオブジェクト駆動方法。 - 前記オーディオ信号に基づいて、環境騒音声の強度を検出することと、
前記環境騒音声の強度に応じて、前記インタラクティブオブジェクトの応答過程での前記表示デバイスの出力音声の音声量を調整することを更に含む
ことを特徴とする請求項1から8の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - 複数のオーディオ信号は、複数の音声検出モジュールを介して取得され、前記複数の音声検出モジュールは、前記表示デバイスの互いに異なる方位に分布され、
前記インタラクティブオブジェクト駆動方法は、
前記複数の音声検出モジュールでそれぞれ取得された複数のオーディオ信号に基づいて異なる方位の環境騒音声の強度を確定することと、
前記異なる方位の環境騒音声の強度に応じて、前記インタラクティブオブジェクトを駆動することによって、前記目標オブジェクトを案内して当該目標オブジェクトがインタラクティブを実行する位置を変更するようにすることと、を更に含む
ことを特徴とする請求項1から9の何れか一項に記載のインタラクティブオブジェクト駆動方法。 - インタラクティブオブジェクト駆動装置であって、
表示デバイスの周辺のオーディオ信号を取得するための第1取得ユニットと、
前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第1駆動データを取得するための第2取得ユニットと、
前記第1駆動データが出力されたことに応じて、目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングするためのモニタリングユニットと、
前記オーディオ信号中の前記目標オブジェクトの音声の存在状態に応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第1駆動ユニットと、を備える
ことを特徴とするインタラクティブオブジェクト駆動装置。 - 前記第2取得ユニットは、
前記オーディオ信号から目標情報が検出されたことに応じて、前記目標情報にマッピングする第1指定動作を確定し、
前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが前記第1指定動作を実行するようにするための第1駆動データを取得する
ことを特徴とする請求項11に記載のインタラクティブオブジェクト駆動装置。 - 前記第1駆動データは、第1オーディオ駆動データ及び/または第1動作駆動データを含み、前記第1オーディオ駆動データは、前記第1指定動作を実行するときに発生する音声のデータであり、
前記モニタリングユニットは、
前記第1動作駆動データが出力されたことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作を実行するようにし、前記目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングし、または、
前記第1オーディオ駆動データに基づいて音声が出力されたことに応じて、前記目標オブジェクトの音声を検知するための前記オーディオ信号をモニタリングする
ことを特徴とする請求項12に記載のインタラクティブオブジェクト駆動装置。 - 前記第1駆動ユニットは、
第1所定時間内で前記目標オブジェクトの音声が検出されたことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作を循環的に実行するようにする
ことを特徴とする請求項11から13の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 前記第1駆動ユニットは、
第1所定時間内で前記目標オブジェクトの音声が検出されなかったことに応じて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作の実行を終了した後で初期姿勢に回復するようにする
ことを特徴とする請求項11から13の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 前記インタラクティブオブジェクト駆動装置は、第2駆動ユニットを更に備え、
前記第2駆動ユニットは、
前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作の実行を終了した後で初期姿勢に回復するようにした後、前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを取得し、
前記第2駆動データに基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにし、
前記第2駆動データは、第2オーディオ駆動データ及び/または第2動作駆動データを含む
ことを特徴とする請求項15に記載のインタラクティブオブジェクト駆動装置。 - 前記第2駆動ユニットは、前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを取得する際に、
前記オーディオ信号をサーバに送信することによって、当該サーバが前記オーディオ信号に基づいて、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにするための第2駆動データを生成するようにし、
前記サーバによって送信される第2駆動データを受信する
ことを特徴とする請求項16に記載のインタラクティブオブジェクト駆動装置。 - 前記インタラクティブオブジェクト駆動装置は、第3駆動ユニットを更に備え、
前記第3駆動ユニットは、前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが第1指定動作の実行を終了した後で初期姿勢に回復するようにした後、前記サーバによって送信される第2駆動データが第2所定時間内で受信されなかったことに応じて、予め設定された第3駆動データを呼び出して前記インタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが応答を実行するようにし、
前記第3駆動データは、第3オーディオ駆動データ及び/または第3動作駆動データを含む
ことを特徴とする請求項17に記載のインタラクティブオブジェクト駆動装置。 - 前記インタラクティブオブジェクト駆動装置は、調整ユニットを更に備え、
前記調整ユニットは、
前記オーディオ信号に基づいて、環境騒音声の強度を検出し、
前記環境騒音声の強度に応じて、前記インタラクティブオブジェクトの応答過程での前記表示デバイスの出力音声の音声量を調整する
ことを特徴とする請求項11から18の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 複数のオーディオ信号は、複数の音声検出モジュールを介して取得され、前記複数の音声検出モジュールは、前記表示デバイスの互いに異なる方位に分布され、前記インタラクティブオブジェクト駆動装置は、第4駆動ユニットを更に備え、
前記第4駆動ユニットは、
前記複数の音声検出モジュールでそれぞれ取得された複数のオーディオ信号に基づいて異なる方位の環境騒音声の強度を確定し、
前記異なる方位の環境騒音声の強度に応じて、前記インタラクティブオブジェクトを駆動することによって、前記目標オブジェクトを案内して当該目標オブジェクトがインタラクティブを実行する位置を変更するようにする
ことを特徴とする請求項11から19の何れか一項に記載のインタラクティブオブジェクト駆動装置。 - 表示デバイスであって、
前記表示デバイスには、透明ディスプレイスクリーンが設けられ、前記透明ディスプレイスクリーンは、インタラクティブオブジェクトを表示し、前記表示デバイスは、請求項1から10の何れか一項に記載のインタラクティブオブジェクト駆動方法を実行することによって、前記透明ディスプレイスクリーンに表示されたインタラクティブオブジェクトを駆動して当該インタラクティブオブジェクトが前記目標オブジェクトに対して応答を実行するようにする、
ことを特徴とする表示デバイス。 - 電子デバイスであって、
前記電子デバイスは、メモリと、プロセッサとを備え、前記メモリは、プロセッサで運転され得るコンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを実行したときに請求項1から10の何れか一項に記載のインタラクティブオブジェクト駆動方法を実施する
ことを特徴とする電子デバイス。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行されたときに、請求項1から10の何れか一項に記載の方法は、実施される
ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911195280.5 | 2019-11-28 | ||
CN201911195280.5A CN110989900B (zh) | 2019-11-28 | 2019-11-28 | 交互对象的驱动方法、装置、设备以及存储介质 |
PCT/CN2020/104465 WO2021103609A1 (zh) | 2019-11-28 | 2020-07-24 | 交互对象的驱动方法、装置、电子设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022515307A true JP2022515307A (ja) | 2022-02-18 |
JP7267411B2 JP7267411B2 (ja) | 2023-05-01 |
Family
ID=70087872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521785A Active JP7267411B2 (ja) | 2019-11-28 | 2020-07-24 | インタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11769499B2 (ja) |
JP (1) | JP7267411B2 (ja) |
KR (1) | KR20210068474A (ja) |
CN (1) | CN110989900B (ja) |
SG (1) | SG11202102635TA (ja) |
TW (1) | TWI777229B (ja) |
WO (1) | WO2021103609A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110989900B (zh) | 2019-11-28 | 2021-11-05 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
CN111488090A (zh) * | 2020-04-13 | 2020-08-04 | 北京市商汤科技开发有限公司 | 交互方法、装置、交互系统、电子设备及存储介质 |
CN112420078B (zh) * | 2020-11-18 | 2022-12-30 | 青岛海尔科技有限公司 | 一种监听方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018523156A (ja) * | 2015-06-29 | 2018-08-16 | アマゾン テクノロジーズ インコーポレイテッド | 言語モデルスピーチエンドポインティング |
JP2018185431A (ja) * | 2017-04-26 | 2018-11-22 | シャープ株式会社 | 対話システム、対話装置、応答制御装置、対話装置の制御方法、応答制御装置の制御方法、および、制御プログラム |
CN109346076A (zh) * | 2018-10-25 | 2019-02-15 | 三星电子(中国)研发中心 | 语音交互、语音处理方法、装置和系统 |
WO2019187834A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9089783B2 (en) * | 2011-08-18 | 2015-07-28 | Disney Enterprises, Inc. | System and method for a toy to interact with a computing device through wireless transmissions |
WO2013170383A1 (en) * | 2012-05-16 | 2013-11-21 | Xtreme Interactions Inc. | System, device and method for processing interlaced multimodal user input |
TWI521421B (zh) * | 2013-04-08 | 2016-02-11 | 亞東技術學院 | 互動式影像顯示系統及影像提供裝置 |
US9177546B2 (en) * | 2013-08-28 | 2015-11-03 | Texas Instruments Incorporated | Cloud based adaptive learning for distributed sensors |
SG10201809399VA (en) * | 2014-06-12 | 2018-11-29 | Play I Inc | System and method for reinforcing programming education through robotic feedback |
WO2017086937A1 (en) * | 2015-11-17 | 2017-05-26 | Thomson Licensing | Apparatus and method for integration of environmental event information for multimedia playback adaptive control |
KR20170124836A (ko) * | 2016-05-03 | 2017-11-13 | 엘지전자 주식회사 | 전자 장치 및 그 제어 방법 |
KR20180036032A (ko) * | 2016-09-30 | 2018-04-09 | 삼성전자주식회사 | 영상처리장치 및 기록매체 |
CN108305640A (zh) * | 2017-01-13 | 2018-07-20 | 深圳大森智能科技有限公司 | 智能机器人主动服务方法与装置 |
CN109389005A (zh) * | 2017-08-05 | 2019-02-26 | 富泰华工业(深圳)有限公司 | 智能机器人及人机交互方法 |
TWI695308B (zh) * | 2017-09-15 | 2020-06-01 | 林勁璋 | 分散式互動介面系統及其操作方法 |
CN107704169B (zh) * | 2017-09-26 | 2020-11-17 | 北京光年无限科技有限公司 | 虚拟人的状态管理方法和系统 |
CN107894833B (zh) * | 2017-10-26 | 2021-06-15 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN109767774A (zh) * | 2017-11-08 | 2019-05-17 | 阿里巴巴集团控股有限公司 | 一种交互方法和设备 |
CN107861626A (zh) * | 2017-12-06 | 2018-03-30 | 北京光年无限科技有限公司 | 一种虚拟形象被唤醒的方法及系统 |
CN108664123A (zh) * | 2017-12-15 | 2018-10-16 | 蔚来汽车有限公司 | 人车交互方法、装置、车载智能控制器及系统 |
CN110010125A (zh) * | 2017-12-29 | 2019-07-12 | 深圳市优必选科技有限公司 | 一种智能机器人的控制方法、装置、终端设备及介质 |
CN108536790A (zh) * | 2018-03-30 | 2018-09-14 | 北京市商汤科技开发有限公司 | 声音特效程序文件包的生成及声音特效生成方法与装置 |
CN110069608B (zh) * | 2018-07-24 | 2022-05-27 | 百度在线网络技术(北京)有限公司 | 一种语音交互的方法、装置、设备和计算机存储介质 |
CN110033776A (zh) * | 2019-03-08 | 2019-07-19 | 佛山市云米电器科技有限公司 | 一种应用于屏幕设备的虚拟形象交互系统与方法 |
CN109976519B (zh) * | 2019-03-14 | 2022-05-03 | 浙江工业大学 | 一种基于增强现实的交互显示装置及其交互显示方法 |
CN110060678B (zh) * | 2019-04-16 | 2021-09-14 | 深圳欧博思智能科技有限公司 | 一种基于智能设备的虚拟角色控制方法及智能设备 |
CN110413841A (zh) * | 2019-06-13 | 2019-11-05 | 深圳追一科技有限公司 | 多态交互方法、装置、系统、电子设备及存储介质 |
CN110989900B (zh) * | 2019-11-28 | 2021-11-05 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
-
2019
- 2019-11-28 CN CN201911195280.5A patent/CN110989900B/zh active Active
-
2020
- 2020-07-24 SG SG11202102635TA patent/SG11202102635TA/en unknown
- 2020-07-24 JP JP2021521785A patent/JP7267411B2/ja active Active
- 2020-07-24 KR KR1020217011882A patent/KR20210068474A/ko active IP Right Grant
- 2020-07-24 WO PCT/CN2020/104465 patent/WO2021103609A1/zh active Application Filing
- 2020-08-27 TW TW109129388A patent/TWI777229B/zh active
-
2021
- 2021-03-17 US US17/204,568 patent/US11769499B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018523156A (ja) * | 2015-06-29 | 2018-08-16 | アマゾン テクノロジーズ インコーポレイテッド | 言語モデルスピーチエンドポインティング |
JP2018185431A (ja) * | 2017-04-26 | 2018-11-22 | シャープ株式会社 | 対話システム、対話装置、応答制御装置、対話装置の制御方法、応答制御装置の制御方法、および、制御プログラム |
WO2019187834A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN109346076A (zh) * | 2018-10-25 | 2019-02-15 | 三星电子(中国)研发中心 | 语音交互、语音处理方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110989900B (zh) | 2021-11-05 |
KR20210068474A (ko) | 2021-06-09 |
CN110989900A (zh) | 2020-04-10 |
US11769499B2 (en) | 2023-09-26 |
SG11202102635TA (en) | 2021-07-29 |
WO2021103609A1 (zh) | 2021-06-03 |
JP7267411B2 (ja) | 2023-05-01 |
TW202121161A (zh) | 2021-06-01 |
US20210201908A1 (en) | 2021-07-01 |
TWI777229B (zh) | 2022-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11609631B2 (en) | Natural human-computer interaction for virtual personal assistant systems | |
CN109313911B (zh) | 沉浸式显示设备上的自动音频衰减 | |
US10705602B2 (en) | Context-aware augmented reality object commands | |
JP7038210B2 (ja) | 対話セッション管理用のシステム及び方法 | |
CN110456626B (zh) | 全息键盘显示 | |
US20210132686A1 (en) | Storage medium, augmented reality presentation apparatus, and augmented reality presentation method | |
JP2022515307A (ja) | インタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体 | |
JP2018526693A (ja) | 仮想現実における注視対話のためのホバー挙動 | |
JP2016528604A (ja) | 適応イベント認識 | |
JP2023525173A (ja) | レンダリングされたグラフィカル出力を利用する会話型aiプラットフォーム | |
KR20210005200A (ko) | 디지털 어시스턴트를 이용한 오디오 정보 제공 | |
CN113168225B (zh) | 使用无监督机器学习来定位用于回声定位的空间化声音节点 | |
JP2022531056A (ja) | インタラクティブ対象の駆動方法、装置、デバイス、及び記録媒体 | |
US20240038228A1 (en) | Power-Sensitive Control of Virtual Agents | |
US20240177424A1 (en) | Digital assistant object placement | |
US12008720B1 (en) | Scene graph assisted navigation | |
US20230350536A1 (en) | Displaying an environment from a selected point-of-view | |
US20230386443A1 (en) | Method for adjusting noise cancellation in headphones based on real-world activity or game context | |
US20230384592A1 (en) | Methods and systems for adding real-world sounds to virtual reality scenes | |
WO2022066360A1 (en) | Selecting multiple virtual objects | |
CN116304180A (zh) | 图像显示方法、装置、设备、存储介质及程序产品 | |
CN117836741A (zh) | 数字助理对象放置 | |
CN114783429A (zh) | 人机交互系统、服务器、交互终端、交互方法和电子设备 | |
KR20200077936A (ko) | 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221129 |
|
A603 | Late request for extension of time limit during examination |
Free format text: JAPANESE INTERMEDIATE CODE: A603 Effective date: 20221129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |