JP6044819B2 - 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム - Google Patents
情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム Download PDFInfo
- Publication number
- JP6044819B2 JP6044819B2 JP2012123804A JP2012123804A JP6044819B2 JP 6044819 B2 JP6044819 B2 JP 6044819B2 JP 2012123804 A JP2012123804 A JP 2012123804A JP 2012123804 A JP2012123804 A JP 2012123804A JP 6044819 B2 JP6044819 B2 JP 6044819B2
- Authority
- JP
- Japan
- Prior art keywords
- instruction
- user
- information
- voice
- search range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 105
- 238000000034 method Methods 0.000 title claims description 58
- 238000004891 communication Methods 0.000 title claims description 50
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000005540 biological transmission Effects 0.000 claims description 23
- 238000009825 accumulation Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 31
- 238000003780 insertion Methods 0.000 description 31
- 230000037431 insertion Effects 0.000 description 31
- 210000003811 finger Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 208000010415 Low Vision Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004303 low vision Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記指示情報受信手段が受信した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
をコンピュータに実行させる情報処理装置の制御プログラムであって、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
上記情報処理装置と通信する通信端末であって、
ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
前記音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信手段と、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信手段と、
前記動作命令受信手段が受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力手段と、
を備えることを特徴とする。
上記情報処理装置と通信する通信端末の制御方法であって、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
を含むことを特徴とする。
上記情報処理装置と通信する通信端末の制御プログラムであって、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
をコンピュータに実行させることを特徴とする。
ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記指示情報取得手段が取得した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
ユーザの音声を検出する音声検出ステップと、
前記ユーザの動作を検出する動作検出ステップと、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報取得ステップにおいて取得した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
ユーザの音声を検出する音声検出ステップと、
前記ユーザの動作を検出する動作検出ステップと、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報取得ステップにおいて取得した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
をコンピュータに実行させる通信端末の制御プログラムであって、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする。
ネットワークを介して接続された情報処理装置と通信端末とを含む情報処理システムであって、
前記情報処理装置が、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得されたユーザの指示動作を示す指示動作情報とを、前記ユーザの指示対象となるデバイスのデバイス情報と共に、受信する指示情報受信手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記ユーザ指示認識手段が認識した前記ユーザの指示に応じた前記デバイスの動作命令を送信する動作命令送信手段と、
前記指示情報受信手段が受信した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加し、
前記通信端末が、
ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
前記音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信手段と、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信手段と、
前記動作命令受信手段が受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力手段と、
を備えることを特徴とする。
ネットワークを介して接続された情報処理装置と通信端末とを含む情報処理システムの情報処理方法であって、
前記情報処理装置が、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、前記ユーザの指示対象となるデバイスのデバイス情報と共に、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記ユーザ指示認識ステップにおいて認識した前記ユーザの指示に応じた前記デバイスの動作命令を送信する動作命令送信ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加し、
前記通信端末が、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
を含むことを特徴とする。
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、ユーザ111〜11nの指示内容を認識する装置である。
次に、本発明の第2実施形態に係る情報処理システムについて説明する。本実施形態に係る情報処理システムは、ユーザの音声による指示音声情報や、ユーザのジェスチャーやモーションによる指示動作情報を取得し、互いに操作指示候補を検索する検索範囲を決定する。
図2〜図4を参照して、本実施形態の情報処理システム200の動作について説明する。
図2は、本実施形態に係る情報処理システム200の構成を示すブロック図である。
図3は、本実施形態に係る情報処理システム200の動作概念を説明する図である。
図4は、本実施形態に係る情報処理システム200の動作手順を示すシーケンス図である。
図5は、本実施形態に係るクラウドサーバ210の機能構成を示すブロック図である。なお、実際には、ユーザ登録などを行なう構成も含まれるが、図5においては煩雑さを避けるため省略する。
図6は、本実施形態に係るオーダ用タブレット220の機能構成を示すブロック図である。
図7は、本実施形態に係る指示履歴学習データベース214の構成を示す図である。なお、指示履歴学習データベース214は、図7の構成に限定されない。
図8は、本実施形態に係るクラウドサーバ210のハードウェア構成を示すブロック図である。
図9Aは、本実施形態に係る検索範囲決定テーブル212aの構成を示す図である。検索範囲決定テーブル212aは、指示情報に基づき指示履歴学習データベース214を参照して、検索範囲決定部212の検索範囲決定のために使用される。
図9Bは、本実施形態に係るユーザの属性940を示す図である。上記図9Aにおいては、検索範囲を決定する情報として、受信音声による認識言語や、受信映像からの認識国籍や、受信操作からの認識シーンを代表例として示した。しかしながら、検索範囲を決定する情報としては、他の情報を利用可能である。図9Bには、利用可能な情報として、ユーザの属性についてその例を示す。なお、検索範囲を決定する情報は、ユーザの属性に限定されない。
図9Cは、本実施形態に係るユーザ指示認識テーブル213aの構成を示す図である。ユーザ指示認識テーブル213aは、ユーザ指示認識部213が、検索範囲決定部212が決定した検索範囲内で、ユーザ指示を認識するために使用される。
図10は、本実施形態に係る指示動作命令生成テーブル503aの構成を示す図である。指示動作命令生成テーブル503aは、指示動作命令生成部503が、ユーザ指示認識部213の認識結果に応じて、指示動作命令を生成するために使用される。
図11は、本実施形態に係るクラウドサーバ210の処理手順を示すフローチャートである。このフローチャートは、図8のCPU810がRAM840を使用して実行し、図5の各機能構成部を実現する。
図12Aは、本実施形態に係る検索範囲決定処理S1109−1の処理手順を示すフローチャートである。図12Aの検索範囲決定処理S1109−1は、操作入力をタッチパネル上のユーザの動作入力に限定しない場合を示す。なお、図12Aにおいては、ユーザの属性を検索範囲決定のために使用するが、これに限定されない。
図12Bは、本実施形態に係るユーザ指示認識処理S1111の処理手順を示すフローチャートである。
図13は、本実施形態に係るオーダ用タブレット220のハードウェア構成を示すブロック図である。
図14は、本実施形態に係るオーダ用タブレット220の処理手順を示すフローチャートである。このフローチャートは、図13のCPU1310がRAM1340を使用して実行し、図6の各機能構成部を実現する。
次に、本発明の第3実施形態に係る情報処理システムについて説明する。本実施形態に係る情報処理システムは、上記第2実施形態と比べると、オーダ用タブレットのタッチパネル上のユーザの動作指示を指示動作情報とする点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図15は、本実施形態に係る情報処理システム1500の動作概念を説明する図である。
図16は、本実施形態に係る指示履歴学習データベース1514の構成を示す図である。なお、指示履歴学習データベース1514は、図16の構成に限定されない。
図17は、本実施形態に係る検索範囲決定処理S1109−2の処理手順を示すフローチャートである。この図17の検索範囲決定処理S1109−2は、第2実施形態の図12Aの検索範囲決定処理S1109−2を代替するフローチャートである。
次に、本発明の第4実施形態に係る情報処理システムについて説明する。本実施形態に係る情報処理システムは、上記第2および第3実施形態と比べると、タブレットのカメラから撮像した部屋の映像の表示を使って、指示音声情報と指示動作情報とに基づいて部屋の電子機器を自動制御する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図18は、本実施形態に係る情報処理システム1800の動作概念を説明する図である。なお、クラウドサーバ1810の有する指示履歴学習データベース1514は、図16と同様であってよい。
次に、本発明の第5実施形態に係る情報処理システムについて説明する。本実施形態に係る情報処理システムは、上記第2および第4実施形態と比べると、指示音声情報と指示動作情報とに基づいてユーザの操作指示を、クラウドサーバではなく通信端末において認識する点で異なる。その他の構成および動作は、第2および第4実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
図19は、本実施形態に係る情報処理システム1900の動作手順を示すシーケンス図である。なお、図19において、第2実施形態の図4と同様のステップには同じステップ番号を付して、説明は省略する。
図20は、本発明の第5実施形態に係るオーダ用タブレット1920の機能構成を示すブロック図である。なお、図20において、第2実施形態の図6と同様の機能構成部には同じ参照番号を付して、説明を省略する。
なお、上記実施形態においては、店舗における店員の操作指示、あるいは部屋内に設置された電子機器への操作指示を音声と動作とに基づいて認識する例を示した。しかしながら、本発明のユーザの操作指示を音声と動作とに基づいて認識する技術は、カメラやマイクを併用する通信端末に対するユーザの操作指示を認識する種々の技術に適用ができる。例えば、クラウドサーバが、ユーザが参加する会議システムを管理している場合に、ユーザによる会議システムへの指示を、会議システムを構成する通信端末が取得したユーザの音声と動作とに基づいて認識する技術に、容易に適用される。
Claims (20)
- ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記指示情報受信手段が受信した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする情報処理装置。 - 前記指示情報受信手段は、さらに、前記ユーザの指示対象となるデバイスのデバイス情報を受信し、
前記ユーザ指示認識手段が認識した前記ユーザの指示に応じた前記デバイスの動作命令を送信する動作命令送信手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。 - 前記指示動作情報は、ユーザの指示動作を撮像するカメラを介して、前記ユーザのジェスチャーあるいはモーションに基づいて取得されることを特徴とする請求項1または2に記載の情報処理装置。
- 前記指示動作情報は、ユーザの指示動作を入力するタッチパネルを介して、前記ユーザの指の前記タッチパネルでのモーションに基づいて取得されることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記検索範囲決定手段は、前記指示音声情報または前記指示動作情報に基づいてユーザの属性を取得し、前記ユーザの属性に応じて前記検索範囲を決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記ユーザの属性は、前記ユーザの国籍と、前記ユーザの発声言語と、前記ユーザの人種と、前記ユーザの職業と、前記ユーザが置かれた環境と、前記ユーザが遭遇したシーンと、前記ユーザの癖と、前記ユーザの方言とのいずれかを含むことを特徴とする請求項5に記載の情報処理装置。
- 前記指示履歴蓄積手段は、さらに、前記指示情報受信手段が受信した指示音声情報および指示動作情報と、前記検索範囲と、前記ユーザ指示認識手段が認識したユーザの指示とを対応付けて蓄積し、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記指示音声情報または前記指示動作情報を認識するための検索範囲を決定することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 - 前記ユーザは店の店員であって、前記ユーザ指示認識手段は、前記店員の指示を認識することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記ユーザ指示認識手段は、部屋に設置された機器に対する操作指示を認識することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記情報処理装置は前記ユーザが参加する会議システムを管理し、
前記ユーザ指示認識手段は、前記ユーザによる前記会議システムへの指示を認識することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 - ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする情報処理装置の制御方法。 - ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
をコンピュータに実行させる情報処理装置の制御プログラムであって、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする情報処理装置の制御プログラム。 - 請求項2に記載の情報処理装置と通信する通信端末であって、
ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
前記音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信手段と、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信手段と、
前記動作命令受信手段が受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力手段と、
を備えることを特徴とする通信端末。 - 請求項2に記載の情報処理装置と通信する通信端末の制御方法であって、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
を含むことを特徴とする通信端末の制御方法。 - 請求項2に記載の情報処理装置と通信する通信端末の制御プログラムであって、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
をコンピュータに実行させることを特徴とする通信端末の制御プログラム。 - ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記指示情報取得手段が取得した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする通信端末。 - ユーザの音声を検出する音声検出ステップと、
前記ユーザの動作を検出する動作検出ステップと、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報取得ステップにおいて取得した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする通信端末の制御方法。 - ユーザの音声を検出する音声検出ステップと、
前記ユーザの動作を検出する動作検出ステップと、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、取得する指示情報取得ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記指示情報取得ステップにおいて取得した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて、指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
をコンピュータに実行させる通信端末の制御プログラムであって、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加することを特徴とする通信端末の制御プログラム。 - ネットワークを介して接続された情報処理装置と通信端末とを含む情報処理システムであって、
前記情報処理装置が、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得されたユーザの指示動作を示す指示動作情報とを、前記ユーザの指示対象となるデバイスのデバイス情報と共に、受信する指示情報受信手段と、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定手段と、
前記検索範囲決定手段で決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識手段と、
前記ユーザ指示認識手段が認識した前記ユーザの指示に応じた前記デバイスの動作命令を送信する動作命令送信手段と、
前記指示情報受信手段が受信した指示音声情報および指示動作情報と、前記ユーザ指示認識手段がユーザの指示を誤って認識した認識失敗とを対応付けて蓄積する指示履歴蓄積手段と、
を備え、
前記検索範囲決定手段は、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加し、
前記通信端末が、
ユーザの音声を検出する音声検出手段と、
前記ユーザの動作を検出する動作検出手段と、
前記音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信手段と、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信手段と、
前記動作命令受信手段が受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力手段と、
を備えることを特徴とする情報処理システム。 - ネットワークを介して接続された情報処理装置と通信端末とを含む情報処理システムの情報処理方法であって、
前記情報処理装置が、
ユーザの音声を介して取得された前記ユーザの指示音声を示す指示音声情報と、前記ユーザの動作を介して取得された前記ユーザの指示動作を示す指示動作情報とを、前記ユーザの指示対象となるデバイスのデバイス情報と共に、受信する指示情報受信ステップと、
前記指示音声情報に応じて前記指示動作情報を認識するための検索範囲を決定し、または、前記指示動作情報に応じて前記指示音声情報を認識するための検索範囲を決定する検索範囲決定ステップと、
前記検索範囲決定ステップにおいて決定された検索範囲において前記指示音声情報または前記指示動作情報を検索し、検索結果から前記ユーザの指示を認識するユーザ指示認識ステップと、
前記ユーザ指示認識ステップにおいて認識した前記ユーザの指示に応じた前記デバイスの動作命令を送信する動作命令送信ステップと、
前記指示情報受信ステップにおいて受信した指示音声情報および指示動作情報と、前記ユーザ指示認識ステップでユーザの指示を誤って認識した認識失敗とを対応付けて指示履歴蓄積手段に蓄積する指示履歴蓄積ステップと、
を含み、
前記検索範囲決定ステップにおいては、前記指示履歴蓄積手段を参照して、前記認識失敗の出現数が閾値を超える場合に、前記認識失敗の認識結果を前記指示音声情報または前記指示動作情報を認識するための検索範囲に追加し、
前記通信端末が、
ユーザの音声を検出する音声検出手段を介して前記ユーザの指示音声を示す指示音声情報を取得し、前記ユーザの動作を検出する動作検出手段を介して前記ユーザの指示動作を示す指示動作情報を取得し、前記指示音声情報および前記指示動作情報を、前記ユーザの指示対象であるデバイスのデバイス情報と共に、情報処理装置に送信する指示情報送信ステップと、
前記指示音声情報および前記指示動作情報と前記デバイス情報とから生成された、前記情報処理装置において認識した前記ユーザの指示に応じた前記デバイスの動作命令を、前記情報処理装置から受信する動作命令受信ステップと、
前記動作命令受信ステップにおいて受信した動作命令を中継して、前記ユーザの指示対象である前記デバイスに出力する動作命令出力ステップと、
を含むことを特徴とする情報処理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012123804A JP6044819B2 (ja) | 2012-05-30 | 2012-05-30 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
EP13797821.9A EP2857958A4 (en) | 2012-05-30 | 2013-05-22 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, COMMUNICATION TERMINAL, INFORMATION PROCESSING DEVICE AND CONTROL METHOD AND CONTROL PROGRAM THEREFOR |
US14/403,268 US9489951B2 (en) | 2012-05-30 | 2013-05-22 | Information processing system, information processing method, communication terminal, information processing apparatus, and control method and control program thereof |
PCT/JP2013/064238 WO2013179985A1 (ja) | 2012-05-30 | 2013-05-22 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012123804A JP6044819B2 (ja) | 2012-05-30 | 2012-05-30 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013250683A JP2013250683A (ja) | 2013-12-12 |
JP6044819B2 true JP6044819B2 (ja) | 2016-12-14 |
Family
ID=49673186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012123804A Expired - Fee Related JP6044819B2 (ja) | 2012-05-30 | 2012-05-30 | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9489951B2 (ja) |
EP (1) | EP2857958A4 (ja) |
JP (1) | JP6044819B2 (ja) |
WO (1) | WO2013179985A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6155555B2 (ja) * | 2012-05-30 | 2017-07-05 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置、携帯端末およびその制御方法と制御プログラム |
CN105023575B (zh) * | 2014-04-30 | 2019-09-17 | 中兴通讯股份有限公司 | 语音识别方法、装置和系统 |
US9730671B2 (en) * | 2014-10-03 | 2017-08-15 | David Thomas Gering | System and method of voice activated image segmentation |
JP6316214B2 (ja) * | 2015-01-14 | 2018-04-25 | シャープ株式会社 | システム、サーバ、電子機器、サーバの制御方法、およびプログラム |
EP3392740A4 (en) * | 2015-12-18 | 2018-12-19 | Sony Corporation | Information processing device, information processing method, and program |
JP2017113903A (ja) * | 2015-12-21 | 2017-06-29 | キヤノン株式会社 | 画像形成装置、画像形成装置の制御方法、及び、プログラム |
US10960540B2 (en) * | 2017-05-05 | 2021-03-30 | Accenture Global Solutions Limited | Robot orchestration architecture |
US20230113524A1 (en) * | 2021-10-07 | 2023-04-13 | International Business Machines Corporation | Reactive voice device management |
CN116580826B (zh) * | 2023-05-25 | 2024-04-19 | 深圳市米软科技有限公司 | 基于人工智能的住院管理系统及方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214258A (ja) * | 1997-01-28 | 1998-08-11 | Victor Co Of Japan Ltd | データ処理システム |
US20020036617A1 (en) | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US6185529B1 (en) * | 1998-09-14 | 2001-02-06 | International Business Machines Corporation | Speech recognition aided by lateral profile image |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP4294853B2 (ja) | 2000-12-19 | 2009-07-15 | アルパイン株式会社 | 操作指示装置 |
JP4624577B2 (ja) | 2001-02-23 | 2011-02-02 | 富士通株式会社 | 複数のセンサによるヒューマンインタフェースシステム |
JP2004317604A (ja) * | 2003-04-14 | 2004-11-11 | Mitsubishi Electric Corp | 表示制御装置及び表示制御方法及び表示制御プログラム |
JP2005122128A (ja) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | 音声認識システム及びプログラム |
JP4311190B2 (ja) * | 2003-12-17 | 2009-08-12 | 株式会社デンソー | 車載機器用インターフェース |
JP4572615B2 (ja) * | 2004-07-27 | 2010-11-04 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP4650888B2 (ja) * | 2005-09-09 | 2011-03-16 | 株式会社豊田中央研究所 | 発話検出装置、方法及びプログラム |
JP2007293595A (ja) * | 2006-04-25 | 2007-11-08 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2008058409A (ja) * | 2006-08-29 | 2008-03-13 | Aisin Aw Co Ltd | 音声認識方法及び音声認識装置 |
JP5636888B2 (ja) | 2010-11-09 | 2014-12-10 | ソニー株式会社 | 情報処理装置、プログラムおよびコマンド生成方法 |
KR101172213B1 (ko) | 2010-12-08 | 2012-08-07 | 현대자동차주식회사 | 얼굴인증 시스템 및 그 방법 |
-
2012
- 2012-05-30 JP JP2012123804A patent/JP6044819B2/ja not_active Expired - Fee Related
-
2013
- 2013-05-22 WO PCT/JP2013/064238 patent/WO2013179985A1/ja active Application Filing
- 2013-05-22 EP EP13797821.9A patent/EP2857958A4/en not_active Withdrawn
- 2013-05-22 US US14/403,268 patent/US9489951B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20150142437A1 (en) | 2015-05-21 |
JP2013250683A (ja) | 2013-12-12 |
EP2857958A1 (en) | 2015-04-08 |
WO2013179985A1 (ja) | 2013-12-05 |
US9489951B2 (en) | 2016-11-08 |
EP2857958A4 (en) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6044819B2 (ja) | 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム | |
US20240152548A1 (en) | Electronic apparatus for searching related image and control method therefor | |
EP3188034A1 (en) | Display terminal-based data processing method | |
CN110298309B (zh) | 基于图像的动作特征处理方法、装置、终端及存储介质 | |
CN106030610B (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
CN111259751A (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN107479691A (zh) | 一种交互方法及其智能眼镜和存储装置 | |
JP2021034003A (ja) | 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム | |
JP5293570B2 (ja) | 表示装置、表示プログラム及び表示方法 | |
CN112052784B (zh) | 物品的搜索方法、装置、设备及计算机可读存储介质 | |
US11789998B2 (en) | Systems and methods for using conjunctions in a voice input to cause a search application to wait for additional inputs | |
CN111026949A (zh) | 一种基于电子设备的搜题方法及系统 | |
CN108804971A (zh) | 一种图像识别系统、增强现实显示设备和图像识别方法 | |
CN112632349A (zh) | 展区指示方法、装置、电子设备及存储介质 | |
CN115525158A (zh) | 互动处理方法及装置 | |
CN109947239A (zh) | 一种空气成像系统及其实现方法 | |
US11244149B2 (en) | Processing apparatus, processing method, and non-transitory storage medium | |
CN111782041A (zh) | 打字方法及装置、设备、存储介质 | |
KR101724143B1 (ko) | 검색 서비스 제공 장치, 시스템, 방법 및 컴퓨터 프로그램 | |
CN110827487A (zh) | 物品图像数据的采集方法、装置、存储介质及电子设备 | |
CN109084750B (zh) | 一种导航方法及电子设备 | |
US11604830B2 (en) | Systems and methods for performing a search based on selection of on-screen entities and real-world entities | |
Jindal et al. | Spatio-Temporal Attention and Gaussian Processes for Personalized Video Gaze Estimation | |
Voronin et al. | Action recognition algorithm from visual sensor data for contactless robot control systems | |
CN112579868A (zh) | 多模态识图搜索方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6044819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |