JP6620230B2 - 迅速な識別方法及び家庭用の知能ロボット - Google Patents

迅速な識別方法及び家庭用の知能ロボット Download PDF

Info

Publication number
JP6620230B2
JP6620230B2 JP2018517885A JP2018517885A JP6620230B2 JP 6620230 B2 JP6620230 B2 JP 6620230B2 JP 2018517885 A JP2018517885 A JP 2018517885A JP 2018517885 A JP2018517885 A JP 2018517885A JP 6620230 B2 JP6620230 B2 JP 6620230B2
Authority
JP
Japan
Prior art keywords
user
intelligent robot
home
face image
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018517885A
Other languages
English (en)
Other versions
JP2018533064A (ja
Inventor
シアン、ウェンジ
ズ、レイ
Original Assignee
ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド filed Critical ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Publication of JP2018533064A publication Critical patent/JP2018533064A/ja
Application granted granted Critical
Publication of JP6620230B2 publication Critical patent/JP6620230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明はロボットに関し、特に、家庭用の知能ロボットに応用する迅速な識別方法及び家庭用の知能ロボットに関するものである。
スマート・エレクトロニクスの普及に従って、ますます多くの家庭が家庭用の知能ロボットとも呼ばれる知能電子製品を使い始めることになった。
現在、ますます多くのインテリジェント電子機器が使用されており、スマートな家庭用のロボットも徐々に普通の人々に家に入っている。しかしながら、既存の家庭用の知能ロボットは通常に従来の移動端末の1対1の動作モードを継続し、家族の全てのメンバーを区別せずに一人のユーザーとして扱うため、よって、家族の各メンバーが家庭用の知能ロボットを起動させる時に、排他的なパーソナライズドサービスを得ることができない、家庭用の知能ロボットの地位が弱くなり、家庭用の知能ロボットの普及に影響を与えた。
上記の問題に対して、本発明は異なるユーザーに対して家庭メンバーを迅速に識別することができ、パーソナライズドサービスを提供する迅速な識別方法及び家庭用の知能ロボットを提供した。
具体的な技術案は以下通りであり、すなわち:
家庭用の知能ロボットに適用する迅速な識別方法は、
異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と;
前記ユーザーの特徴に関係する識別情報を収集し、前記識別情報と前記対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と;
前記家庭用の知能ロボットはユーザーの特徴を収集し、記憶されている前記識別情報とマッチングを行い、前記ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と;
前記識別されたユーザーによって、対応する前記パーソナルファイルを取得し、前記パーソナルファイルにより作業を行う工程S400と;
を含む。
好ましくは、前記迅速な識別方法において、前記ユーザーは音声で前記家庭用の知能ロボットを活性化して、起動してから、前記家庭用の知能ロボットに指令を送信する。
好ましくは、前記迅速な識別方法において、前記識別情報は声紋モデルを含むこと。
好ましくは、前記迅速な識別方法において、前記識別情報は顔画像モデルを含む。
好ましくは、前記迅速な識別方法において、前記声紋モデルを収集する方式が第1主動収集と第1自動収集とを含み;
前記第1主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーからの起動音声によって、前記ユーザーの声紋モデルを取得する方式であって;
前記第1自動収集は前記家庭用の知能ロボットにより前記ユーザーの初めて利用する時の収集された起動音声によって、自動的に前記ユーザーの声紋モデルを取得する方式である。
好ましくは、前記迅速な識別方法において、前記顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み;
前記第2主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーの顔画像によって、前記ユーザーの前記顔画像モデルを取得する方式であって;
前記第2自動収集は前記家庭用の知能ロボットが前記ユーザーの声紋モデルを取得した後、自動的に前記ユーザーの顔画像を読み取ることにより、前記顔画像モデルを取得する方式である。
好ましくは、前記迅速な識別方法において、前記パーソナルファイルは歴史記録と格納リストを含み、前記家庭用の知能ロボットは識別済のユーザー指令を接収して、前記識別済のユーザーのパーソナルファイルにある前記歴史記録あるいは前記格納リストにより、前記指令を執行する。
好ましくは、前記迅速な識別方法において、時間に関連する複数の録音済の音声を記憶する一つの記憶ユニットが提供され、前記パーソナルファイルは前記ユーザーの名前を含み、前記家庭用の知能ロボットは前記ユーザーに対して顔画像の識別を行い、識別結果に応じて前記パーソナルファイルにある前記ユーザーの名前を取出して、それに前記記憶ユニットから対応する前記予め録音済の音声を現在の時間に合わせて選択して、前記名前を予め録音された音声と接合した後に、マシン発声を通して放送する。
好ましくは、前記迅速な識別方法において、前記ユーザーの顔画像を読み取るカメラが提供される。
好ましくは、上記の請求項1−9のいずれかの迅速な識別方法を採用する家庭用の知能ロボットをさらに含む。
本発明の技術案により、異なるユーザーに対して迅速な識別ができ、認識度と認識率が高くなり、家庭用の知能ロボットはもっとインテリジェントになり、それに、異なるユーザーに対して、パーソナルサービスを提供することができ、広い適用の見通しがある。
図1は本発明の迅速な識別方法及び家庭用の知能ロボット、の一つ好ましい実施例の実施方法のフローチャートである。
以下本発明の実施形態の図面を参照しながら、本発明の実施形態の技術案をはっきり、完全的に説明する。明らかに、記載されている実施形態はただ本発明の実施形態の一部だけであり、全ての実施形態ではない。当業者が本発明の実施形態に基づいて、創造的な労働をしないで、取得した実施形態は全部本発明の保護範囲内に属するものである。
説明する必要があるのは、衝突しない場合、本発明の実施形態及び実施形態における特徴を組み合わせることができる。
以下は図面と具体的な実施形態とにより本発明を詳しく説明するが、本発明に対しての限定ではない。
図1の示したように、家庭用の知能ロボットに適用する迅速な識別方法は、
異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と;
本発明の好ましい実施例では、好きな音楽あるいは個人の趣味などの様々なユーザーに関する情報を格納するために、ユーザーごとのパーソナルファイルを作成し、家庭用の知能ロボットは家族ごとに異なるパーソナライズドサービスを提供することができるようになった。
ユーザーの特徴に関係する識別情報を収集し、識別情報と上記の対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と;
ユーザーのパーソナルファイルと識別情報との間に相互の関連を作り、識別情報により対応するユーザーのパーソナルファイルを取得し、よって、家庭用の知能ロボットはパーソナルファイルごとに記載されている異なる情報により作動することができるようになって、家族ごとにパーソナライズドサービスを提供できることを実現した。
本発明の好ましい実施例では、識別情報は声紋モデルを含む。
本発明に基づいて、さらに、声紋モデルの収集方式が第1主動収集と第1自動収集とを含み;
第1主動収集は家庭用の知能ロボットにより予め収集されたユーザーの起動音声により、ユーザーの声紋モデルを取得する;
主動収集は主にはじめて家庭用の知能ロボットを使用する時に、ロボットに対して、ある情報の入力及び将来の使用のための設定をすることが必要であり、例えば起動音声の内容を設定すること、及び家族メンバーごとの識別情報を収集すること。第1自動収集は家庭用の知能ロボットにユーザーがはじめて使用する時の収集された起動音声により、自動的にユーザーの声紋モデルを取得するものである。
新しいユーザーの識別情報の収集に対して、家庭用の知能ロボットの自動収集方式によることができ、例えば、新しいユーザーは初めて家庭用の知能ロボットに指令(例えば家庭用の知能ロボットに設定された名前を呼ぶ)を発送する時、家庭用の知能ロボットは起動音声により起動され、且つ、当該ユーザーの音声を収集し、声紋モデルを生成し、当該ユーザーの指令に応答すると同時に、識別情報の収集が完成され、且つ新しいユーザーのパーソナルファイルが作成され、収集した声紋モデルを識別情報として格納する。
本発明の好ましい実施例では、識別情報は顔画像モデルを含む。
本技術案に基づいて、さらに、顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み;
第2主動収集は家庭用の知能ロボットにより予め収集されたユーザーの顔画像によって、ユーザーの顔画像モデルを取得するものであって;
主動収集は主にはじめて家庭用の知能ロボットを使用する時に、ロボットに対して、ある情報の入力及び将来の使用のための設定をすることが必要であり、例えば起動音声の内容を設定すること、及び家族メンバーごとの識別情報を収集すること。
第2自動収集は上記の家庭用の知能ロボットが上記のユーザーの声紋モデルを取得した後、自動的に上記のユーザーの顔画像を読み取ることにより、上記の顔画像モデルを取得するものである。
新しいユーザーの識別情報に対して自動収集を行う時に、ユーザーは次回に家庭用の知能ロボットを使用する時の身分識別に便利になるように、新しいユーザーの顔画像モデルを収集することも含む。
家庭用の知能ロボットはユーザーの特徴を収集し、記憶されている識別情報とマッチングを行い、ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と;
本発明の好ましい実施例では、家庭用の知能ロボットはユーザーを識別する時に、収集した顔画像がぼやけて顔を識別することができなかったら、自動にユーザーの声紋を識別し、声紋によりユーザーの身分を識別することができれば、顔画像の識別が成功でなくても、音声により、ユーザーは家庭用の知能ロボットに識別されることができる。
さらに、好ましい実施形態として、画像識別または音声識別のいずれかが成功である限り、家庭用の知能ロボットはユーザーに対する身分識別が成功とし、顔識別と声紋識別と共に成功でないだけでは、家庭用の知能ロボットはユーザーに対する識別が失敗とし、ユーザーは再び音声あるいは顔画像により身分の識別をすることができる。
識別されたユーザーによって、対応するパーソナルファイルを取り出し、パーソナルファイルに応じて作業を行う工程S400と;
本発明の好ましい実施例では、ユーザーは起動音声により家庭用の知能ロボットを起動し、家庭用の知能ロボットに指令を発送する。
ユーザーは家庭用の知能ロボットに指令を出す時に、ユーザーの他の音声と区分をするため、普通に、家庭用の知能ロボットに対する起動は固定音声により起動させ、例えば、家庭用の知能ロボットに素晴らしい名前を付け、家族のように家庭用の知能ロボットの名前を呼ぶなど、前記の設定により、家庭用の知能ロボットは自分の名前が聞こえると活性化され、ロボットを起動させる音声は固定であるため、よって、起動音声に基づく声紋識別をすることができ、ユーザーはロボットを使用する時、起動音声を出すことによりロボットを起動させ、ロボットは自分の名前を含む音声を検測すると、声紋検測をし、だから、固定音声に基づく声紋検測はより高い正確率を持つ。
本発明の好ましい実施例では、パーソナルファイルに歴史記録と格納リストとを含み、家庭用の知能ロボットは識別済のユーザーからの指令を接収して、識別済のユーザーのパーソナルファイルにおける歴史記録あるいは格納リストにより指令を実行する。
例えば、あるユーザーはロボットを起動させて、“音楽を放送してくれ”という指令を出す時に、ロボットは起動音声によりユーザーを識別することができ、当該ユーザーの放送リストを記録し、且つ分析し、ユーザーはしばらくの日々が経って、使用してから、ロボットはユーザーの履歴とお気に入りのリストによって精確な勧めを行うことができ、他の家族メンバーが“音楽を放送してくれ”という同じ指令を出す時に、ロボットは声紋により家族メンバーを区分することができ、異なる家族メンバーに違う音楽を勧める。
本発明の好ましい実施例では、時間に関連する複数の予め録音済み音声を格納する一つの記憶ユニットがさらに提供され、パーソナルファイルにさらにユーザーの名前が含まれ、家庭用の知能ロボットはユーザーに対して自動に顔画像を識別して、識別結果によりユーザーのパーソナルファイルにおける名前を取り出し、且つ、現在の時間により、記憶ユニットにおける対応する予め録音された音声を選択して、名前をマシン発声により、予め録音した音声とを接合した後に放送する。
必要がある時に、音声放送をするため、時間に関連する予め録音された音声を記憶ユニットに格納して、例えば、ユーザーは夜、家に帰ると、ロボットは赤外線のカメラ装置を介して検出し、主動に自己起動することができ、それに、顔画像により、現在ユーザーの身分を識別してユーザーのパーソナルファイルを取得して、現在の時間により記憶ユニットにおける対応する予め録音された音声を取得して、この場合、家庭用の知能ロボットは内部に配置されたTTS(Text To Speech)エンジンを介してマシン発声によりパーソナルファイルにある名前を放送して、且つ、取得された予め録音した音声と接合して、“こんばんは、xxx”のような挨拶が形成されるようになり、あるいはパーソナルファイルにおける歴史記録により、当該ユーザーが好きな音楽を放送する。好ましい実施形態として、記憶ユニットに必要な記憶空間を減少するため、挨拶の内容を文字列の形で記憶ユニットに格納して、マシンは直接的にTTSエンジンを介して発声する。
本発明の好ましい実施例では、ユーザーの顔画像を読み取るカメラを提供する。
声紋を検測すると同時に、カメラは同期にユーザーの顔を検測して、ユーザーの顔画像を検測しなかった場合、単独に声紋データを格納する;ユーザーの顔画像を検測した場合、ユーザーの顔と声紋データを同時に格納して、且つ、パーソナルファイルに関連付け、それから、インタラクションにより、ユーザーの確認後、声紋と顔画像とパーソナルファイルとの間の関係が確立した。
本発明の好ましい実施例では、上記の迅速な識別方法を採用する家庭用の知能ロボットをさらに含む。
ユーザーの身分を識別することが必要である場合、同時に声紋モデルにより識別することあるいは顔モデルにより識別することができ、様々な識別する方式は識別の正確率と効率を高めることができる。ユーザーは起動音声によりロボットを起動させインタラクションを行う場合、声紋識別により正確にユーザーを識別することができる;ユーザーは起動音声を使用しなかった場合、顔によりユーザーを識別することもできる。
上記述べたのはただ本発明の好ましい実施例であり、本発明の実施方式と保護範囲を制限する意図がなくて、当業者には、本発明の明細書及び付図内容により作り出された等しい置換や顕著な変更などから得られ方案は全て本発明の保護範囲内に属することに意識すべきである。

Claims (7)

  1. 異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と、
    前記ユーザーの特徴に関係する識別情報を収集し、前記識別情報と前記対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と、
    庭用の知能ロボットはユーザーの特徴を収集し、記憶されている前記識別情報とマッチングを行い、前記ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と、
    前記識別されたユーザーによって、対応する前記パーソナルファイルを取得し、前記パーソナルファイルにより作業を行う工程S400とを含み
    前記ユーザーは音声で前記家庭用の知能ロボットに指令し、前記家庭用の知能ロボットが前記音声に基づいて前記ユーザーを識別した状態に起動してから、前記家庭用の知能ロボットに指令を送信し、
    前記識別情報は声紋モデルを含み、
    前記声紋モデルを収集する方式が第1主動収集と第1自動収集とを含み、
    前記第1主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーからの起動音声によって、前記ユーザーの声紋モデルを取得する方式であり、
    前記第1自動収集は前記家庭用の知能ロボットにより前記ユーザーの初めて利用する時の収集された起動音声によって、自動的に前記ユーザーの声紋モデルを取得する方式であること、
    を含むことを特徴とする家庭用の知能ロボットに適用する迅速な識別方法。
  2. 前記識別情報は顔画像モデルを含むことを特徴とする請求項1記載の迅速な識別方法。
  3. 前記顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み、
    前記第2主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーの顔画像によって、前記ユーザーの前記顔画像モデルを取得する方式であって、
    前記第2自動収集は前記家庭用の知能ロボットが前記ユーザーの声紋モデルを取得した後、自動的に前記ユーザーの顔画像を読み取ることにより、前記顔画像モデルを取得する方式である、
    ことを特徴とする請求項記載の迅速な識別方法。
  4. 前記パーソナルファイルは歴史記録と格納リストを含み、前記家庭用の知能ロボットは識別済のユーザー指令を接収して、前記識別済のユーザーのパーソナルファイルにある前記歴史記録あるいは前記格納リストにより、前記ユーザー指令を執行することを特徴とする請求項1記載の迅速な識別方法。
  5. 時間に関連する複数の録音済の音声を記憶する一つの記憶ユニットが提供され、前記パーソナルファイルは前記ユーザーの名前を含み、前記家庭用の知能ロボットは前記ユーザーに対して顔画像の識別を行い、識別結果に応じて前記パーソナルファイルにある前記ユーザーの名前を取出して、それに前記記憶ユニットから対応する前記予め録音済の音声を現在の時間に合わせて選択して、前記名前を予め録音された音声と接合した後に、マシン発声を通して放送することを特徴とする請求項1記載の迅速な識別方法。
  6. 前記ユーザーの顔画像を読み取るカメラが提供されることを特徴とする請求項1記載の迅速な識別方法。
  7. 請求項1−のいずれかの迅速な識別方法を採用することを特徴とする家庭用の知能ロボット。
JP2018517885A 2015-10-09 2016-10-09 迅速な識別方法及び家庭用の知能ロボット Active JP6620230B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510650110.7A CN106570443A (zh) 2015-10-09 2015-10-09 一种快速识别方法及家庭智能机器人
CN201510650110.7 2015-10-09
PCT/CN2016/101567 WO2017059815A1 (zh) 2015-10-09 2016-10-09 一种快速识别方法及家庭智能机器人

Publications (2)

Publication Number Publication Date
JP2018533064A JP2018533064A (ja) 2018-11-08
JP6620230B2 true JP6620230B2 (ja) 2019-12-11

Family

ID=58487272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018517885A Active JP6620230B2 (ja) 2015-10-09 2016-10-09 迅速な識別方法及び家庭用の知能ロボット

Country Status (6)

Country Link
US (1) US10664511B2 (ja)
EP (1) EP3361410A4 (ja)
JP (1) JP6620230B2 (ja)
CN (1) CN106570443A (ja)
TW (1) TWI621470B (ja)
WO (1) WO2017059815A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570443A (zh) 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN110663078A (zh) * 2017-05-25 2020-01-07 三菱电机株式会社 语音识别装置及语音识别方法
CN107623614B (zh) * 2017-09-19 2020-12-08 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
WO2019084963A1 (zh) * 2017-11-06 2019-05-09 深圳市沃特沃德股份有限公司 机器人及其服务方法和装置
WO2019176018A1 (ja) * 2018-03-14 2019-09-19 株式会社ウフル Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム
US11992930B2 (en) * 2018-03-20 2024-05-28 Sony Corporation Information processing apparatus and information processing method, and robot apparatus
CN108765921A (zh) * 2018-04-04 2018-11-06 昆山市工研院智能制造技术有限公司 基于视觉语意分析应用于巡逻机器人的智能巡逻方法
CN110390938A (zh) * 2018-04-20 2019-10-29 比亚迪股份有限公司 基于声纹的语音处理方法、装置和终端设备
WO2020000388A1 (zh) * 2018-06-29 2020-01-02 深圳市大疆创新科技有限公司 一种虚拟对战的处理方法、服务器以及可移动平台
CN109688183B (zh) * 2018-08-20 2022-08-19 深圳壹账通智能科技有限公司 群控设备识别方法、装置、设备及计算机可读存储介质
CN109446876B (zh) * 2018-08-31 2020-11-06 百度在线网络技术(北京)有限公司 手语信息处理方法、装置、电子设备和可读存储介质
CN111177329A (zh) * 2018-11-13 2020-05-19 奇酷互联网络科技(深圳)有限公司 一种智能终端的用户交互方法、智能终端及存储介质
CN111292734B (zh) * 2018-12-06 2024-03-08 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN109882985B (zh) * 2018-12-26 2020-07-28 珠海格力电器股份有限公司 一种语音播报方法、装置、存储介质及空调
US11151993B2 (en) * 2018-12-28 2021-10-19 Baidu Usa Llc Activating voice commands of a smart display device based on a vision-based mechanism

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
EP1079615A3 (en) * 1999-08-26 2002-09-25 Matsushita Electric Industrial Co., Ltd. System for identifying and adapting a TV-user profile by means of speech technology
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP4369132B2 (ja) * 2001-05-10 2009-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者音声のバックグランド学習
JP2003122392A (ja) * 2001-10-16 2003-04-25 Yamatake Corp 音声入力者を判定する方法及び装置
US7987091B2 (en) * 2002-12-02 2011-07-26 Sony Corporation Dialog control device and method, and robot device
JP3951235B2 (ja) * 2003-02-19 2007-08-01 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP2005157086A (ja) * 2003-11-27 2005-06-16 Matsushita Electric Ind Co Ltd 音声認識装置
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
WO2009067670A1 (en) * 2007-11-21 2009-05-28 Gesturetek, Inc. Media preferences
US20180144649A1 (en) * 2010-06-07 2018-05-24 Affectiva, Inc. Smart toy interaction using image analysis
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
CN102447786A (zh) * 2011-11-14 2012-05-09 候万春 一种个人专用生活协助装置和方法
CN202736475U (zh) * 2011-12-08 2013-02-13 华南理工大学 一种聊天机器人
US9117449B2 (en) * 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
EP2852475A4 (en) * 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US8706827B1 (en) * 2012-06-21 2014-04-22 Amazon Technologies, Inc. Customized speech generation
TW201408052A (zh) * 2012-08-14 2014-02-16 Kentec Inc 電視裝置及其虛擬主持人顯示方法
JP2014092777A (ja) * 2012-11-06 2014-05-19 Magic Hand:Kk モバイル通信機器の音声による起動
CN103973441B (zh) * 2013-01-29 2016-03-09 腾讯科技(深圳)有限公司 基于音视频的用户认证方法和装置
CN103345232B (zh) 2013-07-15 2016-08-17 盐城市智敏信息科技有限公司 个性化智能家居控制方法及系统
FR3011375B1 (fr) * 2013-10-01 2017-01-27 Aldebaran Robotics Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en œuvre d'un tel procede
US9489171B2 (en) * 2014-03-04 2016-11-08 Microsoft Technology Licensing, Llc Voice-command suggestions based on user identity
JP2015176058A (ja) * 2014-03-17 2015-10-05 株式会社東芝 電子機器、方法及びプログラム
US9538005B1 (en) * 2014-09-19 2017-01-03 Amazon Technologies, Inc. Automated response system
KR102299764B1 (ko) * 2014-11-28 2021-09-09 삼성전자주식회사 전자장치, 서버 및 음성출력 방법
CN204462847U (zh) 2014-12-28 2015-07-08 青岛通产软件科技有限公司 一种多功能酒店服务机器人
CN104700018B (zh) * 2015-03-31 2016-09-21 江苏祥和电子科技有限公司 一种用于智能机器人的识别方法
CN104834849B (zh) * 2015-04-14 2018-09-18 北京远鉴科技有限公司 基于声纹识别和人脸识别的双因素身份认证方法及系统
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备
CN106570443A (zh) 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
US10120386B2 (en) * 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
US20180187969A1 (en) * 2017-01-03 2018-07-05 Samsung Electronics Co., Ltd. Refrigerator

Also Published As

Publication number Publication date
CN106570443A (zh) 2017-04-19
US20180293236A1 (en) 2018-10-11
EP3361410A1 (en) 2018-08-15
JP2018533064A (ja) 2018-11-08
EP3361410A4 (en) 2019-03-27
TWI621470B (zh) 2018-04-21
WO2017059815A1 (zh) 2017-04-13
TW201713402A (zh) 2017-04-16
US10664511B2 (en) 2020-05-26

Similar Documents

Publication Publication Date Title
JP6620230B2 (ja) 迅速な識別方法及び家庭用の知能ロボット
US10929514B2 (en) User registration method and device for smart robots
US11762494B2 (en) Systems and methods for identifying users of devices and customizing devices to users
TWI644307B (zh) 用於操作一虛擬助理之方法,電腦可讀儲存媒體,及系統
JP6721298B2 (ja) 音声情報制御方法及び端末装置
WO2018000280A1 (zh) 基于多模态的智能机器人交互方法和智能机器人
WO2017016034A1 (zh) 一种基于用户信息识别的设备控制方法及移动终端
US20180075848A1 (en) Dialogue apparatus and method
WO2017051601A1 (ja) 対話システム、端末、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム
CN107945806B (zh) 基于声音特征的用户识别方法及装置
JP7427408B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
WO2020079941A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
CN111343028A (zh) 配网控制方法及装置
TW201513095A (zh) 語音處理系統、裝置及方法
JP5849761B2 (ja) 音声認識システム、音声認識方法および音声認識プログラム
US10861447B2 (en) Device for recognizing speeches and method for speech recognition
JP2016102920A (ja) 文書記録システム及び文書記録プログラム
JP2007241130A (ja) 声紋認識を利用するシステムと装置
CN107277368A (zh) 一种用于智能设备的拍摄方法及拍摄装置
CN111506183A (zh) 一种智能终端及用户交互方法
JPWO2020003785A1 (ja) 音声処理装置、音声処理方法及び記録媒体
JP6250852B1 (ja) 判定プログラム、判定装置及び判定方法
JP2017021672A (ja) 検索装置
CN104902055B (zh) 联系人创建方法和装置
CN111476140A (zh) 信息播放方法、系统、电子设备、家用电器及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6620230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250