JP2018533064A - 迅速な識別方法及び家庭用の知能ロボット - Google Patents

迅速な識別方法及び家庭用の知能ロボット Download PDF

Info

Publication number
JP2018533064A
JP2018533064A JP2018517885A JP2018517885A JP2018533064A JP 2018533064 A JP2018533064 A JP 2018533064A JP 2018517885 A JP2018517885 A JP 2018517885A JP 2018517885 A JP2018517885 A JP 2018517885A JP 2018533064 A JP2018533064 A JP 2018533064A
Authority
JP
Japan
Prior art keywords
user
intelligent robot
home
identification method
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018517885A
Other languages
English (en)
Other versions
JP6620230B2 (ja
Inventor
シアン、ウェンジ
ズ、レイ
Original Assignee
ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド filed Critical ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド
Publication of JP2018533064A publication Critical patent/JP2018533064A/ja
Application granted granted Critical
Publication of JP6620230B2 publication Critical patent/JP6620230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Abstract

本発明は知能電子に関し、特に迅速な識別方法及び家庭用知能ロボットに関する。家庭用知能ロボットに適用する迅速な識別方法は、異なるユーザに対応するパーソナルファイルを予め設定する工程S100;ユーザの特徴に関する識別情報を収集し、識別情報と対応するユーザのパーソナルファイルとの間に関連を作る工程S200;家庭用知能ロボットはユーザの特徴を収集し、記憶された識別情報とマッチングを行い、ユーザを識別し、識別が成功の場合工程S400に進み、成功でない場合終了する工程S300;識別されたユーザによって対応するパーソナルファイルを取得し、パーソナルファイルにより作業を行う工程S400を含む。本発明の技術案により、異なるユーザに対し迅速な識別ができ、認識度と認識率が高くなり、家庭用知能ロボットはよりインテリジェントになり、異なるユーザに対してパーソナルサービスを提供でき、広い適用の見通しがある。【選択図】図1

Description

本発明はロボットに関し、特に、家庭用の知能ロボットに応用する迅速な識別方法及び家庭用の知能ロボットに関するものである。
スマート・エレクトロニクスの普及に従って、ますます多くの家庭が家庭用の知能ロボットとも呼ばれる知能電子製品を使い始めることになった。
現在、ますます多くのインテリジェント電子機器が使用されており、スマートな家庭用のロボットも徐々に普通の人々に家に入っている。しかしながら、既存の家庭用の知能ロボットは通常に従来の移動端末の1対1の動作モードを継続し、家族の全てのメンバーを区別せずに一人のユーザーとして扱うため、よって、家族の各メンバーが家庭用の知能ロボットを起動させる時に、排他的なパーソナライズドサービスを得ることができない、家庭用の知能ロボットの地位が弱くなり、家庭用の知能ロボットの普及に影響を与えた。
上記の問題に対して、本発明は異なるユーザーに対して家庭メンバーを迅速に識別することができ、パーソナライズドサービスを提供する迅速な識別方法及び家庭用の知能ロボットを提供した。
具体的な技術案は以下通りであり、すなわち:
家庭用の知能ロボットに適用する迅速な識別方法は、
異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と;
前記ユーザーの特徴に関係する識別情報を収集し、前記識別情報と前記対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と;
前記家庭用の知能ロボットはユーザーの特徴を収集し、記憶されている前記識別情報とマッチングを行い、前記ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と;
前記識別されたユーザーによって、対応する前記パーソナルファイルを取得し、前記パーソナルファイルにより作業を行う工程S400と;
を含む。
好ましくは、前記迅速な識別方法において、前記ユーザーは音声で前記家庭用の知能ロボットを活性化して、起動してから、前記家庭用の知能ロボットに指令を送信する。
好ましくは、前記迅速な識別方法において、前記識別情報は声紋モデルを含むこと。
好ましくは、前記迅速な識別方法において、前記識別情報は顔画像モデルを含む。
好ましくは、前記迅速な識別方法において、前記声紋モデルを収集する方式が第1主動収集と第1自動収集とを含み;
前記第1主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーからの起動音声によって、前記ユーザーの声紋モデルを取得する方式であって;
前記第1自動収集は前記家庭用の知能ロボットにより前記ユーザーの初めて利用する時の収集された起動音声によって、自動的に前記ユーザーの声紋モデルを取得する方式である。
好ましくは、前記迅速な識別方法において、前記顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み;
前記第2主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーの顔画像によって、前記ユーザーの前記顔画像モデルを取得する方式であって;
前記第2自動収集は前記家庭用の知能ロボットが前記ユーザーの声紋モデルを取得した後、自動的に前記ユーザーの顔画像を読み取ることにより、前記顔画像モデルを取得する方式である。
好ましくは、前記迅速な識別方法において、前記パーソナルファイルは歴史記録と格納リストを含み、前記家庭用の知能ロボットは識別済のユーザー指令を接収して、前記識別済のユーザーのパーソナルファイルにある前記歴史記録あるいは前記格納リストにより、前記指令を執行する。
好ましくは、前記迅速な識別方法において、時間に関連する複数の録音済の音声を記憶する一つの記憶ユニットが提供され、前記パーソナルファイルは前記ユーザーの名前を含み、前記家庭用の知能ロボットは前記ユーザーに対して顔画像の識別を行い、識別結果に応じて前記パーソナルファイルにある前記ユーザーの名前を取出して、それに前記記憶ユニットから対応する前記予め録音済の音声を現在の時間に合わせて選択して、前記名前を予め録音された音声と接合した後に、マシン発声を通して放送する。
好ましくは、前記迅速な識別方法において、前記ユーザーの顔画像を読み取るカメラが提供される。
好ましくは、上記の請求項1−9のいずれかの迅速な識別方法を採用する家庭用の知能ロボットをさらに含む。
本発明の技術案により、異なるユーザーに対して迅速な識別ができ、認識度と認識率が高くなり、家庭用の知能ロボットはもっとインテリジェントになり、それに、異なるユーザーに対して、パーソナルサービスを提供することができ、広い適用の見通しがある。
図1は本発明の迅速な識別方法及び家庭用の知能ロボット、の一つ好ましい実施例の実施方法のフローチャートである。
以下本発明の実施形態の図面を参照しながら、本発明の実施形態の技術案をはっきり、完全的に説明する。明らかに、記載されている実施形態はただ本発明の実施形態の一部だけであり、全ての実施形態ではない。当業者が本発明の実施形態に基づいて、創造的な労働をしないで、取得した実施形態は全部本発明の保護範囲内に属するものである。
説明する必要があるのは、衝突しない場合、本発明の実施形態及び実施形態における特徴を組み合わせることができる。
以下は図面と具体的な実施形態とにより本発明を詳しく説明するが、本発明に対しての限定ではない。
図1の示したように、家庭用の知能ロボットに適用する迅速な識別方法は、
異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と;
本発明の好ましい実施例では、好きな音楽あるいは個人の趣味などの様々なユーザーに関する情報を格納するために、ユーザーごとのパーソナルファイルを作成し、家庭用の知能ロボットは家族ごとに異なるパーソナライズドサービスを提供することができるようになった。
ユーザーの特徴に関係する識別情報を収集し、識別情報と上記の対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と;
ユーザーのパーソナルファイルと識別情報との間に相互の関連を作り、識別情報により対応するユーザーのパーソナルファイルを取得し、よって、家庭用の知能ロボットはパーソナルファイルごとに記載されている異なる情報により作動することができるようになって、家族ごとにパーソナライズドサービスを提供できることを実現した。
本発明の好ましい実施例では、識別情報は声紋モデルを含む。
本発明に基づいて、さらに、声紋モデルの収集方式が第1主動収集と第1自動収集とを含み;
第1主動収集は家庭用の知能ロボットにより予め収集されたユーザーの起動音声により、ユーザーの声紋モデルを取得する;
主動収集は主にはじめて家庭用の知能ロボットを使用する時に、ロボットに対して、ある情報の入力及び将来の使用のための設定をすることが必要であり、例えば起動音声の内容を設定すること、及び家族メンバーごとの識別情報を収集すること。第1自動収集は家庭用の知能ロボットにユーザーがはじめて使用する時の収集された起動音声により、自動的にユーザーの声紋モデルを取得するものである。
新しいユーザーの識別情報の収集に対して、家庭用の知能ロボットの自動収集方式によることができ、例えば、新しいユーザーは初めて家庭用の知能ロボットに指令(例えば家庭用の知能ロボットに設定された名前を呼ぶ)を発送する時、家庭用の知能ロボットは起動音声により起動され、且つ、当該ユーザーの音声を収集し、声紋モデルを生成し、当該ユーザーの指令に応答すると同時に、識別情報の収集が完成され、且つ新しいユーザーのパーソナルファイルが作成され、収集した声紋モデルを識別情報として格納する。
本発明の好ましい実施例では、識別情報は顔画像モデルを含む。
本技術案に基づいて、さらに、顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み;
第2主動収集は家庭用の知能ロボットにより予め収集されたユーザーの顔画像によって、ユーザーの顔画像モデルを取得するものであって;
主動収集は主にはじめて家庭用の知能ロボットを使用する時に、ロボットに対して、ある情報の入力及び将来の使用のための設定をすることが必要であり、例えば起動音声の内容を設定すること、及び家族メンバーごとの識別情報を収集すること。
第2自動収集は上記の家庭用の知能ロボットが上記のユーザーの声紋モデルを取得した後、自動的に上記のユーザーの顔画像を読み取ることにより、上記の顔画像モデルを取得するものである。
新しいユーザーの識別情報に対して自動収集を行う時に、ユーザーは次回に家庭用の知能ロボットを使用する時の身分識別に便利になるように、新しいユーザーの顔画像モデルを収集することも含む。
家庭用の知能ロボットはユーザーの特徴を収集し、記憶されている識別情報とマッチングを行い、ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と;
本発明の好ましい実施例では、家庭用の知能ロボットはユーザーを識別する時に、収集した顔画像がぼやけて顔を識別することができなかったら、自動にユーザーの声紋を識別し、声紋によりユーザーの身分を識別することができれば、顔画像の識別が成功でなくても、音声により、ユーザーは家庭用の知能ロボットに識別されることができる。
さらに、好ましい実施形態として、画像識別または音声識別のいずれかが成功である限り、家庭用の知能ロボットはユーザーに対する身分識別が成功とし、顔識別と声紋識別と共に成功でないだけでは、家庭用の知能ロボットはユーザーに対する識別が失敗とし、ユーザーは再び音声あるいは顔画像により身分の識別をすることができる。
識別されたユーザーによって、対応するパーソナルファイルを取り出し、パーソナルファイルに応じて作業を行う工程S400と;
本発明の好ましい実施例では、ユーザーは起動音声により家庭用の知能ロボットを起動し、家庭用の知能ロボットに指令を発送する。
ユーザーは家庭用の知能ロボットに指令を出す時に、ユーザーの他の音声と区分をするため、普通に、家庭用の知能ロボットに対する起動は固定音声により起動させ、例えば、家庭用の知能ロボットに素晴らしい名前を付け、家族のように家庭用の知能ロボットの名前を呼ぶなど、前記の設定により、家庭用の知能ロボットは自分の名前が聞こえると活性化され、ロボットを起動させる音声は固定であるため、よって、起動音声に基づく声紋識別をすることができ、ユーザーはロボットを使用する時、起動音声を出すことによりロボットを起動させ、ロボットは自分の名前を含む音声を検測すると、声紋検測をし、だから、固定音声に基づく声紋検測はより高い正確率を持つ。
本発明の好ましい実施例では、パーソナルファイルに歴史記録と格納リストとを含み、家庭用の知能ロボットは識別済のユーザーからの指令を接収して、識別済のユーザーのパーソナルファイルにおける歴史記録あるいは格納リストにより指令を実行する。
例えば、あるユーザーはロボットを起動させて、“音楽を放送してくれ”という指令を出す時に、ロボットは起動音声によりユーザーを識別することができ、当該ユーザーの放送リストを記録し、且つ分析し、ユーザーはしばらくの日々が経って、使用してから、ロボットはユーザーの履歴とお気に入りのリストによって精確な勧めを行うことができ、他の家族メンバーが“音楽を放送してくれ”という同じ指令を出す時に、ロボットは声紋により家族メンバーを区分することができ、異なる家族メンバーに違う音楽を勧める。
本発明の好ましい実施例では、時間に関連する複数の予め録音済み音声を格納する一つの記憶ユニットがさらに提供され、パーソナルファイルにさらにユーザーの名前が含まれ、家庭用の知能ロボットはユーザーに対して自動に顔画像を識別して、識別結果によりユーザーのパーソナルファイルにおける名前を取り出し、且つ、現在の時間により、記憶ユニットにおける対応する予め録音された音声を選択して、名前をマシン発声により、予め録音した音声とを接合した後に放送する。
必要がある時に、音声放送をするため、時間に関連する予め録音された音声を記憶ユニットに格納して、例えば、ユーザーは夜、家に帰ると、ロボットは赤外線のカメラ装置を介して検出し、主動に自己起動することができ、それに、顔画像により、現在ユーザーの身分を識別してユーザーのパーソナルファイルを取得して、現在の時間により記憶ユニットにおける対応する予め録音された音声を取得して、この場合、家庭用の知能ロボットは内部に配置されたTTS(Text To Speech)エンジンを介してマシン発声によりパーソナルファイルにある名前を放送して、且つ、取得された予め録音した音声と接合して、“こんばんは、xxx”のような挨拶が形成されるようになり、あるいはパーソナルファイルにおける歴史記録により、当該ユーザーが好きな音楽を放送する。好ましい実施形態として、記憶ユニットに必要な記憶空間を減少するため、挨拶の内容を文字列の形で記憶ユニットに格納して、マシンは直接的にTTSエンジンを介して発声する。
本発明の好ましい実施例では、ユーザーの顔画像を読み取るカメラを提供する。
声紋を検測すると同時に、カメラは同期にユーザーの顔を検測して、ユーザーの顔画像を検測しなかった場合、単独に声紋データを格納する;ユーザーの顔画像を検測した場合、ユーザーの顔と声紋データを同時に格納して、且つ、パーソナルファイルに関連付け、それから、インタラクションにより、ユーザーの確認後、声紋と顔画像とパーソナルファイルとの間の関係が確立した。
本発明の好ましい実施例では、上記の迅速な識別方法を採用する家庭用の知能ロボットをさらに含む。
ユーザーの身分を識別することが必要である場合、同時に声紋モデルにより識別することあるいは顔モデルにより識別することができ、様々な識別する方式は識別の正確率と効率を高めることができる。ユーザーは起動音声によりロボットを起動させインタラクションを行う場合、声紋識別により正確にユーザーを識別することができる;ユーザーは起動音声を使用しなかった場合、顔によりユーザーを識別することもできる。
上記述べたのはただ本発明の好ましい実施例であり、本発明の実施方式と保護範囲を制限する意図がなくて、当業者には、本発明の明細書及び付図内容により作り出された等しい置換や顕著な変更などから得られ方案は全て本発明の保護範囲内に属することに意識すべきである。

Claims (10)

  1. 異なるユーザーに対応する複数のパーソナルファイルを予め設定する工程S100と、
    前記ユーザーの特徴に関係する識別情報を収集し、前記識別情報と前記対応するユーザーのパーソナルファイルとの間に関連を作る工程S200と、
    前記家庭用の知能ロボットはユーザーの特徴を収集し、記憶されている前記識別情報とマッチングを行い、前記ユーザーを識別して、識別が成功である場合、工程S400に進み、成功ではない場合、終了とする工程S300と、
    前記識別されたユーザーによって、対応する前記パーソナルファイルを取得し、前記パーソナルファイルにより作業を行う工程S400と、
    を含むことを特徴とする家庭用の知能ロボットに適用する迅速な識別方法。
  2. 前記ユーザーは音声で前記家庭用の知能ロボットを活性化して、起動してから、前記家庭用の知能ロボットに指令を送信することを特徴とする請求項1記載の迅速な識別方法。
  3. 前記識別情報は声紋モデルを含むことを特徴とする請求項1記載の迅速な識別方法。
  4. 前記識別情報は顔画像モデルを含むことを特徴とする請求項1記載の迅速な識別方法。
  5. 前記声紋モデルを収集する方式が第1主動収集と第1自動収集とを含み、
    前記第1主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーからの起動音声によって、前記ユーザーの声紋モデルを取得する方式であって、
    前記第1自動収集は前記家庭用の知能ロボットにより前記ユーザーの初めて利用する時の収集された起動音声によって、自動的に前記ユーザーの声紋モデルを取得する方式である、
    ことを特徴とする請求項3記載の迅速な識別方法。
  6. 前記顔画像モデルの収集方式は第2主動収集と第2自動収集とを含み、
    前記第2主動収集は前記家庭用の知能ロボットにより予め収集された前記ユーザーの顔画像によって、前記ユーザーの前記顔画像モデルを取得する方式であって、
    前記第2自動収集は前記家庭用の知能ロボットが前記ユーザーの声紋モデルを取得した後、自動的に前記ユーザーの顔画像を読み取ることにより、前記顔画像モデルを取得する方式である、
    ことを特徴とする請求項4記載の迅速な識別方法。
  7. 前記パーソナルファイルは歴史記録と格納リストを含み、前記家庭用の知能ロボットは識別済のユーザー指令を接収して、前記識別済のユーザーのパーソナルファイルにある前記歴史記録あるいは前記格納リストにより、前記指令を執行することを特徴とする請求項1記載の迅速な識別方法。
  8. 時間に関連する複数の録音済の音声を記憶する一つの記憶ユニットが提供され、前記パーソナルファイルは前記ユーザーの名前を含み、前記家庭用の知能ロボットは前記ユーザーに対して顔画像の識別を行い、識別結果に応じて前記パーソナルファイルにある前記ユーザーの名前を取出して、それに前記記憶ユニットから対応する前記予め録音済の音声を現在の時間に合わせて選択して、前記名前を予め録音された音声と接合した後に、マシン発声を通して放送することを特徴とする請求項1記載の迅速な識別方法。
  9. 前記ユーザーの顔画像を読み取るカメラが提供されることを特徴とする請求項1記載の迅速な識別方法。
  10. 請求項1−9のいずれかの迅速な識別方法を採用することを特徴とする家庭用の知能ロボット。
JP2018517885A 2015-10-09 2016-10-09 迅速な識別方法及び家庭用の知能ロボット Active JP6620230B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510650110.7A CN106570443A (zh) 2015-10-09 2015-10-09 一种快速识别方法及家庭智能机器人
CN201510650110.7 2015-10-09
PCT/CN2016/101567 WO2017059815A1 (zh) 2015-10-09 2016-10-09 一种快速识别方法及家庭智能机器人

Publications (2)

Publication Number Publication Date
JP2018533064A true JP2018533064A (ja) 2018-11-08
JP6620230B2 JP6620230B2 (ja) 2019-12-11

Family

ID=58487272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018517885A Active JP6620230B2 (ja) 2015-10-09 2016-10-09 迅速な識別方法及び家庭用の知能ロボット

Country Status (6)

Country Link
US (1) US10664511B2 (ja)
EP (1) EP3361410A4 (ja)
JP (1) JP6620230B2 (ja)
CN (1) CN106570443A (ja)
TW (1) TWI621470B (ja)
WO (1) WO2017059815A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570443A (zh) 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
WO2018216180A1 (ja) * 2017-05-25 2018-11-29 三菱電機株式会社 音声認識装置および音声認識方法
CN107623614B (zh) * 2017-09-19 2020-12-08 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
WO2019084963A1 (zh) * 2017-11-06 2019-05-09 深圳市沃特沃德股份有限公司 机器人及其服务方法和装置
WO2019176018A1 (ja) * 2018-03-14 2019-09-19 株式会社ウフル Aiスピーカーシステム、aiスピーカーシステムの制御方法、及びプログラム
EP3770821A4 (en) * 2018-03-20 2021-05-12 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHODS, AND ROBOTIC DEVICE
CN108765921A (zh) * 2018-04-04 2018-11-06 昆山市工研院智能制造技术有限公司 基于视觉语意分析应用于巡逻机器人的智能巡逻方法
CN110390938A (zh) * 2018-04-20 2019-10-29 比亚迪股份有限公司 基于声纹的语音处理方法、装置和终端设备
CN110290846B (zh) * 2018-06-29 2021-09-24 深圳市大疆创新科技有限公司 一种虚拟对战的处理方法、服务器以及可移动平台
CN109688183B (zh) * 2018-08-20 2022-08-19 深圳壹账通智能科技有限公司 群控设备识别方法、装置、设备及计算机可读存储介质
CN109446876B (zh) * 2018-08-31 2020-11-06 百度在线网络技术(北京)有限公司 手语信息处理方法、装置、电子设备和可读存储介质
CN111177329A (zh) * 2018-11-13 2020-05-19 奇酷互联网络科技(深圳)有限公司 一种智能终端的用户交互方法、智能终端及存储介质
CN111292734B (zh) * 2018-12-06 2024-03-08 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN109882985B (zh) * 2018-12-26 2020-07-28 珠海格力电器股份有限公司 一种语音播报方法、装置、存储介质及空调
US11151993B2 (en) * 2018-12-28 2021-10-19 Baidu Usa Llc Activating voice commands of a smart display device based on a vision-based mechanism

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142481A (ja) * 1999-08-26 2001-05-25 Matsushita Electric Ind Co Ltd 音声/ビデオ装置用の制御システム及び音声/ビデオ構成を制御するための統合アクセスシステム
JP2003122392A (ja) * 2001-10-16 2003-04-25 Yamatake Corp 音声入力者を判定する方法及び装置
JP2004252111A (ja) * 2003-02-19 2004-09-09 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2004528595A (ja) * 2001-05-10 2004-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者音声のバックグランド学習
JP2005157086A (ja) * 2003-11-27 2005-06-16 Matsushita Electric Ind Co Ltd 音声認識装置
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
JP2014039233A (ja) * 2012-08-14 2014-02-27 Kentec Inc テレビ装置およびそのバーチャルガイドの表示方法
JP2014092777A (ja) * 2012-11-06 2014-05-19 Magic Hand:Kk モバイル通信機器の音声による起動
JP2015520409A (ja) * 2012-04-26 2015-07-16 ニュアンス コミュニケーションズ,インコーポレイテッド ユーザ定義可能な制約条件を有する省スペースの音声認識を構築する為の埋め込みシステム
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备
JP2015176058A (ja) * 2014-03-17 2015-10-05 株式会社東芝 電子機器、方法及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
CN1720520B (zh) * 2002-12-02 2010-05-05 索尼株式会社 对话控制设备和方法,以及机器人设备
CN101925916B (zh) * 2007-11-21 2013-06-19 高通股份有限公司 基于媒体偏好控制电子设备的方法和系统
US20180144649A1 (en) * 2010-06-07 2018-05-24 Affectiva, Inc. Smart toy interaction using image analysis
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
CN102447786A (zh) * 2011-11-14 2012-05-09 候万春 一种个人专用生活协助装置和方法
CN202736475U (zh) * 2011-12-08 2013-02-13 华南理工大学 一种聊天机器人
EP2852881A4 (en) * 2012-05-22 2016-03-23 Intouch Technologies Inc GRAPHIC USER INTERFACES CONTAINING TOUCH PAD TOUCH INTERFACES FOR TELEMEDICINE DEVICES
US8706827B1 (en) * 2012-06-21 2014-04-22 Amazon Technologies, Inc. Customized speech generation
CN103973441B (zh) * 2013-01-29 2016-03-09 腾讯科技(深圳)有限公司 基于音视频的用户认证方法和装置
CN103345232B (zh) * 2013-07-15 2016-08-17 盐城市智敏信息科技有限公司 个性化智能家居控制方法及系统
FR3011375B1 (fr) * 2013-10-01 2017-01-27 Aldebaran Robotics Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en œuvre d'un tel procede
US9489171B2 (en) * 2014-03-04 2016-11-08 Microsoft Technology Licensing, Llc Voice-command suggestions based on user identity
US9538005B1 (en) * 2014-09-19 2017-01-03 Amazon Technologies, Inc. Automated response system
KR102299764B1 (ko) * 2014-11-28 2021-09-09 삼성전자주식회사 전자장치, 서버 및 음성출력 방법
CN204462847U (zh) 2014-12-28 2015-07-08 青岛通产软件科技有限公司 一种多功能酒店服务机器人
CN104700018B (zh) * 2015-03-31 2016-09-21 江苏祥和电子科技有限公司 一种用于智能机器人的识别方法
CN104834849B (zh) * 2015-04-14 2018-09-18 北京远鉴科技有限公司 基于声纹识别和人脸识别的双因素身份认证方法及系统
CN106570443A (zh) 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
WO2018094272A1 (en) * 2016-11-18 2018-05-24 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
US20180187969A1 (en) * 2017-01-03 2018-07-05 Samsung Electronics Co., Ltd. Refrigerator

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142481A (ja) * 1999-08-26 2001-05-25 Matsushita Electric Ind Co Ltd 音声/ビデオ装置用の制御システム及び音声/ビデオ構成を制御するための統合アクセスシステム
JP2004528595A (ja) * 2001-05-10 2004-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者音声のバックグランド学習
JP2003122392A (ja) * 2001-10-16 2003-04-25 Yamatake Corp 音声入力者を判定する方法及び装置
JP2004252111A (ja) * 2003-02-19 2004-09-09 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2005157086A (ja) * 2003-11-27 2005-06-16 Matsushita Electric Ind Co Ltd 音声認識装置
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
JP2015520409A (ja) * 2012-04-26 2015-07-16 ニュアンス コミュニケーションズ,インコーポレイテッド ユーザ定義可能な制約条件を有する省スペースの音声認識を構築する為の埋め込みシステム
JP2014039233A (ja) * 2012-08-14 2014-02-27 Kentec Inc テレビ装置およびそのバーチャルガイドの表示方法
JP2014092777A (ja) * 2012-11-06 2014-05-19 Magic Hand:Kk モバイル通信機器の音声による起動
JP2015176058A (ja) * 2014-03-17 2015-10-05 株式会社東芝 電子機器、方法及びプログラム
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
後藤淳 他: ""テレビ視聴支援のための知的インターフェース技術"", NHK技研R&D, JPN6019011339, 15 November 2007 (2007-11-15), pages 20 - 35, ISSN: 0004008589 *

Also Published As

Publication number Publication date
EP3361410A4 (en) 2019-03-27
TW201713402A (zh) 2017-04-16
CN106570443A (zh) 2017-04-19
WO2017059815A1 (zh) 2017-04-13
TWI621470B (zh) 2018-04-21
US10664511B2 (en) 2020-05-26
EP3361410A1 (en) 2018-08-15
JP6620230B2 (ja) 2019-12-11
US20180293236A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6620230B2 (ja) 迅速な識別方法及び家庭用の知能ロボット
US10929514B2 (en) User registration method and device for smart robots
WO2018000280A1 (zh) 基于多模态的智能机器人交互方法和智能机器人
JP6721298B2 (ja) 音声情報制御方法及び端末装置
TW201626365A (zh) 說話者識別及非監督式說話者自適應性技術
TW201606760A (zh) 從音頻訊號的即時情緒辨識
WO2016074407A1 (zh) 一种用户界面的主题切换方法、装置及终端
CN107945806B (zh) 基于声音特征的用户识别方法及装置
JP7427408B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN101297292A (zh) 用于向电子日记本加入内容或从中获取内容的方法和系统
WO2013189317A1 (zh) 基于人脸信息的多媒体交互方法及装置及终端
KR20210002604A (ko) 자동 어시스턴트 루틴에 포함을 위한 자동 어시스턴트 액션 추천
WO2020079941A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
JP2016102920A (ja) 文書記録システム及び文書記録プログラム
TW201513095A (zh) 語音處理系統、裝置及方法
US10861447B2 (en) Device for recognizing speeches and method for speech recognition
JP2007241130A (ja) 声紋認識を利用するシステムと装置
JPWO2020003785A1 (ja) 音声処理装置、音声処理方法及び記録媒体
CN111506183A (zh) 一种智能终端及用户交互方法
JP6250852B1 (ja) 判定プログラム、判定装置及び判定方法
JPWO2019155717A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN113241056B (zh) 语音合成模型的训练与语音合成方法、装置、系统及介质
CN110635976B (zh) 一种陪护设备控制方法、陪护设备控制系统及存储介质
JP4490448B2 (ja) ロボット制御システム
US11087798B2 (en) Selective curation of user recordings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6620230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250