JP6700785B2 - 人工知能に基づく知能ロボットの制御システム、方法及び装置 - Google Patents

人工知能に基づく知能ロボットの制御システム、方法及び装置 Download PDF

Info

Publication number
JP6700785B2
JP6700785B2 JP2015257463A JP2015257463A JP6700785B2 JP 6700785 B2 JP6700785 B2 JP 6700785B2 JP 2015257463 A JP2015257463 A JP 2015257463A JP 2015257463 A JP2015257463 A JP 2015257463A JP 6700785 B2 JP6700785 B2 JP 6700785B2
Authority
JP
Japan
Prior art keywords
cloud
intelligent robot
user
control center
processing information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015257463A
Other languages
English (en)
Other versions
JP2017010518A (ja
Inventor
ゲ・シンフェイ
ウ・フア
リ・ジャリン
シュー・チェン
ワン・ハイフェン
ジン・クン
スン・ウェンユ
ウー・ティエン
グアン・ダイソン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2017010518A publication Critical patent/JP2017010518A/ja
Application granted granted Critical
Publication of JP6700785B2 publication Critical patent/JP6700785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

本発明は、インテリジェント端末技術に関し、特に人工知能に基づく知能ロボットの制御システム、方法及び装置に関する。
人工知能(Artificial Intelligence、AIと略称する)とは、人間の知能をシミュレート・延伸・拡張するための論理、方法、技術及び応用システムを研究・開発する新しい技術科学である。人知能は計算機科学のブランチであり、知能の本質を捉えようとすると同時に、人間の知能と同様に反応する新しい知能ロボットを作り出すよう試みる。該分野の研究はロボット、音声認識、画像認識、自然言語処理とエキスパートシステム等を含む。知能ロボットは人知能製品の一つとして、生活、仕事、科学探索等のさまざまな方面に幅広く応用されている。人々が知能ロボットのリアルタイム応答の能力及び大量データの処理、分析能力に対する要求がますます高くなっている。知能ロボットの動作、ナビゲーション等の機能が迅速に応答・処理できるだけでなく、同時に知能ロボットに双方向の対話、顔認識等の機能を備えるように人々は望んでいるため、知能ロボットの迅速に応答、意思決定能力及び大量データを記憶・処理する能力が要求される。しかし、現在の知能ロボットの制御システムはユーザの前記ニーズを満たせず、ユーザエクスペリエンスがよくない。
本発明は、先行技術に存在する技術問題点の少なくとも1つを解決することを目的とする。
そのため、本発明はタイムリーで迅速に、インテリジェントにユーザの命令に応答することができる人工知能に基づく知能ロボットの制御システムを提供することを第一目的とする。
本発明は人工知能に基づく知能ロボットの制御方法を提供することを第二目的とする。
本発明は人工知能に基づく知能ロボットの別の制御方法を提供することを第三目的とする。
本発明は人工知能に基づく知能ロボットの制御装置を提供することを第四目的とする。
本発明は人工知能に基づく知能ロボットの別の制御装置を提供することを第五目的とする。
前記目的を達成するため、本発明の実施形態1に係る人工知能に基づく知能ロボットの制御システムは、意思決定エンジンとクラウド側コントロールセンターを含み、前記意思決定エンジンは知能ロボットに設置され、前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびに前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御し、前記クラウド側コントロールセンターは、前記クラウド側処理情報を受信するとともに、該クラウド側処理情報を分析して前記ユーザニーズを取得し、該ユーザニーズを前記意思決定エンジンに返送する。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御システムは、知能ロボットの意思決定エンジンは、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて前記知能ロボットを制御することにより、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の実施形態2に係る人工知能に基づく知能ロボットの制御方法は、知能ロボットの意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップと、ユーザニーズを取得できるように、前記意思決定エンジンは前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させるステップと、前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップとを含む。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御方法は、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御することにより、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の実施形態3に係る人工知能に基づく知能ロボットの制御装置は、前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成する生成モジュールと、ユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させるモジュールと、前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御する制御モジュールとを含む。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御装置は、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御することにより、処理能力と応答速度に応じローカルとクラウド側コントロールセンターとの分業で知能ロボットが受信したマルチモード入力信号を処理し、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル処理を用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の実施形態4に係る人工知能に基づく知能ロボットの制御方法は、クラウド側コントロールセンターは知能ロボットから送信されたクラウド側処理情報を受信するステップと、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析してユーザニーズを取得するステップと、前記クラウド側コントロールセンターは前記ユーザニーズを前記意思決定エンジンに返送するステップとを含む。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御方法は、知能ロボットの意思決定エンジンから送信されたクラウド側処理情報を受信し、分析してユーザニーズを取得した後それを意思決定エンジンに返送し、意思決定エンジンによってユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボット制御することにより、該制御方法を用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の実施形態5に係る人工知能に基づく知能ロボットの制御装置は、知能ロボットから送信されたクラウド側処理情報を受信する受信モジュールと、前記クラウド側処理情報を分析してユーザニーズを取得する分析モジュールと、前記ユーザニーズを前記意思決定エンジンに返送する復元モジュールとを含む。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御装置は、知能ロボットの意思決定エンジンから送信されたクラウド側処理情報を受信し、分析してユーザニーズを取得した後それを意思決定エンジンに返送し、意思決定エンジンによってユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボット制御することにより、該制御装置を用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の付加的方面及びメリットは、以下の説明において部分的に述べられ、この説明から一部は明らかになるか、または、本発明の実施により理解され得る。
本発明の上述及び/或いは付加的方面とメリットは、下記の図面を結合した実施形態に対する説明において、明らかになり、理解されることが容易になる。その中で、
本発明の一実施形態による人工知能に基づく知能ロボットの制御システムを示すブロック図である。 本発明の一実施形態による応用シーンを示す図である。 本発明の別の実施形態による応用シーンを示す図である。 本発明の別の実施形態による応用シーンを示す図である。 本発明の一実施形態による人工知能に基づく知能ロボットの制御システムのインターアクションを示す図である。 本発明の一実施形態による人工知能に基づく知能ロボットの制御方法を示すフローチャート図である。 本発明の一実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。 本発明の別の実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。 本発明の一実施形態による人工知能に基づく知能ロボットの制御方法を示すフローチャート図である。 本発明の別の実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。
以下、本発明の実施の形態を詳細に説明する。前記実施の形態の実例が図面において示されるが、同一の又は類似する符号が相同若しくは類似の部品又は相同若しくは類似の機能を有する部品を表す。以下、図面を参照しながら説明する実施形態が例示性のものであり、本発明を一般に理解するために用いられる。実施形態は、本発明を制限するように解釈されてはならない。
本発明の説明には、用語「複数」は二つ又は二つ以上を指す。用語「第一」、「第二」等は単に説明のためのみに用いられ、相対的な重要性に明示的にも暗示的にも関連づけられ使用されるものではない。
以下は図面を参照しながら本発明の実施形態に係る人工知能に基づく知能ロボットの制御システム、制御方法及び制御装置を説明する。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御システムは、意思決定エンジンとクラウド側コントロールセンターを含み、意思決定エンジンは知能ロボットに設置され、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御し、クラウド側コントロールセンターは、クラウド側処理情報を受信するとともに、クラウド側処理情報を分析してユーザニーズを取得し、ユーザニーズを意思決定エンジンに返送する。
図1は本発明の一実施形態による知能ロボットの制御システムを示すブロック図である。
図1に示したように、該人工知能に基づく知能ロボットの制御システムは、意思決定エンジン10とクラウド側コントロールセンター20を含む。
具体的には、意思決定エンジン10は知能ロボットに設置され、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御する。
クラウド側コントロールセンター20は、クラウド側処理情報を受信するとともに、クラウド側処理情報を分析してユーザニーズを取得し、ユーザニーズの処理結果を意思決定エンジンに返送する。
本発明の一実施形態において、マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む。具体的には、ユーザが入力した音声信号はユーザがマイクによって入力することができ、前記画像信号はカメラ又は赤外線センサによって入力されることができ、前記環境センサ信号は光センサ、赤外線センサ、温湿度センサ、有毒ガスセンサ、粒子状物質センサ、タッチモジュール、地理的位置定位モジュールと重力センサの中の一つ又は複数のセンサによって入力された信号を含む。
知能ロボットのローカル意思決定エンジン10は迅速に応答できる利点があるが、記憶容量とデータ処理能力等が制限されているため、クラウド側コントロールセンター20に比べて、意思決定エンジン10は音声認識、画像認識等に対する認識精度が低い。それに対して、クラウド側コントロールセンター20はインターネットリソースをフルに活用し、極めて優れた処理能力をもち、意味分析、機械翻訳、情感分析、顔認識、音声認識等ができるように、オンライン学習、情報検索、知識問答若しくは大量データを通して学習・トレーニングすることができる。そのため、高精度ではあるが、ネットワークの信号、速度等に影響され、ネットワーク遅延等の問題がある。
そのため、本発明の実施形態において、上述マルチモードの入力信号における一部の信号を処理するには強力なデータ処理能力が必要とされず、大量のオンライン知識データも頼らず、同時にこれらの信号を処理するには複数のセンサ信号を統合してリアルタイム処理をしなければならず、最良の信号を取得する又は障害物を回避することができるように、直ちに動作機構等を制御して調整・応答し、調整して取得された信号を新たにリアルタイム処理することであれば、この過程は信頼性の低くかつ遅延のあるクラウド側コントロールセンター20が適用されないため、意思決定エンジン10を用いてこれらの信号を処理することができる。例えば、意思決定エンジン10はユーザが入力した音声信号に基づいて音源定位、声紋認識等を行ったり、画像信号と環境センサ情報に基づいて周辺環境を感知したり、周辺環境に基づいて知能ロボットを制御して障害物回避、追従等の動作をさせたりすることができる。
また、上述マルチモードの入力信号における音声信号、画像信号、赤外線信号等に基づいて音声認識、音声合成、画像認識、地図情報収集と前処理などをする場合、例えば顔認識、背丈認識、動作認識、ジェスチャー認識等をする場合、クラウド側コントロールセンター20を用いて処理すれば、より精度の高い結果が得られる。
音声信号を例にすると、音声信号を処理するには音声認識、自然言語理解、意味分析、機械翻訳、情感分析をしなければならないため、大量の言語資料とデータを使用してトレーニングしなければならず、ユーザとインターアクションする過程においてもユーザの音声、動作の意味を分析した後、知識問答を通してフィードバック内容を決めなければならない。従って、この場合はクラウド側コントロールセンター20に送信し、クラウド側コントロールセンター20のスーパー記憶容量、データ処理能力を通して分析する。
当然ながら、本発明の実施形態において、オフラインとオンラインの組み合わせを利用して、即ちオンラインの場合はクラウド側コントロールセンター20を優先利用して分析すれば、認識精度が高く、又は音声合成の効果が自然であり、オフラインの場合はローカル意思決定エンジン10を使用して処理すれば、最高の効果を上げなくても一応動作できるため、ローカル意思決定エンジン10とクラウド側コントロールセンター20の長所をフルに活用でき、ロボットに正確に各種の信号を認識させ、タイムリーで迅速に応答させることができる。
更に、本発明の一実施形態において、意思決定エンジン10を用いてマルチモードの入力信号を前処理し、前処理された結果をクラウド側処理情報としてクラウド側コントロールセンター20に送信して更なる分析をすることもできる。
本発明の一実施形態において、意思決定エンジン10は、ユーザが入力した音声信号を複数の音声クリップに分割し、複数の音声クリップをクラウド側処理情報としてクラウド側コントロールセンター20に送信して処理することもできる。クラウド側コントロールセンター20は複数の音声クリップに対して音声認識をし、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数をすることによって、ユーザニーを取得した後、ユーザニーズを意思決定エンジン10に返送する。意思決定エンジン10はユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。
具体的には、本発明の一実施形態において、ユーザニーズが動作制御である場合、意思決定エンジン10はユーザの位置を取得し、画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知し、ユーザの位置、周辺地図及び/又は周辺環境に基づいてユーザニーズに従って動作するように知能ロボットを制御する。
図2は本発明の一実施形態に係る応用シーンを示す図である。図2に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、意思決定エンジン10はユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「ついて来い」、「ついてきて」、「早く追いついて」等の自然言語で話した音声を入力した場合、分析させるため、意思決定エンジン10は該音声に対応する音声クリップをクラウド側コントロールセンター20に送信する。クラウド側コントロールセンター20は分析し、表現方法の不均一な命令に対して意味分析と均一化処理をし、ユーザニーズが均一で規範化する「追従」であることがわかり、それを意思決定エンジン10に返送する。意思決定エンジン10は「追従」ニーズに基づいて命令ディスパッチをし、即ち動作制御プログラムを呼び出してユーザにお供して動作させるように知能ロボットを制御する。具体的に、意思決定エンジン10はユーザの位置を取得できるようにユーザに方位追従することができる。例えば、ユーザの音声信号に基づいてユーザに音源定位をし、カメラなどをユーザに向、ユーザの位置変化に応じ移動させるように知能ロボットを制御する。更に、移動過程において、意思決定エンジン10は周辺地図と周囲環境に基づいて障害物回避及びルート検索をさせるように知能ロボットを制御する。
ユーザニーズがルート検索である場合、意思決定エンジン10は画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、知能ロボットの位置と目標位置を取得し、意思決定エンジンは周辺位置、知能ロボットの位置及び目標位置に基づいて知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御する。
図3は本発明の別の実施形態による応用シーンを示す図である。図3に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、意思決定エンジン10はユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「中国国際航空はどこでチェックインするか」、「セキュリティ検査はどこで行うか」、「国際便の搭乗口はどこですか」等の音声を入力した場合、分析させるため、意思決定エンジン10は該音声に対応する音声クリップをクラウド側コントロールセンター20に送信する。クラウド側コントロールセンター20は分析し、ユーザニーズが「指定実体の位置」であることがわかり、それを意思決定エンジン10に返送する。意思決定エンジン10は「指定実体の位置」ニーズに基づいて命令ディスパッチをし、即ち道案内プログラムを呼び出してユーザに道案内させるように知能ロボットを制御する。具体的に、自分の位置を判定するため、意思決定エンジン10は位置と方向を検出し、周辺地図において定位した後、指定実体の相対位置に基づいてユーザに道案内をする。例えば、転身と上肢の動作制御によって方向を示したり、音声を出力することによって方向を示したりするとともに、音声インターアクションによってユーザに道案内をすることができる。
本発明の別の実施形態において、意思決定エンジン10は画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をすることができる。その中で、意思決定エンジン10は取得されたユーザの画像信号に基づいてユーザの身体の動き、ジェスチャー、背丈認識等を認識し、それらに基づいてユーザの寝返り、ジャンプなどの動作検出をすることができる。その後所定のルールに従って動作検出結果をクラウド側処理情報としてクラウド側コントロールセンター20に送信して処理する。例えば、検出されたそれぞれの動作及び対応するタイムスタンプ(動作の発生時間)をクラウド側コントロールセンター20に送信する。クラウド側コントロールセンター20は一定の期間の動作検出結果を分析し、分析結果を対応する知識ベースと比較して対応するユーザニーズを取得した後、それを意思決定エンジン10に返送する。意思決定エンジン10はユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。具体的には、意思決定エンジン10はユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように知能ロボットを制御する。
図4は本発明の別の実施形態による応用シーンを示す図である。図4に示したように、意思決定エンジン10はユーザ(乳幼児)の赤外線画像を取得し、目標動作検出をすることができ、ユーザが寝返りしたと検出した場合、監護プログラムを呼び出して検出された寝返り動作と対応するタイムスタンプをクラウド側コントロールセンター20に送信する。クラウド側コントロールセンター20は受信した操作及び対応するタイムスタンプを記録し、一定の期間の記録結果に基づいて寝返りの頻度を計算し、それを母子知識ベースと比較し、該寝返りの頻度が小便等による不快であるせいだとわかれば、この結果を意思決定エンジン10に返送する。意思決定エンジン10はこの結果を受信した後監護プログラムを呼び出し予め設定したモバイル端末に「おむつを替える」という提示情報を送信する。また、ユーザ画像の視野を確保できるように、意思決定エンジン10はユーザの動作に従って動作するように知能ロボットを制御することもでき、ユーザの動作、行為に基づいて知能ロボットを制御することもできる。これにより、親がタイムリーに乳幼児のおむつを替え、乳幼児の快適性を高めるだけでなく、親にとって乳幼児の状態を把握するのに便利で、親の監護の仕事量を減らす。
また、クラウド側コントロールセンター20は乳幼児の一定期間の寝返りの記録若しくはその他の動作行為に基づいて健康プロフィールを作り、大量データを収集したうえに更にビッグデータ分析・発掘し、傾向情報を発見し、正確な情報、サービスプッシュ等の業務をする。
本発明の一実施形態において、意思決定エンジン10は更に画像信号に基づいて顔検出をする。画像信号が顔画像の信号である場合、顔画像の信号をクラウド側コントロールセンター20に送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定する。
また、意思決定エンジン10はユーザに対し声紋認識をすることにより、ユーザのIDを判定することもできる。
本発明の実施形態において、複数の認識方式を単独でもしくは併用して使用することにより、より精度の高く、若しくは適用範囲の広く、便利なユーザのID確認方法が提供される。光線が悪く画質がよくない時、声紋認識の重みを上げ、騒々しくてピックアップの品質が良くないとき、顔認識の重みを上げる。これにより、不正利用を防止し、同時にユーザのIDに基づいてユーザに個人データベースを構築し、ユーザに個性的なサービスを提供することができる。
上述シーンは本発明の実施形態を理解するための例示的な説明に過ぎず、実際の応用において、実際の制御過程において、意思決定エンジン10の各種の制御機能と制御は実際の制御に応じ呼び出され、しかもクラウド側コントロールセンター20のオンライン処理結果と結合して行うこと理解すべきである。図5に示したように、知能ロボットがオンラインの場合、意思決定エンジンは画像信号、音声信号等をクラウド側処理情報としてクラウド側コントロールセンターに送信し、意味分析、機械翻訳、情感分析、顔認識、音声認識等(例えばクラウドサーバを通じて動作認識、ジェスチャー認識、背丈認識、地図情報収集前処理等をする)ができるように、クラウド側コントロールセンターによってオンラインリソース、知識などに基づいてマルチモードの入力信号についてオンライン学習、情報検索、知識問答若しくは大量データを学習・トレーニングすることができる。意思決定エンジンは音声信号に基づいてユーザに対して音源定位、センサ信号に基づいて周囲環境を感知し、並びに定位結果、環境感知結果及びクラウド側コントロールセンターから返送した分析結果(例えば、音声に対応する命令、画像認識結果、画像情報に基づいて生成した周辺地図等)に基づいて知能ロボットの動作機構を制御し、知能ロボットの障害物回避や追従制御等の動作制御を実現する。意思決定エンジンとクラウド側コントロールセンターはネットワークを通じて接続し、データ伝送をすることができる。
その中で、意思決定エンジンはマルチモードの入力信号のプロセスを前処理し、処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信することができる。例えば、音声信号を音声クリップに分割するとともに、音声クリップを送信し、又は画像信号に対し顔認識をするとともに、認識された顔画像をクラウド側コントロールセンターに送信し顔認識をさせることにより、全部の画像信号を伝送することがなく、データ伝送量を減らす。
また、知能ロボットがオフラインの場合、クラウド側コントロールセンターと通信することができないため、意思決定エンジンによって内蔵プログラムを利用してマルチモードの入力信号を処理・認識・分析することができる。例えば、音声認識、音声合成、画像認識、周辺地図の生成、ユーザ動作の認識等である。知能ロボットがオンライン時もオフライン時も、正常に動作させるように制御することができる。
従って、意思決定エンジン10とクラウド側コントロールセンター20との間に伝送されたのはデータ量の少ない命令型音声クリップ及び「追従」のような抽象的で規範化した命令、又は一部の画像信号であり、データ量が少なく、伝送が早くかつ処理に容易である。また、カメラ、センサ等によって取得された大量の画像信号とセンサ信号等のリアルタイムデータは意思決定エンジン10によって処理されることにより、データ量が多く伝送速度が遅いせいでもたらした応答遅延を避けられ、意思決定エンジン10の速い応答とクラウド側コントロールセンター20の強力な処理能力の長所をフルに活用することができる。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御システムにおいて、知能ロボットの意思決定エンジンは、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御し、更に処理能力と応答速度に基づいて意思決定エンジンとクラウド側コントロールセンターとの分業で知能ロボットが受信したマルチモード信号を処理することにより、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
上述実施形態を実現するため、本発明は人工知能に基づく知能ロボットの制御方法を更に提供する。
該制御方法は知能ロボットに設置されている意思決定エンジンに応用されることができる。
人工知能に基づく知能ロボットの制御方法であって、知能ロボットの意思決定エンジンは知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップと、ユーザニーズを取得できるように、意思決定エンジンはクラウド側処理情報をクラウド側コントロールセンターに送信して分析させるステップと、意思決定エンジンはユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御するステップとを含む。
図6は本発明の一実施形態による人工知能に基づく知能ロボットの制御方法を示すフローチャート図である。
図6に示したように、本発明の実施形態による人工知能に基づく知能ロボットの制御方法は以下のステップを含む。
知能ロボットの意思決定エンジンは知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップS601である。
本発明の一実施形態において、マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む。具体的には、ユーザが入力した音声信号はユーザがマイクによって入力することができ、前記画像信号はカメラ又は赤外線センサによって入力されることができ、前記環境センサ信号は光センサ、赤外線センサ、温湿度センサ、有毒ガスセンサ、粒子状物質センサ、タッチモジュール、地理的位置定位モジュールと重力センサの中の一つ又は複数のセンサによって入力された信号を含む。
ユーザニーズを取得できるように、意思決定エンジンはクラウド側処理情報をクラウド側コントロールセンターに送信して分析させるステップS602である。
意思決定エンジンはユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御するステップS603である。
知能ロボットのローカル意思決定エンジンは迅速に応答できる利点があるが、記憶容量とデータ処理能力等が制限されてるため、クラウド側コントロールセンターに比べて、意思決定エンジンは音声認識、画像認識等に対する認識精度が低い。それに対して、クラウド側コントロールセンターはインターネットリソースをフルに活用し、極めて優れた処理能力をもち、意味分析、機械翻訳、情感分析、顔認識、音声認識等ができるように、オンライン学習、情報検索、知識問答若しくは大量データを通して学習・トレーニングすることができる。そのため、高精度ではあるが、ネットワークの信号、速度等に影響され、ネットワーク遅延等の問題がある。
そのため、本発明の実施形態において、上述マルチモードの入力信号における一部の信号を処理するには強力なデータ処理能力が必要とされず、大量のオンライン知識データも頼らず、同時にこれらの信号を処理するには複数のセンサ信号を統合してリアルタイム処理をしなければならず、最良の信号を取得する又は障害物を回避することができるように、直ちに動作機構等を制御して調整・応答し、調整して取得された信号を新たにリアルタイム処理することであれば、この過程は信頼性の低くかつ遅延のあるクラウド側コントロールセンターが適用されないため、意思決定エンジンを用いてこれらの信号を処理することができる。例えば、意思決定エンジンはユーザが入力した音声信号に基づいて音源定位、声紋認識等を行ったり、画像信号と環境センサ情報に基づいて周辺環境を感知したり、周辺環境に基づいて知能ロボットを制御して障害物回避、追従等の動作をさせたりすることができる。
また、上述マルチモードの入力信号における音声信号、画像信号、赤外線信号等に基づいて音声認識、音声合成、画像認識、地図情報収集と前処理などをする場合、例えば顔認識、背丈認識、動作認識、ジェスチャー認識等をする場合、クラウド側コントロールセンターを用いて処理すれば、より精度の高い結果が得られる。
音声信号を例にすると、音声信号を処理するには音声認識、自然言語理解、意味分析、機械翻訳、情感分析をしなければならないため、大量の言語資料とデータを使用してトレーニングしなければならず、ユーザとインターアクションする過程においてもユーザの音声、動作の意味を分析した後、知識問答を通してフィードバック内容を決めなければならない。従って、この場合はクラウド側コントロールセンターに送信し、クラウド側コントロールセンターのスーパー記憶容量、データ処理能力を通して分析する。
当然ながら、本発明の実施形態において、オフラインとオンラインの組み合わせを利用して、即ちオンラインの場合はクラウド側コントロールセンターを優先利用して分析すれば、認識精度が高く、又は音声合成の効果が自然であり、オフラインの場合はローカル意思決定エンジンを使用して処理すれば、最高の効果を上げなくても一応動作できるため、ローカル意思決定エンジンとクラウド側コントロールセンターの長所をフルに活用でき、ロボットに正確に各種の信号を認識させ、タイムリーで迅速に応答させることができる。
更に、本発明の一実施形態において、意思決定エンジンを用いてマルチモードの入力信号を前処理し、前処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信して更なる分析をすることもできる。
本発明の一実施形態によれば、S601において、意思決定エンジンは、ユーザが入力した音声信号を複数の音声クリップに分割し、複数の音声クリップをクラウド側処理情報としてクラウド側コントロールセンターに送信して処理することもできる。クラウド側コントロールセンターは複数の音声クリップに対して音声認識をし、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数することによって、ユーザニーを取得した後、ユーザニーズを意思決定エンジンに返送する。意思決定エンジンはユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。
具体的には、本発明の一実施形態において、ユーザニーズが動作制御である場合、S603は、意思決定エンジンはユーザの位置を取得し、画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知し、ユーザの位置、周辺地図及び/又は周辺環境に基づいてユーザニーズに従って動作するように知能ロボットを制御するステップを含む。
図2は本発明の一実施形態に係る応用シーンを示す図である。図2に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、意思決定エンジンはユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「ついて来い」、「ついてきて」、「早く追いついて」等の自然言語で話した音声を入力した場合、分析させるため、意思決定エンジンは該音声に対応する音声クリップをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは分析し、表現方法の不均一な命令に対して意味分析と均一化処理をし、ユーザニーズが均一で規範化する「追従」であることがわかり、それを意思決定エンジンに返送する。意思決定エンジンは「追従」ニーズに基づいて命令ディスパッチをし、即ち動作制御プログラムを呼び出してユーザにお供して動作させるように知能ロボットを制御する。具体的に、意思決定エンジンはユーザの位置を取得できるようにユーザに方位追従することができる。例えば、ユーザの音声信号に基づいてユーザに音源定位をし、カメラなどをユーザに向、ユーザの位置変化に応じ移動させるように知能ロボットを制御す。更に、移動過程において、意思決定エンジンは周辺地図と周囲環境に基づいて障害物回避及びルート検索をさせるように知能ロボットを制御する。
ユーザニーズがルート検索である場合、S603は、意思決定エンジンは画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、知能ロボットの位置と目標位置を取得し、意思決定エンジンは周辺位置、知能ロボットの位置及び目標位置に基づいて知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御する。
図3は本発明の別の実施形態による応用シーンを示す図である。図3に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、意思決定エンジンはユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「中国国際航空はどこでチェックインするか」、「セキュリティ検査はどこで行うか」、「国際便の搭乗口はどこですか」等の音声を入力した場合、分析させるため、意思決定エンジンは該音声に対応する音声クリップをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは分析し、ユーザニーズが「指定実体の位置」であることがわかり、それを意思決定エンジンに返送する。意思決定エンジンは「指定実体の位置」ニーズに基づいて命令ディスパッチをし、即ち道案内プログラムを呼び出してユーザに道案内させるように知能ロボットを制御する。具体的に、自分の位置を判定するため、意思決定エンジンは位置と方向を検出し、周辺地図において定位した後、指定実体の相対位置に基づいてユーザに道案内をする。例えば、転身と上肢の動作制御によって方向を示したり、音声を出力することによって方向を示したりするとともに、音声インターアクションによってユーザに道案内をすることができる。
本発明の別の実施形態によれば、S601において、意思決定エンジンは画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とする。その中で、意思決定エンジンは取得されたユーザの画像信号に基づいてユーザの身体の動き、ジェスチャー、背丈認識等を認識し、それらに基づいてユーザの寝返り、ジャンプなどの動作検出をすることができる。その後所定のルールに従って動作検出結果をクラウド側処理情報としてクラウド側コントロールセンターに送信して処理する。例えば、検出されたそれぞれの動作及び対応するタイムスタンプ(動作の発生時間)をクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは一定の期間の動作検出結果を分析し、分析結果を対応する知識ベースと比較して対応するユーザニーズを取得した後、それを意思決定エンジンに返送する。意思決定エンジンはユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。具体的には、意思決定エンジンはユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように知能ロボットを制御する。
図4は本発明の別の実施形態による応用シーンを示す図である。図4に示したように、意思決定エンジンはユーザ(乳幼児)の赤外線画像を取得し、目標動作検出をすることができ、ユーザが寝返りしたと検出した場合、監護プログラムを呼び出して検出された寝返り動作と対応するタイムスタンプをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは受信した操作及び対応するタイムスタンプを記録し、一定の期間の記録結果に基づいて寝返りの頻度を計算し、それを母子知識ベースと比較し、該寝返りの頻度が小便等による不快であるせいだとわかれば、この結果を意思決定エンジンに返送する。意思決定エンジンはこの結果を受信した後監護プログラムを呼び出し予め設定したモバイル端末に「おむつを替える」という提示情報を送信する。また、ユーザ画像の視野を確保できるように、意思決定エンジンはユーザの動作に従って動作するように知能ロボットを制御することもでき、ユーザの動作、行為に基づいて知能ロボットを制御することもできる。これにより、親がタイムリーに乳幼児のおむつを替え、乳幼児の快適性を高めるだけでなく、親にとって乳幼児の状態を把握するのに便利で、親の監護の仕事量を減らす。
また、クラウド側コントロールセンターは乳幼児の一定期間の寝返りの記録若しくはその他の動作行為に基づいて健康プロフィールを作り、大量データを収集したうえに更にビッグデータ分析・発掘し、傾向情報を発見し、正確な情報、サービスプッシュ等の業務をする。
本発明の一実施形態において、該方法は、意思決定エンジンは画像信号に基づいて顔検出をし、画像信号が顔画像の信号である場合、顔画像の信号をクラウド側コントロールセンターに送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定するステップを更に含む。
また、意思決定エンジンはユーザに対し声紋認識をすることにより、ユーザのIDを判定することもできる。
本発明の実施形態において、複数の認識方式を単独でもしくは併用して使用することにより、より精度の高く、若しくは適用範囲の広く、便利なユーザのID確認方法が提供される。光線が悪く画質がよくない時、声紋認識の重みを上げ、騒々しくてピックアップの品質が良くないとき、顔認識の重みを上げる。これにより、不正利用を防止し、同時にユーザのIDに基づいてユーザに個人データベースを構築し、ユーザに個性的なサービスを提供することができる。
上述シーンは本発明の実施形態を理解するための例示的な説明に過ぎず、実際の応用において、実際の制御過程において、意思決定エンジンの各種の制御機能制御は実際の制御に応じ呼び出され、しかもクラウド側コントロールセンターのオンライン処理結果と結合して行うこと理解すべきである。図5に示したように、知能ロボットがオンラインの場合、意思決定エンジンは画像信号、音声信号等をクラウド側処理情報としてクラウド側コントロールセンターに送信し、意味分析、機械翻訳、情感分析、顔認識、音声認識等(例えばクラウドサーバを通じて動作認識、ジェスチャー認識、背丈認識、地図情報収集前処理等をする)ができるように、クラウド側コントロールセンターによってオンラインリソース、知識などに基づいてマルチモードの入力信号についてオンライン学習、情報検索、知識問答若しくは大量データを学習・トレーニングすることができる。意思決定エンジンは音声信号に基づいてユーザに対して音源定位、センサ信号に基づいて周囲環境を感知し、並びに定位結果、環境感知結果及びクラウド側コントロールセンターから返した分析結果(例えば、音声に対応する命令、画像認識結果、画像情報に基づいて生成した周辺地図等)に基づいて知能ロボットの動作機構を制御し、知能ロボットの障害物回避や追従制御等の動作制御を実現する。意思決定エンジンとクラウド側コントロールセンターはネットワークを通じて接続し、データ伝送をすることができる。
その中で、意思決定エンジンはマルチモードの入力信号のプロセスを前処理し、処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信することができる。例えば、音声信号を音声クリップに分割するとともに、音声クリップを送信し、又は画像信号に対し顔認識をするとともに、認識された顔画像をクラウド側コントロールセンターに送信し顔認識をさせることにより、全部の画像信号を伝送することがなく、データ伝送量を減らす。
また、知能ロボットがオフラインの場合、クラウド側コントロールセンターと通信することができないため、意思決定エンジンによって内蔵プログラムを利用してマルチモードの入力信号を処理・認識・分析することができる。例えば、音声認識、音声合成、画像認識、周辺地図の生成、ユーザ動作の認識等である。知能ロボットがオンライン時もオフライン時も、正常に動作させるように制御することができる。
従って、意思決定エンジンとクラウド側コントロールセンターとの間に伝送されたのはデータ量の少ない命令型音声クリップ及び「追従」のような抽象的で規範化した命令、又は一部の画像信号であり、データ量が少なく、伝送が早くかつ処理に容易である。また、カメラ、センサ等によって取得された大量の画像信号とセンサ信号等のリアルタイムデータは意思決定エンジンによって処理されることにより、データ量が多く伝送速度が遅いせいでもたらした応答遅延を避けられ、意思決定エンジンの速い応答とクラウド側コントロールセンターの強力な処理能力の長所をフルに活用することができる。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御方法は、知能ロボットの意思決定エンジンは、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御し、更に処理能力と応答速度に基づいて意思決定エンジンとクラウド側コントロールセンターとの分業で知能ロボットが受信したマルチモード信号を処理することにより、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
上述実施形態を実現するため、本発明は人工知能に基づく知能ロボットの別の制御装置を更に提供する。
該制御装置は知能ロボットに設置されている意思決定エンジンに応用されることができる。
人工知能に基づく知能ロボットの制御装置であって、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成する生成モジュールと、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させる送信モジュールと、ユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御する制御モジュールとを含む。
図7aは本発明の一実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。
図7aに示したように、該人工知能に基づく知能ロボットの制御装置は生成モジュール110、送信モジュール120と制御モジュール130とを含む。
具体的に、生成モジュール110は知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成する。
本発明の一実施形態において、マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む。具体的には、ユーザが入力した音声信号はユーザがマイクによって入力ることができ、前記画像信号はカメラ又は赤外線センサによって入力されることができ、前記環境センサ信号は光センサ、赤外線センサ、温湿度センサ、有毒ガスセンサ、粒子状物質センサ、タッチモジュール、地理的位置定位モジュールと重力センサの中の一つ又は複数のセンサによって入力された信号を含む。
送信モジュール120は、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させる。
制御モジュール130は、ユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御する。
知能ロボットのローカル意思決定エンジンは迅速に応答できる利点があるが、記憶容量とデータ処理能力等が制限されてるため、クラウド側コントロールセンターに比べて、意思決定エンジンは音声認識、画像認識等に対する認識精度が低い。それに対して、クラウド側コントロールセンターはインターネットリソースをフルに活用し、極めて優れた処理能力をもち、意味分析、機械翻訳、情感分析、顔認識、音声認識等ができるように、オンライン学習、情報検索、知識問答若しくは大量データを通して学習・トレーニングすることができる。そのため、高精度ではあるが、ネットワークの信号、速度等に影響され、ネットワーク遅延等の問題がある。
そのため、本発明の実施形態において、上述マルチモードの入力信号における一部の信号を処理するには強力なデータ処理能力が必要とされず、大量のオンライン知識データも頼らず、同時にこれらの信号を処理するには複数のセンサ信号を統合してリアルタイム処理しなければならず、最良の信号を取得する又は障害物を回避することができるように、直ちに動作機構等を制御して調整・応答し、調整して取得された信号を新たにリアルタイム処理することであれば、この過程は信頼性の低くかつ遅延のあるクラウド側コントロールセンターが適用されないため、意思決定エンジンを用いてこれらの信号を処理することができる。例えば、意思決定エンジンはユーザが入力した音声信号に基づいて音源定位、声紋認識等を行ったり、画像信号と環境センサ情報に基づいて周辺環境を感知したり、周辺環境に基づいて知能ロボットを制御して障害物回避、追従等の動作をさせたりすることができる。
また、上述マルチモードの入力信号における音声信号、画像信号、赤外線信号等に基づいて音声認識、音声合成、画像認識、地図情報収集と前処理などをする場合、例えば顔認識、背丈認識、動作認識、ジェスチャー認識等をする場合、送信モジュール120を用いてクラウド側コントロールセンターに送信して処理すれば、より精度の高い結果が得られる。
音声信号を例にすると、音声信号を処理するには音声認識、自然言語理解、意味分析、機械翻訳、情感分析をしなければならないため、大量の言語資料とデータを使用してトレーニングしなければならず、ユーザとインターアクションする過程においてもユーザの音声、動作の意味を分析した後、知識問答を通してフィードバック内容を決めなければならない。従って、この場合はクラウド側コントロールセンターに送信し、クラウド側コントロールセンターのスーパー記憶容量、データ処理能力を通して分析する。
当然ながら、本発明の実施形態において、オフラインとオンラインの組み合わせを利用して、即ちオンラインの場合はクラウド側コントロールセンターを優先利用して分析すれば、認識精度が高く、又は音声合成の効果が自然であり、オフラインの場合はローカル意思決定エンジンを使用して処理すれば、最高の効果を上げなくても一応動作できるため、ローカル意思決定エンジンとクラウド側コントロールセンターの長所をフルに活用でき、ロボットに正確に各種の信号を認識させ、タイムリーで迅速に応答させることができる。
更に、本発明の一実施形態において、生成モジュール110を用いてマルチモードの入力信号を前処理し、前処理された結果をクラウド側処理情報として送信モジュール120によってクラウド側コントロールセンターに送信して更なる分析をすることもできる。
本発明の一実施形態によれば、生成モジュール110は、ユーザが入力した音声信号を複数の音声クリップに分割し、複数の音声クリップをクラウド側処理情報とする。その後送信モジュール120によってクラウド側コントロールセンターに送信して処理することもできる。クラウド側コントロールセンターは複数の音声クリップに対して音声認識をし、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数することによって、ユーザニーを取得した後、ユーザニーズを意思決定エンジンに返送する。制御モジュール130はユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。
具体的には、本発明の一実施形態において、ユーザニーズが動作制御である場合、制御モジュール130は、ユーザの位置を取得し、画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知し、ユーザの位置、周辺地図及び/又は周辺環境に基づいてユーザニーズに従って動作するように知能ロボットを制御するように用いられる。
図2は本発明の一実施形態に係る応用シーンを示す図である。図2に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、意思決定エンジンはユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「ついて来い」、「ついてきて」、「早く追いついて」等の自然言語で話した音声を入力した場合、分析させるため、送信モジュール120は該音声に対応する音声クリップをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは分析し、表現方法の不均一な命令に対して意味分析と均一化処理をし、ユーザニーズが均一で規範化する「追従」であることがわかり、それを知能ロボットに返送する。制御モジュール130は「追従」ニーズに基づいて命令ディスパッチをし、即ち動作制御プログラムを呼び出してユーザにお供して動作させるように知能ロボットを制御する。具体的に、制御モジュール130はユーザの位置を取得できるようにユーザに方位追従することができる。例えば、ユーザの音声信号に基づいてユーザに音源定位をし、カメラなどをユーザに向、ユーザの位置変化に応じ移動させるように知能ロボットを制御する。更に、移動過程において、制御モジュール130は周辺地図と周囲環境に基づいて障害物回避及びルート検索をさせるように知能ロボットを制御する。
また、ユーザニーズがルート検索である場合、制御モジュール130は、画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、知能ロボットの位置と目標位置を取得し、意思決定エンジンは周辺位置、知能ロボットの位置及び目標位置に基づいて知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御する。
図3は本発明の別の実施形態による応用シーンを示す図である。図3に示したように、ユーザは予め設定した音声を通じて知能ロボットを音声で呼び起こすことができる。例えば、知能ロボットがユーザの入力した音声信号「度ロボットちゃん」を受信した場合、知能ロボットはユーザにフィードバックするとともに、音声命令リスニングモードに入るように知能ロボットを制御する。このモード下で、ユーザが「中国国際航空はどこでチェックインするか」、「セキュリティ検査はどこで行うか」、「国際便の搭乗口はどこですか」等の音声を入力した場合、分析させるため、送信モジュール120は該音声に対応する音声クリップをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは分析し、ユーザニーズが「指定実体の位置」であることがわかり、それを知能ロボットに返送する。制御モジュール130は「指定実体の位置」ニーズに基づいて命令ディスパッチをし、即ち道案内プログラムを呼び出してユーザに道案内させるように知能ロボットを制御する。具体的に、自分の位置を判定するため、制御モジュール130は位置と方向を検出し、周辺地図において定位した後、指定実体の相対位置に基づいてユーザに道案内をする。例えば、転身と上肢の動作制御によって方向を示したり、音声を出力することによって方向を示したりするとともに、音声インターアクションによってユーザに道案内をすることができる。
本発明の別の実施形態において、生成モジュール110は画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とする。その中で、生成モジュール110は取得されたユーザの画像信号に基づいてユーザの身体の動き、ジェスチャー、背丈認識等を認識し、それらに基づいてユーザの寝返り、ジャンプなどの動作検出をすることができる。その後所定のルールに従って動作検出結果をクラウド側処理情報としてクラウド側コントロールセンターに送信して処理する。例えば、検出されたそれぞれの動作及び対応するタイムスタンプ(動作の発生時間)をクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは一定の期間の動作検出結果を分析し、分析結果を対応する知識ベースと比較して対応するユーザニーズを取得した後、それを知能ロボットに返送する。制御モジュール130はユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。具体的には、制御モジュール130はユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように知能ロボットを制御する。
図4は本発明の別の実施形態による応用シーンを示す図である。図4に示したように、生成モジュール110はユーザ(乳幼児)の赤外線画像を取得し、目標動作検出をすることができ、ユーザが寝返りしたと検出した場合、監護プログラムを呼び出して検出された寝返り動作と対応するタイムスタンプをクラウド側コントロールセンターに送信する。クラウド側コントロールセンターは受信した操作及び対応するタイムスタンプを記録し、一定の期間の記録結果に基づいて寝返りの頻度を計算し、それを母子知識ベースと比較し、該寝返りの頻度が小便等による不快であるせいだとわかれば、この結果を知能ロボットに返送する。制御モジュール130はこの結果を受信した後監護プログラムを呼び出し予め設定したモバイル端末に「おむつを替える」という提示情報を送信する。また、ユーザ画像の視野を確保できるように、制御モジュール130はユーザの動作に従って動作するように知能ロボットを制御することもでき、ユーザの動作、行為に基づいて知能ロボットを制御することもできる。これにより、親がタイムリーに乳幼児のおむつを替え、乳幼児の快適性を高めるだけでなく、親にとって乳幼児の状態を把握するのに便利で、親の監護の仕事量を減らす。
また、クラウド側コントロールセンターは乳幼児の一定期間の寝返りの記録若しくはその他の動作行為に基づいて健康プロフィールを作り、大量データを収集したうえに更にビッグデータ分析・発掘し、傾向情報を発見し、正確な情報、サービスプッシュ等の業務をする。
上述シーンは本発明の実施形態を理解するための例示的な説明に過ぎず、実際の応用において、実際の制御過程において、意思決定エンジンの各種の制御機能制御は実際の制御に応じ呼び出され、しかもクラウド側コントロールセンターのオンライン処理結果と結合して行うこと理解すべきである。図5に示したように、知能ロボットがオンラインの場合、意思決定エンジンは画像信号、音声信号等をクラウド側処理情報としてクラウド側コントロールセンターに送信し、意味分析、機械翻訳、情感分析、顔認識、音声認識等(例えばクラウドサーバを通じて動作認識、ジェスチャー認識、背丈認識、地図情報収集前処理等をする)ができるように、クラウド側コントロールセンターによってオンラインリソース、知識などに基づいてマルチモードの入力信号についてオンライン学習、情報検索、知識問答若しくは大量データを学習・トレーニングすることができる。意思決定エンジンは音声信号に基づいてユーザに対して音源定位、センサ信号に基づいて周囲環境を感知し、並びに定位結果、環境感知結果及びクラウド側コントロールセンターから返送した分析結果(例えば、音声に対応する命令、画像認識結果、画像情報に基づいて生成した周辺地図等)に基づいて知能ロボットの動作機構を制御し、知能ロボットの障害物回避や追従制御等の動作制御を実現する。意思決定エンジンとクラウド側コントロールセンターはネットワークを通じて接続し、データ伝送をすることができる。
その中で、意思決定エンジンはマルチモードの入力信号のプロセスを前処理し、処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信することができる。例えば、音声信号を音声クリップに分割するとともに、音声クリップを送信し、又は画像信号に対し顔認識をするとともに、認識された顔画像をクラウド側コントロールセンターに送信し顔認識をさせることにより、全部の画像信号を伝送することがなく、データ伝送量を減らす。
また、知能ロボットがオフラインの場合、クラウド側コントロールセンターと通信することができないため、意思決定エンジンによって内蔵プログラムを利用してマルチモードの入力信号を処理・認識・分析することができる。例えば、音声認識、音声合成、画像認識、周辺地図の生成、ユーザ動作の認識等である。知能ロボットがオンライン時もオフライン時も、正常に動作させるように制御することができる。
従って、意思決定エンジンとクラウド側コントロールセンターとの間に伝送されたのはデータ量の少ない命令型音声クリップ及び「追従」のような抽象的で規範化した命令、又は一部の画像信号であり、データ量が少なく、伝送が早くかつ処理に容易である。また、カメラ、センサ等によって取得された大量の画像信号とセンサ信号等のリアルタイムデータは意思決定エンジンによって処理されることにより、データ量が多く伝送速度が遅いせいでもたら応答遅延を避けられ、意思決定エンジンの速い応答とクラウド側コントロールセンターの強力な処理能力の長所をフルに活用することができる。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御装置は、知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびにユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボットを制御し、更に処理能力と応答速度に基づいて意思決定エンジンとクラウド側コントロールセンターとの分業で知能ロボットが受信したマルチモード信号を処理することにより、クラウド側コントロールセンターを用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
図7bは本発明の別の実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。
図7bに示したように、該人工知能に基づく知能ロボットの制御装置は図7aが示した上にID判定モジュール140を更に含む。
具体的に、ID判定モジュール140は画像信号に基づいて顔検出をし、画像信号が顔画像の信号である場合、顔画像の信号をクラウド側コントロールセンターに送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定する。
また、意思決定エンジンはユーザに対し声紋認識をすることにより、ユーザのIDを判定することもできる。
本発明の実施形態において、複数の認識方式を単独でもしくは併用して使用することにより、より精度の高く、若しくは適用範囲の広く、便利なユーザのID確認方法が提供される。光線が悪く画質がよくない時、声紋認識の重みを上げ、騒々しくてピックアップの品質が良くないとき、顔認識の重みを上げる。
これにより、不正利用を防止し、同時にユーザのIDに基づいてユーザに個人データベースを構築し、ユーザに個性的なサービスを提供することができる。
上述実施形態を実現するため、本発明は人工知能に基づく知能ロボットの別の制御方法を提供する。
該方法はクラウド側コントロールセンターに応用されることができる。
人工知能に基づく知能ロボットの制御方法であって、クラウド側コントロールセンターは知能ロボットから送信されたクラウド側処理情報を受信するステップと、クラウド側コントロールセンターはクラウド側処理情報を分析してユーザニーズを取得するステップと、クラウド側コントロールセンターはユーザニーズを意思決定エンジンに返送するステップとを含む。
図8は本発明の別の実施形態による人工知能に基づく知能ロボットの制御方法を示すフローチャート図である。
図8に示したように、該人工知能に基づく知能ロボットの制御方法は以下のステップを含む。
クラウド側コントロールセンターは知能ロボットから送信されたクラウド側処理情報を受信するステップS801である。
本発明の実施形態において、クラウド側処理情報は、知能ロボットの意思決定エンジンがマルチモードの入力信号に基づいて生成することができる。クラウド側処理情報は意思決定エンジンがユーザの入力した音声信号を分割して得た複数の音声クリップ、検出された顔画像、動作検出結果(例えばジェスチャー、身体動作等)等の一つ又は複数であり、マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む。具体的には、ユーザが入力した音声信号はユーザがマイクによって入力ることができ、前記画像信号はカメラ又は赤外線センサによって入力されることができ、前記環境センサ信号は光センサ、赤外線センサ、温湿度センサ、有毒ガスセンサ、粒子状物質センサ、タッチモジュール、地理的位置定位モジュールと重力センサの中の一つ又は複数のセンサによって入力された信号を含む。
クラウド側コントロールセンターはクラウド側処理情報を分析してユーザニーズを取得するステップS802である。
クラウド側コントロールセンターはユーザニーズを意思決定エンジンに返送するステップS803である。
本発明の一実施形態において、クラウド情報が複数の音声クリップである場合、ステップS802は、前記複数の音声クリップに対し音声認識をするステップと、前記ユーザニーズを取得できるように、認識結果に対し、自然言語理解、意味分析、情感分析の中の一つ又は複数をするステップとを具体的に含む。
本発明の一実施形態において、前記クラウド側処理情報が動作検出結果である場合、ステップS802は、前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得するステップを含む。
本発明の一実施形態において、前記クラウド側処理情報が顔画像である場合、ステップS802は、前記顔画像に対し顔認識をし、顔認識結果を前記モバイル端末に返送するステップを具体的に含む。
本発明の実施形態において、意思決定エンジンはマルチモードの入力信号を加工・処理することができる。例えば、ユーザが入力した音声信号に基づいて音源定位、声紋認識等をしたり、画像信号と環境センサ情報に基づいて周辺地図と周囲環境を生成したり、画像信号に基づいてユーザの身体動作、ジェスチャー、背丈等を認識したりする。
上述信号を処理するには強力な処理能力を必要とせず、大量のオンライン知識データも頼らないため、意思決定エンジンによって処理することができる。しかし、ユーザニーズを分析するのに大量のデータ、言語資料、知識を必要とする処理もそのまま意思決定エンジンによって処理するとき、意思決定エンジンのデータ処理能力に制限され、失敗する、若しくは時間がかかりすぎる等の問題が生じる。例えば、音声信号を処理するには音声認識、自然言語理解、意味分析、機械翻訳、情感分析をしなければならないため、大量の言語資料とデータを使用してトレーニングしなければならないし、ユーザとのインターアクションをするには、ユーザの音声、動作の意味を分析した後、知識問答を通してフィードバックの内容を判定しなければならない。従って、こういう場合、クラウド側コントロールセンターに送信し、ユーザニーズを取得できるように、クラウド側コントロールセンターの記憶容量、強力なデータ処理能力を用いて分析した後、ユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。
具体的には図2〜図4に示した応用シーンを参照する。
上述シーンは本発明の実施形態を理解するための例示的な説明に過ぎず、実際の応用において、実際の制御過程において、意思決定エンジンの各種の制御機能制御は実際の制御に応じ呼び出され、しかもクラウド側コントロールセンターのオンライン処理結果と結合して行うこと理解すべきである。図5に示したように、知能ロボットがオンラインの場合、意思決定エンジンは画像信号、音声信号等をクラウド側処理情報としてクラウド側コントロールセンターに送信し、意味分析、機械翻訳、情感分析、顔認識、音声認識等(例えばクラウドサーバを通じて動作認識、ジェスチャー認識、背丈認識、地図情報収集前処理等をする)ができるように、クラウド側コントロールセンターによってオンラインリソース、知識などに基づいてマルチモードの入力信号についてオンライン学習、情報検索、知識問答若しくは大量データを学習・トレーニングすることができる。意思決定エンジンは音声信号に基づいてユーザに対して音源定位、センサ信号に基づいて周囲環境を感知し、並びに定位結果、環境感知結果及びクラウド側コントロールセンターから返した分析結果(例えば、音声に対応する命令、画像認識結果、画像情報に基づいて生成した周辺地図等)に基づいて知能ロボットの動作機構を制御し、知能ロボットの障害物回避や追従制御等の動作制御を実現する。意思決定エンジンとクラウド側コントロールセンターはネットワークを通じて接続し、データ伝送をすることができる。
その中で、意思決定エンジンはマルチモードの入力信号のプロセスを前処理し、処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信することができる。例えば、音声信号を音声クリップに分割するとともに、音声クリップを送信し、又は画像信号に対し顔認識をするとともに、認識された顔画像をクラウド側コントロールセンターに送信し顔認識をさせることにより、全部の画像信号を伝送することがなく、データ伝送量を減らす。
また、知能ロボットがオフラインの場合、クラウド側コントロールセンターと通信することができないため、意思決定エンジンによって内蔵プログラムを利用してマルチモードの入力信号を処理・認識・分析することができる。例えば、音声認識、音声合成、画像認識、周辺地図の生成、ユーザ動作の認識等である。知能ロボットがオンライン時もオフライン時も、正常に動作させるように制御することができる。
従って、意思決定エンジンとクラウド側コントロールセンターとの間に伝送されたのはデータ量の少ない命令型音声クリップ及び「追従」のような抽象的で規範化した命令、又は一部の画像信号であり、データ量が少なく、伝送が早くかつ処理容易である。また、カメラ、センサ等によって取得された大量の画像信号とセンサ信号等のリアルタイムデータは意思決定エンジンによって処理されることにより、データ量が多く伝送速度が遅いせいでもたらした応答遅延を避けられ、意思決定エンジンの速い応答とクラウド側コントロールセンターの強力な処理能力の長所をフルに活用することができる。
本発明の実施形態による人工知能に基づく知能ロボットの制御方法は、知能ロボットの意思決定エンジンが送信したクラウド側処理情報を受信し、分析してユーザニーズを取得した後それを意思決定エンジンに返送し、意思決定エンジンによってユーザニーズ及び/又はマルチモードの入力信号に基づいて知能ロボットを制御することにより、該制御方法を用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
上述実施形態を実現するため、本発明は人工知能に基づく知能ロボットの別の制御装置を更に提供する。
該制御装置はクラウド側コントロールセンターに応用されることができる。
人工知能に基づく知能ロボットの制御装置であって、知能ロボットから送信されたクラウド側処理情報を受信する受信モジュールと、クラウド側処理情報を分析してユーザニーズを取得する分析モジュールと、ユーザニーズを意思決定エンジンに返送する復元モジュールとを含む。
図9は本発明の別の実施形態による人工知能に基づく知能ロボットの制御装置を示すブロック図である。
図9に示したように、本発明の実施形態に係る人工知能に基づく知能ロボットの制御装置は受信モジュール210、分析モジュール220と復元モジュール230を含む。
具体的に、受信モジュール210は知能ロボットから送信されたクラウド側処理情報を受信する。
本発明の実施形態において、クラウド側処理情報は、知能ロボットの意思決定エンジンがマルチモードの入力信号に基づいて生成することができる。クラウド側処理情報は意思決定エンジンがユーザの入力した音声信号を分割して得た複数の音声クリップ、検出された顔画像、動作検出結果(例えばジェスチャー、身体動作等)等の一つ又は複数であり、マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む。具体的には、ユーザが入力した音声信号はユーザがマイクによって入力されることができ、前記画像信号はカメラ又は赤外線センサによって入力されることができ、前記環境センサ信号は光センサ、赤外線センサ、温湿度センサ、有毒ガスセンサ、粒子状物質センサ、タッチモジュール、地理的位置定位モジュールと重力センサの中の一つ又は複数のセンサによって入力された信号を含む。
分析モジュール220は、ユーザニーズを取得できるように、クラウド側処理情報を分析する。
復元モジュール230はユーザニーズを意思決定エンジンに返送する。
本発明の一実施形態において、クラウド情報が複数の音声クリップである場合、分析モジュール220は、前記複数の音声クリップに対し音声認識をし、前記ユーザニーズを取得できるように、認識結果に対し、自然言語理解、意味分析、情感分析の中の一つ又は複数をするように用いられる。
本発明の一実施形態において、前記クラウド側処理情報が動作検出結果である場合、分析モジュール220は、前記動作検出結果に対し統計・分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得する。
本発明の一実施形態において、前記クラウド側処理情報が顔画像である場合、分析モジュール220は、前記顔画像に対し顔認識をし、顔認識結果を前記モバイル端末に返送するように用いられる。
本発明の実施形態において、意思決定エンジンはマルチモードの入力信号を加工・処理することができる。例えば、ユーザが入力した音声信号に基づいて音源定位、声紋認識等をしたり、画像信号と環境センサ情報に基づいて周辺地図と周囲環境を生成したり、画像信号に基づいてユーザの身体動作、ジェスチャー、背丈等を認識したりする。
上述信号を処理するには強力な処理能力を必要とせず、大量のオンライン知識データも頼らないため、意思決定エンジンによって処理することができる。しかし、ユーザニーズを分析するのに大量のデータ、言語資料、知識を必要とする処理もそのまま意思決定エンジンによって処理するとき、意思決定エンジンのデータ処理能力に制限され、失敗する、若しくは時間がかかりすぎる等の問題が生じる。例えば、音声信号を処理するには音声認識、自然言語理解、意味分析、機械翻訳、情感分析をしなければならないため、大量の言語資料とデータを使用してトレーニングしなければならないし、ユーザとのインターアクションをするには、ユーザの音声、動作の意味を分析した後、知識問答を通してフィードバックの内容を判定しなければならない。従って、こういう場合、クラウド側コントロールセンターに送信し、ユーザニーズを取得できるように、クラウド側コントロールセンターの記憶容量、強力なデータ処理能力を用いて分析した後、ユーザニーズに基づいてマルチモードの入力信号を参照しながら知能ロボットを制御する。
具体的には図2〜図4に示した応用シーンを参照する。
上述シーンは本発明の実施形態を理解するための例示的な説明に過ぎず、実際の応用において、実際の制御過程において、意思決定エンジンの各種の制御機能制御は実際の制御に応じ呼び出され、しかもクラウド側コントロールセンターのオンライン処理結果と結合して行うこと理解すべきである。図5に示したように、知能ロボットがオンラインの場合、意思決定エンジンは画像信号、音声信号等をクラウド側処理情報としてクラウド側コントロールセンターに送信し、意味分析、機械翻訳、情感分析、顔認識、音声認識等(例えばクラウドサーバを通じて動作認識、ジェスチャー認識、背丈認識、地図情報収集前処理等をする)ができるように、クラウド側コントロールセンターによってオンラインリソース、知識などに基づいてマルチモードの入力信号についてオンライン学習、情報検索、知識問答若しくは大量データを学習・トレーニングすることができる。意思決定エンジンは音声信号に基づいてユーザに対して音源定位、センサ信号に基づいて周囲環境を感知し、並びに定位結果、環境感知結果及びクラウド側コントロールセンターから返した分析結果(例えば、音声に対応する命令、画像認識結果、画像情報に基づいて生成した周辺地図等)に基づいて知能ロボットの動作機構を制御し、知能ロボットの障害物回避や追従制御等の動作制御を実現する。意思決定エンジンとクラウド側コントロールセンターはネットワークを通じて接続し、データ伝送をすることができる。
その中で、意思決定エンジンはマルチモードの入力信号のプロセスを前処理し、処理された結果をクラウド側処理情報としてクラウド側コントロールセンターに送信することができる。例えば、音声信号を音声クリップに分割するとともに、音声クリップを送信し、又は画像信号に対し顔認識をするとともに、認識された顔画像をクラウド側コントロールセンターに送信し顔認識をさせることにより、全部の画像信号を伝送することがなく、データ伝送量を減らす。
また、知能ロボットがオフラインの場合、クラウド側コントロールセンターと通信することができないため、意思決定エンジンによって内蔵プログラムを利用してマルチモードの入力信号を処理・認識・分析することができる。例えば、音声認識、音声合成、画像認識、周辺地図の生成、ユーザ動作の認識等である。知能ロボットがオンライン時もオフライン時も、正常に動作させるように制御することができる。
従って、意思決定エンジンとクラウド側コントロールセンターとの間に伝送されたのはデータ量の少ない命令型音声クリップ及び「追従」のような抽象的で規範化した命令、又は一部の画像信号であり、データ量が少なく、伝送が早くかつ処理に容易である。また、カメラ、センサ等によって取得された大量の画像信号とセンサ信号等のリアルタイムデータは意思決定エンジンによって処理されることにより、データ量が多く伝送速度が遅いせいでもたらした応答遅延を避けられ、意思決定エンジンの速い応答とクラウド側コントロールセンターの強力な処理能力の長所をフルに活用することができる。
本発明の実施形態に係る人工知能に基づく知能ロボットの制御装置は、知能ロボットの意思決定エンジンから送信されたクラウド側処理情報を受信し、分析してユーザニーズを取得した後それを意思決定エンジンに返送し、意思決定エンジンによってユーザニーズ及び/又はマルチモード入力信号に基づいて知能ロボット制御することにより、該制御装置を用いて複雑な自然言語命令、複雑な意思決定、画像認識等を効率的に処理すると同時に、ローカル意思決定エンジンを用いて入力信号に基づいて知能ロボットをタイムリーで迅速に制御することもできるため、オンラインの大量データを十分に利用して知能ロボットの記憶コンピューティング能力及び複雑な意思決定の処理能力を高めると同時に、タイムリーで迅速に、インテリジェントにユーザの命令に応答でき、ユーザエクスペリエンスを向上させる。
本発明の実施形態に係る知能ロボットはオープンシステムプラットフォームを有し、継続的にアップグレードすることができる。知能ロボットはオープンシステムプラットフォームを有するため、オープンインターフェースのプロトコルを通じて、各コンテンツのプロバイダは知能ロボットに様々なコンテンツとアプリケーションを開発してくれる。ソフトウェアにおいて、WiFi(登録商標)を通じて自動的にネットワークに接続することにより、知能ロボットは継続的にソフトをアップデート・アップグレードすることができるし、クラウド側コントロールセンターも継続的にインターネットから大量の新情報を取得することができるため、ユーザは煩瑣なソフトアップグレード操作をする必要もなく、すべてのアップデートとアップグレードは知能ロボットのバックステージにおいて静かに完成する。
本明細書の説明において、用語の“一つの実施形態”、“一部の実施形態”、“例示”、“具体的な例示”、又は“一部の例示”等の言葉とは、当該実施形態又は例示と合わせて説明された具体的な特徴、構成、材料又は特性が本発明の少なくとも一つの実施形態又は例示に含まれることを意味する。本明細書において、上記の用語の概略表現は必ずしも同じ実施形態又は例示を指さず、且つ、任意の一つ又は幾つの実施形態や例示において、説明された具体的な特徴、構成、材料又は特性を適当な方法で組み合わせることもできる。また、矛盾しない上で、同業者は本明細書に説明された異なる実施形態又は例示及び異なる実施形態又は例示の特徴を結合する及び組み合わせることができる。
また、本発明の説明には、用語「第一」、「第二」等は単に説明のためのみに用いられ、相対的な重要性に明示的にも暗示的にも関連づけられ、又は暗示的に指定した技術特徴の数量を指し示すように使用されるものではない。また、本発明の説明には、別途、明確に限定した場合を除き、用語「複数」は二つ又は二つ以上を指す。
フローチャートにおいてまたはここで他の方式で説明された論理またはステップは、一つ又は複数の論理機能又はステップを実現するための実行可能な命令の符号のモジュール、断片又は部分であり、並びに本発明の好ましい実施形態は他の形態も含み、例示された又は議論された順序(関与された機能とほぼ同じ方式又は逆の順序を含む)によらず実行できることは当業者であれば理解すべきである。
フローチャートにおいてまたはここで他の方式で説明された論理および/またはステップは、例えば、論理機能を実現するための実行可能な命令の順序リストであると考えられることができ、具体的に任意のコンピュータ読み取り可能な媒体においても実現することができ、命令実行システム、装置、またはデバイス(例えば、コンピュータに基づいたシステムであり、プロセッサのシステム又は他の命令実行システム、装置、またはデバイスから命令を取得して実行するシステムを含む)により使用されるためのものであり、又はこれらの命令実行システム、装置、またはデバイスと組合せて使用する、ためのものである。本明細書では、「コンピュータ読み取り可能な媒体」は、命令実行システム、装置、またはデバイスにより使用されるために、又はこれらの命令実行システム、装置、またはデバイスと組合せて使用するために、プログラムを含有、格納、通信、転送または伝送できるいずれかの装置であってもよい。コンピュータ可読媒体のより具体的な例示(非包括的リスト)は、一つ又は多くの配線の電気接続部(電子装置)、携帯型コンピュータディスクカートリッジ(磁気装置)、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、書き込み・消去可能な読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ装置並びに携帯型ディスク読み取り専用メモリ(CDROM)を含む。また、コンピュータ可読媒体はそれにおいて前記プログラムを印刷する紙又はその他の媒体でもある。例えば紙又はその他の媒体に対して光学式走査して、編集、解釈又は必要なときその他の適切な方法で処理して電子的手段により前記プログラムを獲得し、それをコンピュータ記憶メモリに記憶するためである。
本発明の各部分は、ハードウェア、ソフトウア、ファームウェア、またはそれらの組み合わせで実現することができる。上記実施形態において、複数のステップ又は方法は、メモリに格納され且つ適切な命令実行システムにより実行されるソフトウェアまたはファームウェアで実現することができる。例えば、ハードウェアで実現する場合、他の実施形態と同様に、当該技術分野で公知の以下の技術におけるいずれか1つ又はそれらの組み合わせで実現することができる。データ信号に論理機能を実現するための論理ゲート回路を有するディスクリート論理回路、適切な組み合わせ論理ゲート回路を有する専用集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などである。
上述の実施形態を実現する方法が係る全部又は部分のステップはプログラムによって関連するハードウェアに命令を実行して完成でき、前記プログラムはコンピュータの読み取り可能な記憶媒体に記憶され、プログラムを実行するとき、実施形態のステップの一つ又はその組合せを含むことを本技術分野の一般の技術者は理解すべきである。
また、本発明の実施形態に係る各機能ユニットは一つの処理モジュールに集成されてもよいし、各ユニット各自の物理的存在であってもよいし、ソフトウェアによるモジュールを利用してもよい。前記統合されたモジュールはハードウェアを利用してもできるし、ソフトウェアを利用してもよい。前記統合されたモジュールはソフトウェアを利用して独立するプロダクトとして販売又は利用されるとき、コンピュータの読み取り可能な記憶媒体に記憶されてもよい。
前記記憶媒体はROM、ディスク又はCD等である。以上本発明の実施形態を示して説明したが、当業者にとって理解できるのは、上記の実施形態は例示的なものに限らず、本発明を制限するように解釈される事が出来ない。本発明の原理と要旨から逸脱しない範囲で、これらの実施形態に対し様々な変更、修正、置換および変形をすることができる。
一側面において本発明は以下の発明を包含する。
(発明1)
意思決定エンジンとクラウド側コントロールセンターを含み、
前記意思決定エンジンは、知能ロボットに設置され、前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、ユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびに前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御し、
前記クラウド側コントロールセンターは、前記クラウド側処理情報を受信するとともに、該クラウド側処理情報を分析して前記ユーザニーズを取得し、該ユーザニーズを前記意思決定エンジンに返送する
ことを特徴とする人工知能に基づく知能ロボットの制御システム。
(発明2)
前記マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む
ことを特徴とする発明1に記載のシステム。
(発明3)
前記意思決定エンジンは、前記ユーザが入力した音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報とし、
前記クラウド側コントロールセンターは、前記複数の音声クリップに対して音声認識をし、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数をすることによって、前記ユーザニースを取得する、
ことを特徴とする発明2に記載のシステム。
(発明4)
前記ユーザニーズが動作制御である場合、前記意思決定エンジンは、
前記ユーザの位置を取得し、前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知し、前記ユーザの位置、周辺地図及び/又は周辺環境に基づいて前記ユーザニーズに従って動作するように前記知能ロボットを制御する
ことを特徴とする発明3に記載のシステム。
(発明5)
前記ユーザニーズがルート検索である場合、前記意思決定エンジンは、
前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、前記知能ロボットの位置と目標位置を取得し、前記周辺位置、前記知能ロボットの位置及び目標位置に基づいて前記知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御する
ことを特徴とする発明3に記載のシステム。
(発明6)
前記意思決定エンジンは、前記画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とし、
前記クラウド側コントロールセンターは、前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得する
ことを特徴とする発明2に記載のシステム。
(発明7)
前記意思決定エンジンは、前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御する
ことを特徴とする発明6に記載のシステム。
(発明8)
前記意思決定エンジンは、
更に前記画像信号に基づいて顔検出をし、前記画像信号が顔画像の信号である場合、前記顔画像の信号を前記クラウド側コントロールセンターに送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定する
ことを特徴とする発明2に記載のシステム。
(発明9)
知能ロボットの意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップと、
ユーザニーズを取得できるように、前記意思決定エンジンは前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させるステップと、
前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップとを含む
ことを特徴とする人工知能に基づく知能ロボットの制御方法。
(発明10)
前記マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む
ことを特徴とする発明9に記載の方法。
(発明11)
前記意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップは、
前記ユーザが入力した音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報とするステップを具体的に含む
ことを特徴とする発明10に記載の方法。
(発明12)
前記ユーザニーズが動作制御である場合、前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップは、
前記意思決定エンジンは前記ユーザの位置を取得し、前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知するステップと、
前記意思決定エンジンは前記ユーザの位置、周辺地図及び/又は周辺環境に基づいて前記ユーザニーズに従って動作するように前記知能ロボットを制御するステップとを含む
ことを特徴とする発明11に記載の方法。
(発明13)
前記ユーザニーズがルート検索である場合、前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップは、
前記意思決定エンジンは、前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、前記知能ロボットの位置と目標位置を取得するステップと、
前記意思決定エンジンは前記周辺位置、前記知能ロボットの位置及び目標位置に基づいて前記知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御するステップとを含む
ことを特徴とする発明11に記載の方法。
(発明14)
前記意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップは、
前記画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とするステップを具体的に含む
ことを特徴とする発明10に記載の方法。
(発明15)
前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップは、
前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御するステップを具体的に含む
ことを特徴とする発明14に記載の方法。
(発明16)
前記意思決定エンジンは前記画像信号に基づいて顔検出をし、前記画像信号が顔画像の信号である場合、前記顔画像の信号を前記クラウド側コントロールセンターに送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定する
ことを特徴とする発明10に記載の方法。
(発明17)
知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成する生成モジュールと、
ユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させる送信モジュールと、
前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御する制御モジュールとを含む
ことを特徴とする人工知能に基づく知能ロボットの制御装置。
(発明18)
前記マルチモードの入力信号は、ユーザが入力した音声信号、画像信号及び/又は環境センサ信号を含む
ことを特徴とする発明17に記載の装置。
(発明19)
前記生成モジュールは、
前記ユーザが入力した音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報とする
ことを特徴とする発明18に記載の装置。
(発明20)
前記ユーザニーズが動作制御である場合、前記制御モジュールは、
前記ユーザの位置を取得し、前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成するとともに、周辺環境を感知し、
前記ユーザの位置、周辺地図及び/又は周辺環境に基づいて前記ユーザニーズに従って動作するように前記知能ロボットを制御する
ことを特徴とする発明19に記載の装置。
(発明21)
前記ユーザニーズがルート検索である場合、前記制御モジュールは、
前記画像信号及び/又は環境感知信号に基づいて周辺地図を生成し、前記知能ロボットの位置と目標位置を取得し、
前記周辺位置、前記知能ロボットの位置及び目標位置に基づいて前記知能ロボットが方向を示し、又は音声インターアクションを通して方向を示すように制御する
ことを特徴とする発明19に記載の装置。
(発明22)
前記生成モジュールは、
前記画像信号及び/又は環境感知信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とする
ことを特徴とする発明18に記載の装置。
(発明23)
前記制御モジュールは、
前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御する
ことを特徴とする発明22に記載の装置。
(発明24)
前記画像信号に基づいて顔検出をし、前記画像信号が顔画像の信号である場合、前記顔画像の信号を前記クラウド側コントロールセンターに送信して顔認識をさせ、認識結果に基づいてユーザのIDを判定するID判定モジュールを更に含む
ことを特徴とする発明18に記載の装置。
(発明25)
クラウド側コントロールセンターは知能ロボットから送信されたクラウド側処理情報を受信するステップと、
前記クラウド側コントロールセンターは前記クラウド側処理情報を分析してユーザニーズを取得するステップと、
前記クラウド側コントロールセンターは前記ユーザニーズを前記意思決定エンジンに返送するステップとを含む
ことを特徴とする人工知能に基づく知能ロボットの制御方法。
(発明26)
前記クラウド情報が複数の音声クリップである場合、前記クラウド側コントロールセンターは前記ユーザニーズを取得できるように前記クラウド側処理情報を分析するステップは、
前記複数の音声クリップに対し音声認識をするステップと、
前記ユーザニーズを取得できるように、認識結果に対し、自然言語理解、意味分析、情感分析の中の一つ又は複数をするステップとを具体的に含む
ことを特徴とする発明25に記載の方法。
(発明27)
前記クラウド側処理情報が動作検出結果である場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得するステップを具体的に含む
ことを特徴とする発明25に記載の方法。
(発明28)
前記クラウド側処理情報が顔画像である場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
前記顔画像に対し顔認識をし、顔認識結果を前記モバイル端末に返送するステップを具体的に含む
ことを特徴とする発明25に記載の方法。
(発明29)
知能ロボットから送信されたクラウド側処理情報を受信する受信モジュールと、
前記クラウド側処理情報を分析してユーザニーズを取得する分析モジュールと、
前記ユーザニーズを前記意思決定エンジンに返送する復元モジュールとを含む
ことを特徴とする人工知能に基づく知能ロボットの制御装置。
(発明30)
前記クラウド情報が複数の音声クリップである場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
前記複数の音声クリップに対し音声認識をするステップと、
前記ユーザニーズを取得できるように、認識結果に対し、自然言語理解、意味分析、情感分析の中の一つ又は複数をするステップとを具体的に含む
ことを特徴とする発明29に記載の装置。
(発明31)
前記クラウド側処理情報が動作検出結果である場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得するステップを具体的に含む
ことを特徴とする発明29に記載の装置。
(発明32)
前記クラウド側処理情報が顔画像である場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
前記顔画像に対し顔認識をし、顔認識結果を前記モバイル端末に返送するステップを具体的に含む
ことを特徴とする発明29に記載の装置。

Claims (8)

  1. 意思決定エンジンとクラウド側コントロールセンターを含み、
    前記意思決定エンジンは、知能ロボットに設置され、前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成し、オンラインの場合ではユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させ、ならびに前記ユーザニーズに基づいて前記知能ロボットを制御し、オフラインの場合では前記マルチモード入力信号に基づいて前記知能ロボットを制御し、
    前記クラウド側コントロールセンターは、前記クラウド側処理情報を受信するとともに、該クラウド側処理情報を分析して前記ユーザニーズを取得し、該ユーザニーズを前記意思決定エンジンに返送し、
    前記マルチモードの入力信号は、ユーザが入力した音声信号及び環境センサ信号を含み、
    前記意思決定エンジンは、前記環境センサ信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とし、
    前記クラウド側コントロールセンターは、前記クラウド側処理情報が動作検出結果である場合、前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得し、
    前記意思決定エンジンは、ユーザにより入力された音声信号を受信された場合、前記音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報とし、
    前記クラウド側コントロールセンターは、前記複数の音声クリップを音声認識し、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数をすることによって、前記ユーザニーズを取得する、
    ことを特徴とする人工知能に基づく知能ロボットの制御システム。
  2. 前記意思決定エンジンは、前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御する
    ことを特徴とする請求項1に記載のシステム。
  3. 請求項1に記載の知能ロボットの制御システムを使用する知能ロボットの制御方法であって、
    知能ロボットの意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップと、
    オンラインの場合ではユーザニーズを取得できるように、前記意思決定エンジンは前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させるステップと、
    前記意思決定エンジンは、前記ユーザニーズ及び/又はオフラインの場合では前記マルチモード入力信号に基づいて、前記知能ロボットを制御するステップとを含み、
    前記マルチモードの入力信号は、ユーザが入力した音声信号及び環境センサ信号を含み、
    前記意思決定エンジンは前記知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成するステップは、
    前記環境センサ信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とするステップと、
    前記ユーザが入力した音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報とするステップと、を具体的に含む、
    ことを特徴とする人工知能に基づく知能ロボットの制御方法。
  4. 前記意思決定エンジンは前記ユーザニーズ及び/又は前記マルチモード入力信号に基づいて前記知能ロボットを制御するステップは、
    前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御するステップを具体的に含む
    ことを特徴とする請求項3に記載の方法。
  5. 知能ロボットが受信したマルチモード入力信号に基づいてクラウド側処理情報を生成する生成モジュールと、
    オンラインの場合ではユーザニーズを取得できるように、前記クラウド側処理情報をクラウド側コントロールセンターに送信して分析させる送信モジュールと、
    前記ユーザニーズ及び/又はオフラインの場合では前記マルチモード入力信号に基づいて前記知能ロボットを制御する制御モジュールとを含み、
    前記マルチモードの入力信号は、ユーザが入力した音声信号又は環境センサ信号を含み、
    前記生成モジュールは、
    前記環境センサ信号に基づいてユーザに対し動作検出をし、所定のルールに従って動作検出結果をクラウド側処理情報とし、意思決定エンジンは、前記クラウド側コントロールセンターが前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって取得した前記ユーザニーズを受信し、
    また前記生成モジュールは、前記ユーザが入力した音声信号を複数の音声クリップに分割し、前記複数の音声クリップを前記クラウド側処理情報と
    前記意思決定エンジンは、前記クラウド側コントロールセンターが、前記複数の音声クリップを音声認識し、音声認識の結果に対して自然言語理解、意味分析、情感分析の中の一つ又は複数をすることによって取得した、前記ユーザニーズを受信する
    ことを特徴とする人工知能に基づく知能ロボットの制御装置。
  6. 前記制御モジュールは、
    前記ユーザニーズに基づいて予め設定したモバイル端末に提示情報を送信するように前記知能ロボットを制御する
    ことを特徴とする請求項5に記載の装置。
  7. 請求項1に記載の知能ロボットの制御システムのクラウド側コントロールセンターを使用する処理方法であって、
    オンラインの場合に、クラウド側コントロールセンターは知能ロボットから送信されたクラウド側処理情報を受信するステップと、
    前記クラウド側コントロールセンターは前記クラウド側処理情報を分析してユーザニーズを取得するステップと、
    前記クラウド側コントロールセンターは前記ユーザニーズを意思決定エンジンに返送するステップとを含み、
    前記クラウド側処理情報が動作検出結果である場合、前記クラウド側コントロールセンターが前記クラウド側処理情報を分析するステップは、
    前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによって前記ユーザニーズを取得するステップを具体的に含む、ことを特徴とするクラウド側コントロールセンターの処理方法。
  8. オンラインの場合に、知能ロボットから送信されたクラウド側処理情報を受信する受信モジュールと、
    前記クラウド側処理情報を分析してユーザニーズを取得する分析モジュールと、
    前記ユーザニーズを前記知能ロボットに設置された意思決定エンジンに返送する復元モジュールとを含み、
    前記クラウド側処理情報が動作検出結果である場合、前記クラウド側コントロールセンターは、
    前記動作検出結果に対し統計分析をし、分析結果を対応する知識ベースと比較することによってユーザニーズを取得するステップを具体的に含
    前記クラウド側処理情報が複数の音声クリップである場合、前記クラウド側コントロールセンターは前記クラウド側処理情報を分析するステップは、
    前記複数の音声クリップに対し音声認識をするステップと、
    前記ユーザニーズを取得できるように、認識結果に対し、自然言語理解、意味分析、情感分析の中の一つ又は複数をするステップとを具体的に含む
    ことを特徴とするクラウド側コントロールセンター。
JP2015257463A 2015-06-24 2015-12-28 人工知能に基づく知能ロボットの制御システム、方法及び装置 Active JP6700785B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510355436.7A CN104965426A (zh) 2015-06-24 2015-06-24 基于人工智能的智能机器人控制系统、方法和装置
CN201510355436.7 2015-06-24

Publications (2)

Publication Number Publication Date
JP2017010518A JP2017010518A (ja) 2017-01-12
JP6700785B2 true JP6700785B2 (ja) 2020-05-27

Family

ID=54219464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257463A Active JP6700785B2 (ja) 2015-06-24 2015-12-28 人工知能に基づく知能ロボットの制御システム、方法及び装置

Country Status (5)

Country Link
US (1) US10223638B2 (ja)
EP (1) EP3109856A1 (ja)
JP (1) JP6700785B2 (ja)
KR (1) KR20170000751A (ja)
CN (1) CN104965426A (ja)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699689B (zh) * 2014-01-09 2017-02-15 百度在线网络技术(北京)有限公司 事件知识库的构建方法及装置
CN105045246B (zh) * 2015-08-20 2017-12-29 京东方科技集团股份有限公司 Cim系统及控制方法、生产信息化系统
CN105490918A (zh) * 2015-11-20 2016-04-13 深圳狗尾草智能科技有限公司 一种机器人主动与主人交互的系统及方法
CN105563484B (zh) * 2015-12-08 2018-04-10 深圳达闼科技控股有限公司 一种云机器人系统、机器人和机器人云平台
CN105425648A (zh) * 2016-01-11 2016-03-23 北京光年无限科技有限公司 便携机器人及其数据处理方法和系统
KR102392113B1 (ko) * 2016-01-20 2022-04-29 삼성전자주식회사 전자 장치 및 전자 장치의 음성 명령 처리 방법
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置
CN105824935A (zh) * 2016-03-18 2016-08-03 北京光年无限科技有限公司 面向问答机器人的信息处理方法及系统
CN105843381B (zh) * 2016-03-18 2020-07-28 北京光年无限科技有限公司 用于实现多模态交互的数据处理方法及多模态交互系统
CN105868827B (zh) * 2016-03-25 2019-01-22 北京光年无限科技有限公司 一种智能机器人多模态交互方法和智能机器人
WO2017177441A1 (zh) * 2016-04-15 2017-10-19 深圳前海达闼云端智能科技有限公司 一种云计算机器人控制装置、认知平台及控制方法
CN105930167A (zh) * 2016-05-10 2016-09-07 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
CN106055355A (zh) * 2016-05-25 2016-10-26 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
CN106126493A (zh) * 2016-06-16 2016-11-16 哈尔滨工程大学 一种基于机器人自主行为的自然语言解析方法
CN106003074A (zh) * 2016-06-17 2016-10-12 小船信息科技(上海)有限公司 一种基于云计算的智能交互机器人系统及交互方法
CN106126636B (zh) * 2016-06-23 2019-11-08 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106096373A (zh) * 2016-06-27 2016-11-09 旗瀚科技股份有限公司 机器人与用户的交互方法及装置
CN106205611B (zh) * 2016-06-29 2020-03-27 北京儒博科技有限公司 一种基于多模态历史响应结果的人机交互方法及系统
CN107590503A (zh) * 2016-07-07 2018-01-16 深圳狗尾草智能科技有限公司 一种机器人情感数据更新方法及系统
CN107618034A (zh) * 2016-07-15 2018-01-23 浙江星星冷链集成股份有限公司 一种机器人的深度学习方法
CN107644255B (zh) * 2016-07-21 2022-05-06 北京和信康科技有限公司 一种人工智能设备的数据处理方法、装置及系统
CN106297782A (zh) * 2016-07-28 2017-01-04 北京智能管家科技有限公司 一种人机交互方法及系统
CN106182027B (zh) * 2016-08-02 2019-03-12 西南科技大学 一种开放式服务机器人系统
CN107696028B (zh) * 2016-08-08 2021-11-02 新沂阿凡达智能科技有限公司 用于智能机器人的控制方法和装置及机器人
CN106295217A (zh) * 2016-08-19 2017-01-04 吕佳宁 一种孕育机器人
CN106408335A (zh) * 2016-09-05 2017-02-15 江苏宾奥机器人科技有限公司 基于物联网的移动机器人信息推送系统
WO2018076191A1 (zh) * 2016-10-26 2018-05-03 深圳前海达闼云端智能科技有限公司 智能巡逻设备、云端控制装置、巡逻方法、控制方法、机器人、控制器及非暂态计算机可读存储介质
CN106648853A (zh) * 2016-11-16 2017-05-10 北京光年无限科技有限公司 一种智能机器人、操作系统及应用生命周期管理方法
CN106681323B (zh) * 2016-12-22 2020-05-19 北京光年无限科技有限公司 一种用于机器人的交互输出方法以及机器人
CN106799733A (zh) * 2016-12-27 2017-06-06 深圳前海勇艺达机器人有限公司 机器人动作方法与系统
CN106625711A (zh) * 2016-12-30 2017-05-10 华南智能机器人创新研究院 一种定位机器人智能互动的方法
CN107066507B (zh) * 2017-01-10 2019-09-17 中国人民解放军国防科学技术大学 一种基于云机器人混合云架构的语义地图构建方法
CN108326875B (zh) * 2017-01-20 2023-03-24 松下知识产权经营株式会社 通信控制方法与装置、远程呈现机器人以及存储介质
CN111984345A (zh) * 2017-03-11 2020-11-24 陕西爱尚物联科技有限公司 一种机器人软件系统及其机器人
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
JP2018176387A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 ロボット装置及びプログラム
CN107170446A (zh) * 2017-05-19 2017-09-15 深圳市优必选科技有限公司 语义处理服务器及用于语义处理的方法
KR101968725B1 (ko) * 2017-05-19 2019-04-12 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
US10529323B2 (en) * 2017-05-19 2020-01-07 UBTECH Robotics Corp. Semantic processing method of robot and semantic processing device
CN107398912B (zh) * 2017-06-28 2019-08-09 重庆柚瓣家科技有限公司 家庭机器人用户行为统计系统
CN107357292A (zh) * 2017-07-13 2017-11-17 上海斐讯数据通信技术有限公司 一种儿童室内智能看护系统及其看护方法
CN107622300B (zh) * 2017-08-09 2021-07-27 北京光年无限科技有限公司 多模态虚拟机器人的认知决策方法和系统
CN107290975A (zh) * 2017-08-22 2017-10-24 重庆锐纳达自动化技术有限公司 一种家居智能机器人
TWI694904B (zh) * 2017-10-05 2020-06-01 國立交通大學 機器人語音操控系統及方法
CA3077564A1 (en) * 2017-10-06 2019-04-11 Dynamicly Inc. System and method for a hybrid conversational and graphical user interface
CN107680593A (zh) * 2017-10-13 2018-02-09 歌尔股份有限公司 一种智能设备的语音增强方法及装置
CN109859750A (zh) * 2017-11-30 2019-06-07 苏州宝时得电动工具有限公司 自移动设备的语音控制系统、方法和自移动设备
CN107918771B (zh) * 2017-12-07 2023-11-24 河北工业大学 人物识别方法和佩戴式人物识别系统
CN108229365A (zh) * 2017-12-28 2018-06-29 重庆柚瓣家科技有限公司 多回路复合式的适老化交互系统及方法
KR102385263B1 (ko) 2018-01-04 2022-04-12 삼성전자주식회사 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법
CN108227713B (zh) * 2018-01-04 2019-07-19 广州供电局有限公司 一种利用巡维机器人实现服务器启停的方法
CN108198559A (zh) * 2018-01-26 2018-06-22 上海萌王智能科技有限公司 一种可学习动作的语音控制机器人系统
CN108340377A (zh) * 2018-01-26 2018-07-31 广东工业大学 一种多交互模态的机器人云操作系统
CN108172226A (zh) * 2018-01-27 2018-06-15 上海萌王智能科技有限公司 一种可学习应答语音和动作的语音控制机器人
CN108447477A (zh) * 2018-01-30 2018-08-24 华南理工大学 一种基于自然语言理解的机器人控制方法
CN108594987A (zh) * 2018-03-20 2018-09-28 中国科学院自动化研究所 基于多模态交互的多人机协同行为监控系统及其操控方法
KR102503757B1 (ko) * 2018-04-03 2023-02-23 엘지전자 주식회사 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템
CN109015664A (zh) * 2018-05-31 2018-12-18 芜湖星途机器人科技有限公司 用于机器人的控制系统
US11188810B2 (en) 2018-06-26 2021-11-30 At&T Intellectual Property I, L.P. Integrated assistance platform
CN109240488A (zh) * 2018-07-27 2019-01-18 重庆柚瓣家科技有限公司 一种ai场景定位引擎的实现方法
CN110858096A (zh) * 2018-08-23 2020-03-03 中瑞福宁机器人(沈阳)有限公司 以语义识别为主并辅之以其它方式的机器人人机交互方法
US11514917B2 (en) 2018-08-27 2022-11-29 Samsung Electronics Co., Ltd. Method, device, and system of selectively using multiple voice data receiving devices for intelligent service
KR20200024068A (ko) * 2018-08-27 2020-03-06 삼성전자주식회사 인텔리전트 서비스를 위해, 복수의 음성 데이터 수신 장치들을 선택적으로 이용하는 방법, 장치, 및 시스템
CN109159130A (zh) * 2018-09-03 2019-01-08 北京云迹科技有限公司 用于机器人的移动位置提示方法及装置、机器人
CN108986816A (zh) * 2018-09-29 2018-12-11 芜湖星途机器人科技有限公司 一种智能门岗
CN109241721A (zh) * 2018-09-30 2019-01-18 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN109262628A (zh) * 2018-11-01 2019-01-25 深圳市三宝创新智能有限公司 一种具有前台功能的智能机器人设备及服务方法
CN109567820A (zh) * 2018-11-27 2019-04-05 广州绿桦环保科技有限公司 一种睡眠管理方法、装置及系统
CN111292734B (zh) * 2018-12-06 2024-03-08 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN109740887A (zh) * 2018-12-24 2019-05-10 上海商然数据服务有限公司 一种基于语音互动的大数据决策辅助系统
CN111429924A (zh) * 2018-12-24 2020-07-17 同方威视技术股份有限公司 语音交互方法、装置、机器人及计算机可读存储介质
CN111360816A (zh) * 2018-12-26 2020-07-03 沈阳新松机器人自动化股份有限公司 一种机器人的控制方法、系统及机器人
CN111376248B (zh) * 2018-12-28 2022-04-15 深圳市优必选科技有限公司 机器人、机器人的决策方法及终端设备
WO2020213758A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 음성으로 상호작용하는 인공 지능 장치 및 그 방법
CN110046715A (zh) * 2019-04-24 2019-07-23 戴文跃 一种线索集成系统基础构成
CN110136713A (zh) * 2019-05-14 2019-08-16 苏州思必驰信息科技有限公司 用户在多模态交互中的对话方法及系统
CN110245031B (zh) * 2019-06-03 2021-07-20 北京百度网讯科技有限公司 一种ai服务开放中台及方法
US11176939B1 (en) 2019-07-30 2021-11-16 Suki AI, Inc. Systems, methods, and storage media for performing actions based on utterance of a command
CN110780786B (zh) * 2019-10-24 2023-01-31 赵振东 一种对电子地图标识进行个性化智能应用的方法
CN110850789A (zh) * 2019-12-09 2020-02-28 常州市小先信息技术有限公司 一种基于边缘计算的机器人能效优化方法
CN112990953A (zh) * 2019-12-16 2021-06-18 上海邸客网络科技有限公司 一种基于人工智能的个人智能决策引擎
CN111444323A (zh) * 2020-02-25 2020-07-24 平安国际智慧城市科技股份有限公司 事故信息快速采集方法、装置、计算机设备及存储介质
CN111482974A (zh) * 2020-04-13 2020-08-04 广东技术师范大学 一种健康检测机器人
CN113705278A (zh) * 2020-05-20 2021-11-26 深圳市看见智能科技有限公司 用于智能眼镜的人体行为识别系统及方法
CN112016604B (zh) * 2020-08-19 2021-03-26 华东师范大学 一种运用视觉信息的零资源机器翻译方法
WO2022054102A1 (en) * 2020-09-12 2022-03-17 Indus International School Pvt. Ltd. Interactive humanoid robot to facilitate teaching in a collaborative classroom learning environment
CN112131023B (zh) * 2020-09-23 2023-08-11 平安科技(深圳)有限公司 应用容器引擎的消息处理系统、方法、设备及存储介质
KR102442064B1 (ko) * 2020-11-30 2022-09-08 네이버랩스 주식회사 서비스 어플리케이션과 연계하여 서비스를 제공하는 로봇을 제어하는 방법 및 클라우드 서버
CN112786044A (zh) * 2020-12-30 2021-05-11 乐聚(深圳)机器人技术有限公司 语音控制方法、装置、主控制器、机器人及存储介质
CN113515050A (zh) * 2021-01-08 2021-10-19 腾讯科技(深圳)有限公司 一种设备控制方法、装置及计算机可读存储介质
CN113127827B (zh) * 2021-05-08 2024-03-08 上海日羲科技有限公司 一种基于ai系统的用户指令处理方法
CN113268352B (zh) * 2021-06-11 2024-03-08 中科院软件研究所南京软件技术研究院 面向通用服务机器人的多指令响应式任务协同管理方法
CN113707143A (zh) * 2021-08-20 2021-11-26 珠海格力电器股份有限公司 语音处理方法、装置、电子设备和存储介质
CN114089741A (zh) * 2021-10-16 2022-02-25 南昌大学 一种自定义语音和智能高效精准循迹的移动装置
CN114227716B (zh) * 2021-12-30 2024-06-04 重庆特斯联智慧科技股份有限公司 支持控制逻辑云调用的机器人系统及其方法
CN115795017B (zh) * 2023-01-17 2023-05-02 深圳联友科技有限公司 一种对话系统离线在线融合应用方法及系统
CN116705026B (zh) * 2023-08-02 2023-10-13 江西科技学院 一种人工智能交互方法及系统
CN117727303A (zh) * 2024-02-08 2024-03-19 翌东寰球(深圳)数字科技有限公司 一种音视频的生成方法、装置、设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7941313B2 (en) * 2001-05-17 2011-05-10 Qualcomm Incorporated System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system
JP2007152443A (ja) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 片付けロボット
CN201242685Y (zh) * 2008-08-19 2009-05-20 中国人民解放军第二炮兵工程学院 向导机器人
JP5324956B2 (ja) 2009-02-16 2013-10-23 株式会社国際電気通信基礎技術研究所 道案内ロボット
JP2012108262A (ja) 2010-11-16 2012-06-07 Nippon Telegr & Teleph Corp <Ntt> 対話内容抽出装置、対話内容抽出方法、そのプログラム及び記録媒体
KR101568347B1 (ko) * 2011-04-12 2015-11-12 한국전자통신연구원 지능형 로봇 특성을 갖는 휴대형 컴퓨터 장치 및 그 동작 방법
JP5842245B2 (ja) 2011-04-28 2016-01-13 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US8594845B1 (en) * 2011-05-06 2013-11-26 Google Inc. Methods and systems for robotic proactive informational retrieval from ambient context
KR20140064969A (ko) 2011-09-23 2014-05-28 디지맥 코포레이션 콘텍스트―기반 스마트폰 센서 로직
CN102722186A (zh) * 2012-06-28 2012-10-10 深圳大学 一种基于语音识别的移动伺服平台及语音控制方法
CN102868740A (zh) * 2012-09-07 2013-01-09 深圳市信利康电子有限公司 基于移动通讯终端及互联网语音交互的玩具控制方法及系统
JP2014106523A (ja) 2012-11-30 2014-06-09 Aisin Aw Co Ltd 音声入力対応装置及び音声入力対応プログラム
US9355368B2 (en) 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
JP6151546B2 (ja) 2013-03-29 2017-06-21 株式会社富士通アドバンストエンジニアリング 移動制御方法、移動制御プログラム及び移動制御装置
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
US9430465B2 (en) 2013-05-13 2016-08-30 Facebook, Inc. Hybrid, offline/online speech translation system
JP6371606B2 (ja) 2013-09-03 2018-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法及び音声機器制御システム
US20160228040A1 (en) 2013-09-13 2016-08-11 Konica Minolta, Inc. Notification System
JP2015069443A (ja) 2013-09-30 2015-04-13 株式会社東芝 電子機器および支援方法
KR20150062275A (ko) 2013-11-29 2015-06-08 레드원테크놀러지 주식회사 클라우드 로봇을 이용한 영유아 안전관리 시스템 및 방법

Also Published As

Publication number Publication date
US20160379121A1 (en) 2016-12-29
CN104965426A (zh) 2015-10-07
EP3109856A1 (en) 2016-12-28
KR20170000751A (ko) 2017-01-03
US10223638B2 (en) 2019-03-05
JP2017010518A (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6700785B2 (ja) 人工知能に基づく知能ロボットの制御システム、方法及び装置
US11241789B2 (en) Data processing method for care-giving robot and apparatus
Mead et al. Autonomous human–robot proxemics: socially aware navigation based on interaction potential
US11056096B2 (en) Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style in heterogeneous label
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
CN110383235A (zh) 多用户智能辅助
US11508378B2 (en) Electronic device and method for controlling the same
US20190043511A1 (en) Interactive robot and human-robot interaction method
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
KR20100086262A (ko) 로봇 및 그 제어방법
JP6716630B2 (ja) 情報を提供する装置、方法、コンピュータプログラムおよび記録媒体
US20200114925A1 (en) Interaction device, interaction method, and program
US20210208595A1 (en) User recognition-based stroller robot and method for controlling the same
Efthimiou et al. The MOBOT platform–showcasing multimodality in human-assistive robot interaction
Rahman et al. Iot based smart assistant for blind person and smart home using the bengali language
JP6886651B2 (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
KR20200052804A (ko) 전자 장치 및 전자 장치의 제어 방법
Oliveira et al. An active audition framework for auditory-driven HRI: Application to interactive robot dancing
Nagao et al. Symbiosis between humans and artificial intelligence
Chalvatzaki et al. I-Walk intelligent assessment system: Activity, mobility, intention, communication
CN113497912A (zh) 通过语音和视频定位的自动取景
KR102617740B1 (ko) Ai 기반의 스피커 시스템
Kubota et al. Conversation system for robot partners based on informationally structured space
CN115995235B (zh) 基于语音信号分离的远程数字人交互方法、装置及系统
CN115476366B (zh) 足式机器人的控制方法、装置、控制设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170814

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170915

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20171110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R150 Certificate of patent or registration of utility model

Ref document number: 6700785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250