JP6759445B2 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6759445B2
JP6759445B2 JP2019501175A JP2019501175A JP6759445B2 JP 6759445 B2 JP6759445 B2 JP 6759445B2 JP 2019501175 A JP2019501175 A JP 2019501175A JP 2019501175 A JP2019501175 A JP 2019501175A JP 6759445 B2 JP6759445 B2 JP 6759445B2
Authority
JP
Japan
Prior art keywords
message
information
destination
agent device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019501175A
Other languages
English (en)
Other versions
JPWO2018155116A1 (ja
Inventor
城井 学
学 城井
英寛 小松
英寛 小松
厚志 石原
厚志 石原
悠 繁田
悠 繁田
準二 糸山
準二 糸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Mobile Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Mobile Communications Inc filed Critical Sony Mobile Communications Inc
Publication of JPWO2018155116A1 publication Critical patent/JPWO2018155116A1/ja
Application granted granted Critical
Publication of JP6759445B2 publication Critical patent/JP6759445B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/414Structure of the control system, e.g. common controller or multiprocessor systems, interface to servo, programmable interface controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42204Arrangements at the exchange for service or number selection by voice
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • H04M3/53366Message disposing or creating aspects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • G08B5/36Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources
    • G08B5/38Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources using flashing light
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
例えば特許文献1には、ユーザからの伝言を得て、該ユーザが望む第三者と対話して上記伝言を通知するロボット装置についての技術が開示されている。
特開2004−90109号公報
しかし、ユーザが望む第三者にメッセージを伝えるには、ロボットがその第三者が誰であるかを認識する必要があり、ユーザがメッセージを伝えたい相手を認識出来なければ、ロボットは誰にメッセージを伝えれば良いか分からない。
そこで、本開示では、ユーザが望む第三者に確実にメッセージを伝えることが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提案する。
本開示によれば、音声メッセージを含む情報を取得する取得部と、前記取得部が取得した前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識する制御部と、を備え、前記制御部は、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成する、情報処理装置が提供される。
また本開示によれば、プロセッサが、音声メッセージを含む情報を取得することと、取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、を実行することを含む、情報処理方法が提供される。
また本開示によれば、コンピュータに、音声メッセージを含む情報を取得することと、取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、ユーザが望む第三者に確実にメッセージを伝えることが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することが出来る。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態に係るエージェント装置100の外観例を示す説明図である。 同実施の形態に係るエージェント装置100の機能構成例を示す説明図である。 同実施の形態に係るエージェント装置100の動作について説明する説明図である。 同実施の形態に係るエージェント装置100の動作について説明する説明図である。 同実施の形態に係るエージェント装置100の動作例を示す説明図である。 同実施の形態に係るエージェント装置100の動作例を示す流れ図である。 エージェント装置100がディスプレイ110に表示させるユーザインターフェースの例を示す説明図である。 エージェント装置100の周囲に発話しているユーザが1人しかいない場合の例を示す説明図である。 発話しているユーザがエージェント装置100の方を向いている場合と向いていない場合とで、エージェント装置100が動作を変化させる例を示す説明図である。 エージェント装置100にエアコンを認識させ、そのエアコンをエージェント装置100から遠隔操作させる様子を示す説明図である。 エージェント装置100にICカードを見せると、リーダライタをユーザに向ける様子を示す説明図である。 ユーザがディスプレイ110に触っている状態の例を示す説明図である。 エージェント装置100が提示する表現の例を示す説明図である。 エージェント装置100が提示する表現の例を示す説明図である。 エージェント装置100が提示する表現の例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施の形態
1.1.外観例
1.2.機能構成例
1.3.動作例
2.まとめ
<1.本開示の実施の形態>
[1.1.外観例]
まず、図面を参照して本開示の実施の形態に係る、会話機能を有する情報処理装置(以下、エージェント装置と称す)の外観例を説明する。このエージェント装置は、部屋の中、例えばテーブルの上に設置される利用形態を想定している。
図1は、本開示の実施の形態に係るエージェント装置100の外観例を示す説明図である。以下、図1を用いて本開示の実施の形態に係るエージェント装置100の外観例について説明する。
本開示の実施の形態に係るエージェント装置100は、土台部102、胴体部104及び頭部106からなる。土台部102は、エージェント装置100をテーブル等に設置した際にエージェント装置100を安定させる。
胴体部104は、ディスプレイ110を備える。ディスプレイ110は、例えば液晶ディスプレイや有機ELディスプレイで構成される。またディスプレイ110はタッチパネルを備えうる。胴体部104は水平方向に所定の角度、例えば略360度回動可能であり、その際、エージェント装置100は、土台部102を動かさないままで胴体部104だけを回動させることが可能である。
頭部106は、胴体部104の上部に設けられる。頭部106は、発光部108a、108bを備える。発光部108a、108bの発光領域や発光色は、エージェント装置100の状態によって変化しうる。例えば、発光部108a、108bの発光領域が短時間で変化することで、まるでエージェント装置100が瞬きをしているかのような動作が可能となる。また、頭部106は上下左右に所定の角度回動可能であり、その際、エージェント装置100は、土台部102及び胴体部104を動かさないままで頭部106だけを回動させることが可能である。
胴体部104は、頭部106との境界部分にLED(Light Emitting Diode)によるインジケータ111を有する。インジケータ111は、エージェント装置100の状態により発光パターンや発光色が変化しうる。
例えば、ユーザがエージェント装置100に話しかけている間は、エージェント装置100は、発話を認識している間、インジケータ111を点灯させ続け、エージェント装置100から音声を出力する間は、エージェント装置100は、音声の出力に合わせてインジケータ111を点滅させてもよい。
図1には図示しないが、本開示の実施の形態に係るエージェント装置100は、後述するように、周囲の環境を撮像するカメラ、人間の声や周囲の環境音などを集音するマイク、音声を出力するスピーカ、エージェント装置100や周囲の環境の状態をセンシングするセンサを備える。エージェント装置100は、人間の声や周囲の環境音などを集音しやすいようにビームフォーミングされたマイクを複数備える。
また図1には図示しないが、本開示の実施の形態に係るエージェント装置100は、ディスプレイ110の反対側に、近接非接触通信を行うリーダライタを備える。リーダライタにICカードを近接させると、エージェント装置100は、その近接に応じた処理を実行することができる。
本開示の実施の形態に係るエージェント装置100は、ユーザの発話内容を解析して、その発話内容に応じた処理を実行することが可能なように構成されている。例えば、エージェント装置100は、ユーザの発話内容を解析して、その発話内容に応じて音声を出力することで、ユーザの対話処理を行うことが出来る。具体的には、ユーザが「明日の東京の天気予報を教えて」とエージェント装置100に話しかけると、エージェント装置100は、発話内容を解析して、東京の翌日の天気予報をインターネットから取得する。そしてエージェント装置100は、例えば「明日の東京は晴れ時々曇りでしょう」などと音声や文字、画像などで出力する。
また本開示の実施の形態に係るエージェント装置100は、あるユーザ(ユーザXとする)が別のユーザ(ユーザYとする)に音声メッセージを含む伝言を残したい場合に、ユーザXが発した言葉を解析し、伝言の内容と伝言の宛先(ユーザY)に関する情報とを保存する。そしてユーザYの存在を検知すると、エージェント装置100は、そのユーザYに対して、ユーザXが残した伝言を発する。
以上、図1を用いて本開示の実施の形態に係るエージェント装置100の外観例を節目逸した。続いて、本開示の実施の形態に係るエージェント装置100の機能構成例を説明する。
[1.2.機能構成例]
図2は、本開示の実施の形態に係るエージェント装置100の機能構成例を示す説明図である。以下、図2を用いて本開示の実施の形態に係るエージェント装置100の機能構成例について説明する。
図2に示したように、本開示の実施の形態に係るエージェント装置100は、発光部108a、108bと、ディスプレイ110と、インジケータ111と、センサ112と、制御部114と、記憶部116と、スピーカ118と、マイク120と、モータ122と、カメラ124と、通信部126と、リーダライタ128と、を含んで構成される。ここでは、図1に示されていないセンサ112と、制御部114と、記憶部116と、スピーカ118と、マイク120と、モータ122と、カメラ124と、通信部126と、リーダライタ128と、について説明する。
センサ112は、エージェント装置100や周囲の環境の状態をセンシングし、センシングにより得られたセンシングデータを制御部114に出力する。センサ112は、例えば、人感センサ、測位センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、湿度センサ、気圧センサ、心拍センサなどの様々なセンサの中から少なくともいずれかのセンサで構成される。なお、上述の測位センサとしては、例えば具体的には、GNSS(Global Navigation Satellite System)受信機、および/または通信装置などを含みうる。GNSSは、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)、QZSS(Quasi−Zenith Satellites System)、またはGalileoなどを含みうる。また測位センサとしては、例えば、無線LAN、MIMO(Multi−Input Multi−Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))などの技術を利用して位置を検出するものが含まれうる。
制御部114は、例えばCPU(Centoral Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)で構成され、エージェント装置100の動作を制御する。制御部114は、エージェント装置100の動作を制御するに際して、センサ112が出力するセンシングデータ、マイク120が集音した音声データ、カメラ124が撮像した画像データ、通信部126が受信した通信データ、記憶部116に記憶されているデータ等を用いうる。
本実施形態では、制御部114は、以下で詳細に説明するような動作を実行する。制御部114が以下で説明するような動作を実行することで、エージェント装置100は、人間との対話処理や、人間に対する伝言処理などを実行することが出来る。
記憶部116は、例えば不揮発性または揮発性のメモリで構成され、エージェント装置100の動作に必要なプログラムやデータを保持したり、エージェント装置100の動作のログを記憶したりする。
スピーカ118は、制御部114の制御によって音声を出力する。マイク120は、エージェント装置100の周囲にいる人間の声や周囲の環境音などを集音する。マイク120が集音した音は制御部114に送られる。モータ122は、制御部114の制御によって、胴体部104や頭部106を駆動させるためのモータである。カメラ124は、エージェント装置100の周囲の環境を静止画像または動画像で撮像する。カメラ124は、例えば頭部106に設けられ、エージェント装置100の正面(発光部108a、108bが設けられている面)の方向を撮像する。通信部126は、例えば無線LAN等に接続したり、赤外線通信やBluetooth(登録商標)等の無線通信規格を用いたりして、他の装置との間で通信処理を実行する。リーダライタ128は、近接非接触通信によってICカード等との間で通信を実行する。
本開示の実施の形態に係るエージェント装置100は、係る構成を有することで、以下で説明するような動作を実行することが出来る。
以上、図2を用いて本開示の実施の形態に係るエージェント装置100の機能構成例を説明した。続いて、本開示の実施の形態に係るエージェント装置100の動作例について説明する。
[1.3.動作例]
本開示の実施の形態に係るエージェント装置100は、あるユーザが語りかけてきた内容を解析し、その解析結果に基づいて情報の出力を音声または画像で出力する。例えば、あるユーザが「明日の天気を教えて」とエージェント装置100に語りかけると、エージェント装置100は、制御部114でユーザの発話内容を解析し、発話者は天気予報が知りたいのだと判断する。そこでエージェント装置100は、通信部126からインターネットに接続して、翌日の天気予報データを取得し、その天気予報を音声または画像で出力する。
また本開示の実施の形態に係るエージェント装置100は、あるユーザ(ユーザXとする)が別のユーザ(ユーザYとする)に伝言を残したい場合に、ユーザXが発した言葉を解析し、ユーザYの存在を検知すると、そのユーザYに対して、ユーザXが残した伝言を発する。
図3は、本開示の実施の形態に係るエージェント装置100の動作について説明する説明図であり、ユーザXがユーザYに対する伝言をエージェント装置100に話しかけている様子を示したものである。図3では、ユーザXが「Yさんに伝言お願い」とエージェント装置100に語りかけ、続いてユーザYに残したい伝言をエージェント装置100に語りかける。エージェント装置100は、カメラ124での撮像データを用いた顔認識処理や、マイク120で集音した音声データを用いた声紋認識処理を制御部114で行って、メッセージを発したのがユーザXであることを認識する。なお、エージェント装置100は予め顔認識処理や声紋認識処理によって、ユーザXがどのような顔か、またどのような声であるかを把握しているものとする。例えば、エージェント装置100は、カメラ124で取得された画像データや、マイク120で取得された音声データに基づいて、ユーザXの顔や声等を記憶部116に事前に記憶させておいてもよい。また、エージェント装置100は、ディスプレイ110に備えられたタッチパネルを用いてユーザによって入力(または選択)された名前や年齢等の情報を記憶部116に記憶させておいてもよい。
この際、制御部114は、まずカメラ124での撮像データを用いた顔認識処理を行ってユーザの特定を試みて、顔認識処理ではユーザを特定できなかった場合に、マイク120で集音した音声データを用いた声紋認識処理を行ってユーザの特定を試みても良い。
そしてエージェント装置100は、ユーザXが発した言葉をマイク120で集音し、マイク120が集音した音声データを、所定の言語解析処理を用いて制御部114で解析する。エージェント装置100は、制御部114での解析の結果、ユーザXの伝言の対象がユーザYであることを判断し、ユーザXが発したユーザYに対する伝言の内容と、伝言の宛先(ユーザY)に関する情報(例えば名前やID等)とを記憶部116に記憶させる。エージェント装置100は、伝言の送り主(ユーザX)に関する情報を記憶部116に記憶させてもよい。また、エージェント装置100は、ユーザXからの伝言を録音したものをそのまま記憶しても良く、録音を記録する場合には、カメラ124で撮像した画像データとともに記憶しても良い。またエージェント装置100は、ユーザXからの伝言をテキストデータに変換して記憶しても良い。
図4は、本開示の実施の形態に係るエージェント装置100の動作について説明する説明図であり、ユーザYがエージェント装置100に近付いてきている様子を示したものである。ユーザXが伝言をエージェント装置100に残した後、ユーザYがエージェント装置100の置かれている部屋に入室し、顔をエージェント装置100の方に向けると、エージェント装置100は、カメラ124での撮像データを用いた顔認識処理や、マイク120で集音した音声データを用いた声紋認識処理を制御部114で行って、目の前に居るのが誰かを認識する。
顔認識処理や声紋認識処理を行った結果、目の前に居るのがユーザYであることを認識すると、エージェント装置100は、ユーザXがユーザYに残した伝言をユーザYに通知する。この際、エージェント装置100は、伝言の通知方法として、ユーザXが発した言葉を録音しておき、その録音データをスピーカ118から発しても良い。またエージェント装置100は、伝言の通知方法として、音声合成処理によって伝言の内容をスピーカ118から出力しても良い。またエージェント装置100は、伝言の通知方法として、ユーザXが発した言葉をテキストに変換してディスプレイ110に表示しても良い。
なお、顔認識処理や声紋認識処理を行った結果、目の前に居るのがユーザYであることを認識すると、エージェント装置100は、ユーザYに対する伝言があることを示すため、ディスプレイ110への伝言がある旨のメッセージの表示、インジケータ111の発光、胴体部104の揺動などを行っても良い。図5は、本開示の実施の形態に係るエージェント装置100の動作例を示す説明図であり、エージェント装置100が、インジケータ111の発光や、胴体部104の揺動などを行っている様子を示したものである。なお、顔認識処理や声紋認識処理を行わなくても、エージェント装置100は、人感センサによって人が近くに居ることが検出されたら、伝言があることを示すため、インジケータ111の発光や、胴体部104の揺動などを行っても良い。また、制御部114は、インジケータ111の発光や、胴体部104の揺動を、カメラ124による撮像データを用いた顔認識や、センサ112に含まれる人感センサによる検出は出来たが、そのユーザが何も声を発しなかった場合に行うようにしても良い。
ところで、ユーザXが「Yさんに伝言お願い」とエージェント装置100に語りかけた際に、その「Yさん」が誰であるかをエージェント装置100が認識出来ない場合があり得る。例えば、子供が父親に伝言を残したい場合は「パパに伝言をお願い」と語りかけるだろうし、その父親の親が、その父親に伝言を残したい場合は、名前を告げて語りかけるかもしれない。この場合、伝言対象は何れの場合も同一であるが、「パパ」という代名詞と、名前という固有名詞が同じものであるかをエージェント装置100が認識出来ない場合がある。そこでエージェント装置100は、伝言の対象を一意に決定できなかった場合には、伝言の対象を明示的に設定させるための情報を出力してもよい。
図6は、本開示の実施の形態に係るエージェント装置100の動作例を示す流れ図である。以下、図6を用いて本開示の実施の形態に係るエージェント装置100の動作例を説明する。
エージェント装置100は、あるユーザが伝言をエージェント装置100に向けて発すると、その伝言内容を制御部114で解析する(ステップS101)。エージェント装置100は、制御部114での伝言内容の解析の結果、伝言の対象を特定可能かどうか制御部114で判断する(ステップS102)。
ステップS102での判断の結果、伝言の対象を特定できなかった場合は(ステップS102、No)、エージェント装置100は、伝言対象をユーザに入力させるための情報を、制御部114の動作によって出力させる(ステップS103)。この伝言対象をユーザに入力させるための情報は、ディスプレイ110に表示されても良く、スピーカ118から音声として出力されても良い。
伝言対象をユーザに入力させるための情報をディスプレイ110に表示する場合の例を示す。図7は、エージェント装置100がディスプレイ110に表示させるユーザインターフェースの例を示す説明図である。ユーザXが「Yさんに伝言お願い」と発した場合に、エージェント装置100がその「Yさん」が誰であるかを一意に特定できなかったときは、図7に示したように、その「Yさん」が誰であるかをユーザXに入力させるためのユーザインターフェースをディスプレイ110に表示する。ここで表示されるのは、例えば、予めエージェント装置100に登録されているユーザの顔写真や名前など、伝言の宛先の候補となるユーザの情報である。その際、伝言を発したユーザ(ここではユーザX)については顔写真や名前の表示対象外とすることが望ましい。伝言を発したユーザは、ディスプレイ110に表示されたユーザインターフェースを操作することで、「Yさん」が誰であるかをエージェント装置100に指示することが出来る。
上記ステップS103で伝言対象をユーザに入力させると、または、ステップS102での判断の結果、伝言の対象を特定できた場合は(ステップS102、Yes)、エージェント装置100は、伝言の登録処理を制御部114で実行する(ステップS104)。
本開示の実施の形態に係るエージェント装置100は、このような一連の動作を実行することで、伝言の対象を一意に決定できなかった場合には、伝言の対象を明示的に設定させるための情報を出力して、伝言の対象をユーザに入力させることができる。
エージェント装置100は、ユーザが直接語りかけていない状態であっても伝言を受け付けることができる。例えば、ネットワークを介して繋がっている携帯電話、テレビ電話、ゲーム機などの装置を用いて、ユーザがエージェント装置100に対してメッセージを発しても良い。上記装置からのメッセージを通信部126で受信したエージェント装置100は、制御部114でメッセージの内容を解析し、伝言の発信元及び通知先を特定しても良い。
またエージェント装置100は、伝言の対象のユーザが伝言を聴いたり見たりした場合には、伝言を聴いたり見たりしたことを、伝言の発信元のユーザが保有する機器に通知しても良い。従って、エージェント装置100は、エージェント装置100を使用するユーザの情報に加え、各ユーザが保有する機器の情報を保持していても良い。例えば、伝言の内容をディスプレイ110に表示させた場合、視線検出処理や顔の向きの検出処理によってその伝言をユーザが見たことが明らかであれば、エージェント装置100は、伝言を見たことを伝言の発信元のユーザが保有する機器に通知しても良い。また、エージェント装置100は、伝言の対象のユーザが伝言を聴いたり見たりした(既読になった)場合に、伝言を聴いたり見たりしたということを記憶部116に記憶させ、後に伝言の発信元のユーザが前に居ることを認識した際に、ディスプレイ110やスピーカ118を用いて、伝言の対象のユーザが伝言を既読したということを通知しても良い。
エージェント装置100は、ユーザの発話を受け付ける際には、所定のトリガワードをユーザに発話させる。このトリガワードを検出することで、エージェント装置100は、マイク120によるユーザの発話内容の集音処理を開始する。なお、エージェント装置100は、カメラ124で撮像された画像データを用いた視線検出処理や顔の向きの検出処理により、ユーザがエージェント装置100の方を向いていると判定し続けている間は、上記所定のトリガワードが発せられていなくても、マイク120によるユーザの発話内容の集音処理を実行しても良い。そしてエージェント装置100は、ユーザがエージェント装置100の方を向かなくなった時点で、マイク120によるユーザの発話内容の集音処理を停止しても良い。このように動作することで、エージェント装置100は、ユーザがトリガワードを発しなくてもユーザからのメッセージ、例えば他のユーザに対する伝言を受け付けることが可能となる。
またエージェント装置100は、何か発話しているユーザの存在を検出し、胴体部104や頭部106を動作させて周囲をカメラ124で撮像し、そのユーザ以外に誰もいないことが分かれば、そのユーザはエージェント装置100に対して発話していると判断しても良い。図8は、エージェント装置100の周囲に発話しているユーザが1人しかいない場合の例を示す説明図である。エージェント装置100は、そのユーザがトリガワードを発していなくても、マイク120によるユーザの発話内容の集音処理を実行しても良い。
エージェント装置100は、ユーザが何か発話している場合に、そのユーザがエージェント装置100に対して発話しているのか、単なる独り言なのかを判別する必要がある。エージェント装置100は、人感センサ等によって検出したユーザとの距離や、マイク120で集音した音のレベルによって、ユーザがエージェント装置100に対して発話しているのか、単なる独り言なのかを判別してもよい。例えば、エージェント装置100は、ユーザとの距離が所定距離より小さいと判定した場合や、集音した音のレベルが所定レベルより大きいと判定した場合に、ユーザがエージェント装置100に対して発話していると判別するようにしてもよい。またエージェント装置100は、人感センサによって近くに人間などが居ることを検出した場合に限って、マイク120で集音した音のレベルの判定処理を行っても良い。
エージェント装置100は、発話しているユーザがエージェント装置100の方を向いている場合と向いていない場合とで動作を変化させても良い。図9は、発話しているユーザがエージェント装置100の方を向いている場合と向いていない場合とで、エージェント装置100が動作を変化させる例を示す説明図である。例えば、発話しているユーザがエージェント装置100の方を向いている場合は、エージェント装置100は、スピーカ118からの音声の出力に加えてディスプレイ110での表示を行い、発話しているユーザがエージェント装置100の方を向いていない場合は、エージェント装置100は、スピーカ118からの音声の出力のみを行うようにする。話しているユーザがエージェント装置100の方を向いていない場合は、エージェント装置100は、音声で出力する情報量を増やしても良い。なお、エージェント装置100が、スピーカ118からの音声の出力のみを行うのは、エージェント装置100がバッテリで駆動している状態に限られていても良い。
エージェント装置100に部屋の中を撮像させて、部屋の中にある家電製品を認識させることで、家電製品に対する遠隔操作をエージェント装置100に行わせることが出来る。図10は、エージェント装置100にエアコンを認識させ、そのエアコンをエージェント装置100から遠隔操作させる様子を示す説明図である。カメラ124で撮像された画像データに、家電製品とともにその家電製品のコードが含まれていれば、エージェント装置100は、当該コードに対応したリモコンコードをインターネットからダウンロードすることが出来る。そしてエージェント装置100は、ダウンロードしたリモコンコードを使用して、その家電製品の遠隔操作を行うことが出来る。
エージェント装置100に非接触通信を行うことが可能なICカードをユーザが見せると、エージェント装置100は、リーダライタ128をユーザに向けるよう胴体部104を回動させてもよい。図11は、エージェント装置100にICカード200を見せると、リーダライタ128をユーザに向ける様子を示す説明図である。この動作をエージェント装置100に行わせる際には、カメラ124で撮像された画像データを用いて、ICカード200の全体が画像データに含まれているかを制御部114で認識させても良く、近接非接触通信機能を有するカードであることを示す所定のマークを画像データに含まれているかを制御部114で認識させても良い。また、この動作をエージェント装置100に行わせる際には、どのカードが近接非接触通信機能を有するカードであるか、またはどのマークを有するカードが近接非接触通信機能を有するカードであるか、の情報を、予めエージェント装置100に登録しておく。
エージェント装置100は、情報の出力に年齢制限を加えても良い。例えば、予め小学生のユーザがいることがエージェント装置100に登録されており、その小学生のユーザがエージェント装置100の周囲に居ることを顔認識処理や声紋認識処理などで認識すると、エージェント装置100は、小学生には知られて欲しくない情報があれば、そのような情報は出力しないよう制限する。
エージェント装置100は、カメラ124で撮像した画像から顔を認識して、その顔に対応するユーザに応じた情報の出力を行う。例えば、お父さんとお母さんでは普段使用している電車の路線が異なるので、エージェント装置100は、お父さんを認識した場合にはお父さんが利用する路線の情報を、お母さんを認識した場合にはお母さんが利用する路線の情報を、インターネットから取得して音声などで提供しても良い。
エージェント装置100が複数台存在して向かい合っている場合、あるエージェント装置100は、目の前のエージェント装置100の動きを真似て動いてもよい。この際、エージェント装置100は、目の前のエージェント装置100の動きをカメラ124で撮像して、画像データの解析によって、目の前のエージェント装置100の動きを真似て動いてもよい。またエージェント装置100は、目の前のエージェント装置100のディスプレイ110で表示されている二次元バーコード等のコードをカメラ124で撮像して、そのコードに対応する動きのデータをインターネットから取得したり、記憶部116から取得したりすることで、あたかも目の前のエージェント装置100の動きを真似て動いているかのように見せかけても良い。
目の前のエージェント装置100の動きを真似て動く場合、初めての動きを行う場合は、エージェント装置100は、その動きをぎこちなく行うようにしてもよい。そしてエージェント装置100は、その動きを何度か行うにつれて徐々にスムーズに動けるようにしてもよい。動きが徐々にスムーズになることによって、エージェント装置100は、あたかもその動きを学習しているように見せることが出来る。
エージェント装置100にテレビの映像をカメラ124で撮像させ、またはテレビの音声をマイク120で集音させ、表示された映像や出力された音声の内容を学習させても良い。そして、ユーザが夜になって帰宅した際に、エージェント装置100は、その学習した内容を音声や画像などで出力してもよい。例えば、エージェント装置100は、映像や音声の内容から固有名詞の出現回数を計測し、出現回数が多い固有名詞は、その日テレビで話題になったものであると判断する。そして、エージェント装置100は、その出現回数の多かった固有名詞が話題であったことを、帰宅したユーザに通知する。この際、エージェント装置100は、電子番組表(Electronic Program Guide;EPG)のデータと連動させることで、どの番組でどのキーワードが話題であったかを、帰宅したユーザに通知しても良い。
エージェント装置100は、カメラ124及びディスプレイ110を備えているので、例えば、カメラ124で撮像した画像データに顔が含まれていれば、その顔に所定のエフェクト、例えば動物の耳や鼻などを加えるエフェクトを与えて、ディスプレイ110に表示してもよい。エージェント装置100は、カメラ124で撮像した画像データで顔を認識すると、「動物に変身させてあげるよ」などの音声を出力して、顔にエフェクトを与えて表示しても良い。この際、ユーザが「ウサギに変身したい」などと動物の名前を発すると、エージェント装置100は、その動物の耳や鼻などを加えるエフェクトを与えてもよい。またこの際、エージェント装置100は、同じユーザには同じエフェクトを優先して与えるようにしてもよい。またこの際、エージェント装置100は、認識した顔が大人なのか子供なのかによって、エフェクトとする動物を変化させても良い。
エージェント装置100は、上述したように胴体部104を回動させることが可能であるが、ユーザがディスプレイ110に触っている状態で胴体部104を回動させると、ユーザの操作の妨げとなる。従ってエージェント装置100は、ユーザがディスプレイ110に触っている状態では胴体部104を回動させないようにしてもよい。図12は、ユーザがディスプレイ110に触っている状態の例を示す説明図である。ユーザがディスプレイ110に触っている状態では、エージェント装置100は、頭部106は動作させても良く、頭部106の動作も停止させても良い。
またエージェント装置100は、ユーザがディスプレイ110を見ている状態で胴体部104を回動させると、ユーザの情報の確認の妨げとなる。従ってエージェント装置100は、カメラ124で撮像した画像データを用いた視線検出処理によってユーザがディスプレイ110を注視していることを検出すると、胴体部104を回動させないようにしてもよい。ユーザがディスプレイ110を注視している状態では、エージェント装置100は、頭部106は動作させても良く、頭部106の動作も停止させても良い。
そしてエージェント装置100は、ディスプレイ110への操作や注視が所定時間されなければ、胴体部104の動作の制限を解除しても良い。
エージェント装置100は、ユーザの外出や帰宅の時間のログを取っておき、ある日のユーザの帰宅が通常より遅かった場合は、頭部106を下げて悲しそうな表現をしてもよい。そしてエージェント装置100は、ユーザの帰宅が通常より遅かった場合は、そのユーザをねぎらうような言葉をスピーカ118から発しても良い。
上述したように、エージェント装置100は様々なセンサを備えうる。例えば、冬場に気温や湿度が低下すると風邪やインフルエンザに罹りやすくなるので、エージェント装置100は、温度センサや湿度センサで室内の状態をセンシングし、所定の条件を満たすと、くしゃみや咳といった音をスピーカ118から出力しても良い。また、エージェント装置100は、温度センサや湿度センサで室内の状態をセンシングし、所定の条件を満たすと、室温が高いのでエアコンを動作させることを促す言葉をスピーカ118から発したり、またエアコンを自ら遠隔操作したりしてもよい。
エージェント装置100は、胴体部104や頭部106を動かしたり、発光部108a、108bの発光領域や発光色を変化させたりすることで、様々な表現を提示することが可能となる。
例えば、エージェント装置100は、ユーザに嫌な言葉を言われたり、怒られたりすると、気落ちしたような表現をしてもよい。図13は、エージェント装置100が提示する表現の例を示す説明図であり、エージェント装置100が頭部106を下げて、気落ちしたような表現をしている様子を示す説明図である。エージェント装置100は、ユーザに嫌な言葉を言われたり、怒られたりしてから所定の期間(例えば24時間)、そのユーザの顔を認識すると、このように頭部106を下げて、気落ちしたような表現を実行する頻度を上げても良い。そして、そのユーザが謝罪する言葉を発すると、エージェント装置100は、このような気落ちしたような表現を行わないようにしてもよい。
エージェント装置100は通信部126を通じてインターネットへの接続が可能であるので、インターネットから天気予報や雨雲レーダの情報を取得することが可能である。従って、天気が大きく変わりそうなことを検出すると、エージェント装置100は、窓の方を向いたり、上方を見上げたりして、天気が変わりそうなことを伝えるような表現を行っても良い。その際、エージェント装置100は、窓の外を向くだけでなく、音声や文字、画像などで、天気が変わりそうなことを出力しても良い。図14は、エージェント装置100が提示する表現の例を示す説明図であり、エージェント装置100が頭部106を上げて、天気が変わりそうなことを伝える表現をしている様子を示す説明図である。
またエージェント装置100は、満月の日、スーパームーンの日、流星群が観測できる日など、通常とは異なる天文現象が起こる際にも、窓の方を向いたり、上方を見上げたりして、通常とは異なる天文現象が起こることを伝えるような表現を行っても良い。その際、エージェント装置100は、窓の方を向いたり、上方を見上げたりするだけでなく、「空を見てみませんか?」等のメッセージをディスプレイ110に表示したり、スピーカ118から出力したりしても良い。
エージェント装置100は、所定の時間になると眠くなるような表現をしてもよい。例えば、昼食後の時間や、子供が寝る時間などになると、あたかも眠くなるように見せる表現をしてもよい。その際、エージェント装置100は、発光部108a、108bの発光領域を変化させて目がウトウトしているような表現をしたり、頭部106を揺ら揺らさせて眠くなっているような表現をしたりしてもよい。図15は、エージェント装置100が提示する表現の例を示す説明図であり、エージェント装置100があたかも眠くなるように見せる表現をしている様子を示す説明図である。
その他、周囲で大きな音がしたことを検出すると、エージェント装置100は、頭部106を上げて周囲を見渡すようにして驚いたような表現をしてもよい。また、室温が低下したことを検出すると、エージェント装置100は、胴体部104を小刻みに動かして震えているような表現をしてもよい。また、花粉症のシーズンになると、エージェント装置100は、発光部108a、108bの発光領域を激しく変化させて瞬きしているような表現をしたり、発光部108a、108bを赤く発光させて目が充血しているような表現をしたりしても良い。
またエージェント装置100は、発する言語によって発光部108a、108bの色を変化させても良い。例えば、エージェント装置100が日本語を発する場合には発光部108a、108bの色を白色にして、英語を発する場合には発光部108a、108bの色を青みがかった色にしてもよい。
またエージェント装置100は、壁面のコンセントから電力の供給を受けている場合と、バッテリ駆動の場合とで、発光部108a、108bや、インジケータ111の発光色や発光パターンを変化させても良い。またエージェント装置100は、バッテリ駆動の場合には、センサ112の動作を停止させてもよい。
<2.まとめ>
以上説明したように本開示の実施の形態によれば、ユーザが伝言したい相手に確実にメッセージを伝える事が可能なエージェント装置100が提供される。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
音声メッセージを含む情報を取得する取得部と、
前記取得部が取得した前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識する制御部と、
を備え、
前記制御部は、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成する、情報処理装置。
(2)
前記制御部は、前記伝言の宛先を入力させる情報として、前記伝言の宛先の候補から選択させるための画像を含める、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記伝言の宛先を入力させる情報として、前記伝言の宛先の候補から音声で選択させるための情報を出力させる、前記(1)に記載の情報処理装置。
(4)
前記制御部は、前記伝言の宛先の人物を認識すると、該宛先に対する前記伝言を出力する、前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
情報を表示する表示部を備える胴体部を含み、
前記制御部は、前記伝言が登録されている状態で人間の接近を検出すると前記胴体部を揺動させるよう制御する、前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
情報を表示する表示部を備える胴体部を含み、
前記制御部は、前記表示部に対する操作が行われていることを検出すると、前記胴体部の動作を停止させるよう制御する、前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記制御部は、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知するよう制御する、前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
情報を表示する表示部を備える胴体部を含み、
前記制御部は、前記表示部に表示された前記伝言を前記伝言の宛先の人物が見た場合に、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知するよう制御する、前記(7)に記載の情報処理装置。
(9)
画像を撮像する撮像部を含み、
前記制御部は、前記撮像部が撮像した画像に顔が含まれていれば前記情報の取得を開始する、前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
プロセッサが、
音声メッセージを含む情報を取得することと、
取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
を実行することを含む、情報処理方法。
(11)
コンピュータに、
音声メッセージを含む情報を取得することと、
取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
を実行させる、コンピュータプログラム。
100 エージェント装置
102 土台部
104 胴体部
106 頭部
108a、108b 発光部
110 ディスプレイ

Claims (12)

  1. 音声メッセージを含む情報を取得する取得部と、
    前記取得部が取得した前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識する制御部と、
    情報を表示する表示部を備える胴体部と、
    を備え、
    前記制御部は、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成し、前記伝言が登録されている状態で人間の接近を検出すると前記胴体部を揺動させるよう制御する、情報処理装置。
  2. 音声メッセージを含む情報を取得する取得部と、
    前記取得部が取得した前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識する制御部と、
    情報を表示する表示部を備える胴体部と、
    を備え、
    前記制御部は、前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成し、前記表示部に表示された前記伝言を前記伝言の宛先の人物が見た場合に、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知するよう制御する、情報処理装置。
  3. 前記制御部は、前記伝言の宛先を入力させる情報として、前記伝言の宛先の候補から選択させるための画像を含める、請求項1又は2に記載の情報処理装置。
  4. 前記制御部は、前記伝言の宛先を入力させる情報として、前記伝言の宛先の候補から音声で選択させるための情報を出力させる、請求項1又は2に記載の情報処理装置。
  5. 前記制御部は、前記伝言の宛先の人物を認識すると、該宛先に対する前記伝言を出力する、請求項1又は2に記載の情報処理装置。
  6. 記制御部は、前記表示部に対する操作が行われていることを検出すると、前記胴体部の回動を停止させるよう制御する、請求項1又は2に記載の情報処理装置。
  7. 前記制御部は、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知するよう制御する、請求項1に記載の情報処理装置。
  8. 画像を撮像する撮像部を含み、
    前記制御部は、前記撮像部が撮像した画像に顔が含まれていれば前記情報の取得を開始する、請求項1又は2に記載の情報処理装置。
  9. プロセッサが、
    音声メッセージを含む情報を取得することと、
    取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
    前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
    前記伝言が登録されている状態で人間の接近を検出することと、
    前記伝言が登録されている状態で人間の接近を検出すると、情報を表示する表示部を備える胴体部を揺動させることと、
    を実行することを含む、情報処理方法。
  10. プロセッサが、
    音声メッセージを含む情報を取得することと、
    取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
    前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
    情報を表示する表示部に前記伝言を表示することと、
    前記表示部に表示された前記伝言を前記伝言の宛先の人物が見た場合に、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知することと、
    を実行することを含む、情報処理方法。
  11. コンピュータに、
    音声メッセージを含む情報を取得することと、
    取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
    前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
    前記伝言が登録されている状態で人間の接近を検出することと、
    前記伝言が登録されている状態で人間の接近を検出すると、情報を表示する表示部を備える胴体部を揺動させることと、
    を実行させる、コンピュータプログラム。
  12. コンピュータに、
    音声メッセージを含む情報を取得することと、
    取得された前記情報から、前記音声メッセージの送り主、前記音声メッセージに含まれる伝言の宛先及び前記伝言の内容を認識することと、
    前記宛先を一意に特定出来ない場合に、前記伝言の宛先を入力させる情報を生成することと、
    情報を表示する表示部に前記伝言を表示することと、
    前記表示部に表示された前記伝言を前記伝言の宛先の人物が見た場合に、前記伝言の宛先の人物が伝言を受け取ったことを、前記送り主が保有する機器に対して通知することと、
    を実行させる、コンピュータプログラム。
JP2019501175A 2017-02-24 2018-01-31 情報処理装置、情報処理方法及びコンピュータプログラム Expired - Fee Related JP6759445B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017033595 2017-02-24
JP2017033595 2017-02-24
PCT/JP2018/003303 WO2018155116A1 (ja) 2017-02-24 2018-01-31 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2018155116A1 JPWO2018155116A1 (ja) 2019-12-19
JP6759445B2 true JP6759445B2 (ja) 2020-09-23

Family

ID=63252728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501175A Expired - Fee Related JP6759445B2 (ja) 2017-02-24 2018-01-31 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11380332B2 (ja)
EP (1) EP3588491A4 (ja)
JP (1) JP6759445B2 (ja)
CN (1) CN110268468A (ja)
WO (1) WO2018155116A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11514142B2 (en) * 2018-04-26 2022-11-29 ID R&D, Inc. System and method for multi-modal continuous biometric authentication for messengers and virtual assistants
US20210383803A1 (en) * 2018-11-01 2021-12-09 Sony Group Corporation Information processing apparatus, control method thereof, and program
JP7345751B2 (ja) * 2019-03-26 2023-09-19 株式会社東海理化電機製作所 制御装置及び情報提示装置
JP7442331B2 (ja) * 2020-02-05 2024-03-04 キヤノン株式会社 音声入力装置およびその制御方法ならびにプログラム
JP7442330B2 (ja) * 2020-02-05 2024-03-04 キヤノン株式会社 音声入力装置およびその制御方法ならびにプログラム
CN111860335A (zh) * 2020-07-22 2020-10-30 安徽兰臣信息科技有限公司 一种基于人脸识别的智能穿戴设备
CN113386147B (zh) * 2021-04-22 2022-01-14 国网浙江省电力有限公司嘉兴供电公司 一种基于对象识别的语音系统
GB2606173A (en) * 2021-04-28 2022-11-02 Sony Interactive Entertainment Europe Ltd Computer-implemented method for controlling a virtual avatar

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01194734A (ja) * 1988-01-29 1989-08-04 Matsushita Electric Ind Co Ltd 音声認識伝言装置
JPH09312689A (ja) * 1996-05-23 1997-12-02 Sanyo Electric Co Ltd 受取人別管理方法及びその装置
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2003005778A (ja) * 2001-06-21 2003-01-08 Niyuuzu Line Network Kk 音声認識ポータルシステム
JP4049244B2 (ja) * 2002-01-10 2008-02-20 富士フイルム株式会社 伝言装置
US20040252679A1 (en) * 2002-02-26 2004-12-16 Tim Williams Stored voice message control extensions
JP2004090109A (ja) 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
KR100547858B1 (ko) * 2003-07-07 2006-01-31 삼성전자주식회사 음성인식 기능을 이용하여 문자 입력이 가능한 이동통신단말기 및 방법
GB0328035D0 (en) * 2003-12-03 2004-01-07 British Telecomm Communications method and system
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
US20110093266A1 (en) * 2009-10-15 2011-04-21 Tham Krister Voice pattern tagged contacts
US8611930B2 (en) * 2012-05-09 2013-12-17 Apple Inc. Selecting informative presentations based on navigation cues and user intent
JP6197366B2 (ja) * 2013-05-23 2017-09-20 ソニー株式会社 情報処理装置及び記憶媒体
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US20170047063A1 (en) * 2015-03-31 2017-02-16 Sony Corporation Information processing apparatus, control method, and program
US10028112B2 (en) * 2016-02-18 2018-07-17 Vivint, Inc. Event triggered messaging

Also Published As

Publication number Publication date
WO2018155116A1 (ja) 2018-08-30
US11380332B2 (en) 2022-07-05
EP3588491A4 (en) 2020-07-22
EP3588491A1 (en) 2020-01-01
JPWO2018155116A1 (ja) 2019-12-19
US20200118570A1 (en) 2020-04-16
CN110268468A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
JP6759445B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US11241789B2 (en) Data processing method for care-giving robot and apparatus
US9507772B2 (en) Instant translation system
KR101061443B1 (ko) 전자 기기, 이동 단말기 및 이를 이용한 기능 수행 방법
CN112074900A (zh) 用于自然语言处理的音频分析
KR20190084789A (ko) 전자 장치 및 그 제어 방법
WO2018108176A1 (zh) 机器人视频通话控制方法、装置及终端
CN111919248A (zh) 用于处理用户发声的系统及其控制方法
JP2019197550A (ja) 音声入出力装置
KR20210058152A (ko) 지능형 보안 디바이스를 제어하는 방법
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
US11657821B2 (en) Information processing apparatus, information processing system, and information processing method to execute voice response corresponding to a situation of a user
US20200356244A1 (en) Information processing apparatus, information processing method, and program
JP2016019273A (ja) ネットワークシステム、サーバ、通信端末、音声出力方法、および音声出力プログラム
CN115841814A (zh) 语音交互方法及电子设备
CN115691498A (zh) 语音交互方法、电子设备及介质
US20200127958A1 (en) Information processing device, information processing method, and computer program
CN113452831B (zh) 显示器装置
KR20230086500A (ko) 인공 지능 장치
JP2022006610A (ja) 社会的能力生成装置、社会的能力生成方法、およびコミュニケーションロボット
JP2020061050A (ja) コミュニケーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200902

R150 Certificate of patent or registration of utility model

Ref document number: 6759445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees