JP2021096270A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2021096270A
JP2021096270A JP2018059203A JP2018059203A JP2021096270A JP 2021096270 A JP2021096270 A JP 2021096270A JP 2018059203 A JP2018059203 A JP 2018059203A JP 2018059203 A JP2018059203 A JP 2018059203A JP 2021096270 A JP2021096270 A JP 2021096270A
Authority
JP
Japan
Prior art keywords
dialogue
determination unit
information processing
target
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018059203A
Other languages
English (en)
Inventor
裕美 倉沢
Hiromi Kurasawa
裕美 倉沢
一美 青山
Kazumi Aoyama
一美 青山
康治 浅野
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018059203A priority Critical patent/JP2021096270A/ja
Priority to US16/982,201 priority patent/US11620997B2/en
Priority to PCT/JP2019/001991 priority patent/WO2019187549A1/ja
Publication of JP2021096270A publication Critical patent/JP2021096270A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/083Recognition networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動作対象をより精度高く検出する。【解決手段】入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部と、前記判定部による判定に基づいて、前記音声対話に係る制御を行う対話機能部と、を備え、前記対話機能部は、前記判定部により前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供する、情報処理装置が提供される。また、プロセッサが、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定することと、前記判定の結果に基づいて前記音声対話に係る制御を行うことと、を含み、前記制御を行うことは、前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供すること、をさらに含む、情報処理方法が提供される。【選択図】図8

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、人の存在を検出し、当該検出の結果に基づいて種々の動作を行う装置が普及している。また、上記のような装置において、動作のトリガーとなる人の検出精度を向上させるための技術が開発されている。例えば、特許文献1には、顔の特徴点の経時的変化を利用することで生身の人物であるか否かを判定する技術が開示されている。係る技術によれば、例えば、ポスターなどの被写体を生身の人物として誤検出することを防止することが可能である。
特開2008−187677号公報
しかし、特許文献1に記載の技術では、例えば、テレビジョン装置などに映し出される動画中の人物については、生身の人間であるか否かを判定することが困難である。
そこで、本開示では、動作対象をより精度高く検出することが可能な、情報処理装置および情報処理方法を提案する。
本開示によれば、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部と、前記判定部による判定に基づいて、前記音声対話に係る制御を行う対話機能部と、を備え、前記対話機能部は、前記判定部により前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供する、情報処理装置が提供される。
また、本開示によれば、プロセッサが、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定することと、前記判定の結果に基づいて前記音声対話に係る制御を行うことと、を含み、前記制御を行うことは、前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供すること、をさらに含む、情報処理方法が提供される。
以上説明したように本開示によれば、動作対象をより精度高く検出することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。 同実施形態に係る物体の音声出力有無と対話対象該非の一例を示す図である。 同実施形態に係る判定部による対話対象判定の流れを示すフローチャートである。 同実施形態に係る対話機能部の機能構成例を示すブロック図である。 本開示の第2の実施形態に係る情報処理装置10の機能構成例を示すブロック図である。 同実施形態に係る画像格納部に格納される画像の格納形式の一例が示されている。 同実施形態に係る動作領域判定部の動作の流れを示すフローチャートである。 同実施形態に係る対話対象領域判定部の動作の流れを示すフローチャートである。 同実施形態に係る動体領域と物体領域の重複について説明するための図である。 同実施形態に係る映像を介した情報処理装置10の利用について説明するための図である。 家庭内において音を出力する装置の一例を示す図である。 一般的なエージェント装置が、テレビジョン装置が出力する音声に誤って応答動作を行う場合の一例を示す図である。 本開示の一実施形態に係る情報処理装置のハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.背景
2.第1の実施形態
2.1.機能構成例
2.2.判定部190の機能詳細
2.3.対話機能部150の機能詳細
3.第2の実施形態
3.1.概要
3.2.機能構成例
3.3.動体領域判定部180の機能詳細
3.4.対話対象領域判定部140の機能詳細
4.ハードウェア構成例
5.まとめ
<1.背景>
上述したように、近年、人の存在を検出し、当該検出の結果に基づいて種々の動作を行う装置が普及している。上記のような装置には、例えば、検出した人物と音声による対話を行うエージェント装置が挙げられる。エージェント装置は、例えば、検出した人物による音声入力を受け付け、当該音声入力に基づく応答処理を実行したり、検出した人物に対し能動的な情報通知を行うことが可能である。
一方、近年では、上記のようなエージェント装置が一般家庭においても普及すると同時に、音声を用いた情報通知を行う家電機器も増加している。上記の家電機器には、例えば、冷蔵庫、電子レンジ、給湯器などが挙げられる。また、多くの家庭には、従来よりテレビジョン装置やラジオなどの音声出力装置が多々配置されている。
図11は、家庭内において音を出力する装置の一例を示す図である。図11では、家庭内に配置される機器や、家庭内に存在する人やペットなどが、音出力および移動の観点から分類されている。なお、図11に示す一例では、音出力に係る分類として、「音を出す物体」、「自然言語を話す物体」、「人の顔を持つ物体」の3つを用いている。上記3つの分類は、互いに重複してよい。また、図11に示す一例では、移動に係る分類として、「生き物」、「動く物体」、「動かない物体」の3つを用いている。
ここで、エージェント装置が、対話対象とする人物(図中の「人」)と、「自然言語を話す物体」との判別機能を有しない場合、例えば、テレビジョン装置などが出力する音声をトリガーに、ユーザの意図しない応答動作を行ってしまう可能性がある。
図12は、一般的なエージェント装置90が、テレビジョン装置80が出力する音声に誤って応答動作を行う場合の一例を示す図である。図12に示す一例の場合、本来の対話対象である人物P1が、エージェント装置90に対して、目的地への行き方を問い合わせる発話O1を行っている。
しかし、エージェント装置90は、テレビジョン装置80が再生する動画中の人物P2を誤って対話対象として検出し、人物P2の「今日は寒いですね」という発話O2に対し、「今日の最低気温は5℃です」という音声出力SO1を行っている。
このように、エージェント装置が、対話対象を正しく検出できない場合、ユーザが想定しない動作を誤って実行する場合があり、ユーザの満足度を低下させるとともに、ユーザに損害を与える可能性も無視できない。
また、上述したように、エージェント装置は、検出した人物に対し能動的な情報通知を行う場合があるが、エージェント装置が誤ってテレビジョン装置などが映し出す動画中の人物やポスターなどの被写体を対話対象とした場合、人がいない無人状態の部屋でも勝手に話し出してしまう可能性がある。
上記のような事態を回避するためには、例えば、赤外線センサなどによる温度検出を利用して生身の人間か否かを判定する手法も想定される。しかし、家庭内でペットなどを飼育している場合、温度情報のみから対話対象を精度高く検出することは困難である。
また、別の手法としては、例えば、バイタル情報に基づいて対象が生身の人物であるか否かを判定することも考えられる。しかし、非接触方式で脈拍などのバイタル情報を取得するためには、装置がバイタル情報を取得できるよう、ユーザが意図的にセンサの方向に顔や体を向けるなどの動作を行う必要があり、日常生活に自然に溶け込んで利用されるエージェント装置には適用が困難である。
また、例えば、可視画像と赤外画像とを同時に撮影し、可視画像から検出された顔領域において赤外画像を用いて脈拍や体温などのバイタル情報を測定し、対象が生身の人物であるか否かを判定することも可能である。しかし、この場合、可視画像と赤外画像とで同一対象を検出しているかの判断が必要となり、当該判断の精度が上記の人物判定の精度に直接的に影響することとなる。また、上記のような手法では、可視画像および赤外画像を撮像する機器を両方搭載することで製造コストが増大することとなる。
本開示に係る技術思想は、上記のような点に着目して発想されてものであり、動作対象をより精度高く検出することを可能とする。このために、本開示の一実施形態に係る情報処理方法を実現する情報処理装置は、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部と、判定部による判定に基づいて、音声対話に係る制御を行う対話機能部とを備える。また、上記対話機能部は、判定部により上記物体が対話対象であると判定されたことに基づいて、当該物体に対し音声対話機能を提供すること、を特徴の一つとする。
すなわち、本開示の一実施形態に係る情報処理装置は、周囲に存在する種々の機器を物体認識し、特に音声を出力する物体について、当該物体が対話対象であるか否かを判定する機能を有する。本開示の一実施形態に係る情報処理装置によれば、ユーザを煩わせることなく、かつ安価な構成で精度高く対話対象を判定することで、より価値の高い音声対話機能を実現することが可能となる。
<2.第1の実施形態>
<<2.1.機能構成例>>
続いて、本開示の第1の実施形態について説明する。本実施形態に係る情報処理装置10は、例えば、家庭などに配置される据え置き型のエージェント装置であってよい。本実施形態に係る情報処理装置10は、上述したように、人などの対話対象を、他の音声出力物体と正しく分離して検出する機能を有し、当該対話対象からの音声入力を受け付け応答動作を行ったり、当該対話対象に対し能動的な通知を行うことが可能である。
まず、本実施形態に係る情報処理装置10の機能構成例について説明する。図1は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図1を参照すると、本実施形態に係る情報処理装置10は、画像入力部110、音声入力部120、判定部190、対話機能部150、音声出力部160を備える。
(画像入力部110)
本実施形態に係る画像入力部110は、カメラなどの撮像装置により撮像された画像を受け付け判定部190に引き渡す。このために、本実施形態に係る画像入力部110は、各種の撮像装置を備えてもよい。一方、本実施形態に係る画像入力部110は、情報処理装置10の外部に存在する撮像装置が撮像した画像をネットワークを介して取得してもよい。
(音声入力部120)
本実施形態に係る音声入力部120は、周囲において発生する種々の音に係る情報を受け付け、判定部190や対話機能部150に引き渡す。このために、本実施形態に係る音声入力部120は、マイクロフォンを備えてもよい。一方、本実施形態に係る音声入力部120は、情報処理装置10の外部に存在する装置が収集した音の情報をネットワークを介して取得してもよい。
(判定部190)
本実施形態に係る判定部190は、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する機能を有する。本実施形態に係る対話対象は、例えば、情報処理装置10と同一の物理空間に存在する人物であってもよい。一方、本実施形態に係る対話対象は、予め指定された所定の装置であってもよい。
本実施形態に係る判定部190は、上記の判定を実現するために、例えば、音声出力物体検出部130と対話対象領域判定部140とを備える。
(音声出力物体検出部130)
本実施形態に係る音声出力物体検出部130は、画像入力部110から入力される画像に基づいて物体認識を行い、音声を出力する物体に係る物体領域を検出機能を有する。
(対話対象領域判定部140)
本実施形態に係る対話対象領域判定部140は、音声出力物体検出部130が検出した物体領域の中から対話対象に係る対話対象領域を特定する機能を有する。本実施形態に係る対話対象領域判定部140は、例えば、検出された物体領域が人物領域であるか否かを判定することができる。本実施形態に係る対話対象領域判定部140が有する機能の詳細については別途後述する。
(対話機能部150)
本実施形態に係る対話機能部150は、判定部190による判定に基づいて、音声対話に係る制御を行う。この際、本実施形態に係る対話機能部150は、判定部190により、認識された物体が対話対象であると判定されたことに基づいて、当該物体に対し音声対話機能を提供すること、を特徴の一つとする。
具体的には、対話機能部150は、判定部190により、物体が対話対象であると判定された場合、当該物体に対し能動的な話しかけ(通知)を行ってよい。一方、判定部190により、物体が対話対象ではないと判定された場合、対話機能部150は、当該物体に対し能動的な音声出力を行わないよう制御する。
また、対話機能部150は、判定部190により、物体が対話対象であると判定された場合、当該物体が出力する音声を受け付け応答動作を行ってよい。一方、判定部190により、物体が対話対象ではないと判定された場合、対話機能部150は、当該物体が出力する音声に対し応答動作を行わないよう制御する。なお、上記の応答動作には、例えば、ユーザの問い合わせに対する音声や視覚情報を用いた回答の出力や、ユーザの指示に基づく機器操作などが広く含まれる。
本実施形態に係る対話機能部150が有する上記の機能によれば、対話対象と判定された物体にのみ対話機能を提供することで、ユーザの想定しない動作を防止し、また不要な応答動作による消費電力の増大などを防ぐことができる。なお、本実施形態に係る対話機能部150が有する機能の詳細については別途後述する。
(音声出力部160)
本実施形態に係る音声出力部160は、対話機能部150による制御に基づいて、対話対象に対し音声出力を行う。このために、本実施形態に係る音声出力部160は、スピーカーやアンプなどを備える。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。なお、図1を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理装置10の機能構成は係る例に限定されない。例えば、本実施形態に係る情報処理装置10は、上記の構成に加え、ユーザによる入力操作を受け付けるための入力部や、視覚情報を出力する出力部などをさらに備えてよい。一方で、上記で述べたような撮像機能、音収集機能、音声出力機能などは、情報処理装置10とは異なる外部装置により実現されてもよい。本実施形態に係る情報処理装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<2.2.判定部190の機能詳細>>
次に、本実施形態に係る判定部190が有する機能の詳細について説明する。本実施形態に係る判定部190は、入力される画像に対し物体認識を行い、認識した物体が音声を出力するか否か、また対話対象であるか否かを判定することで、画像中における対話対象領域を特定することができる。
この際、本実施形態に係る判定部190は、例えば、図2に示すようなテーブルに基づいて、上記の判定を行ってもよい。図2は、本実施形態に係る物体の音声出力有無と対話対象該非の一例を示す図である。図2には、本実施形態に係る判定部190により認識された物体のラベルと、当該物体の音声出力有無および対話対象該非が対応付けられて示されている。
このように、本実施形態に係る判定部190は、認識した物体が音声を出力するか否か、また対話対象であるか否かを、図2に示すようなテーブルを参照することで判定することができる。なお、図2に示す一例では、一般に自然言語を出力し得る物体について、音声出力有無を「1」に設定している。一方、本実施形態にテーブルは、自然言語を問わず音声を出力するか否かに基づいて作成されてもよい。
また、図2に示す一例では、認識される物体を一般名称レベルで示しているが、本実施形態に係るテーブルは、例えば、製品レベルで細分化されて作成することも可能である。
なお、判定部190は、物体認識ラベルを得るために、認識対象ごとに個別の物体認識アルゴリズムを用いてもよいし、単一の物体認識アルゴリズムにより複数の物体認識ラベルを付与してもよい。例えば、人物の認識を個別に行う場合、判定部190は、顔検出アルゴリズムを用いて判定した顔領域と物理的に繋がっている物体全体を人物としてラベル付けを行うことができる。あるいは、複数の物体認識ラベルを付与するアルゴリズムにより顔領域、個別の機器の判別などを同時に行ってもよい。なお、上記のような物体認識は、音声出力物体検出部130の機能として実現されてもよい。
また、図2に示す一例では、対話対象を人に限定し、人に係る対話対象該非のみが「1」に設定されている。一方、本実施形態に係る対話対象は係る例に限定されない。本実施形態に係る対話対象は、設定された所定の音声出力装置などであってもよい。
例えば、火災報知器が火災の発生に係る音声を出力した場合、情報処理装置10が当該音声を受け付け、ユーザに対し避難経路を示すことなどの需要も想定される。この場合、火災報知器に係る対話対象該非を「1」に設定することで、上記のような動作を実現することが可能である。
一方、火災報知器の対話対象該非を「1」に設定した場合、情報処理装置10が、火災報知器に対しても能動的な通知を行ってしまう可能性が生じる。このような事態を防ぐために、本実施形態に係る対話対象該非は、受理対象該非および通知対象該非に分離して設定されてもよい。
この場合、火災報知器に係る受理対象該非および通知対象該非は、それぞれ「1」および「0」に設定されてよい。上記の設定によれば、判定部190が、火災報知器を受理対象ではあるが通知対象ではないと判定することで、対話機能部150が火災報知器に対し不要な能動的通知を行うことを防止することが可能となる。
次に、本実施形態に係る判定部190による対話対象判定の流れについて説明する。図3は、本実施形態に係る判定部190による対話対象判定の流れを示すフローチャートである。なお、以下では、上述した対話対象領域判定部140が動作の主体となる場合を例に説明する。
図3を参照すると、まず、対話対象領域判定部140が、音声出力物体検出部130が検出した物体iについて、物体認識ラベル、音声出力有無、対話対象該非に係る情報を受け付ける(S301)。なお、対話対象領域判定部140は、音声出力物体検出部130から上記すべての情報を受け取ってもよく、音声出力物体検出部130が検出した物体の物体認識ラベルを受け付け、物体認識ラベルに基づいて図2に示したようなテーブルから音声出力有無および対話対象該非を取得してもよい。
次に、対話対象領域判定部140は、ステップS301で受け付けた情報に基づいて、物体iが対話対象であるか否かを判定する(S302)。
ここで、物体iが対話対象である場合(S302:YES)、対話対象領域判定部140は、物体iに係る物体領域を対話対象領域として物体ごとに出力する(S303)。
一方、物体iが対話対象ではない場合(S302:NO)、対話対象領域判定部140は、判定処理を終了する。
<<2.3.対話機能部150の機能詳細>>
次に、本実施形態に係る対話機能部150が有する機能について詳細に説明する。図4は、本実施形態に係る対話機能部150の機能構成例を示すブロック図である。図4を参照すると、本実施形態に係る対話機能部150は、入力部410、解析部420、対話制御部430、および応答生成部440を備える。
(入力部410)
本実施形態に係る入力部410は、判定部190による判定結果や、音声入力部120により取得された音声、また画像入力部110により取得された画像やセンサ情報などを受け付ける。
(解析部420)
本実施形態に係る解析部420は、入力部410が受け付けた各種の入力情報に基づく解析処理を実行する。解析部420は、例えば、音声認識処理を実行し、音声をテキスト情報に変換する。また、解析部420は、上記テキストから発話意図などを解析してよい。
(対話制御部430)
本実施形態に係る対話制御部430は、解析部420による解析の結果に基づいて、実行する応答動作を決定する。
(応答生成部440)
本実施形態に係る応答生成部440は、対話制御部430による制御に基づいて、応答情報を生成する。上記の応答情報は、例えば、音声やテキスト、画像、また機器操作に係る制御信号を含む。応答生成部440は、生成した応答情報を音声出力部160などの制御対象に送信し当該応答情報に基づいて動作させる。
以上、本実施形態に係る対話機能部150が備える各構成の基本機能について説明した。続いて、上記各構成が判定部190による判定結果を動作に利用する場合について例をあげて説明する。
判定部190により物体が対話対象領域を1つ以上特定できなかった場合、例えば、応答生成部440は、応答情報の生成を行わないか、生成した応答情報を制御対象に送信しないでよい。
また、判定部190により物体が対話対象領域を1つ以上特定できなかった場合、例えば、対話制御部430は、応答動作の決定に係る処理を実行しなくてもよい。
判定部190により物体が対話対象領域を1つ以上特定できなかった場合、解析部420は、入力情報に基づく解析処理を実行しなくてもよい。
判定部190により物体が対話対象領域を1つ以上特定できなかった場合、入力部410は、入力された情報を破棄してもよい。
このように、本実施形態に係る対話機能部150は、判定部190による判定結果に基づいて、いずれかの処理の段階で、対話対象ではない物体に対し応答動作が行われないよう制御することが可能である。
以上説明したように、本実施形態に係る情報処理装置10によれば、音声を出力する物体が対話対象であるか否かを精度高く判定し、誤作動などを効果的に防止することが可能となる。
<3.第2の実施形態>
<<3.1.概要>>
次に、本開示の第2の実施形態について説明する。上記の第1の実施形態では、情報処理装置10が物体認識結果に基づいて対話対象領域を特定する場合について述べた。
一方、近年では、人物の姿や音声を含む動画を出力する装置が多く普及している。上記の装置には、テレビジョン装置の他、PC(Personal Computer)、タブレット、スマートフォン、プロジェクタ、テレビ電話などが挙げられる。このため、物体認識結果のみからでは、上記の動画中の人物と実際に物理空間に存在する人物とを区別することが困難な場合も想定される。
そこで、本開示の第2の実施形態に係る情報処理装置10は、第1の実施形態で述べた物体認識に加え、動体認識に基づく対話対象の判定を行ってよい。本実施形態に係る情報処理装置10は、特に、人物の顔を有する物体が、生身の人間であるか否かを判定することができる。具体的には、本実施形態に係る情報処理装置10は、動体認識結果を判定に利用することで、動画中やポスターなどに映し出される人物と、物理空間に実際に存在する人物とを弁別することが可能である。
以下、本実施形態に係る情報処理装置10が有する上記の特徴について詳細に説明する。なお、以下の説明においては、第1の実施形態との差異について中心に述べ、第1の実施形態と共通する構成、機能、効果などについては、重複する説明を省略する。
<<3.2.機能構成例>>
まず、本実施形態に係る情報処理装置10の機能構成例について説明する。図5は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図5を参照すると、本実施形態に係る情報処理装置10の判定部190は、第1の実施形態で説明した構成に加え、画像格納部170および動体領域判定部180をさらに備える。
(画像格納部170)
本実施形態に係る画像格納部は、画像入力部110から入力された画像を格納するためのデータベースを有する。図6は本実施形態に係る画像格納部170に格納される画像の格納形式の一例が示されている。図6を参照すると、本実施形態に係る画像格納部170が有するデータベース601には、画像入力部110から入力された画像が、時間602および画像ファイル名603と共に格納される。なお、図6に示す一例では、時間602が、「yyyyMMddHHmmss」形式で保存される場合を示している。
図6に示すように、本実施形態に係る画像格納部170には、入力された画像が当該入力順に格納されてもよい。
(動体領域判定部180)
本実施形態に係る動体領域判定部180は、時系列に入力される画像、すなわち、画像格納部170に格納される画像に基づいて動体領域を判定する機能を有する。また、本実施形態に係る動体領域判定部180は、判定した動体に対し、画像格納部170に格納される過去の画像から現在の入力画像まで追尾し、当該動体の動作範囲を出力してよい。
本実施形態に係る対話対象領域判定部140は、動体領域判定部180が判定した動体領域と音声出力物体検出部130が判定した物体領域とに基づいて、対話対象領域を統合的に特定することができる。
また、本実施形態に係る対話対象領域判定部140は、動体領域判定部180が出力する動体の動作範囲に基づいて、対話対象領域を精度高く判定することが可能である。
<<3.3.動体領域判定部180の機能詳細>>
続いて、本実施形態に係る動体領域判定部180が有する機能について詳細に説明する。図7は、本実施形態に係る動体領域判定部180の動作の流れを示すフローチャートである。
図7を参照すると、まず、動体領域判定部180には、画像入力部110が受け付けた最新の画像pが入力される(S701)。
次に、動体領域判定部180は、画像格納部170に格納されている画像を読み込む(S702)。
次に、動体領域判定部180は、ステップS702において読み込んだ画像を時系列に並べ、末尾にステップS701において入力された最新の画像pを追加し、画像群Pを得る(S703)。
次に、動体領域判定部180は、ステップS703において得られた画像群Pにおいて、動く領域と動かない領域とを解析する(S704)。この際、動体領域判定部180は、画像群Pを時系列に連続する静止画像として、差分を取るなどして上記の領域を解析してもよい。一方で、動体領域判定部180は、画像群Pをひとつの動画像のセットとして入力し当該セット全体の特徴量を分析するなどして上記の領域解析を行ってもよい。
次に、動体領域判定部180は、画像群Pにおいて同一の動体と推定される領域を判定し、さらに画像群Pに基づいて上記動体の動作範囲Riを算出する(S705)。
次に、動体領域判定部180は、ステップS701で入力された画像pにおいて、ステップS704で動体と判定された動体領域Aiと、当該動体に係る動作範囲Riの情報を動体ごとに出力する(S706)。
次に、動体領域判定部180は、画像pを画像格納部170に登録する(S707)。
<<3.4.対話対象領域判定部140の機能詳細>>
続いて、本実施形態に係る対話対象領域判定部140が有する機能について詳細に説明する。図8は、本実施形態に係る対話対象領域判定部140の動作の流れを示すフローチャートである。
図8を参照すると、まず、対話対象領域判定部140には、動体領域判定部180により判定された動体領域Aiと動作範囲Riが入力される(S801)。
次に、対話対象領域判定部140に、音声出力物体検出部130により検出された物体領域Fiが入力される(S802)。
次に、対話対象領域判定部140は、ステップS801で入力された動体領域AiとステップS802で入力された物体領域Fiが同一の物体に由来するものか否かを判定する(S803)。すなわち、対話対象領域判定部140は、動体領域Aiに係る動体が物体領域Fiに係る物体と同一であるか否かを判定する。
この際、対話対象領域判定部140は、例えば、動体領域Aiと物体領域Fiとの少なくとも一部が重複している場合、動体領域Aiに係る動体と物体領域Fiに係る物体が同一であると判定してもよい。
ここで、動体領域Aiに係る動体と物体領域Fiに係る物体が同一であると判定できない場合(S803:NO)、続いて、対話対象領域判定部140は、動体領域Aiに係る動体が過去に対話対象として判定されたことがあるか否かを判定する(S804)。
ここで、動体領域Aiに係る動体が過去に対話対象として判定されたことがない場合(S804:NO)、対話対象領域判定部140は、動体領域Aiに係る動体が対話対象ではないと判定し処理を終了する。
一方、動体領域Aiに係る動体が過去に対話対象として判定されたことがある場合(S804:YES)、対話対象領域判定部140は、動体領域Aiを対話対象領域として特定し(S808)、処理を終了する。
ここで、図9を参照して、ステップS803およびS804における判定について詳細に説明する。
図9は、本実施形態に係る動体領域と物体領域の重複について説明するための図である。図9の上段には、時系列における人物の動作例が示されている。人物Ut1は、時刻t1におけるユーザUの画像を、人物Ut2は、時刻t2におけるユーザUの画像を、人物Ut3は、時刻t3におけるユーザUの画像を、それぞれ示している。
また、図9の中段には、上段に示すユーザUの画像に基づいて検出された物体領域Fiの一例が示されている。図9に示す一例では、ユーザUの顔が撮像できている時刻t1およびt2において物体領域Ft1およびFt2がそれぞれ検出されている。
また、図9の下段には、上段に示すユーザUの画像に基づいて検出された動体領域Fiの一例が示されている。図9に示す一例では、ユーザUの画像に基づいて、時刻t1〜T3において物体領域Ft1〜Ft3がそれぞれ検出されている。
ここで、物体領域Fiと動体領域Aiを比較すると、時刻t3においては、ユーザUの顔が撮像されていないため、物体領域Fiが検出されていない。
このような場合、対話対象領域判定部140は、過去におけるいずれかの時点で動体領域Aiと物体領域Fiとの少なくとも一部が重複しており、当該動体領域Aiが対話対象領域として特定されているか否かを判定してよい。この際、例えば、図示するように、過去のいずれかの時点において、動体領域Aiと物体領域Fiとの少なくとも一部が重複しており、かつ当該動体領域Aiが対話対象領域として特定されている場合、対話対象領域判定部140は、最新の画像における動体領域At3を対話対象領域として特定することが可能である。
本実施形態に係る対話対象領域判定部140が有する上記の機能によれば、例えば、ユーザが後ろを向くなどして物体領域Fiが一時的に検出できなくなった場合でも、判定の精度が下がることを防止することができる。
再び図8を参照して、対話対象領域判定部140による動作の流れについて引き続き説明する。
ステップS803において、動体領域Aiに係る動体と物体領域Fiに係る物体が同一であると判定した場合(S803:YES)、対話対象領域判定部140は、続いて、物体領域Fiに係る物体が人物であるか否かを判定する(S805)。
ここで、物体領域Fiに係る物体が人物ではない場合(S805:NO)、対話対象領域判定部140は、続いて、物体領域Fiに係る物体が対話対象であるか否かを判定する(S806)。
ここで、物体領域Fiに係る物体が対話対象ではない場合(S806:NO)、対話対象領域判定部140は、処理を終了する。
一方、物体領域Fiに係る物体が対話対象であると判定した場合(S806:YES)、対話対象領域判定部140は、動体領域Aiを対話対象領域として特定し(S808)、処理を終了する。
また、ステップS804において物体領域Fiに係る物体が人物であると判定した場合(S805:YES)、対話対象領域判定部140は、続いて、動体領域Aiの動作範囲Riが所定の範囲Tiを超えるか否かを判定する(S807)。
ここで、動体領域Aiの動作範囲Riが所定の範囲Tiを超える場合(S807:YES)、対話対象領域判定部140は、動体が人物であると判定し、動体領域Aiを対話対象領域として特定し(S808)、処理を終了する。
上記の判定は、通常、物理空間に実際に存在する人物は、動画中の人物と比べ動作範囲が著しく大きいことが予想されるためである。
なお、上記の所定の範囲Riは、予め定められた一定の値であってもよいし、物体認識に基づいて決定されてもよい。例えば、物体がテレビジョン装置と認識された場合、所定の範囲Riは、当該テレビジョン装置の表示領域の大きさに基づいて決定されてもよい。
すなわち、対話対象領域判定部140は、動体領域Aiの動作範囲Riが、テレビジョン装置などに対応する領域を超えない場合には、当該動体領域Aiが動画中の被写体であると判定することが可能である。
一方、動体領域Aiの動作範囲Riが、物体に対応する領域を超える場合、対話対象領域判定部140は、動体領域Aiが物理空間に実在する人物に対応するものであると判定することができる。本実施形態に係る対話対象領域判定部140が有する上記の機能によれば、物理空間に実在する人物がテレビジョン装置などと同一方向に居る場合でも、当該人物を精度高く検出することが可能となる。
以上、本実施形態に係る対話対象領域判定部140の動作の流れについて説明した。なお、本実施形態に係る対話対象領域判定部140の機能は、フローチャートに示した処理に限定されない。
本実施形態に係る対話対象領域判定部140は、上述したような判定結果や認識結果を画像格納部170に登録し、後の解析に再利用してもよい。対話対象領域判定部140は、例えば、対話対象であると判定した動体に追従する追従物体に対応する動体領域を、当該動体に対応する対話対象領域から除外することなどが可能である。
本実施形態に係る対話対象領域判定部140が有する上記の機能によれば、例えば、人物が所持するスマートフォンなどから出力する音声を受け付けないよう制御することなどが可能となる。
また、本実施形態に係る対話対象領域判定部140は、情報処理装置10の位置が変化した場合、判定結果や認識結果をリセットする機能を有してもよい。これは、情報処理装置10の位置が変化することにより、認識済の物体との相対位置が変化するためである。
また、上記では、動画中の人物に関しては対話対象として扱わない場合を主な例として述べたが、例えば、ユーザがテレビ電話などの映像を介して、情報処理装置10に指示を与えたい場合や、情報処理装置10から情報を得たい場合なども想定される。このため、本実施形態に係る判定部190は、所定の装置が出力する音声が登録されたユーザの音声であると推定された場合、当該所定の装置を対話対象であると判定してもよい。
図10は、本実施形態に係る映像を介した情報処理装置10の利用について説明するための図である。図10では、ユーザUが、テレビジョン装置80に映し出される動画を介して情報処理装置10に対し発話O3を行い、情報処理装置10から音声出力SO2による回答を得る場合の一例が示されている。
この際、本実施形態に係る判定部190は、テレビジョン装置80に映し出されるユーザUの顔を認識することで、テレビジョン装置80から出力される音声が対話対象であるユーザの音声であることを推定してもよい。また、判定部190は、テレビジョン装置80から出力される音声に基づく話者認識を行い、当該音声がユーザの音声であることを推定してもよい。
このように、本実施形態に係る判定部190の機能によれば、映像を介して遠隔的に情報処理装置10を利用したいユーザを正しく認識し、高価値な対話機能を実現することが可能である。
<4.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図13は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図13を参照すると、情報処理装置10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(プロセッサ871)
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカー、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<5.まとめ>
以上説明したように、本開示の一実施形態に係る情報処理装置10は、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部190と、判定部190による判定に基づいて、音声対話に係る制御を行う対話機能部150とを備える。また、本開示の一実施形態に係る対話機能部150は、判定部190により上記物体が対話対象であると判定されたことに基づいて、当該物体に対し音声対話機能を提供することを特徴の一つとする。係る構成によれば、動作対象をより精度高く検出することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書の情報処理装置10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部と、
前記判定部による判定に基づいて、前記音声対話に係る制御を行う対話機能部と、
を備え、
前記対話機能部は、前記判定部により前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供する、
情報処理装置。
(2)
前記対話機能部は、前記判定部により前記物体が前記対話対象ではないと判定されたことに基づいて、前記物体に対する能動的な音声出力を行わない、
前記(1)に記載の情報処理装置。
(3)
前記対話機能部は、前記判定部により前記物体が前記対話対象ではないと判定されたことに基づいて、前記物体が出力する音声に対し応答を行わない、
前記(1)または(2)に記載の情報処理装置。
(4)
前記判定部は、前記物体が前記音声対話に係る受理対象または通知対象であるか否かを判定し、
前記対話機能部は、前記判定部により前記物体が前記受理対象であると判定された場合、前記物体が出力する音声を受け付け、前記判定部により前記物体が前記通知対象であると判定された場合、前記物体に対し能動的な音声出力を行う、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記判定部は、物理空間に存在する人物を前記対話対象であると判定する、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記判定部は、予め指定された所定の装置を前記対話対象であると判定する、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記判定部は、前記所定の装置が出力する音声が登録されたユーザの音声であると推定された場合、前記所定の装置を前記対話対象であると判定する、
前記(6)に記載の情報処理装置。
(8)
前記判定部は、
前記画像に基づいて前記物体に係る物体領域を検出する音声出力物体検出部と、
前記音声出力物体検出部が検出した前記物体領域の中から前記対話対象に係る対話対象領域を特定する対話対象領域判定部、
を備える、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記判定部は、時系列に連続して入力される前記画像に基づいて動体領域を判定する動体領域判定部、をさらに備え、
前記対話対象領域判定部は、前記動体領域と前記物体領域とに基づいて、前記対話対象領域を特定する、
前記(8)に記載の情報処理装置。
(10)
前記対話対象領域判定部は、前記動体領域に係る動体が前記物体領域に係る前記物体と同一であるか否かを判定し、当該判定の結果に基づいて前記対話対象領域を特定する、
前記(9)に記載の情報処理装置。
(11)
前記対話対象領域判定部は、前記動体領域と前記物体領域との少なくとも一部が重複していることに基づいて、前記動体と前記物体とが同一であると判定し、前記動体領域を前記対話対象領域として特定する、
前記(10)に記載の情報処理装置。
(12)
前記対話対象領域判定部は、前記動体領域に係る動体が過去に前記対話対象として判定されたことがある場合、前記動体領域を前記対話対象領域として特定する、
前記(11)に記載の情報処理装置。
(13)
前記対話対象領域判定部は、前記動体領域の動作範囲に基づいて前記対話対象領域を特定する、
前記(9)〜(12)のいずれかに記載の情報処理装置。
(14)
前記対話対象領域判定部は、前記動作範囲が閾値を超えることに基づいて、前記動体領域を前記対話対象領域として特定する、
前記(13)に記載の情報処理装置。
(15)
前記対話対象領域判定部は、前記動作範囲が前記物体に対応する領域を超えない場合、前記動体領域が前記対話対象領域ではないと判定する、
前記(13)または(14)に記載の情報処理装置。
(16)
前記対話対象領域判定部は、前記動体と前記物体とが同一であると判定した場合、前記物体が前記対話対象であることに基づいて、前記動体領域を前記対話対象として特定する、
前記(10)または(11)に記載の情報処理装置。
(17)
前記対話対象領域判定部は、前記動体と前記物体とが同一であると判定した場合、前記物体が人物であることに基づいて、前記動体領域を前記対話対象として特定する、
前記(10)または(11)に記載の情報処理装置。
(18)
前記対話対象領域判定部は、前記対話対象であると判定した前記物体に追従する追従物体に対応する前記動体領域を、前記対話対象領域から除外する、
前記(9)〜(17)のいずれかに記載の情報処理装置。
(19)
前記判定部は、前記情報処理装置の配置が変化した場合、前記対話対象に係る判定結果をリセットする、
前記(1)〜(18)のいずれかに記載の情報処理装置。
(20)
プロセッサが、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定することと、
前記判定の結果に基づいて前記音声対話に係る制御を行うことと、
を含み、
前記制御を行うことは、前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供すること、
をさらに含む、
情報処理方法。
10 情報処理装置
110 画像入力部
120 音声入力部
130 音声出力物体検出部
140 対話対象領域判定部
150 対話機能部
160 音声出力部
170 画像格納部
180 動体領域判定部
190 判定部

Claims (20)

  1. 入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定する判定部と、
    前記判定部による判定に基づいて、前記音声対話に係る制御を行う対話機能部と、
    を備え、
    前記対話機能部は、前記判定部により前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供する、
    情報処理装置。
  2. 前記対話機能部は、前記判定部により前記物体が前記対話対象ではないと判定されたことに基づいて、前記物体に対する能動的な音声出力を行わない、
    請求項1に記載の情報処理装置。
  3. 前記対話機能部は、前記判定部により前記物体が前記対話対象ではないと判定されたことに基づいて、前記物体が出力する音声に対し応答を行わない、
    請求項1に記載の情報処理装置。
  4. 前記判定部は、前記物体が前記音声対話に係る受理対象または通知対象であるか否かを判定し、
    前記対話機能部は、前記判定部により前記物体が前記受理対象であると判定された場合、前記物体が出力する音声を受け付け、前記判定部により前記物体が前記通知対象であると判定された場合、前記物体に対し能動的な音声出力を行う、
    請求項1に記載の情報処理装置。
  5. 前記判定部は、物理空間に存在する人物を前記対話対象であると判定する、
    請求項1に記載の情報処理装置。
  6. 前記判定部は、予め指定された所定の装置を前記対話対象であると判定する、
    請求項1に記載の情報処理装置。
  7. 前記判定部は、前記所定の装置が出力する音声が登録されたユーザの音声であると推定された場合、前記所定の装置を前記対話対象であると判定する、
    請求項6に記載の情報処理装置。
  8. 前記判定部は、
    前記画像に基づいて前記物体に係る物体領域を検出する音声出力物体検出部と、
    前記音声出力物体検出部が検出した前記物体領域の中から前記対話対象に係る対話対象領域を特定する対話対象領域判定部、
    を備える、
    請求項1に記載の情報処理装置。
  9. 前記判定部は、時系列に連続して入力される前記画像に基づいて動体領域を判定する動体領域判定部、をさらに備え、
    前記対話対象領域判定部は、前記動体領域と前記物体領域とに基づいて、前記対話対象領域を特定する、
    請求項8に記載の情報処理装置。
  10. 前記対話対象領域判定部は、前記動体領域に係る動体が前記物体領域に係る前記物体と同一であるか否かを判定し、当該判定の結果に基づいて前記対話対象領域を特定する、
    請求項9に記載の情報処理装置。
  11. 前記対話対象領域判定部は、前記動体領域と前記物体領域との少なくとも一部が重複していることに基づいて、前記動体と前記物体とが同一であると判定し、前記動体領域を前記対話対象領域として特定する、
    請求項10に記載の情報処理装置。
  12. 前記対話対象領域判定部は、前記動体領域に係る動体が過去に前記対話対象として判定されたことがある場合、前記動体領域を前記対話対象領域として特定する、
    請求項11に記載の情報処理装置。
  13. 前記対話対象領域判定部は、前記動体領域の動作範囲に基づいて前記対話対象領域を特定する、
    請求項9に記載の情報処理装置。
  14. 前記対話対象領域判定部は、前記動作範囲が閾値を超えることに基づいて、前記動体領域を前記対話対象領域として特定する、
    請求項13に記載の情報処理装置。
  15. 前記対話対象領域判定部は、前記動作範囲が前記物体に対応する領域を超えない場合、前記動体領域が前記対話対象領域ではないと判定する、
    請求項13に記載の情報処理装置。
  16. 前記対話対象領域判定部は、前記動体と前記物体とが同一であると判定した場合、前記物体が前記対話対象であることに基づいて、前記動体領域を前記対話対象として特定する、
    請求項10に記載の情報処理装置。
  17. 前記対話対象領域判定部は、前記動体と前記物体とが同一であると判定した場合、前記物体が人物であることに基づいて、前記動体領域を前記対話対象として特定する、
    請求項10に記載の情報処理装置。
  18. 前記対話対象領域判定部は、前記対話対象であると判定した前記物体に追従する追従物体に対応する前記動体領域を、前記対話対象領域から除外する、
    請求項9に記載の情報処理装置。
  19. 前記判定部は、前記情報処理装置の配置が変化した場合、前記対話対象に係る判定結果をリセットする、
    請求項1に記載の情報処理装置。
  20. プロセッサが、入力される画像の認識結果に基づいて、音声を出力する物体が音声対話に係る対話対象であるか否かを判定することと、
    前記判定の結果に基づいて前記音声対話に係る制御を行うことと、
    を含み、
    前記制御を行うことは、前記物体が前記対話対象であると判定されたことに基づいて、前記物体に対し音声対話機能を提供すること、
    をさらに含む、
    情報処理方法。
JP2018059203A 2018-03-27 2018-03-27 情報処理装置および情報処理方法 Pending JP2021096270A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018059203A JP2021096270A (ja) 2018-03-27 2018-03-27 情報処理装置および情報処理方法
US16/982,201 US11620997B2 (en) 2018-03-27 2019-01-23 Information processing device and information processing method
PCT/JP2019/001991 WO2019187549A1 (ja) 2018-03-27 2019-01-23 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018059203A JP2021096270A (ja) 2018-03-27 2018-03-27 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2021096270A true JP2021096270A (ja) 2021-06-24

Family

ID=68061322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018059203A Pending JP2021096270A (ja) 2018-03-27 2018-03-27 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US11620997B2 (ja)
JP (1) JP2021096270A (ja)
WO (1) WO2019187549A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200107758A (ko) * 2019-03-08 2020-09-16 엘지전자 주식회사 음향 객체 추종을 위한 방법 및 이를 위한 장치
US12039975B2 (en) * 2020-09-21 2024-07-16 Amazon Technologies, Inc. Dialog management for multiple users

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062063A (ja) * 2002-07-31 2004-02-26 Matsushita Electric Ind Co Ltd 対話型装置
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP2008187677A (ja) 2007-01-31 2008-08-14 Fujifilm Corp デジタルカメラ
JP2012085009A (ja) * 2010-10-07 2012-04-26 Sony Corp 情報処理装置および情報処理方法
JP2012118634A (ja) * 2010-11-29 2012-06-21 Panasonic Corp 画像認識方法、画像認識装置及び撮像システム
JP6562790B2 (ja) * 2015-09-11 2019-08-21 株式会社Nttドコモ 対話装置および対話プログラム
US9826001B2 (en) * 2015-10-13 2017-11-21 International Business Machines Corporation Real-time synchronous communication with persons appearing in image and video files

Also Published As

Publication number Publication date
WO2019187549A1 (ja) 2019-10-03
US11620997B2 (en) 2023-04-04
US20210027779A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
JP6902136B2 (ja) システムの制御方法、システム、及びプログラム
US11152001B2 (en) Vision-based presence-aware voice-enabled device
JP6645438B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP5772069B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20170199934A1 (en) Method and apparatus for audio summarization
KR20160089145A (ko) 음성 인식 방법 및 음성 인식 장치
JP2012040655A (ja) ロボット制御方法、プログラム、及びロボット
CN109032345B (zh) 设备控制方法、装置、设备、服务端和存储介质
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018208365A1 (en) Methods and systems for presenting image data for detected regions of interest
WO2019187549A1 (ja) 情報処理装置および情報処理方法
JP2007074710A (ja) オーディオ・ビジュアルデータ通信システム、オーディオ・ビジュアルデータ通信方法、オーディオ・ビジュアルデータ通信プログラム及びオーディオ・ビジュアルデータ通信システム用の鑑賞空間切替装置
CN110602197A (zh) 物联网控制装置和方法、电子设备
JP6719434B2 (ja) 機器制御装置、機器制御方法及び機器制御システム
US20230099383A1 (en) Power state detection via audio signal capture
KR20190052443A (ko) 반려동물 음성 번역 장치 및 방법
KR20170097890A (ko) 전자 장치 및 이의 서비스 제공 방법
US10838741B2 (en) Information processing device, information processing method, and program
US11183167B2 (en) Determining an output position of a subject in a notification based on attention acquisition difficulty
US20200160833A1 (en) Information processor, information processing method, and program
WO2021199284A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20230128043A1 (en) Information processing device, information processing method, and information processing program
WO2022201876A1 (ja) 制御方法、制御装置、及びプログラム
US20240212681A1 (en) Voice recognition device having barge-in function and method thereof
EP3779967A1 (en) Audio output with embedded authetification