JPWO2017221721A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JPWO2017221721A1
JPWO2017221721A1 JP2018523848A JP2018523848A JPWO2017221721A1 JP WO2017221721 A1 JPWO2017221721 A1 JP WO2017221721A1 JP 2018523848 A JP2018523848 A JP 2018523848A JP 2018523848 A JP2018523848 A JP 2018523848A JP WO2017221721 A1 JPWO2017221721 A1 JP WO2017221721A1
Authority
JP
Japan
Prior art keywords
information
pointing
target
additional information
pointing object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018523848A
Other languages
English (en)
Other versions
JP6885402B2 (ja
Inventor
真一 河野
真一 河野
拓也 生江
拓也 生江
遼 深澤
遼 深澤
賢次 杉原
賢次 杉原
佐藤 大輔
大輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017221721A1 publication Critical patent/JPWO2017221721A1/ja
Application granted granted Critical
Publication of JP6885402B2 publication Critical patent/JP6885402B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、ユーザが所望の対象を指すことにより、所望の対象に関する正確な情報を取得することができるようにする情報処理装置、情報処理方法、及び、プログラムに関する。
情報処理装置は、指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出部と、前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成部と、前記説明情報の音声の出力を制御する出力制御部とを備える。本技術は、例えば、ウエアラブルデバイスに適用できる。

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、指示オブジェクトにより指されている対象に関する情報を通知する場合に用いて好適な情報処理装置、情報処理方法、及び、プログラムに関する。
例えば、遠くにある物体、小さな物体、又は、周囲に物体が密集している中の物体を、離れた位置から直接触れずに指等により正確に指すことは難しい。従って、例えば、ユーザが指している対象を検出する技術を適用した装置において、装置がユーザにより指されていると認識している対象と、ユーザ自身が指していると認識している対象とが一致しない場合がある。
これに対して、従来、ユーザの指等により指されていると認識した対象の名称等を音声で通知し、ユーザに確認する技術が提案されている(例えば、特許文献1参照)。
特開2013−88906号公報
しかしながら、特許文献1に記載の技術では、例えば、ユーザが複数の未知の物体の中の1つを指している場合、上記の認識の不一致が発生し、ユーザが指していると認識している対象と異なる物体の名称等が音声で通知されても、ユーザが気付かないおそれがある。
そこで、本技術は、ユーザが所望の対象を指すことにより、所望の対象に関する正確な情報を取得できるようにするものである。
本技術の一側面の情報処理装置は、三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出部と、前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成部と、前記説明情報の音声の出力を制御する出力制御部とを備える。
前記情報生成部には、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とを比較して、前記付加情報の情報量を制御させることができる。
前記情報生成部には、前記指示対象を周囲と識別できる程度に前記付加情報の情報量を制御させることができる。
前記情報生成部には、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似しない場合、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成させ、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似する場合、前記指示対象単体の視認可能な特徴に加えて、前記指示対象の位置及び前記指示対象の周囲の視認可能な特徴のうち少なくとも1つに基づいて前記付加情報を生成させることができる。
前記情報生成部には、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成する場合、前記指示対象単体の視認可能な特徴のうち前記指示対象の周囲の視認可能な特徴と異なる特徴を優先して前記付加情報に含めることができる。
前記指示対象単体の視認可能な特徴には、前記指示対象の視覚的な属性を含めることができる。
前記コンテンツ情報を所定の言語に翻訳する翻訳部をさらに設け、前記出力制御部には、前記所定の言語の前記説明情報の音声の出力を制御させることができる。
前記コンテンツ情報には、前記指示対象の名称、前記指示対象の種類、及び、前記指示対象が視覚的に表しているもののうち少なくとも1つを示させることができる。
前記指示オブジェクトを、ユーザの体の一部とすることができる。
前記指示対象の周囲を撮影した画像内の物体の検出を行う物体検出部をさらに設け、前記指示対象検出部には、前記画像内の物体の中から前記指示対象を検出させることができる。
本技術の一側面の情報処理方法は、指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、前記説明情報の音声の出力を制御する出力制御ステップとを含む。
本技術の一側面のプログラムは、三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、前記説明情報の音声の出力を制御する出力制御ステップとを含む処理をコンピュータに実行させる。
本技術の一側面においては、三次元空間において指示オブジェクトにより指されている対象である指示対象が検出され、前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報が生成され、前記説明情報の音声の出力が制御される。
本技術の一側面によれば、ユーザが所望の対象を指すことにより、所望の対象に関する正確な情報を取得することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 情報処理システムにより実行される情報処理を説明するためのフローチャートである。 指差しモード処理の詳細を説明するためのフローチャートである。 指示方向情報取得処理の詳細を説明するためのフローチャートである。 指示方向画像の撮影範囲の例を示す図である。 指示方向画像の例を示す図である。 指示対象の検出方法の例を示す図である。 指示方向情報リストの例を示す図である。 付加情報生成処理の詳細を説明するためのフローチャートである。 付加情報の例を示す図である。 付加情報の例を示す図である。 付加情報の例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
{情報処理システム10の構成例}
まず、図1を参照して、本技術を適用した情報処理システム10の構成例について説明する。
情報処理システム10は、例えばユーザにより装着又は携帯され、三次元空間においてユーザが指で指している対象(以下、指示対象と称する)に関するコンテンツ情報を所定の言語の音声で通知するシステムである。
ここで、コンテンツ情報とは、物体の視認可能なコンテンツを示す情報のことである。例えば、コンテンツ情報は、物体の名称、物体の種類、及び、物体が視覚的に表しているもの(以下、視覚コンテンツと称する)のうち少なくとも1つを示す。ここで、視覚コンテンツとは、例えば、物体に表示されている画像(動画、静止画、絵等)、文字、及び、マーク、並びに、物体の形状や動きにより表される文字、マーク、及び、メッセージ等である。また、物体が人である場合、視認可能なコンテンツには、例えば、ボディランゲージや交通整理の手信号等のジェスチャ、表情等が含まれる。
情報処理システム10は、情報取得部11、情報処理部12、及び、出力部13を備える。
情報取得部11は、例えば、指輪型の形状を有し、ユーザが指差すときに用いる指(例えば、人差し指)に装着される。情報取得部11は、撮影部21及びセンサ部22を備える。
撮影部21は、ユーザが指により指している方向(以下、指示方向と称する)を撮影し、その結果得られる画像(以下、指示方向画像と称する)を情報処理部12に供給する。
センサ部22は、例えば、ユーザの指によるジェスチャ、指の位置、指示方向等を検出するためのセンサ(例えば、加速度センサ、ジャイロセンサ等)を備える。そして、センサ部22は、各センサの検出結果を示すセンサ信号を情報処理部12に供給する。
情報処理部12は、例えば、スマートフォン、タブレット、ウエアラブルデバイス等の携帯型の情報端末により構成される。情報処理部12は、例えば、指示対象検出部31、物体検出部32、翻訳部33、情報生成部34、出力制御部35、及び、通信部36を備える。
指示対象検出部31は、センサ部22からのセンサ情報に基づいて、三次元空間においてユーザにより指されている対象の検出を行う。
物体検出部32は、指示方向画像内の物体の検出を行う。
翻訳部33は、2以上の言語間の翻訳を行う。
情報生成部34は、ユーザが指している方向に存在する物体に関する情報を示す指示方向情報リスト等を生成する。なお、指示方向情報リストの詳細は後述する。また、情報生成部34は、指示対象の説明を行うための情報である説明情報を生成する。説明情報は、例えば、指示対象のコンテンツ情報、及び、指示対象に関連する視認可能な特徴を示す付加情報を含む。
出力制御部35は、出力部13による音声の出力を制御する。
通信部36は、情報取得部11及び出力部13との間の通信を行う。なお、通信部36の通信方式は、所定の方式に限定されるものではなく、有線又は無線の各種の通信方式の中から任意の方式を採用することができる。また、情報取得部11及び出力部13との間の通信方式を、それぞれ異なる方式に設定することが可能である。
出力部13は、音声の出力が可能な装置により構成される。例えば、出力部13は、スピーカ、ヘッドフォン、イヤフォン、音源等により構成される。
なお、例えば、情報処理部12及び出力部13を一体化するようにしてもよい。一体化した装置は、例えば、ネックバンド型のウエアラブルデバイスにより構成される。
{情報処理システム10の処理}
次に、図2乃至図12を参照して、情報処理システム10の処理について説明する。
まず、図2のフローチャートを参照して、情報処理システム10により実行される情報処理について説明する。なお、この処理は、例えば、情報処理部12の図示せぬ電源がオンされたとき開始され、電源がオフされたとき終了する。
ステップS1において、指示対象検出部31は、ユーザが指差しているか否かを判定する。具体的には、指示対象検出部31は、センサ部22からのセンサ信号に基づいて、ユーザの指によるジェスチャの検出を行う。なお、ジェスチャの検出方法には、任意の方法を採用することができる。そして、指示対象検出部31は、検出したジェスチャに基づいて、ユーザが指差しているか否かを判定する。ステップS1の判定処理は、ユーザが指差していると判定されるまで、例えば、所定の間隔で繰り返し実行される。そして、ユーザが指差していると判定された場合、処理はステップS2に進む。
ステップS2において、情報処理システム10は、指差しモード処理を実行する。ここで、図3のフローチャートを参照して、指差しモード処理の詳細について説明する。
ステップS51において、情報処理部12は、指示方向情報取得処理を実行する。ここで、図4のフローチャートを参照して、指示方向情報取得処理の詳細について説明する。
ステップS101において、物体検出部32は、指示方向画像内の物体を検出する。具体的には、物体検出部32は、撮影部21から指示方向画像を取得し、画像認識を行うことにより、指示方向画像内の物体、すなわち、ユーザが指により指した方向の所定の範囲内に存在する物体を検出する。また、物体検出部32は、検出した物体の指示方向画像内の位置及びサイズ、物体の種類、物体の視覚コンテンツ、物体の視覚的な特徴(例えば、色、形等)等を検出する。さらに、物体検出部32は、視覚コンテンツが表す情報の認識を行う。例えば、物体検出部32は、視覚コンテンツに含まれる画像、文字列、マーク、メッセージ等の具体的な内容を認識する。
なお、物体検出部32の検出方法には、任意の方法を採用することができる。
また、以下、図5に模式的に示される繁華街の風景のうち範囲D1内の画像が指示方向画像として得られた場合について説明する。なお、この図では、ビルの看板等の図示が省略されている。
図6は、図5の範囲D1内の指示方向画像121の具体例を模式的に示している。指示方向画像121には、看板131、看板132、窓133、及び、看板134乃至看板138が写っている。なお、指示方向画像121はモノクロで示されているが、実際には各物体には色が付いている。各物体の主要な部分の色については後述する。
看板131の右には、看板132、看板135、看板138が垂直方向に並んでいる。看板132の右には、窓133、看板134が水平方向に並んでいる。看板135の右には、看板136、看板137が水平方向に並んでいる。窓133と看板136は、垂直方向に並んでいる。看板134と看板137は、垂直方向に並んでいる。
看板131は、長方形であり、緑の背景の上に、白の韓国語の文字列が表示されている。韓国語の文字列は、”当ビル6階”を意味する。
看板132は、長方形であり、青の背景の上に、白の韓国語の文字列が表示されている。韓国語の文字列は、”家庭料理の味”を意味する。
窓133は、ほぼ正方形であり、枠の色はグレーである。
看板134は、長方形であり、白の背景に、胴体が黄色の犬の画像(絵)が表示されている。
看板135乃至看板137は、それぞれ楕円形であり、青の背景の上に、白の韓国語の文字列が表示されている。看板135の韓国語の文字列は、”レストラン”を意味する。看板136の韓国語の文字列は、”スポーツ用品”を意味する。看板137の韓国語の文字列は、”ペットショップ”を意味する。
看板138は、長方形であり、黄色の背景の上に、黒の韓国語の文字列が表示されている。韓国語の文字列は、”当ビル5階”を意味する。
なお、以下、図6の指示方向画像121が得られた場合について、各処理の具体例を説明する。
ステップS102において、指示対象検出部31は、ユーザが指している対象(指示対象)を検出する。例えば、指示対象検出部31は、指示方向画像の中央に物体検出部32により検出された物体が存在する場合、その物体を指示対象として検出する。一方、指示対象検出部31は、指示方向画像の中央に物体検出部32により検出された物体が存在しない場合、指示方向画像の中心に最も近い物体を指示対象として検出する。
例えば、図7に示されるように、指示方向画像121において、中央の領域C1に看板135が存在している。従って、看板135が、指示対象として検出される。
ステップS103において、情報生成部34は、指示方向情報リストを生成する。指示方向情報リストは、指示方向画像において検出された各物体に関する情報をリストにしたものである。
図8は、図6の指示方向画像121に基づいて生成される指示方向情報リストの例を示している。
指示方向情報リストは、ID、位置、サイズ、物体の種類、コンテンツの種類、詳細情報、隣接する物体の項目を含んでいる。詳細情報は、コンテンツ情報、翻訳情報、前景色、背景色、形状の項目を含んでいる。
IDは、各物体を一意に識別するために各物体に付与される。この例では、看板131、看板132、窓133、看板134乃至138に、ID1乃至ID8がそれぞれ付与されている。
位置は、各物体の指示方向画像内の位置を示す。例えば、指示方向画像内における各物体の中心の座標が設定される。
サイズは、各物体の指示方向画像内のサイズを示す。例えば、指示方向画像内における各物体の垂直方向の長さの最大値、及び、水平方向の長さの最大値が設定される。
物体の種類は、物体検出部32により検出された物体の種類を示す。例えば、看板131、看板132及び看板134乃至138の物体の種類は”看板”となり、窓133の物体の種類は”窓”となる。
コンテンツの種類は、基本的に、物体検出部32により検出された各物体の視覚コンテンツの種類を示す。ただし、視覚コンテンツを有していない物体については、視覚コンテンツの種類は”物体”に設定される。例えば、看板131、看板132、及び、看板138のコンテンツの種類は”文”となる。また、例えば、看板135乃至看板137のコンテンツの種類は”単語”となる。なお、視覚コンテンツに含まれる単語が1つのみの場合、コンテンツの種類は”単語”に設定され、視覚コンテンツに含まれる単語が2つ以上の場合、コンテンツの種類は”文”に設定される。さらに、例えば、看板134のコンテンツの種類は”画像”となる。窓133は、視覚コンテンツを有していないため、コンテンツの種類は”物体”に設定される。
コンテンツ情報には、コンテンツの種類が”物体”である物体の場合、すなわち、視覚コンテンツを有していない物体の場合、物体の種類が設定される。一方、コンテンツの種類が”物体”以外の物体の場合、すなわち、視覚コンテンツを有している物体の場合、視覚コンテンツの内容が設定される。
例えば、看板134は、視覚コンテンツとして画像を有しているので、画像の内容である”犬”がコンテンツ情報に設定される。窓133は、視覚コンテンツを有していないので、物体の種類である”窓”がコンテンツ情報に設定される。看板131、看板132、及び、看板135乃至看板138は、視覚コンテンツとして文又は単語を有しているので、その文又は単語が原語(この例の場合、韓国語)のままコンテンツ情報に設定される。すなわち、本明細書において、看板131、看板132、及び、看板135乃至看板138のコンテンツ情報は、それぞれ”看板131の原語情報”、”看板132の原語情報”、”看板135の原語情報”、”看板136の原語情報”、”看板137の原語情報”、”看板138の原語情報”として定義されると見做されてよい。
翻訳情報には、翻訳部33がコンテンツ情報をユーザに通知する言語(以下、ユーザ言語と称する)に翻訳した情報が設定される。ここで、ユーザ言語は、ユーザ音声の言語と同一であると見做されてよい。
前景色には、各物体の前景に含まれる色のうち特徴的な色が設定される。例えば、看板131、看板132、及び、看板135乃至看板138の場合、各看板に表示されている文字の色が設定される。窓133の場合、窓の色である”透明”が設定される。看板134の場合、犬の画像の主要な色である”黄”が設定される。
背景色には、各物体の背景に含まれる色のうち特徴的な色が設定される。例えば、看板131、看板132、及び、看板134乃至看板138の場合、各看板の背景の主要な色が設定される。窓133の場合、例えば、窓133のフレームの色である”グレー”が設定される。
形状には、各物体の形状が設定される。
隣接する物体には、指示方向画像において各物体の上、下、左、右に隣接する物体のIDが設定される。例えば、ID5の看板135の上下左右には、それぞれ、看板132、看板138、看板131、看板136が隣接しているので、隣接する物体の上、下、左、右には、それぞれID2、ID8、ID1、ID6が設定されている。
その後、指示方向情報取得処理は終了する。
図3に戻り、ステップS52において、情報生成部34は、付加情報生成処理を実行する。ここで、図9のフローチャートを参照して、付加情報生成処理の詳細について説明する。
ステップS151において、情報生成部34は、指示方向情報リストに登録されている物体のうち、まだ付加情報を生成していない物体を1つ選択する。
ステップS152において、情報生成部34は、選択した物体に適したテンプレートを選択する。
ここで、テンプレートとは、付加情報を機械的に生成するためのものであり、例えば、物体の種類毎、又は、物体の種類とコンテンツの種類の組み合わせ毎に予め準備されている。
例えば、物体の種類が看板である場合、「”背景色”の背景に”前景色”の”コンテンツの種類”が表示されている”形状”の看板」というテンプレートが用いられる。
また、例えば、物体の種類が窓である場合、「”前景色”で”背景色”の枠を有する”形状”の窓」というテンプレートが用いられる。
なお、各テンプレートの”コンテンツの種類”、”前景色”、”背景色”、”形状”には、指示方向情報リストの対応する項目のデータが当てはめられる。
ステップS153において、情報生成部34は、選択したテンプレートに基づいて付加情報を生成する。具体的には、情報生成部34は、選択したテンプレートに、選択した物体の指示方向情報リストのデータを適用することにより、付加情報を生成する。
図10は、図8の指示方向情報リストに基づいて生成される付加情報の例を示している。
例えば、ID1の看板131の付加情報は、背景色=緑、前景色=白、コンテンツの種類=文、形状=長方形なので、「”緑”の背景に”白”の”文”が表示されている”長方形”の看板」となる。ID3の窓133の付加情報は、前景色=透明、背景色=グレー、形状=正方形なので、「”透明”で”グレー”の枠を有する”正方形”の窓」となる。ID4の看板134の付加情報は、背景色=白、前景色=黄、コンテンツの種類=画像、形状=長方形なので、「”白”の背景に”黄色”の”画像”が表示されている”長方形”の看板」となる。
なお、厳密に言えば、図10の例において、付加情報は、物体の種類(例えば、看板、窓等)を除く部分となる。
また、この時点で、各物体の付加情報は、各物体単体の視認可能な特徴のみに基づいて生成されたものとなる。すなわち、この時点で、各物体の付加情報は、各物体の色及び形といった視覚的な属性に基づいて生成されたものとなる。
ステップS154において、情報生成部34は、全ての物体の付加情報を生成したか否かを判定する。まだ全ての物体の付加情報を生成していないと判定された場合、処理はステップS151に戻る。
その後、ステップS154において、全ての物体の付加情報が生成されたと判定されるまで、ステップS151乃至S154の処理が繰り返し実行される。これにより、指示方向情報リストに登録されている全ての物体の付加情報が生成される。
一方、ステップS154において、全ての物体の付加情報が生成されたと判定された場合、処理はステップS155に進む。
ステップS155において、情報生成部34は、類似する付加情報が存在するか否かを判定する。類似する付加情報が存在すると判定された場合、処理はステップS156に進む。
例えば、図10の例の場合、ID5乃至ID7の看板135乃至看板137の付加情報が一致するため、類似する付加情報が存在すると判定される。
なお、付加情報が完全に一致していないくても、例えば、”前景色”又は”背景色”のみが異なり、その色が類似する場合、或いは、”形状”のみが異なり、その形状が類似する場合等に、類似する付加情報が存在すると判定される。
ステップS156において、情報生成部34は、類似する付加情報の組み合わせの中から1組を選択する。すなわち、情報生成部34は、類似する付加情報の組み合わせが複数組存在する場合、その中から1組選択する。一方、情報生成部34は、類似する付加情報の組み合わせが1組のみである場合、その組み合わせを選択する。
ステップS157において、情報生成部34は、類似する付加情報を区別するための情報を付加する。
例えば、情報生成部34は、各物体の位置に基づく情報を付加することにより、類似する付加情報を非類似とする。例えば、情報生成部34は、「”付加情報”のうち、”方向”から”順番”番目の”物体の種類”」というテンプレートを用いて、類似する各付加情報に位置情報を付加する。
なお、このテンプレートの”付加情報”には、各物体の新たに情報を付加する前の付加情報が当てはめられる。”方向”及び”順番”は、指示方向情報リストの”隣接する物体”のデータに基づいて設定される。”物体の種類”には、指示方向情報リストの”物体の種類”のデータが当てはめられる。
図11は、図10の付加情報に位置情報を付加することにより、ID5乃至ID7の看板135乃至看板137の付加情報を非類似にするようにした例を示している。
例えば、付加情報が類似する看板135乃至看板137は、水平方向に並んでいる。そして、看板135乃至看板137のうち、看板135は、左から1番目の看板であり、看板136は、左から2番目の看板であり、看板137は、左から3番目の看板である。
従って、上記のテンプレートに基づいて、看板135の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”左”から”1”番目の”看板”」に更新される。看板136の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”左”から”2”番目の”看板”」に更新される。看板137の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”左”から”3”番目の”看板”」に更新される。
或いは、例えば、情報生成部34は、各物体の周囲の視認可能な特徴を示す情報を付加することにより、付加情報を非類似とする。例えば、情報生成部34は、「”付加情報”のうち、”方向”に”隣接する物体に関する情報”がある”物体の種類”」というテンプレートを用いて、類似する各付加情報に、各物体に隣接する物体に関する情報を付加する。
なお、このテンプレートの”付加情報”には、各物体の新たに情報を付加する前の付加情報が当てはめられる。”方向”は、指示方向情報リストの”隣接する物体”のデータに基づいて設定される。”隣接する物体に関する情報”は、各物体に隣接する物体の種類や特徴等を表し、指示方向情報リストに登録されている周囲の物体の”物体の種類”、”コンテンツの種類”、”前景色”、”背景色”、及び、”形状”のうち1つ以上の組み合わせに基づいて設定される。なお、”隣接する物体に関する情報”には、各物体に隣接する物体のうち特に視覚的に特徴のある物体に関する情報を設定することが望ましい。”物体の種類”には、指示方向情報リストの”物体の種類”のデータが当てはめられる。
図12は、図10の付加情報に各物体に隣接する物体に関する情報を付加することにより、ID5乃至ID7の看板135乃至看板137の付加情報を非類似にするようにした例を示している。
例えば、看板135の左には、背景色が緑の看板131がある。そこで、看板135の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”左”に”緑の看板”がある”看板”」に更新される。
また、例えば、看板136の上には、窓133があり、他に窓は存在しない。そこで、看板136の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”上”に”窓”がある”看板”」に更新される。
さらに、例えば、看板137の上には、黄色の犬の画像が表示された看板134がある。そこで、看板137の付加情報は、「”青”の背景に”白”の”単語”が表示されている”楕円”の看板のうち、”上”に”黄色の画像”がある”看板”」に更新される。
なお、厳密に言えば、図11及び図12の例において、付加情報は、物体の種類(例えば、看板、窓等)を除く部分となる。
このように、看板135乃至看板137のように、物体単体の視認可能な特徴と物体の周囲の視認可能な特徴とが類似する場合、物体単体の視認可能な特徴に加えて、物体の位置及び物体の周囲の視認可能な特徴のうち少なくとも1つに基づいて付加情報が生成される。一方、看板131、看板132、窓133、看板134、及び、看板138のように、物体単体の視認可能な特徴と物体の周囲の視認可能な特徴とが類似しない場合、物体単体の視認可能な特徴のみに基づいて付加情報が生成される。
図9に戻り、ステップS157の処理の後、処理はステップS155に戻る。
その後、ステップS155において、類似する付加情報が存在しないと判定されるまで、ステップS155乃至S157の処理が繰り返し実行される。
一方、ステップS155において、類似する付加情報が存在しないと判定された場合、付加情報生成処理は終了する。
図3に戻り、ステップS53において、指示対象検出部31は、ユーザが指している対象が定まっているか否かを判定する。例えば、指示対象検出部31は、指示対象が変わらない状態が継続している時間が所定の時間未満の場合、ユーザが指している対象がまだ定まっていないと判定し、処理はステップS54に進む。
ステップS54において、指示対象検出部31は、指差しモードの解除が指示されたか否かを判定する。具体的には、指示対象検出部31は、図2のステップS1の処理と同様に、センサ部22からのセンサ信号に基づいて、ユーザの指によるジェスチャの検出を行い、指差しモードの解除を指示するジェスチャが行われているか否かを検出する。指差しモードの解除を指示するジェスチャは、例えば、指差しのジェスチャを止めるだけでもよいし、或いは、所定の指の形を作るようにしてもよい。そして、指示対象検出部31は、指差しモードの解除を指示するジェスチャが行われていない場合、指差しモードの解除が指示されていないと判定し、処理はステップS51に戻る。
その後、ステップS53において、ユーザが指している対象が定まっていると判定されるか、ステップS54において、指差しモードの解除が指示されたと判定されるまで、ステップS51乃至S54の処理が繰り返し実行される。
一方、ステップS53において、例えば、指示対象検出部31は、指示対象が変わらない状態が継続している時間が所定の時間以上である場合、ユーザが指している対象が定まっていると判定し、処理はステップS55に進む。
ステップS55において、出力制御部35は、ユーザが指している対象の説明情報を生成する。例えば、出力制御部35は、ユーザが指している対象(指示対象)が視覚コンテンツを有しているか否かにより、異なるテンプレートを用いて説明情報を生成する。
例えば、出力制御部35は、指示対象のコンテンツの種類が”物体”である場合、すなわち、指示対象が視覚コンテンツを有していない場合、「”付加情報”です」というテンプレートを用いて、説明情報を生成する。
なお、このテンプレートの”付加情報”には、各物体の付加情報が当てはめられる。
例えば、指示対象が窓133である場合、窓133のコンテンツの種類は”物体”であるので、このテンプレートが用いられる。そして、図11又は図12のID3の窓133に対応する付加情報を用いて、「”透明で枠がグレーの正方形の窓”です」という説明情報が生成される。
また、例えば、出力制御部35は、指示対象のコンテンツの種類が”物体”以外である場合、すなわち、指示対象が視覚コンテンツを有している場合、「”付加情報”は”翻訳情報”です」というテンプレートに基づいて、説明情報を生成する。
なお、このテンプレートの”付加情報”には、各物体の付加情報が当てはめられる。”翻訳情報”には、指示方向情報リストの”翻訳情報”のデータが当てはめられる。
例えば、指示対象が看板135である場合、看板135のコンテンツの種類は”単語”であるので、このテンプレートが用いられる。そして、図8のID5の翻訳情報のデータ、及び、図11のID5の付加情報を用いて、「”青の背景に白の単語が表示されている楕円の看板のうち、左から1番目の看板”は”レストラン”です」という説明情報が生成される。或いは、図8のID5の翻訳情報のデータ、及び、図12のID5の付加情報を用いて、「”青の背景に白の単語が表示されている楕円の看板のうち、左に緑の看板がある看板”は”レストラン”です」という説明情報が生成される。
ステップS56において、出力部13は、出力制御部35の制御の下に、ステップS55の処理で生成された説明情報の音声を出力する。
これにより、ユーザは、付加情報に基づいて、情報処理システム10が認識している指示対象を正確に把握することができ、自分が指していると認識している対象と一致するか否かを正確に判断することができる。また、ユーザは、現在の指示対象に理解できない韓国語で情報が表示されていても、その情報を自分が理解できる言語、すなわちユーザ言語で得ることができる。
例えば、付加情報が付加されないと、ユーザは、看板の文字列を翻訳した音声が出力されても、その翻訳した内容が、所望の看板のものであるかを確信できないおそれがある。また、例えば、ユーザは、所望の看板と別の看板の文字列を翻訳した音声が出力されても、気付かないおそれがある。
一方、付加情報を付加することにより、ユーザは、看板の文字列を翻訳した音声の内容が、所望の看板のものであるか否かを正確に判断することができる。また、例えば、ユーザは、所望の看板と別の看板の文字列を翻訳した音声が出力されても、容易に気付くことができる。
その後、指差しモード処理は終了する。
一方、ステップS54において、指差しモードの解除が指示されたと判定された場合、ステップS55及びS56の処理はスキップされ、指差しモード処理は終了する。
図2に戻り、その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
以上のように、ユーザは、所望の対象を指差すことにより、所望の対象の正確なコンテンツ情報を簡単に取得することができる。
<2.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
{本技術の適用範囲に関する変形例}
本技術の適用範囲は、上述した例に限定されるものではない。
例えば、本技術において、指示対象となる物体は、必ずしも1つの物体全体である必要はなく、物体の一部であってもよい。例えば、1つの看板に複数の文字列や画像が表示されている場合、そのうちの一部を指示対象に指定できるようにしてもよい。また、例えば、ビル等の大きな対象の一部を指示対象に指定できるようにしてもよい。
また、以上の説明では、本技術を適用する状況として、遠方の看板等を指す場合を例に挙げたが、本技術は、指示オブジェクトを用いて非接触で所望の位置を指す様々な状況において適用することが可能である。例えば、博物館等のショーケース内の所望の位置を指す場合、立ち入り規制により近づけない場所内の所望の位置を指す場合、展望台から見える風景の所望の位置を指す場合、汚染等により直接触れることができない物体の所望の位置を指す場合、接触が禁止されている物体の所望の位置を指す場合、講演会等で離れた位置から所望の位置を指す場合等が挙げられる。
さらに、本技術は、例えば、直接対象に触れて所望の位置を指す場合にも適用することができる。例えば、ディスプレイ等の表示装置の画面に直接指等を接触して、画面に表示されている画像内の所望の位置を指す場合にも、本技術を適用することができる。特に、画像が小さいため個々の対象を正確に指すことが困難な場合に、本技術を適用する効果は大きくなる。
{システムの構成例に関する変形例}
図1の情報処理システム10の構成例は、その一例であり、必要に応じて変更することが可能である。
例えば、情報処理部12の一部の機能を、情報取得部11又は出力部13に設けるようにしてもよい。また、例えば、情報取得部11、情報処理部12、及び、出力部13のうち2つ以上を一体化するようにしてもよい。さらに、例えば、情報処理システム10の構成要素を、情報取得部11、情報処理部12、及び、出力部13と異なる組み合わせにより構成するようにしてもよい。
また、例えば、情報処理システム10の一部の機能を外部に設けるようにしてもよい。
{付加情報に関する変形例}
付加情報の生成方法は、上述した例に限定されるものではなく、他の方法を採用することも可能である。
例えば、テンプレートを用いずに、指示対象と周囲の視認可能な特徴とを比較して、付加情報の情報量を制御するようにしてもよい。例えば、指示対象を周囲と識別できる程度に付加情報の情報量を制御するようにしてもよい。
具体的には、例えば、指示対象単体の視認可能な特徴に基づいて付加情報を生成する場合、指示対象単体の視認可能な特徴のうち指示対象の周囲の視認可能な特徴と異なる特徴を、優先して付加情報に含めるようにしてもよい。特に、指示対象単体の視認可能な特徴のうち指示対象の周囲との視覚的な差が大きな特徴を、優先して付加情報に含めるようにしてもよい。例えば、指示対象の色と類似する色を有する物体が周囲に存在しない場合、指示対象の色のみを付加情報に含めるようにしてもよい。また、指示対象の色と形の組み合わせに類似する色と形の組み合わせを有する物体が周囲に存在しない場合、指示対象の色及び形のみを付加情報に含めるようにしてもよい。
また、指示対象の周囲の視認可能な特徴を付加情報に追加する場合、指示対象の周囲の視認可能な特徴のうち、他と比べて視覚的な差が大きい特徴を優先して付加情報に追加するようにしてもよい。
また、例えば、指示対象単体の視認可能な特徴を用いずに、指示対象の周囲の視認可能な特徴のみに基づいて付加情報を生成するようにしてもよい。例えば、指示対象である物体Aの左に視覚的に目立つ物体Bが存在する場合、「左に物体Bがある物体A」のような付加情報を生成するようにしてもよい。
また、上述したように、付加情報に含まれる情報として、指示対象単体の視認可能な特徴、指示対象の位置、及び、指示対象の周囲の視認可能な特徴が挙げられるが、付加情報に含める情報の種類は、上述した例に限定されるものではない。
例えば、指示対象単体の視認可能な特徴として、指示対象の視覚的な属性(例えば、色、形、模様等)、指示対象の動き、視覚的な属性の変化、材質等が挙げられる。指示対象の位置として、例えば、指示対象の絶対的な位置、又は、指示対象と周囲の物体等との相対的な位置が挙げられる。指示対象の周囲の視認可能な特徴として、例えば、指示対象の周囲の物体及びその視認可能な特徴、指示対象の周囲の視認可能な状況等が挙げられる。例えば、「行列ができているレストラン」の「行列ができている」の部分は、レストラン単体の視認可能な特徴ではなく、レストランの周囲の視認可能な特徴に分類される。
{指示対象の検出方法に関する変形例}
以上の説明では、ユーザの指に装着した情報取得部11の撮影部21により撮影された指示方向画像に基づいて、ユーザの指により指されている指示対象を検出する例を示したが、他の方法により指示対象を検出するようにしてもよい。
例えば、ユーザが指している方向を示す指示方向画像を撮影する撮影部をユーザの指以外の部位(例えば、頭部等)に装着するとともに、ユーザを撮影する撮影部を別に設けるようにしてもよい。この場合、例えば、指示対象検出部31は、ユーザを撮影した画像に基づいて、ユーザの指の位置や向き等を検出することにより、三次元空間においてユーザが指している方向(以下、空間指示方向と称する)を検出する。また、指示対象検出部31は、空間指示方向に基づいて、指示方向画像内においてユーザが指している指示対象を検出する。
なお、指示方向画像を撮影する撮影部をユーザの指以外の部位に装着した場合、撮影方向とユーザが指している方向が一致しない場合が生じる。これに対して、例えば、指示対象検出部31は、SLAM(Simultaneous Localization and Mapping)を用いて、指示方向画像に基づいてユーザの周辺の空間マップを作成し、空間マップ及び空間指示方向に基づいて、指示対象を検出することが可能である。
また、例えば、指示方向画像を撮影する撮影部を、ユーザに装着せずに、ユーザとは別に設けるようにしてもよい。
{指示オブジェクトに関する変形例}
本技術に適用可能な指示オブジェクトには、所望の位置を指すことができるものであれば任意のものを採用することができる。例えば、ユーザの指以外の体の一部、例えば、目(視線)、頭部、顔、顔の一部、腕、腕の一部等を指示オブジェクトに用い、それらの部位を用いたジェスチャ等により、所望の位置を指すようにしてもよい。また、例えば、レーザポインタ等のポインティングデバイスやVR(Virtual Reality)デバイス等のデバイスを指示オブジェクトに用いるようにしてもよい。なお、VRデバイスを指示オブジェクトに用いる場合、例えば、VRデバイスの向きにより所望の位置を指すことができる。
{指示方向情報リストに関する変形例}
指示方向情報リストの項目は、上述した例に限定されるものではなく、必要に応じて変更することが可能である。例えば、詳細情報に、各物体の色、形以外の視覚的な特徴(例えば、模様、素材等)を含めるようにしてもよい。
また、物体の種類やコンテンツの種類の分類方法は、上述した例に限定されるものではなく、必要に応じて変更することが可能である。
また、例えば、指示方向情報リストに斜め方向に隣接する物体に関する情報を追加して、斜め方向に隣接する物体に関する情報を付加情報に加えるようにしてもよい。
{その他の変形例}
以上の説明では、指示対象のコンテンツ情報を韓国語からユーザ言語に翻訳する例を示したが、翻訳する言語の組み合わせは、この例に限定されるものではない。また、例えば、翻訳先の言語(ユーザに通知する言語)をユーザが設定できるようにしてもよい。
また、例えば、付加情報、説明情報等をいったん指示対象に示される視覚コンテンツに含まれる原語(例えば、韓国語)で生成し、それから説明情報を通知する言語(例えば、ユーザ言語)に翻訳するようにしてもよい。
さらに、例えば、説明情報を音声ではなく、例えば、説明情報のテキストデータをディスプレイ等に表示するようにしてもよい。
{コンピュータの構成例}
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、複数のコンピュータが連携して上述した処理を行うようにしてもよい。そして、上述した処理を行う単数又は複数のコンピュータにより、コンピュータシステムが構成される。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出部と、
前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成部と、
前記説明情報の音声の出力を制御する出力制御部と
を備える情報処理装置。
(2)
前記情報生成部は、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とを比較して、前記付加情報の情報量を制御する
前記(1)に記載の情報処理装置。
(3)
前記情報生成部は、前記指示対象を周囲と識別できる程度に前記付加情報の情報量を制御する
前記(2)に記載の情報処理装置。
(4)
前記情報生成部は、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似しない場合、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成し、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似する場合、前記指示対象単体の視認可能な特徴に加えて、前記指示対象の位置及び前記指示対象の周囲の視認可能な特徴のうち少なくとも1つに基づいて前記付加情報を生成する
前記(3)に記載の情報処理装置。
(5)
前記情報生成部は、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成する場合、前記指示対象単体の視認可能な特徴のうち前記指示対象の周囲の視認可能な特徴と異なる特徴を優先して前記付加情報に含める
前記(4)に記載の情報処理装置。
(6)
前記指示対象単体の視認可能な特徴は、前記指示対象の視覚的な属性を含む
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記コンテンツ情報を所定の言語に翻訳する翻訳部を
さらに備え、
前記出力制御部は、前記所定の言語の前記説明情報の音声の出力を制御する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記コンテンツ情報は、前記指示対象の名称、前記指示対象の種類、及び、前記指示対象が視覚的に表しているもののうち少なくとも1つを示す
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記指示オブジェクトは、ユーザの体の一部である
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記指示対象の周囲を撮影した画像内の物体の検出を行う物体検出部を
さらに備え、
前記指示対象検出部は、前記画像内の物体の中から前記指示対象を検出する
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、
前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、
前記説明情報の音声の出力を制御する出力制御ステップと
を含む情報処理方法。
(12)
三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、
前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、
前記説明情報の音声の出力を制御する出力制御ステップと
を含む処理をコンピュータに実行させるためのプログラム。
10 情報処理システム, 11 情報取得部, 12 情報処理部, 13 出力部, 21 撮影部, 22 センサ部, 31 指示対象検出部, 32 物体検出部, 33 翻訳部, 34 情報生成部, 35 出力制御部

Claims (12)

  1. 三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出部と、
    前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成部と、
    前記説明情報の音声の出力を制御する出力制御部と
    を備える情報処理装置。
  2. 前記情報生成部は、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とを比較して、前記付加情報の情報量を制御する
    請求項1に記載の情報処理装置。
  3. 前記情報生成部は、前記指示対象を周囲と識別できる程度に前記付加情報の情報量を制御する
    請求項2に記載の情報処理装置。
  4. 前記情報生成部は、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似しない場合、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成し、前記指示対象単体の視認可能な特徴と前記指示対象の周囲の視認可能な特徴とが類似する場合、前記指示対象単体の視認可能な特徴に加えて、前記指示対象の位置及び前記指示対象の周囲の視認可能な特徴のうち少なくとも1つに基づいて前記付加情報を生成する
    請求項3に記載の情報処理装置。
  5. 前記情報生成部は、前記指示対象単体の視認可能な特徴のみに基づいて前記付加情報を生成する場合、前記指示対象単体の視認可能な特徴のうち前記指示対象の周囲の視認可能な特徴と異なる特徴を優先して前記付加情報に含める
    請求項4に記載の情報処理装置。
  6. 前記指示対象単体の視認可能な特徴は、前記指示対象の視覚的な属性を含む
    請求項1に記載の情報処理装置。
  7. 前記コンテンツ情報を所定の言語に翻訳する翻訳部を
    さらに備え、
    前記出力制御部は、前記所定の言語の前記説明情報の音声の出力を制御する
    請求項1に記載の情報処理装置。
  8. 前記コンテンツ情報は、前記指示対象の名称、前記指示対象の種類、及び、前記指示対象が視覚的に表しているもののうち少なくとも1つを示す
    請求項1に記載の情報処理装置。
  9. 前記指示オブジェクトは、ユーザの体の一部である
    請求項1に記載の情報処理装置。
  10. 前記指示対象の周囲を撮影した画像内の物体の検出を行う物体検出部を
    さらに備え、
    前記指示対象検出部は、前記画像内の物体の中から前記指示対象を検出する
    請求項1に記載の情報処理装置。
  11. 三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、
    前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、
    前記説明情報の音声の出力を制御する出力制御ステップと
    を含む情報処理方法。
  12. 三次元空間において指示オブジェクトにより指されている対象である指示対象を検出する指示対象検出ステップと、
    前記指示対象の視認可能なコンテンツを示すコンテンツ情報、及び、前記指示対象に関連する視認可能な特徴を示す付加情報を含む説明情報を生成する情報生成ステップと、
    前記説明情報の音声の出力を制御する出力制御ステップと
    を含む処理をコンピュータに実行させるためのプログラム。
JP2018523848A 2016-06-22 2017-06-08 情報処理装置、情報処理方法、及び、プログラム Active JP6885402B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016123594 2016-06-22
JP2016123594 2016-06-22
PCT/JP2017/021272 WO2017221721A1 (ja) 2016-06-22 2017-06-08 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2017221721A1 true JPWO2017221721A1 (ja) 2019-04-18
JP6885402B2 JP6885402B2 (ja) 2021-06-16

Family

ID=60784213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018523848A Active JP6885402B2 (ja) 2016-06-22 2017-06-08 情報処理装置、情報処理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US10922043B2 (ja)
EP (1) EP3477434B1 (ja)
JP (1) JP6885402B2 (ja)
CN (1) CN109313506B (ja)
WO (1) WO2017221721A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445269B2 (en) * 2020-05-11 2022-09-13 Sony Interactive Entertainment Inc. Context sensitive ads

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207732A (ja) * 2001-01-10 2002-07-26 Hiroshi Ono 翻訳装置
US8195386B2 (en) * 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
US7869074B2 (en) * 2005-09-20 2011-01-11 Brother Kogyo Kabushiki Kaisha Communication system, information processing device, peripheral device and communication method
US10073708B2 (en) * 2008-03-14 2018-09-11 S-Printing Solution Co., Ltd System and method of providing visual indicators to manage peripheral devices
JP5245808B2 (ja) 2008-12-25 2013-07-24 ヤマハ株式会社 ポインティングシステム
US8923995B2 (en) * 2009-12-22 2014-12-30 Apple Inc. Directional audio interface for portable media device
JP5211120B2 (ja) * 2010-07-30 2013-06-12 株式会社東芝 情報表示装置及び情報表示方法
JP5692904B2 (ja) * 2010-11-17 2015-04-01 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および指示位置算出方法
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法
JP5762892B2 (ja) 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
JP5866728B2 (ja) 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
US9096920B1 (en) * 2012-03-22 2015-08-04 Google Inc. User interface method
US8452603B1 (en) * 2012-09-14 2013-05-28 Google Inc. Methods and systems for enhancement of device accessibility by language-translated voice output of user-interface items
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
JP2017228080A (ja) * 2016-06-22 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10474226B2 (en) * 2016-11-30 2019-11-12 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device
JP6246310B1 (ja) * 2016-12-22 2017-12-13 株式会社コロプラ 仮想空間を提供するための方法、プログラム、および、装置
WO2019138661A1 (ja) * 2018-01-12 2019-07-18 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
EP3477434A1 (en) 2019-05-01
EP3477434B1 (en) 2020-10-21
US10922043B2 (en) 2021-02-16
CN109313506A (zh) 2019-02-05
CN109313506B (zh) 2022-03-08
EP3477434A4 (en) 2019-05-08
US20190138261A1 (en) 2019-05-09
JP6885402B2 (ja) 2021-06-16
WO2017221721A1 (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
US11176737B2 (en) Textured mesh building
US11557075B2 (en) Body pose estimation
CN106468950B (zh) 电子系统、便携式显示装置及导引装置
US10713846B2 (en) Systems and methods for sharing augmentation data
JP6674192B2 (ja) 画像処理装置と画像処理方法
WO2017221720A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2021163725A1 (en) Diy effects image modification
US20180197342A1 (en) Information processing apparatus, information processing method, and program
WO2022179344A1 (en) Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment
WO2023064719A1 (en) User interactions with remote devices
JP6885402B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN113434059A (zh) 书面文档处理方法、装置、电子设备及计算机可读介质
Migliore et al. An approach to develop a LabVIEW based augmented reality application for smartphones
KR102443049B1 (ko) 전자 장치 및 그 동작 방법
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20240079031A1 (en) Authoring tools for creating interactive ar experiences
JP2019074649A (ja) 情報処理装置及びプログラム
US11861883B2 (en) Information processing apparatus and information processing method
US20230260221A1 (en) Mixed reality environment display using surface reconstruction mesh and live video overlay
WO2022030248A1 (ja) 情報処理装置、情報処理方法、及び情報処理システム
KR20240054080A (ko) 전자 장치 및 이의 제어 방법
JP2020027363A (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R151 Written notification of patent or utility model registration

Ref document number: 6885402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151