JP2015060579A - 情報処理システム、情報処理方法および情報処理プログラム - Google Patents

情報処理システム、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2015060579A
JP2015060579A JP2013196199A JP2013196199A JP2015060579A JP 2015060579 A JP2015060579 A JP 2015060579A JP 2013196199 A JP2013196199 A JP 2013196199A JP 2013196199 A JP2013196199 A JP 2013196199A JP 2015060579 A JP2015060579 A JP 2015060579A
Authority
JP
Japan
Prior art keywords
information processing
user
processing system
information
head mount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013196199A
Other languages
English (en)
Other versions
JP5877824B2 (ja
Inventor
満 陸口
Mitsuru Rikuguchi
満 陸口
孝文 田村
Takafumi Tamura
孝文 田村
直弘 橘
Naohiro Tachibana
直弘 橘
千惠 菊池
Chie Kikuchi
千惠 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2013196199A priority Critical patent/JP5877824B2/ja
Publication of JP2015060579A publication Critical patent/JP2015060579A/ja
Application granted granted Critical
Publication of JP5877824B2 publication Critical patent/JP5877824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者が意図する処理対象に対応する処理を実行すること。
【解決手段】本願に係る情報処理システム1は、利用者の視界に対応した撮像画像を取得するヘッドマウント装置10と、ヘッドマウント装置10と通信可能な処理サーバ30とを有する。また、情報処理システム1は、撮像画像から、利用者が操作する第1の物体を認識する認識手段を有する。また、情報処理システム1は、画像から、第1の物体が指示する第2の物体を特定して認識する特定手段を有する。また、情報処理システム1は、認識された第2の物体に対応する処理を実行する処理手段を有する。
【選択図】図1

Description

本発明は、情報処理システム、情報処理方法および情報処理プログラムに関する。
従来、利用者が視界内に捉えた光景を主観画像として撮影し、撮影した主観画像を用いて各種処理を実行する技術が知られている。このような技術の一例として、主観画像に含まれる処理対象を自動認識し、認識した処理対象に対応する処理を実行するヘッドマウント装置が知られている。
例えば、このようなヘッドマウント装置は、主観画像内に含まれる単語を自動認識し、識別した単語を利用者の視界内に強調表示する。そして、ヘッドマウント装置は、強調表示された単語のうち、利用者が選択した単語の関連情報を取得し、取得した関連情報を利用者の視界内に表示する。
特開2011−118531号公報 特開2012−173772号公報 特開2013−088906号公報
しかしながら、従来の技術では、利用者の意図を考慮せずに、主観画像内に含まれる処理対象を自動認識し、認識した処理対象に対応する処理を実行するので、利用者が意図しない処理を実行してしまうという問題がある。
本願は、上記に鑑みてなされたものであって、利用者が意図する処理対象に対応する処理を実行することを目的とする。
本願に係る情報処理システムは、利用者の視界に対応した撮像画像を取得する端末装置と、前記端末装置と通信可能な情報処理装置とを有する。また、情報処理システムは、前記撮像画像から、前記利用者が操作する第1の物体を認識する認識手段を有する。また、情報処理システムは、前記撮像画像から、前記第1の物体が指示する第2の物体を特定して認識する特定手段を有する。また、情報処理システムは、前記認識された第2の物体に対応する処理を実行する処理手段を有する。
実施形態の一態様によれば、利用者が意図する処理対象に対応する処理を実行することができる。
図1は、実施形態に係る情報処理システムが発揮する機能の一例を示す説明図である。 図2は、実施形態に係るヘッドマウント装置の機能構成の一例を説明する図である。 図3は、実施形態に係る処理対応テーブルの一例を説明する図である。 図4は、実施形態に係る処理サーバの機能構成の一例を説明する図である。 図5は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第1の図である。 図6は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第2の図である。 図7は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第3の図である。 図8は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第4の図である。 図9は、実施形態に係る情報処理システムが利用者の視界内に出力する情報のバリエーションを説明する第1の図である。 図10は、実施形態に係る情報処理システムが利用者の視界内に出力する情報のバリエーションを説明する第2の図である。 図11は、実施形態に係る情報処理システムが実行する処理の流れを説明するフローチャートである。 図12は、情報処理プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理システム、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理システム、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
[1.情報処理システム]
まず、図1を用いて、実施形態に係る情報処理システムが実行する処理の一例について説明する。図1は、実施形態に係る情報処理システムが発揮する機能の一例を示す説明図である。図1に示す例では、情報処理システム1は、ヘッドマウント装置10、処理サーバ30をネットワークで接続した形態を有する。なお、情報処理システム1は、他にも複数のヘッドマウント装置が含まれるものとする。
ヘッドマウント装置10は、利用者の視界を撮影した撮像画像である主観画像を取得するウェアラブルデバイスである。例えば、ヘッドマウント装置10は、眼鏡型のデバイスである。また、ヘッドマウント装置10は、利用者の視野内に任意の情報を表示することができる。また、ヘッドマウント装置10は、カメラを有しており、主観画像を撮影することができる。また、ヘッドマウント装置10は、ヘッドマウント装置10と、カメラが撮影した主観画像に含まれる各種物体との距離を測定する深度センサを有する。
また、ヘッドマウント装置10は、3G(Generation)、4G、LTE(Long Term Evolution)、GSM(登録商標)(Global System for Mobile Communications)等の無線通信網を介してネットワークに接続することができる。なお、ヘッドマウント装置10は、bluetooth(登録商標)や無線LAN(Local Area Network)等の近距離無線通信を用いて、図示を省略した携帯電話等の端末装置に接続し、接続した端末装置を介してネットワークに接続してもよい。
また、ヘッドマウント装置10は、同様の機能を発揮できる構成であれば、複数の装置を連携させて発揮させてもよい。例えば、ヘッドマウント装置10は、主観画像を撮影する主観画像取得装置と、主観画像取得装置と近距離無線通信を行い、主観画像を処理サーバ30へ送信する端末装置との組み合わせで実現してもよい。なお、かかる端末装置は、ヘッドマウント装置10のように、利用者の視野内に画像を表示する機能を有していなくともよく、任意の情報を表示する画面を有していればよい。
ここで、ヘッドマウント装置10は、以下の処理を実行する。まず、ヘッドマウント装置10は、所定の時間間隔で、主観画像を取得する。また、ヘッドマウント装置10は、深度センサを用いて、主観画像に写る各種物体と、ヘッドマウント装置10との距離、すなわち、主観画像における奥行き方向の距離を測定し、測定した距離を示す深度情報を生成する。
また、ヘッドマウント装置10は、主観画像と深度情報とを用いて、処理の対象である対象物体を利用者が指定する際に用いる指示物体を検出する。例えば、ヘッドマウント装置10は、指示物体として、利用者の指やスタイラス、ペン、鉛筆等の指し棒を画像内から特定する。また、ヘッドマウント装置10は、主観画像から指示物体を検出すると、検出した指示物体が示す領域を特定する。
そして、ヘッドマウント装置10は、特定した領域を表示する図形を、利用者の視界内に出力する。この結果、ヘッドマウント装置10は、利用者に処理対象を直感的に選択させることができる。なお、かかる処理は、継続して行なわれるため、情報処理システム1は、利用者が指示物体を視界内で移動させた際、指示物体が示す領域を表示する図形を、指示物体の動きに追従させる。
ここで、ヘッドマウント装置10は、主観画像に含まれる物体の何れかを、指示物体が指示した場合は、指示された物体を処理対象として特定する。例えば、ヘッドマウント装置10は、指示物体が所定の時間停止した場合には、主観画像のうち、指示物体が示す領域内に含まれる物体の形状、大きさ、色等に基づいて、指示物体が示す領域内に含まれる物体を特定する。そして、処理サーバ30は、特定した物体を処理対象として認識する。
例えば、ヘッドマウント装置10は、指示物体が示す領域内に含まれる物体が、端末装置、情報処理装置、印刷物、紙、植物、動物、食器、雑貨、人物等のいずれであるかを認識する。また、ヘッドマウント装置10は、指示物体が示す領域内に、印刷あるいは立体で形成された文字列が含まれる場合には、指示物体が文字列であると認識する。その後、ヘッドマウント装置10は、認識した処理対象に対応する処理を実行する。
例えば、ヘッドマウント装置10は、認識した処理対象が端末装置等の静物である場合は、処理対象をマウスやキーボード等の入力装置として取り扱う。詳細な例を説明すると、ヘッドマウント装置10は、処理対象が端末装置である場合は、端末装置の位置や、端末装置に触れる利用者の手の甲の位置をトラッキングすることで、端末装置をヘッドマウント装置10のマウスとして取り扱う。
また、例えば、ヘッドマウント装置10は、キーボードが印刷された紙が処理対象である場合は、かかる紙をヘッドマウント装置10のキーボードとして取り扱う。詳細な例を説明すると、ヘッドマウント装置10は、キーボードが印刷された紙のうち、利用者が指を置いた位置に基づいて、利用者が仮想的に押下したキーを特定する。そして、ヘッドマウント装置10は、特定したキーに対応する文字の入力を受け付ける。
また、例えば、ヘッドマウント装置10は、紙やノートが処理対象である場合は、かかる紙やノートをモニタ等の出力装置として取り扱う。詳細な例を説明すると、ヘッドマウント装置10は、主観画像のうち、紙やノートが含まれる領域を検出し、検出した領域にWebブラウザ等のウインドウを重ねて表示する。この際、ヘッドマウント装置10は、紙やノートが主観画像内で移動した場合は、ウインドウの位置を紙やノートの移動に追従させることで、利用者が、モニタを持っているようなUI(User Interface)を提供できる。
また、ヘッドマウント装置10は、認識した処理対象が文字列である場合は、かかる文字列の翻訳を行い、翻訳結果を処理対象に重ねて表示する。詳細には、ヘッドマウント装置10は、文字列を処理サーバ30に送信し、処理サーバ30から処理結果を受信する。そして、ヘッドマウント装置10は、処理対象となる文字列に翻訳文を重ね合わせて表示する。つまり、ヘッドマウント装置10は、利用者が指示した文字列のみを翻訳する。
なお、上述した処理対象に対応する所定の処理は、あくまで一例であり、実施形態は、これに限定されるものではない。すなわち、情報処理システム1は、認識した処理対象にに対応する任意の処理を実行することができる。
また、上述した例では、ヘッドマウント装置10が、主観画像から指示物体の認識、処理対象の特定、認識した処理対象に対応する処理の実行を行なう例について説明したが、実施形態はこれに限定されるものではない。すなわち、本願の各処理は、ヘッドマウント装置10および処理サーバ30のどちらで実施されてもよく、例えば、ヘッドマウント装置10が主観画像を処理サーバ30に送信し、処理サーバ30が指示物体の認識、処理対象の特定および認識、認識した処理対象に対応する処理を実行してもよい。
次に、情報処理システム1が実行する処理の流れについて説明する。なお、以下の例では、情報処理システム1は、利用者の指を指示物体として認識し、利用者が指差した物体を処理対象として特定する例について説明する。まず、図1中(A)に示すように、ヘッドマウント装置10は、利用者の視界を撮影した主観画像を取得する。図1中(A)に示す例では、主観画像には、コーヒーカップ、端末装置、本が含まれる。また、図1中(B)に示すように、主観画像には、ヘッドマウント装置10の利用者の指が含まれている。
また、ヘッドマウント装置10は、図1中(A)に示す主観画像の画像解析を行い、図1中(B)に示すように、指が主観画像に含まれていると判定する。また、ヘッドマウント装置10は、深度情報を用いて、主観画像に含まれている指が、ヘッドマウント装置10を装着した利用者の指であると判定する。このため、ヘッドマウント装置10は、図1中(B)に示す利用者の指が、指示物体であると認識する。
また、ヘッドマウント装置10は、主観画像内において、指示物体である利用者の指が指し示す範囲を特定し、図1中(C)に示すように、特定した領域を示す図形を利用者の視界内に表示する。この結果、利用者は、直感的に処理の対象を指示することができる。例えば、利用者は、端末装置を処理対象として指示したい場合は、図1中(D)に示すように、表示された図形が示す範囲に端末装置が含まれるよう、指を動かせばよい。このように、情報処理システム1は、処理対象を選択するための指標となる図形を利用者の視界内に出力するので、直感的に処理対象を選択させることができる。なお、上述した処理は、繰り返し実行されるため、情報処理システム1は、図1中(B)に示す指が移動した場合は、図1中(C)に示す図形を指の移動に追従して移動させる。
また、ヘッドマウント装置10は、処理対象が端末装置である場合は、端末装置をヘッドマウント装置10の入力装置とする。例えば、ヘッドマウント装置10は、主観画像内における端末装置の位置の変化量を算出し、算出した変化量に基づいて、利用者の視界内に表示するカーソルの位置を変更する。すなわち、情報処理システム1は、指定された端末装置をヘッドマウント装置10のマウスとする。
また、例えば、ヘッドマウント装置10は、処理対象が文字列である場合は、図1中(E)に示すように、文字列を処理サーバ30へ送信する。かかる場合、処理サーバ30は、文字列の翻訳を行い、図1中(F)に示すように、翻訳結果をヘッドマウント装置10へ送信する。その後、ヘッドマウント装置10は、翻訳結果を利用者の視界に出力する。
このように、情報処理システム1は、利用者の主観画像から利用者が処理対象を指示する指示物体を認識し、認識した指示物体が示す処理対象を特定および認識する。そして、情報処理システム1は、認識した処理対象に対応する処理を実行する。このため、情報処理システム1は、利用者が意図する処理対象に対応する処理を実行できる。
また、情報処理システム1は、指示物体が指示する領域を表す図形を利用者の視界内に出力する。このため、情報処理システム1は、利用者に処理対象の選択を促すとともに、選択を補助し、利用者が処理対象として選択したい物体を確実に特定できる。また、情報処理システム1は、利用者による処理対象の選択を直感的にすることができる。
なお、上述した例では、ヘッドマウント装置10が利用者の主観画像から利用者が処理対象を指示する指示物体を認識し、認識した指示物体が示す処理対象を認識し、認識した処理対象に対応する処理を実行する例について説明した。しかしながら、実施形態は、これに限定されるものではない。すなわち、上述した処理は、ヘッドマウント装置10もしくは処理サーバ30のいずれが実行しても良い。
[2.ヘッドマウント装置の機能構成]
次に、図2を用いて、実施形態に係るヘッドマウント装置10の機能構成について説明する。図2は、実施形態に係るヘッドマウント装置の機能構成の一例を説明する図である。図2に示す例では、ヘッドマウント装置10は、カメラ11、深度センサ12、表示部13、通信部14、制御部15、記憶部16を有する。記憶部16は、指示物体データベース17、処理対象データベース18を有する。また、制御部15は、収集部20、認識部21、特定部22、制御部23を有する。
まず、記憶部16が記憶する指示物体データベース17および処理対象データベース18、処理対応テーブル19について説明する。指示物体データベース17は、画像から指示物体を認識するための情報が格納されている。例えば、指示物体データベース17には、画像から利用者の指、スタイラス、ペン等を認識するためのデータが格納されている。なお、かかるデータの具体例としては、画像から特定の色、形状、模様等を認識するための特徴量ベクトル等であり、例えば、利用者が物体を指し示した際の手の形状や色を認識するための特徴量ベクトルである。
処理対象データベース18は、指示物体が指示する物体を特定するための情報が格納されている。例えば、処理対象データベース18には、物体が、端末装置、情報処理装置、印刷物、紙、植物、動物、食器、雑貨、人物等のいずれであるかを特定するための特徴量ベクトル、および、印刷あるいは立体で形成された文字列を判定するためのOCR(Optical Character Recognition)データが格納されている。
処理対応テーブル19は、指示物体が指示する処理対象と、処理対象に対応する処理とが対応付けて格納されている。例えば、図3は、実施形態に係る処理対応テーブルの一例を説明する図である。図3に示すように、処理対象テーブル19には、処理対象と、処理対象に対応する処理の内容とが対応付けて格納されている。
詳細な例を説明すると、図3に示す例では、処理対応テーブル19には、処理対象「端末装置」と対応処理「仮想マウス処理」とが対応付けて格納され、処理対象「ノート」と対応処理「仮想ウインドウ処理」とが対応付けて格納されている。また、処理対応テーブル19には、処理対象「書籍の裏表紙」と対応処理「書籍情報表示処理」とが対応付けて格納され、処理対象「文字列」と対応処理「書籍情報表示処理」とが対応付けて格納されている。処理対応テーブル19には、処理対象「印刷キーボード」と対応処理「仮想キーボード処理」とが対応付けて格納されている。
なお、「仮想マウス処理」とは、対応する処理対象をヘッドマウント装置10の仮想的なマウスとする処理であり、「仮想ウインドウ処理」とは、対応する処理対象とヘッドマウント装置10の仮想的なウインドウ表示装置とする処理である。また、「書籍情報表示処理」とは、対応する処理対象である書籍の各種情報を表示する処理であり、「翻訳処理」とが対応する処理対象である文字列を翻訳する処理である。また、「仮想キーボード処理」とは、対応する処理対象をヘッドマウント装置10の仮想的なキーボードとする処理である。
図2に戻り、説明を続ける。カメラ11は、利用者の視界に対応した撮像画像である主観画像を取得する画像取得装置である。例えば、カメラ11は、利用者の目の横に設置された画像取得装置であり、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサを用いて、ヘッドマウント装置10を装着した利用者の主観画像を取得する。
深度センサ12は、主観画像内の各物体と、ヘッドマウント装置10との距離を測定するためのセンサである。例えば、深度センサ12は、所定の波長の光を出力するLED(Light Emitting Diode)と、LEDが出力した光を受信するCMOS(Complementary Metal Oxide Semiconductor)とを有する。そして、深度センサ12は、利用者の視界を複数の領域に分割し、LEDが光を出力してから、CMOSが反射光を受信するまでの時間を、領域ごとに計測する。そして、深度センサ12は、計測した時間と光の速度とを用いて、利用者の視覚の各領域と、ヘッドマウント装置10との距離、すなわち、主観画像に含まれる各物体の奥行き方向の距離を測定する。
表示部13は、特定部22、制御部23の制御に応じて、利用者の視界内に任意の情報を出力可能な表示装置である。例えば、表示部13は、利用者の視線上に設置された自由曲面プリズムに画像を入力することで、利用者の視界内に情報の表示を行う。ここで、表示部13が出力する情報としては、例えば、指示物体が示す領域を示す図形、文字列、Webブラウザのウインドウ等である。
通信部14は、ヘッドマウント装置10と処理サーバ30との通信を制御する。具体的には、通信部14は、制御部23から受信した各種情報を処理サーバ30に送信し、処理サーバ30から受信した各種情報を制御部23に出力する。
次に、制御部15が実行する処理について説明する。収集部20は、所定の時間間隔で、カメラ11と深度センサ12とを作動させ、カメラ11が取得した主観画像と、深度センサ12が取得した深度情報とを収集する。そして、収集部20は、収集した主観画像と深度情報とを認識部21と制御部23に出力する。なお、収集部20が主観画像と深度情報とを収集する時間間隔は、任意のものを採用できるが、表示部13が各種情報を表示する際のリフレッシュレートと同程度であることが望ましい。
認識部21は、画像から、指示物体を特定する。具体的には、認識部21は、主観画像と深度情報とを受信すると、指示物体データベース17に格納されたデータを用いて、主観画像から指示物体の候補を検出する。また、認識部21は、指示物体の候補が含まれる領域の深度情報を用いて、指示物体の候補とヘッドマウント装置10との距離を取得する。
そして、認識部21は、指示物体の候補とヘッドマウント装置10との距離が所定の閾値に収まる場合は、かかる指示物体の候補を指示物体として認識する。例えば、認識部21は、利用者が物体を指し示した際の手の形状や色を認識するための特徴量ベクトルを用いて検出した指示物体の候補と、ヘッドマウント装置10との距離が30センチメートル以内に収まる場合は、かかる指示物体の候補が、利用者の指であると認識する。その後、認識部21は、主観画像と深度情報と認識した指示物体の位置座標と指示物体の種別を示す情報とを特定部22に出力する。
特定部22は、指示物体が指示する物体を特定し、特定した物体の認識を行なう。例えば、特定部22は、認識部21から、主観画像と深度情報と認識した指示物体の位置座標と指示物体の種別を示す情報とを受信する。かかる場合は、特定部22は、受信した各情報を用いて、主観画像において指示物体が指し示す領域を特定する。例えば、特定部22は、識別した指示物体が利用者の指である場合は、利用者の指の先端を中心とした円形の領域を、指示物体が指し示す領域として特定する。なお、以下の説明では、主観画像のうち指示物体が指し示す領域を指示領域と記載する。
次に、特定部22は、指示領域に含まれる物体とヘッドマウント装置10との距離や、指示領域に含まれる物体が主観画像に占める割合に応じて、指示領域の大きさを変更する。例えば、特定部22は、深度情報を用いて、指示領域に含まれる物体とヘッドマウント装置10との距離を取得し、取得した距離が所定の閾値よりも遠い場合は、指示領域を所定の大きさよりも小さくする。また、特定部22は、指示領域に含まれる物体とヘッドマウント装置10との距離が所定の閾値よりも近い場合は、指示領域を所定の大きさよりも大きくする。
また、特定部22は、指示領域に物体の一部のみが含まれている場合は、かかる物体の大きさと指示領域の大きさとを比較し、指示領域よりも物体が大きい場合は、指示領域をかかる物体よりも大きくする。また、特定部22は、指示領域に複数の物体が含まれる場合は、指示領域の大きさを所定の大きさよりも小さくする。
続いて、特定部22は、処理対象データベース18を用いて、主観画像のうち、指示領域に文字列が含まれているか否かを判定する。ここで、特定部22は、指示領域に文字列が含まれていない場合、すなわち、指示領域に文字列以外の物体が含まれている場合、または、指示領域に何らかの物体が含まれていない場合は、指示領域を囲む円形の図形を利用者の視界に表示させるための図形データと図形を出力する座標とを算出する。一方、特定部22は、指示領域に文字列が含まれる場合は、かかる文字列を囲む四角形の形状に指示領域の形状を変更する。そして、特定部22は、変更後の指示領域を囲む四角形の図形を利用者の視界に表示させるための図形データと図形を表示する座標とを算出する。
その後、特定部22は、算出した図形データと図形を表示する座標とを含む図形表示指示を生成し、生成した図形表示指示を表示部13に出力する。この結果、表示部13は、指示領域を示す図形を利用者の視界に出力する。また表示部13は、指示領域内に含まれる物体に応じて、異なる図形を利用者の視界に出力する。例えば、表示部13は、指示領域内に文字列が含まれる場合は、文字列を囲んだ四角形の図形を出力し、他の場合には、指示領域を示す図形を出力する。
また、特定部22は、指示領域に同一の物体が、所定の時間、連続して含まれた場合は、処理対象データベース18を用いて、かかる物体の画像認識を行なう。例えば、特定部22は、指示領域に含まれる物体が、文字列であるか、端末装置であるか、ノートであるか等、処理対象の認識を行なう。そして、特定部22は、認識した処理対象を制御部23に通知する。なお、特定部22は、処理対象が文字列である場合は、主観画像のうち、かかる文字列が含まれる位置座標を合わせて制御部23に出力する。
制御部23は、認識された処理対象に対応する各種処理を実行する。具体的には、制御部23は、収集部20から主観画像と深度情報とを受信する。また、制御部23は、特定部22から、認識した処理対象の通知を受信する。かかる場合は、制御部23は、受信した処理対象に対応する各種処理を実行する。詳細には、制御部23は、処理対応テーブル19に、受信した処理対象と対応付けて格納された対応処理を特定し、特定した対応処理を実行する。
例えば、制御部23は、処理対象が端末装置である旨の通知を受信した場合は、図3に例示する処理対応テーブル19から、端末装置と対応付けられた対応処理「仮想マウス処理」を特定する。そして、制御部23は、以下の「仮想マウス処理」を実行する。例えば、制御部23は、収集部20から主観画像を受信する度に、主観画像から端末装置、端末装置の一部、または利用者の手の甲が含まれる位置座標を算出する。そして、制御部23は、算出した位置座標の変化量を算出し、算出した変化量に応じて、表示部13に表示するカーソルを移動させる。すなわち、制御部23は、主観画像内に含まれる端末装置を、ヘッドマウント装置10のマウスとする。なお、制御部23は、利用者の指の動きを検出することで、クリック操作やホイール操作等が行なわれたか否かを判定し、クリック操作やホイール操作等が行なわれたと判定した場合は、クリック操作がホイール操作等が行われた際に実行する処理を行ってもよい。
また、制御部23は、処理対象がノートである旨の通知を受信した場合は、図3に例示する処理対応テーブル19から、ノートと対応付けられた対応処理「仮想ウインドウ処理」を特定する。そして、制御部23は、以下の「仮想ウインドウ処理」を実行する。例えば、制御部23は、収集部20から主観画像を受信する度に、主観画像からノートが含まれる領域を特定する。そして、制御部23は、表示部13を制御し、特定した領域にWebブラウザや任意の情報を表示させる。すなわち、制御部23は、利用者の視界に含まれるノートと重ね合わせるように、Webブラウザや任意の情報を表示することで、かかるノートを出力装置とする。また、制御部23は、主観画像を受信する度に、主観画像からノートが含まれる領域を特定するので、利用者がノートを移動させた場合は、Webブラウザや任意の情報をノートと合せて移動させる。この結果、ヘッドマウント装置10は、Webブラウザや任意の情報を表示させるウインドウを、物理的に所持するような操作感を提供することができる。
また、制御部23は、処理対象が書籍の裏表紙である旨の通知を受信した場合は、図3に例示する処理対応テーブル19から、書籍の裏表紙と対応付けられた対応処理「書籍情報表示処理」を特定する。そして、制御部23は、以下の「書籍情報表示処理」を実行する。例えば、制御部23は、主観画像から、かかる書籍のバーコード、ISBN(International Standard Book Number)、タイトル等、書籍情報を取得する。そして、制御部23は、インターネット等を用いて、取得した書籍情報の検索を行い、利用者の視界のうち、書籍の横に検索結果を表示する。また、他の例では、制御部23は、書籍の横に、内容の一部を表示してもよい。
また、制御部23は、処理対象が文字列である場合は、図3に例示する処理対応テーブル19から、文字列と対応付けられた対応処理「翻訳処理」を特定する。そして、制御部23は、以下の「翻訳処理」を実行する。例えば、制御部23は、通信部14を介して、かかる文字列の翻訳依頼を処理サーバ30へ送信する。また、制御部23は、通信部14を介して、処理サーバ30から翻訳文を受信した場合は、利用者の視界のうち、特定部22から通知された位置座標、すなわち、処理対象である文字列が含まれる領域に、受信した翻訳文を表示する。なお、制御部23は、処理対象である文字列が含まれる領域に翻訳文を表示する必要は無く、例えば、処理対象である文字列の情報に翻訳文を表示してもよい。かかる処理を実行することで、ヘッドマウント装置10は、利用者が意図する文字列の翻訳結果のみを表示することができる。
また、例えば、制御部23は、処理対象が紙にキーボードが印刷された印刷キーボードである旨の通知を受信した場合は、図3に例示する処理対応テーブル19から、印刷キーボードと対応付けられた対応処理「仮想キーボード処理」を特定する。そして、制御部23は、以下の「仮想キーボード処理」を実行する。例えば、制御部23は、収集部20から主観画像を受信する度に、主観画像から利用者の指の位置座標と、印刷キーボード上に印刷されたキーの位置座標とを算出する。そして、制御部23は、算出した位置座標に基づいて、印刷されたキーのうち、利用者が指で押下したキーを特定し、特定したキーに割当てられた文字、数字、記号等が入力されたと判定する。
[3.処理サーバ30の機能構成]
次に、図4を用いて、実施形態に係る処理サーバ30の機能構成について説明する。図4は、実施形態に係る処理サーバの機能構成の一例を説明する図である。図4に示す例では、処理サーバ30は、通信部31、制御部32、記憶部33を有する。また、記憶部33は、翻訳データベース34を有する。また、制御部32は、処理部35を有する。
まず、記憶部33が記憶する翻訳データベース34に格納された情報について説明する。翻訳データベース34は、翻訳処理を実行するための情報が格納されており、例えば、英語と日本語とを相互に翻訳するための辞書データが格納されている。
通信部31は、処理サーバ30とヘッドマウント装置10との間の通信を制御する。例えば、ネットワークを介して、ヘッドマウント装置10から翻訳依頼を受信すると、受信した翻訳依頼を処理部35に出力する。また、通信部31は、処理部35から翻訳文を受信すると、ネットワークを介して、ヘッドマウント装置10へ翻訳文を送信する。
処理部35は、処理対象が文字列である際の処理を実行する。例えば、処理部35は、処理対象が文字列である場合は、かかる文字列をヘッドマウント装置10から受信する。かかる場合は、処理部35は、翻訳データベース34を用いて、特定した文字列の翻訳を行なう。そして、処理部35は、通信部31を介して、翻訳文をヘッドマウント装置10に送信する。
なお、上述した実施形態では、処理部35が翻訳を行なう例について記載したが、実施形態は、これに限定されるものではない。例えば、処理部35は、受信した文字列をキーワードとしたインターネット検索、画像検索、関連情報検索等の処理を行い、処理結果をヘッドマウント装置10に表示させてもよい。
[4.ヘッドマウント装置10の表示例]
以下、図5〜図8を用いて、ヘッドマウント装置10が利用者の視界内に出力する情報の一例について説明する。まず、図5を用いて、利用者が処理対象を選択する際に出力される情報、および、利用者が処理対象として端末装置を選択した際に行われる処理の一例について説明する。
図5は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第1の図である。なお、図5に示す例では、ヘッドマウント装置10が取得する主観画像の一例を、太線の枠内に記載した。例えば、情報処理システム1は、図5中(G)に示すように、主観画像から利用者の指を識別する。かかる場合、情報処理システム1は、図5中(H)に示すように、利用者の指が指示する指示領域を点線で囲んだ円形の図形を利用者の視界内に出力する。また、情報処理システム1は、図5中(I)に示すように、利用者の指が移動した場合は、利用者の指に追従するように、指示領域を囲んだ図形を移動させる。
ここで、図5中(J)に示すように、利用者が指を動かして、端末装置を連続して指示領域内に含めた場合は、情報処理システム1は、処理対象が端末装置であると判定する。かかる場合は、図5中(K)に示すように、情報処理システム1は、主観画像から、処理対象である端末装置の主観画像における位置座標を検出する。そして、情報処理システム1は、検出した位置座標を用いて、図5中(L)に示すように、利用者の視界内に表示したカーソルを移動させる仮想マウス処理を実行する。
この結果、情報処理システム1は、利用者が指定した端末装置等の物体をマウス等の入力装置とすることができる。なお、図5に示す例では、カーソルとともにWebブラウザを利用者の視界内に出力する例について記載したが、実施形態はこれに限定されるものではなく、例えば、情報処理システム1は、カーソルを用いて利用者の入力を受け付ける画面を出力してもよい。また、情報処理システム1は、端末装置の動きだけではなく、利用者の手の動きを主観画像から取得し、取得した手の動きに応じて、クリックやカーソルの移動を再現してもよい。
次に、図6を用いて、利用者が処理対象としてノートを選択した際に出力する情報の一例について説明する。図6は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第2の図である。例えば、図6中(M)に示すように、利用者がノートを示した場合は、情報処理システム1は、図6中(N)に示すように、ノートを囲む円形の図形を出力する。そして、情報処理システム1は、所定の時間、指示領域内にノートが含まれた場合は、図6中(O)に示すように、ノート上にWebブラウザのウインドウを重ねて表示する仮想ウインドウ処理を実行する。
かかる場合、情報処理システム1は、利用者がノートを動かした場合は、かかるノートの動きを追従するように、Webブラウザのウインドウを移動させる。この結果、情報処理システム1は、利用者が指定したノート等の物体を、あたかもWebブラウザを表示させるタブレットにすることができる。なお、かかる場合、情報処理システム1は、利用者のジェスチャーを主観画像から取得し、取得したジェスチャーに応じて、表示するWebブラウザを操作してもよい。
次に、図7、図8を用いて、利用者が処理対象として文字列を選択した際に出力する情報の一例について説明する。図7は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第3の図である。例えば、利用者が文字列を示した場合は、情報処理システム1は、図7中(P)に示すように、利用者が示した文字列を囲む四角い図形を利用者の視界に出力する。そして、情報処理システム1は、所定の時間、指示領域内に文字列が含まれた場合は、翻訳処理を実行し、図7中(Q)に示すように、利用者が示した文字列の翻訳文を出力する。
また、図8は、実施形態に係る情報処理システムが利用者の視界内に出力する情報の一例を説明する第4の図である。例えば、利用者が文字列を示した場合は、情報処理システム1は、図8中(R)に示すように、利用者が示した文字列を囲む四角い図形を利用者の視界に出力する。そして、情報処理システム1は、所定の時間、指示領域内に文字列が含まれた場合は、翻訳処理を実行し、図8中(S)に示すように、利用者が示した文字列の翻訳文を作成し、作成した翻訳文を、文字列に重ね合わせるように出力する。
[5.ヘッドマウント装置10が表示する図形のバリエーション]
上述した例では、情報処理システム1は、指示領域を示す図形として、円形または四角形の図形を利用者の視界内に表示した。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理システム1は、主観画像内から指示物体を認識した場合は、利用者の視界を複数の領域に分割し、各領域を示すグリッド状の図形を表示してもよい。また、情報処理システム1は、指示物体が指し示す指示領域がわかるように、指示領域を所定の色で塗りつぶしても良い。
例えば、図9は、実施形態に係る情報処理システムが利用者の視界内に出力する情報のバリエーションを説明する第1の図である。例えば、情報処理システム1は、図9中(T)に示すように、主観画像内から指示物体である利用者の指を認識した場合は、図9中(U)に示すように、利用者の視界内にグリッド状の図形を出力することで、利用者の視界を複数の領域に分割する。また、情報処理システム1は、図9中(V)に示すように、出力したグリッド状の図形のうち、利用者の指が指示する領域を所定の色で塗りつぶした図形を表示する。この結果、情報処理システム1は、利用者がどこを指示しているかを直感的に示すことができる。
また、図10は、実施形態に係る情報処理システムが利用者の視界内に出力する情報のバリエーションを説明する第2の図である。例えば、情報処理システム1は、主観画像内から指示物体である利用者の指を認識した場合は、図10中(W)に示すように、利用者の視界内にグリッド状の図形を出力する。また、情報処理システム1は、図10中(X)に示すように、出力したグリッド状の図形のうち、利用者の指が指示する領域を所定の色で塗りつぶした図形を出力する。
ここで、図10に示す例では、利用者の指が指示する領域に複数の物体、すなわち本と端末装置とが含まれている。かかる場合、情報処理システム1は、図10中(Y)に示すように、利用者の指が指示する領域をさらに小さい領域に分割するグリッド状の図形を表示する。そして、情報処理システム1は、図10中(Z)に示すように、本が含まれる領域を利用者が指し示した場合は、本を処理対象とする各種処理を実行する。
[6.変形例]
上記した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の情報処理システム1の他の実施形態について説明する。
[6−1.処理の主体について]
上述した実施形態では、情報処理システム1は、利用者の主観画像を取得し、取得した主観画像から指示物体を認識し、認識した指示物体が示す処理対象を特定し、認識した処理対象に対応する処理を実行するヘッドマウント装置10を有していた。しかしながら、実施形態は、これに限定されるものではない。例えば、ヘッドマウント装置10が発揮する機能の全て、若しくは一部は、処理サーバ30が発揮しても良い。
例えば、ヘッドマウント装置10の制御部15は、図2に例示した収集部20および制御部23を有する。一方、図4に示す処理サーバ30の制御部32は、図2に示す指示物体データベース17、処理対象データベース18、認識部21、特定部22を有しても良い。かかる場合、ヘッドマウント装置10は、利用者の主観画像を取得し、取得した主観画像を処理サーバ30へ送信する。一方、処理サーバ30は、主観画像から、指示物体の認識と、指示物体が示す処理対象の特定及び認識とを行い、認識した処理対象をヘッドマウント装置10へ送信する。その後、ヘッドマウント装置10は、認識した処理対象に対応する処理を実行する。
すなわち、情報処理システム1は、利用者の主観画像を取得し、取得した主観画像から指示物体を認識し、認識した指示物体が示す処理対象を特定および認識し、認識した処理対象に対応する処理を実行するのであれば、各処理をヘッドマウント装置10と処理サーバ30とのどちらが実行しても良い。例えば、処理サーバ30は、指示領域を示す図形を表示する座標や、各種情報を表示する座標の算出を行い、かかる座標をヘッドマウント装置10に送信してもよい。かかる場合、情報処理システム1は、ヘッドマウント装置10が実行する処理を、主観画像の取得と、各種情報の表示処理のみ削減できる。
[6−2.指示領域を示す図形の表示について]
上述した実施形態では、情報処理システム1は、ヘッドマウント装置10に利用者の視界に指示領域を示す図形を表示させた。しかしながら、実施形態は、これに限定されるものではない。例えば、情報処理システム1は、プロジェクター等の出力装置を用いて、利用者の視界に、指示領域を示す図形を表示させても良い。
[6−3.処理対象に対応する処理について]
上述した実施形態では、処理対象に対応する処理の一例として、処理対象が端末装置である場合は、かかる端末装置をヘッドマウント装置10のマウスとし、処理対象がノートである場合は、かかるノートをヘッドマウント装置10の出力装置とし、処理対象が文字列である場合は、かかる文字列の翻訳結果を利用者の視界内に出力した。しかしながら、実施形態は、これに限定されるものではなく、情報処理システム1は、処理対象に対応する任意の処理を実行することができる。
例えば、情報処理システム1は、認識した処理対象が端末装置である場合は、かかる端末装置の型番を取得し、インターネット上の検索システム等を用いて、かかる型番の検索を行い、検索結果を利用者の視界に出力してもよい。また、情報処理システム1は、認識した処理対象のマニュアル、価格情報、口コミ等の評価情報等をインターネット上から収集し、収集した情報を利用者の視界に出力してもよい。また、情報処理システム1は認識した処理対象が文字列である場合は、インターネットを用いて、かかる文字列をキーワードとした検索を行い、検索結果を利用者の視界に出力してもよい。また、情報処理システム1は、顔認証用のデータベースを備え、処理対象が人物の顔である場合には、かかる人物の顔認証を行い、認証結果としてかかる人物の名称等を利用者の視界内に出力してもよい。
すなわち、情報処理システム1は、利用者が用いる指示物体を認識し、認識した指示物体が示す処理対象を特定することができるのであれば、認識した処理対象に対応する任意の処理を実行することができる。なお、情報処理システム1は、例えば、指示物体が示す処理対象をマウス等の入力装置として利用する場合等、処理の実行に処理対象の種別を特定する必要が無い場合は、指示物体が示す処理対象が具体的にどのような物体であるかまでは認識せずとも良い。
[6−4.処理対象の候補について]
上述した情報処理システム1は、指示領域を示す図形を利用者の視界に表示することで、処理対象の選択を直感的に行わせることができた。しかしながら、実施例は、これに限定されるものではない。例えば、情報処理システム1は、主観画像から、処理対象の候補となる物体である認識物体を抽出し、抽出した認識物体を囲む図形を表示したり、抽出した認識物体と重ね合わせるように所定の画像を表示することで、利用者の視界内で処理対象の候補を強調表示する。また、情報処理システム1は、処理対象の候補となる認識物体が文字列である場合は、かかる文字列をWebブラウザのリンク表示のように、強調表示する。そして、情報処理システム1は、強調表示させた認識物体のうち、利用者の指示物体が指示する認識物体を処理対象として認識し、認識した処理対象に対応する各種処理を実行してもよい。
[6−5.その他]
上記したヘッドマウント装置10および処理サーバ30が発揮する機能は、いわゆるクラウドの機能を用いて、複数のサーバ装置によって実現されることとしてもよい。例えば、収集部20、認識部21、特定部22、制御部23、処理部35が発揮する機能は、それぞれ異なるサーバ装置によって実現されても良い。また、指示物体データベース17、処理対象データベース18、翻訳データベース34は、それぞれ異なるサーバ装置が記憶しても良い。また、収集部20、認識部21、特定部22、制御部23、処理部35が発揮する機能は、任意の態様で結合、分離が可能である。また、ヘッドマウント装置10は、利用者の主観画像を取得する機能、および、利用者の視界に各種情報を表示できる装置であれば、任意の装置を適用することができる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。また、例えば、各図に示したアプリケーションのUI(User Interface)は、これに限定されるものではない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
[7.情報処理システム1が実行する処理の流れ]
次に、図11を用いて、情報処理システム1が実行する処理の流れの一例について説明する。図11は、実施形態に係る情報処理システムが実行する処理の流れを説明するフローチャートである。なお、図11に示す例では、利用者の指を指示物体として認識する例について記載した。
まず、情報処理システム1は、主観画像を取得し、取得した主観画像から利用者の指を認識したか否かを判定する(ステップS101)。そして、情報処理システム1は、主観画像から利用者の指を認識した場合は(ステップS101:Yes)、利用者の指が指示する処理対象の候補、すなわち、指示領域に含まれる物体が文字であるか否かを判定する(ステップS102)。
また、情報処理システム1は、処理対象の候補が文字ではない場合は(ステップS102:No)、静物用の画像、例えば指示領域を囲む円形の画像を表示する(ステップS103)。一方、情報処理システム1は、処理対象の候補が文字である場合は(ステップS102:Yes)、文字用の画像、例えば処理対象の候補となる文字列を囲む四角形の画像を表示する(ステップS104)。
次に、情報処理システム1は、利用者の指が動いたか否かを判定する(ステップS105)。そして、情報処理システム1は、利用者の指が動いた場合は(ステップS105:Yes)、ステップS103またはステップS104にて表示した画像を指の動きに追従させる(ステップS106)。
続いて、情報処理システム1は、利用者の指が止まってから所定の時間が経過したか否かを判定する(ステップS107)。そして、情報処理システム1は、利用者の指が止まってから所定の時間が経過した場合は(ステップS107:Yes)、指示領域に含まれる物体、すなわち、処理対象を特定する(ステップS108)。次に、情報処理システム1は、特定された処理対象が文字であるか否かを判定し(ステップS109)、処理対象が文字ではない場合は(ステップS109:No)、処理対象に対応する処理を実行して(ステップS110)、処理を終了する。一方、情報処理システム1は、特定された処理対象が文字である場合は(ステップS109:Yes)、翻訳結果を表示し(ステップS111)、処理を終了する。
なお、情報処理システム1は、主観画像から利用者の指を認識しなかった場合は(ステップS101:No)、次に取得された主観画像から利用者の指を認識したか判定する(ステップS101)。また、情報処理システム1は、利用者の指が動いていない場合は(ステップS105:No)、ステップS106の実行をスキップする。また、情報処理システム1は、利用者の指が止まってから所定の時間が経過していない場合は(ステップS107:No)、ステップS102を実行する。
[8.効果]
上述したように、情報処理システム1は、主観画像を取得するヘッドマウント装置10と、ヘッドマウント装置10と通信可能な処理サーバ30とを有する。また、情報処理システム1は、ヘッドマウント装置10が取得した主観画像から、利用者が操作する指示物体を認識する。また、情報処理システム1は、認識した指示物体が指示する処理対象を特定および認識する。そして、情報処理システム1は、認識した処理対象に対応する処理を実行する。このため、情報処理システム1は、利用者が意図する処理対象に対応する処理を実行することができる。この結果、例えば、情報処理システム1は、利用者が意図しない処理の実行を削減するとともに、不要な情報の表示を防止できる。
また、情報処理システム1は、指示物体により指示される領域を示す図形を利用者の視界内に表示する。そして、情報処理システム1は、かかる領域に含まれる物体を処理対象として認識する。このため、情報処理システム1は、利用者に対し、選択される処理対象を直感的に示すことができる。また、情報処理システム1は、利用者が処理対象として選択しようとする物体の認識を補助する結果、利用者が選択しようとする処理対象を正確に認識することができる。
また、情報処理システム1は、指示領域に含まれる物体に応じて、指示領域を示す図形の形状を変更する。例えば、情報処理システム1は、指示領域に端末装置等の静物が含まれる場合は、円形の図形を出力し、指示領域に文字列が含まれる場合は、四角形の図形を出力する。また、情報処理システム1は、指示領域に含まれる物体の大きさやヘッドマウント装置10との距離等に応じて、表示する図形の大きさを変更する。このため、情報処理システム1は、利用者に対し、選択される処理対象を直感的に示すことができる。
また、情報処理システム1は、指示領域に複数の物体が含まれる場合は、表示中の図形をより小さい図形に変更する。このため、情報処理システム1は、複数の物体が狭い領域に配置されている場合にも、利用者が処理対象として選択しようとする物体を正確に特定することができる。
また、情報処理システム1は、利用者の視界内に含まれる認識物体を強調表示し、強調表示された物体の中から利用者が選択した物体を処理対象として認識する。このため、情報処理システム1は、利用者による処理対象の選択を容易にすることができる。
また、情報処理システム1は、処理対象に文字列が含まれる場合は、かかる文字列の翻訳、または、かかる文字列をキーワードとした検索処理を実行する。このため、情報処理システム1は、利用者が指定する文字列の情報を利用者に提供することができる。
また、情報処理システム1は、処理対象が端末装置等の所定の物体である場合は、かかる物体をヘッドマウント装置10に対する操作を受け付ける入力装置とする。このため、情報処理システム1は、マウス等の入力装置を有さないヘッドマウント装置10に対する操作を容易にすることができる。
また、情報処理システム1は、処理対象がノート等所定の物体である場合は、かかる物体に所定の画面を重ね合わせて出力する。このため、例えば、情報処理システム1は、ノート等の任意の物体を、仮想的なタブレットとして利用者に提供することができる。すなわち、情報処理システム1は、任意の物体をヘッドマウント装置10の出力装置とすることができる。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、収集手段は、収集部や収集回路に読み替えることができる。
[9.プログラム]
なお、上述した実施形態におけるヘッドマウント装置10は、例えば図12に示すような構成のコンピュータ70が情報処理プログラムを実行することによって実現される。図12は、情報処理プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。コンピュータ70は、CPU(Central Processing Unit)71、RAM(Random Access Memory)72、ROM(Read Only Memory)73、HDD(Hard Disk Drive)74、通信インターフェイス(I/F)75、入出力インターフェイス(I/F)76、およびメディアインターフェイス(I/F)77を備える。
CPU71は、ROM73またはHDD74に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM73は、コンピュータ70の起動時にCPU71によって実行されるブートプログラムや、コンピュータ70のハードウェアに依存するプログラム等を格納する。
HDD74は、CPU71によって実行される情報処理プログラム、および、情報処理プログラムによって使用されるデータ等を格納する。例えば、HDD74は、図2に記載した指示物体データベース17、処理対象データベース18等と同様のデータを記憶する。通信インターフェイス75は、ネットワーク2を介して他の機器からデータを受信してCPU71へ送り、CPU71が生成したデータを、ネットワーク2を介して他の機器へ送信する。
CPU71は、入出力インターフェイス76を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU71は、入出力インターフェイス76を介して、入力装置からデータを取得する。また、CPU71は、生成したデータを、入出力インターフェイス76を介して出力装置へ出力する。
メディアインターフェイス77は、記録媒体78に格納されたプログラムまたはデータを読み取り、RAM72を介してCPU71に提供する。CPU71は、当該プログラムを、メディアインターフェイス77を介して記録媒体78からRAM72上にロードし、ロードしたプログラムを実行する。記録媒体78は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
コンピュータ70が上述した実施形態に係るヘッドマウント装置10として機能する場合、コンピュータ70のCPU71は、RAM72上にロードされたプログラムを実行することにより、収集部20、認識部21、特定部22、制御部23の各機能を実現する。
コンピュータ70のCPU71は、情報処理プログラムを、記録媒体78から読み取って実行するが、他の例として、他の装置から、ネットワーク2を介してこれらのプログラムを取得してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
1 情報処理システム
10 ヘッドマウント装置
11 カメラ
12 深度センサ
13 表示部
14、31 通信部
15、32 制御部
16、33 記憶部
17 指示物体データベース
18 処理対象データベース
19 収集部
20 認識部
21 特定部
22 制御部
30 処理サーバ
34 翻訳データベース
35 処理部

Claims (10)

  1. 利用者の視界に対応した撮像画像を取得する端末装置と、前記端末装置と通信可能な情報処理装置とを有する情報処理システムであって、
    前記撮像画像から、前記利用者が操作する第1の物体を認識する認識手段と、
    前記撮像画像から、前記第1の物体が指示する第2の物体を特定して認識する特定手段と、
    前記認識された第2の物体に対応する処理を実行する処理手段と
    を有することを特徴とする情報処理システム。
  2. 前記撮像画像のうち、前記第1の物体により指示される領域を表す図形を出力する出力手段を備え、
    前記特定手段は、前記撮像画像のうち、前記図形が表す領域に含まれる物体を第2の物体として特定することを特徴とする請求項1に記載の情報処理システム。
  3. 前記出力手段は、前記図形が示す領域に含まれる物体に応じて、出力する図形の形状を変更することを特徴とする請求項2に記載の情報処理システム。
  4. 前記出力手段は、前記図形が示す領域に複数の物体が含まれる場合は、当該図形が示す領域よりも狭い領域を表す新たな図形を出力することを特徴とする請求項2または3に記載の情報処理システム。
  5. 前記撮像画像に含まれる認識物体を強調して出力する出力手段を備え、
    前記特定手段は、前記出力手段が強調して出力した認識物体のうち、前記第1の物体が指示する認識物体を前記第2の物体として特定することを特徴とする請求項1〜4のいずれか1つに記載の情報処理システム。
  6. 前記処理手段は、前記第2の物体が文字を含む場合は、当該文字を認識し、翻訳処理、または、当該文字をキーワードとした検索処理を実行することを特徴とする請求項1〜5のいずれか1つに記載の情報処理システム。
  7. 前記処理手段は、前記第2の物体が所定の物体である場合は、前記第2の物体を前記端末装置の操作を受け付ける入力装置とすることを特徴とする請求項1〜6のいずれか1つに記載の情報処理システム。
  8. 前記処理手段は、前記第2の物体が所定の物体である場合は、前記利用者の視界内に、所定の画面を前記第2の物体と重ね合わせて出力させることを特徴とする請求項1〜7のいずれか1つに記載の情報処理システム。
  9. 利用者の視界に対応した撮像画像を取得する端末装置と、前記端末装置と通信可能な情報処理装置とを有する情報処理システムが、
    前記撮像画像から、前記利用者が操作する第1の物体を認識する認識工程と、
    前記撮像画像から、前記第1の物体が指示する第2の物体を特定する特定工程と、
    前記認識された第2の物体に対応する処理を実行する処理工程と
    を実行することを特徴とする情報処理方法。
  10. 利用者の視界に対応した撮像画像から、前記利用者が操作する第1の物体を認識する認識手順と、
    前記撮像画像から、前記第1の物体が指示する第2の物体を特定し認識する特定手順と、
    前記認識された第2の物体に対応する処理を実行する処理手順と
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2013196199A 2013-09-20 2013-09-20 情報処理システム、情報処理方法および情報処理プログラム Active JP5877824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013196199A JP5877824B2 (ja) 2013-09-20 2013-09-20 情報処理システム、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013196199A JP5877824B2 (ja) 2013-09-20 2013-09-20 情報処理システム、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2015060579A true JP2015060579A (ja) 2015-03-30
JP5877824B2 JP5877824B2 (ja) 2016-03-08

Family

ID=52817999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013196199A Active JP5877824B2 (ja) 2013-09-20 2013-09-20 情報処理システム、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP5877824B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059062A (ja) * 2015-09-17 2017-03-23 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2017084335A (ja) * 2015-08-31 2017-05-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
JP2017102499A (ja) * 2015-11-30 2017-06-08 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
WO2019230155A1 (ja) * 2018-05-31 2019-12-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020158042A1 (ja) * 2019-01-30 2020-08-06 株式会社Nttドコモ 機能制御装置
WO2021029164A1 (ja) * 2019-08-09 2021-02-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2021166973A1 (ja) * 2020-02-19 2021-08-26 ファナック株式会社 産業機械の操作システム
JP6980150B1 (ja) * 2020-11-06 2021-12-15 株式会社メタリアル 3次元仮想現実空間提供サーバ、3次元仮想現実空間提供方法、3次元仮想現実空間提供プログラム、3次元仮想現実空間表示制御装置、3次元仮想現実空間表示制御方法、3次元仮想現実空間表示制御プログラムおよび3次元仮想現実空間提供システム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (ja) * 2000-06-13 2001-12-26 Toshiba Corp ポインタ表示システム
JP2009527041A (ja) * 2006-02-16 2009-07-23 エフティーケー テクノロジーズ エルティーディー. コンピューティングシステムにデータを入力するシステム及び方法
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
JP2011118531A (ja) * 2009-12-01 2011-06-16 Brother Industries Ltd ヘッドマウントディスプレイ
JP2013054661A (ja) * 2011-09-06 2013-03-21 Nec Biglobe Ltd 情報表示システム、情報表示方法、及び情報表示用プログラム
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP2013085200A (ja) * 2011-10-12 2013-05-09 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2013186641A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2014531662A (ja) * 2011-09-19 2014-11-27 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (ja) * 2000-06-13 2001-12-26 Toshiba Corp ポインタ表示システム
JP2009527041A (ja) * 2006-02-16 2009-07-23 エフティーケー テクノロジーズ エルティーディー. コンピューティングシステムにデータを入力するシステム及び方法
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
JP2011118531A (ja) * 2009-12-01 2011-06-16 Brother Industries Ltd ヘッドマウントディスプレイ
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2013054661A (ja) * 2011-09-06 2013-03-21 Nec Biglobe Ltd 情報表示システム、情報表示方法、及び情報表示用プログラム
JP2014531662A (ja) * 2011-09-19 2014-11-27 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
WO2013049248A2 (en) * 2011-09-26 2013-04-04 Osterhout Group, Inc. Video display modification based on sensor input for a see-through near-to-eye display
JP2013085200A (ja) * 2011-10-12 2013-05-09 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2013186641A (ja) * 2012-03-07 2013-09-19 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084335A (ja) * 2015-08-31 2017-05-18 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
JP2017059062A (ja) * 2015-09-17 2017-03-23 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2017102499A (ja) * 2015-11-30 2017-06-08 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
US11307670B2 (en) 2018-05-31 2022-04-19 Sony Corporation Information processing apparatus, information processing method, and program
WO2019230155A1 (ja) * 2018-05-31 2019-12-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020158042A1 (ja) * 2019-01-30 2020-08-06 株式会社Nttドコモ 機能制御装置
JPWO2020158042A1 (ja) * 2019-01-30 2021-10-21 株式会社Nttドコモ 機能制御装置
JP7097464B2 (ja) 2019-01-30 2022-07-07 株式会社Nttドコモ 機能制御装置
WO2021029164A1 (ja) * 2019-08-09 2021-02-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2021166973A1 (ja) * 2020-02-19 2021-08-26 ファナック株式会社 産業機械の操作システム
JP7425178B2 (ja) 2020-02-19 2024-01-30 ファナック株式会社 産業機械の操作システム
US11989841B2 (en) 2020-02-19 2024-05-21 Fanuc Corporation Operation system for industrial machinery
JP6980150B1 (ja) * 2020-11-06 2021-12-15 株式会社メタリアル 3次元仮想現実空間提供サーバ、3次元仮想現実空間提供方法、3次元仮想現実空間提供プログラム、3次元仮想現実空間表示制御装置、3次元仮想現実空間表示制御方法、3次元仮想現実空間表示制御プログラムおよび3次元仮想現実空間提供システム
WO2022097249A1 (ja) * 2020-11-06 2022-05-12 株式会社ロゼッタ 3次元仮想現実空間提供サーバ、3次元仮想現実空間提供方法、3次元仮想現実空間提供プログラム、3次元仮想現実空間表示制御装置、3次元仮想現実空間表示制御方法、3次元仮想現実空間表示制御プログラムおよび3次元仮想現実空間提供システム

Also Published As

Publication number Publication date
JP5877824B2 (ja) 2016-03-08

Similar Documents

Publication Publication Date Title
JP5877824B2 (ja) 情報処理システム、情報処理方法および情報処理プログラム
US11997427B2 (en) Position-based visual interpretation of device interfaces
US11927986B2 (en) Integrated computational interface device with holder for wearable extended reality appliance
KR102173123B1 (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
US10540068B2 (en) Method of processing content and electronic device thereof
RU2654145C2 (ru) Способ и устройство поиска информации и компьютерно-читаемый носитель записи для этого
EP2733629B1 (en) System for associating tag information with images supporting image feature search
CN104685462B (zh) 用于图像辨识的自适应阈值处理
US20170255838A1 (en) Information processing apparatus, control method, and storage medium
CN109189879B (zh) 电子书籍显示方法及装置
EP2945043A1 (en) Eyewear-type terminal and method of controlling the same
CN112738408A (zh) 图像修改器的选择性识别和排序
JP5270027B1 (ja) 情報処理装置および手書き文書検索方法
CN102906671A (zh) 手势输入装置及手势输入方法
KR20150025452A (ko) 데이터 처리 방법 및 그 전자 장치
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
KR20130088104A (ko) 비접촉 방식의 인터페이스를 제공하기 위한 휴대 장치 및 방법
CN106610781B (zh) 一种智能穿戴设备
JP5925957B2 (ja) 電子機器および手書きデータ処理方法
CN103577094A (zh) 电子设备和方法
US11361148B2 (en) Electronic device sharing content with an external device and method for sharing content thereof
KR20230156171A (ko) 동적으로 구성 가능한 소셜 미디어 플랫폼
WO2019136152A1 (en) Tag distribution visualization system
CN113079390A (zh) 处理和格式化视频用于交互式呈现
KR20150020383A (ko) 전자 장치 및 전자 장치의 검색 및 표시방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160126

R150 Certificate of patent or registration of utility model

Ref document number: 5877824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250