JP2019117994A - 情報処理装置、情報処理方法および情報処理システム - Google Patents

情報処理装置、情報処理方法および情報処理システム Download PDF

Info

Publication number
JP2019117994A
JP2019117994A JP2017250390A JP2017250390A JP2019117994A JP 2019117994 A JP2019117994 A JP 2019117994A JP 2017250390 A JP2017250390 A JP 2017250390A JP 2017250390 A JP2017250390 A JP 2017250390A JP 2019117994 A JP2019117994 A JP 2019117994A
Authority
JP
Japan
Prior art keywords
input
information processing
imaging
user
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017250390A
Other languages
English (en)
Inventor
拓也 池田
Takuya Ikeda
拓也 池田
健太郎 井田
Kentaro Ida
健太郎 井田
佑理 日下部
Yuri Kusakabe
佑理 日下部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017250390A priority Critical patent/JP2019117994A/ja
Priority to CN201880075750.1A priority patent/CN111373732A/zh
Priority to PCT/JP2018/038249 priority patent/WO2019130729A1/ja
Priority to US16/765,804 priority patent/US11501459B2/en
Priority to EP18893651.2A priority patent/EP3734960A4/en
Publication of JP2019117994A publication Critical patent/JP2019117994A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】入力に関連するオブジェクトがより高精度にセンシングされる技術が提供されることが望まれる。【解決手段】第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定する判定部と、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法および情報処理システムに関する。
近年、映像によって監視対象に関する情報を収集する技術が開示されている。例えば、監視領域を撮影する俯瞰カメラからの映像に基づいて監視対象の位置情報を検出し、俯瞰カメラが撮影する領域よりも狭い領域を注視して撮影する注視カメラの映像から監視対象の特徴を表すイベント情報を検出し、位置情報とイベント情報から追跡情報を得て、位置情報、イベント情報および追跡情報を用いて注視カメラによる注視対象を切り替える技術が開示されている(例えば、特許文献1参照)。
特開2013−168757号公報
しかし、ユーザによる入力が行われる場合がある。かかる場合、ユーザによる入力に関連するオブジェクトが監視対象となり得る。このとき、入力に関連するオブジェクトがより高精度にセンシングされる技術が提供されることが望まれる。
本開示によれば、第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定する判定部と、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、を備える、情報処理装置が提供される。
本開示によれば、第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定することと、プロセッサにより、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定することと、を含む、情報処理方法が提供される。
本開示によれば、第1の撮像装置と情報処理装置とを有する情報処理システムであって、前記第1の撮像装置は、撮像画像を撮像し、前記情報処理装置は、前記撮像画像に基づいて、ユー力状態を判定する判定部と、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、を備える、情報処理システムが提供される。
以上説明したように本開示によれば、入力に関連するオブジェクトがより高精度にセンシングされる技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの基本的な動作の例を説明するための図である。 俯瞰センサによって撮像された撮像画像の例を示す図である。 ホーミングセンサによって撮像された入力画像の例を示す図である。 本開示の実施形態に係る情報処理システムの概略構成図である。 本開示の実施形態に係る情報処理システムの機能構成例を示す図である。 本開示の実施形態に係る情報処理システムの基本的な処理を示すフローチャートである。 本開示の実施形態に係る情報処理システムの基本的な処理の変形例を示すフローチャートである。 ユーザによる入力手法を特定する処理の例を示すフローチャートである。 入力装置の使用状況を示すデータの例を示す図である。 ホーミングセンサを決定する処理の例を示すフローチャートである。 評価項目ごとの評価値範囲および重み係数の例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 評価項目の具体例を示す図である。 センシング方式が2D認識である場合における入力座標の検出を説明するための図である。 センシング方式が3D認識である場合における入力座標の検出を説明するための図である。 使用環境の第1の応用例を説明するための図である。 使用環境の第2の応用例を説明するための図である。 使用環境の第3の応用例を説明するための図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、同一または類似する機能構成を有する複数の構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、同一または類似する機能構成を有する複数の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.実施形態の詳細
1.1.システム構成例
1.2.基本的な処理の流れ
1.2.1.入力手法の特定
1.2.2.ホーミングセンサの決定
1.2.3.ホーミングセンサ駆動
1.2.4.入力座標検出
1.2.5.ユーザ入力終了
1.3.発展例
1.4.ハードウェア構成例
2.むすび
<0.概要>
近年、プロジェクタの小型化が進み、会議室や個人の部屋などにプロジェクタが持ち込まれて利用されるケースも少なくない。また、近年の研究では、プロジェクタによって投影されたUI(User Interface)をユーザが操作するといったインタラクティブなプロジェクタの活用方法が提案されている。これらの研究では、室内環境において任意の場所に対する操作体(例えば、手、指など)による入力に対するセンシングが行われ得る。このようなユースケースでは、センシング精度がユーザの入力体験に大きく影響を与え得る。したがって、本開示の実施形態に係る情報処理システムは、このようなユースケースにおいてユーザによる入力に対するセンシング精度を向上させることが可能である。
図1は、本開示の実施形態に係る情報処理システムの基本的な動作の例を説明するための図である。図1を参照すると、複数のスクリーンSc(スクリーンSc−A、スクリーンSc−B、スクリーンSc−C)が示されている。これらのスクリーンScには、プロジェクタ420から映像が投影されることが想定されている。しかし、プロジェクタ420の代わりに他の表示装置が利用される場合には、スクリーンScの代わりに他の表示面が用いられてもよい。
図1に示した例では、壁面および床面がスクリーンScとして用いられる場合を示している。しかし、壁面および床面以外の表示面がスクリーンScとして用いられてもよい。例えば、表示面は、後にも説明するようにテーブル面などであってもよいし、事前に登録された一般的な物体であってもよい。また、表示面は、平面であってもよいし、曲面であってもよい。また、スクリーンScは、操作体によって指し示されるポインティング面の例である。ポインティングは、スクリーンScに対する操作体の接触によって可能であってもよいし、スクリーンScに対する操作体の非接触によって可能であってもよい。
図1には、操作体の例として入力装置200が示されている。特に、図1には、入力装置200の例として、ペン型の入力装置が用いられる場合が示されている。しかし、入力装置200としては、ペン型の入力装置の代わりに、他の入力装置が用いられてもよい。また、操作体としては、入力装置200の代わりに入力装置200以外の他の操作体(例えば、ユーザの手、指など)が用いられてよい。本開示の実施形態においては、操作体として、ユーザの手または指(以下、ユーザの「手指」と言う場合がある。)または入力装置200が用いられる場合を主に想定する。
図1を参照すると、俯瞰センサ320およびホーミングセンサ310が設けられている。図1に示されるように、ホーミングセンサ310は、回転可能に構成されている。なお、本開示の実施形態においては、出力装置400がホーミングセンサ310と一体として構成されている場合を主に想定する。しかし、出力装置400はホーミングセンサ310と別体として構成されていてもよい。
図2は、俯瞰センサ320によって撮像された撮像画像の例を示す図である。図2を参照すると、俯瞰センサ320によって撮像された撮像画像の例としての俯瞰センサ画像G10が示されている。俯瞰センサ画像G10は、想定される環境(例えば、室内環境)において、壁面、床面などを含んだ環境全体が俯瞰されるように撮像されている。また、図2を参照すると、スクリーンSc−A、スクリーンSc−B、スクリーンSc−D、スクリーンSc−Eには、壁面が利用され、スクリーンSc−C、スクリーンSc−Gには、床面が利用され、スクリーンSc−Fには、テーブル面が利用されている。図2に示された例では、複数のスクリーンSc同士が離れて存在するが、複数のスクリーンSc同士が連続していてもよい。
図3は、ホーミングセンサ330によって撮像された入力画像の例を示す図である。図3を参照すると、ホーミングセンサ310によって撮像された入力画像の例としてのホーミングセンサ画像g10が示されている。図3を参照すると、図2に示された俯瞰センサ画像G10と比較して、ホーミングセンサ画像g10には、スクリーンSc−Aと入力装置200とが広範囲に写っている。すなわち、ホーミングセンサ310の画角は、俯瞰センサ320の画角と比較して狭くなっている。あるいは、ホーミングセンサ310の解像度が、俯瞰センサ320の解像度と比較して高くなっていてもよい。
したがって、俯瞰センサ320は、入力装置200によってどのスクリーンScに対してポインティングがなされているか(あるいは、ポインティングがなされようとしているか)を判定するための撮像画像を提供するのに適している。一方、ホーミングセンサ310は、入力装置200によってポインティングがなされている(あるいは、ポインティングがなされようとしている)スクリーンSc(図1に示された例では、スクリーンSc−A)を撮像することによって高精度に入力装置200によるポインティング座標を検出するための入力画像を提供するのに適している。
なお、図1に示された例では、俯瞰センサ320は1台であり、ホーミングセンサ310は1台である。しかし、後にも説明するように、俯瞰センサ320は複数台であってもよいし、ホーミングセンサ310は複数台であってもよい。なお、俯瞰センサ320は、撮像画像を撮像する第1の撮像装置の一例に過ぎないため、俯瞰センサ320の代わりに他の撮像装置が利用されてもよい。同様に、ホーミングセンサ310は、入力画像を撮像する第2の撮像装置の一例に過ぎないため、ホーミングセンサ310の代わりに他の撮像装置が利用されてもよい。
入力装置200は、ユーザによって先端がスクリーンSc(図1に示された例では、スクリーンSc−A)に接触されると、先端がスクリーンScから受ける圧力によって入力装置200のスイッチが押されることによって、IR LED(infrared Light Emitting Diode)がIRを発光するように構成されている。そのため、入力装置200によって発光されたIRの輝点が俯瞰センサ320によって検出されると(S11)、IRの輝点の位置に基づいて、スクリーンSc−Aに対して入力装置200によってポインティングがなされている(あるいは、ポインティングがなされようとしている)ことが検出され、ホーミングセンサ310に対して、スクリーンSc−Aを向くように指示が出される(S12)。
ホーミングセンサ310は、指示に従ってスクリーンSc−Aを向き、入力装置200によって発光されたIRの輝点を検出することによって、高精度に入力装置200によるポインティング座標を検出する。ポインティング座標が高精度に検出されると、プロジェクタ420によって、ポインティング座標に対して先端の軌跡が投影される(S13)。なお、プロジェクタ420によって投影される軌跡は、プロジェクタ420によって投影される第1の映像の一例に過ぎないため、プロジェクタ420によって軌跡以外の他の映像が投影されてもよい。
以上に説明したように、本開示の実施形態に係る情報処理システムの基本的な動作によって、ユーザによる入力に対するセンシング精度を向上させることが可能である。
<1.実施形態の詳細>
[1.1.システム構成例]
続いて、図4および図5を参照しながら本開示の実施形態に係る情報処理システム1の構成例について説明する。図4は、本開示の実施形態に係る情報処理システム1の概略構成図である。図4に示されるように、情報処理システム1は、情報処理装置100、入力装置200、ホーミングセンサ310−1、310−2、俯瞰センサ320を備える。
ホーミングセンサ310−1、310−2それぞれは、プロジェクタ420と一体に構成されている。ここで、ホーミングセンサ310の数は、限定されず、1または複数であればよい。図4に示される例では、ユーザU10は、操作体の例としての入力装置200を用いてスクリーンSc−Aをポインティングしようとしている。一方、ユーザU20は、操作体の例としての指を用いてスクリーンSc−Fを用いてポインティングしようとしている。
例えば、情報処理装置100は、俯瞰センサ320による撮像画像に基づいて、ユーザU10による入力に対して高精度なセンシングが可能なホーミングセンサ310を選択する。そして、情報処理装置100は、選択したホーミングセンサ310によってユーザU10による入力に対するセンシングを開始する。このとき、ホーミングセンサ310は、ユーザU10による入力に対してセンシング可能となるまで回転可能であってよい。スクリーンSc−Fによる入力に対するセンシングも同様に開始されてよい。
図5は、本開示の実施形態に係る情報処理システム1の機能構成例を示す図である。図1に示したように、情報処理システム1は、情報処理装置100と、入力装置200と、ホーミングセンサ310−1〜310−n(nは自然数)と、俯瞰センサ320と、出力装置400とを備える。
情報処理装置100は、I/F部110を備える。また、情報処理装置100は、環境認識部121、入力手法識別部122、ユーザ認識部123、入力精度解析部124、ジェスチャ認識部125、入力装置認識部126、ホーミングセンサ制御部131および入力制御部132といった制御部を有する。
このうち、ユーザ認識部123および入力精度解析部124は、俯瞰センサ320の撮像画像に基づいて、ユーザの入力状態を判定する判定部として機能し得る。また、ホーミングセンサ制御部131は、ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と入力状態とに基づいて、俯瞰センサ320とは異なるホーミングセンサ310によって入力画像が撮像される撮像位置を決定するセンサ制御部として機能し得る。入力制御部132は、入力画像に関する処理を行う機能を有する。かかる構成によれば、入力に関連するオブジェクトがより高精度にセンシングされ得る。
以下では、入力関連オブジェクトがスクリーン(ポインティング面)である場合を主に想定する。しかし、入力関連オブジェクトは、操作体であってもよい。すなわち、入力関連オブジェクトは、操作体とスクリーン(ポインティング面)とのうち少なくともいずれか一方を含んでよい。また、以下に説明するように、入力状態は、操作体によってスクリーン(ポインティング面)が指し示された状態、および、ユーザとスクリーン(ポインティング面)との距離が所定の距離よりも小さい状態の少なくともいずれか一方を含んでよい。以下では、入力状態の例として、これら2つの状態を主に用いて説明する。
また、以下では、複数の撮像候補位置それぞれにホーミングセンサ310があらかじめ設けられている場合を主に想定する。このとき、ホーミングセンサ制御部131は、入力関連オブジェクトと複数の撮像候補位置それぞれに設けられたホーミングセンサ310(撮像候補装置)との位置関係と入力状態とに基づいて、ホーミングセンサ310(撮像候補装置)から、入力画像を撮像するホーミングセンサ310を選択する。これによって、ホーミングセンサ制御部131は、入力画像を撮像するホーミングセンサ310が設けられた位置を撮像位置として決定する。
かかる制御部は、例えば、CPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。かかる制御部がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
俯瞰センサ320は、環境全体を俯瞰するように撮像する。本開示の実施形態においては、俯瞰センサ320として、赤外光を観測する(可視光をカットする)カメラ321とデプスセンサ322とが用いられる場合を主に想定する。しかし、カメラ321は、可視光カメラを含んでもよい。また、俯瞰センサ320として、サーモセンサ323、広視野をセンシングするレーダ測距センサ324などが用いられてもよい。また、俯瞰センサ320は、ズームを行ったり絞りを変更したりするモードを備えていてもよい。
俯瞰センサ320による撮像画像(センシング情報)は、情報処理装置100におけるI/F部110を介して、環境認識部121、入力手法識別部122、ユーザ認識部123、入力精度解析部124に送られる。
環境認識部121は、俯瞰センサ320による撮像画像に基づいて、環境の3次元形状や、スクリーンの3次元位置を認識する。入力手法識別部122は、ユーザによる入力手法が、指(または手)による入力手法(ハンド入力手法)であるか、入力装置による入力手法であるかを特定する。
ユーザ認識部123は、俯瞰センサ320による撮像画像に基づいて、ユーザの3次元位置を認識する。
入力精度解析部124は、スクリーンに対するポインティング座標およびユーザの位置などを認識し、ユーザがスクリーンに対してポインティングしているかどうか(あるいは、ポインティングしようとしているかどうか)を判定する。これらの情報は、ホーミングセンサ制御部131に送られ、ホーミングセンサ制御部131は、これらの情報に基づいて、ユーザの入力に対するセンシングに適したホーミングセンサ310を決定する。
ホーミングセンサ310は、ユーザによる入力を俯瞰センサ320より高精度にセンシングする。ここで、ホーミングセンサ310は、任意の方向をセンシングし得るよう駆動機構311を有する。例えば、駆動機構311は、2軸駆動機構であってよい。このように、本開示の実施形態においては、ホーミングセンサ310が回転可能である(ホーミングセンサ310の向きが変化し得る)場合を主に想定する。しかし、ホーミングセンサ310は、回転可能であるだけではなく移動可能であってもよい(ホーミングセンサ310の位置が変化可能であってもよい)。
本開示の実施形態においては、ホーミングセンサ310として、赤外光を観測する(可視光をカットする)カメラ312とデプスセンサ313とが用いられる場合を主に想定する。しかし、カメラ312は、可視光カメラを含んでもよい。また、ホーミングセンサ310として、サーモセンサ、操作体をセンシング可能なレーダ測距センサ314などが用いられてもよい。また、ホーミング310は、ズームを行ったり絞りを変更したりするモードを備えていてもよい。
ホーミングセンサ310によって撮像された入力画像(センシング情報)は、情報処理装置100におけるI/F部110を介して、ジェスチャ認識部125、入力装置認識部に送られる。ジェスチャ認識部125は、ユーザが手指による入力を行っている場合、ホーミングセンサ310によって撮像された入力画像に基づいて、ユーザの手指の3次元位置とスクリーンの3次元位置とを認識し、これらの位置を入力情報として入力制御部132に送る。入力装置認識部126は、ユーザが入力装置による入力を行っている場合、ホーミングセンサ310によって撮像された入力画像から入力装置の2次元位置とスクリーンの2次元位置とを認識し、これらの情報を入力情報として入力制御部132に送る。
入力装置200は、ユーザによる入力に用いられるデバイスである。上記したように、本開示の実施形態においては、先端にLED210(IR LED)が搭載されたペン型のデバイスが用いられる場合を主に想定する。例えば、入力装置200は、ユーザによってスクリーンに押し付けられるとLED210が発光する機構を持つ。LED210による発光位置(輝点)は、俯瞰センサ320およびホーミングセンサ310によって検出され、情報処理装置100に送られる。
入力装置200には、再帰性反射マーカ250が付与されていてもよい。その場合には、投光器とカメラとを有するデバイスによってマーカ位置が検出され、マーカ位置が入力情報として入力制御部132に送られる。また、入力装置200は、レーザポインタのように指向性がある光を用いたデバイスでもよい。かかる場合には、ペンで書くように入力を行うのではなく、スクリーンから離れた位置からのポインティングによって入力が行われ得る。
また、入力装置200としては、スマートフォンなどの携帯端末や、腕輪型やメガネ型のウェアラブルデバイスが用いられてもよい。例えば、これらのデバイスの形状からデバイスの位置が認識され、かつ、コンピュータとの接続状態が認識された場合、デバイスの位置やコンピュータとの接続状態などが複合的に処理されることによって、これらのデバイスが入力装置として用いられ得る。
また、ジャイロセンサ260、加速度センサ230、地磁気センサ220など(IMU:慣性計測装置)の組み合わせを用いることによって、入力装置200の自己位置推定が行われてもよい。このとき、ホーミングセンサ310によって入力装置200の位置が直接的に検出可能な場合には、ホーミングセンサ310によって入力装置200の絶対位置が検出されてよい。
一方、ホーミングセンサ310によって入力装置200の位置が直接的に検出不可能な場合には、過去に検出された絶対位置を基準としたIMUセンサに基づく相対位置によって入力装置200の絶対位置が検出されてよい。これによって、ユーザや障害物の遮蔽などが原因となり、ホーミングセンサ310によって入力装置200が検出されない場合であっても、入力装置200の位置(2次元位置または3次元位置)が取得され得る。
また、入力装置200は、通信モジュール240を備える。入力装置200は、通信モジュール240によって、情報処理装置100の入力手法識別部122に通信情報やIMUによる動き情報を送る。通信情報は、無線通信に使用されるID(例えば、Bluetooth(登録商標)のID、Wi−Fi(登録商標)のIDなど)であってよい。これらの通信情報や動き情報と俯瞰センサ320による撮像画像とに基づいて、ユーザの入力手法が特定される。
情報処理装置100は、各センサや入力装置200から情報を受け取り、各部で処理を行った後、ホーミングセンサ制御部131によって、ホーミングセンサ310へ情報を送り、入力制御部132は、出力装置400に情報を送る。ホーミングセンサ制御部131は、適切なホーミングセンサ310を決定した後、スクリーンの位置へホーミングセンサ310を駆動させ、ホーミングセンサ310によるセンシングを開始させる。入力制御部132は、入力座標(ポインティング座標)を検出し、入力座標に基づいて映像を生成して出力装置400に映像を送る。
出力装置400は、任意の場所へ映像を提示可能な装置である。本開示の実施形態においては、駆動機構410を有し、ユーザが入力を行っている任意の場所へ映像を投影できるプロジェクタ420が利用される場合を主に想定する。また、本開示の実施形態においては、ホーミングセンサ310と同軸上にプロジェクタ420が搭載されている場合を想定する。
しかし、ホーミングセンサ310とプロジェクタ420とは、必ずしも同軸上に配置されていなくてもよい。ただし、ホーミングセンサ310とプロジェクタ420との位置関係は既知である必要がある。また、駆動機構410は、プロジェクタ420の向きを変えるだけでなく、プロジェクタ420を移動可能な機構を併せ持ってもよい。また、出力装置400は、入力情報をディスプレイ430から表示してもよい。
出力装置400は、全方位に映像を投影可能なプロジェクタを有してもよいし、全面ディスプレイを有してもよい(全面ディスプレイで埋められたような環境が提供されてもよい)。また、事前に登録された任意の3次元形状の物体がスクリーンとして利用されてもよい。かかる場合には、上記したようにスクリーンの2次元位置または3次元位置が認識される場合と同様に、3次元形状の物体の位置が認識されることによって、3次元形状の物体の位置に基づいて、ホーミングセンサ310によるセンシングが行われ得る。
以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
[1.2.基本的な処理の流れ]
続いて、本開示の実施形態に係る情報処理システム1の基本的な処理の流れについて説明する。
図6は、本開示の実施形態に係る情報処理システム1の基本的な処理を示すフローチャートである。まず、入力手法識別部122は、俯瞰センサ320から得られた情報と入力デバイスからの情報を用いて、ユーザによる入力手法を特定する(S210)。本開示の実施形態においては、入力手法識別部122が、ユーザによる入力手法が、入力装置による入力手法であるか、ユーザの手指による入力手法であるかを特定する。これによって、入力装置による入力手法のセンシング方式として2D認識が決定され、ユーザの手指による入力手法のセンシング方式として3D認識が決定される。
なお、センシング方式がどのようにして決定されるかは、特に限定されない。例えば、複数のカメラそれぞれの撮像画像において、スクリーンに対する操作体の視差が存在しない場合には、操作体がスクリーンに接していることが想定されるため、センシング方式として2D認識が用いられてもよい。一方、複数のカメラそれぞれの撮像画像において、スクリーンに対する操作体の視差が存在する場合には、操作体がスクリーンに接していないことが想定されるため、センシング方式として3D認識が用いられてもよい。
2D認識と3D認識との間には、以下に示すような差異がある。すなわち、2D認識では、画像から入力装置による2次元のポインティング座標が検出され、検出された2次元のポインティング座標から2次元のスクリーン座標への座標変換が行われる。一方、3D認識では、デプス情報からスクリーンの3次元位置と手指の3次元位置とが算出され、これらに基づいてスクリーンに対する指先の3次元の接触位置を検出し、3次元の接触位置から2次元のスクリーン座標への座標変換が行われる。
次に、ホーミングセンサ制御部131は、ユーザによる入力をセンシングするホーミングセンサ310を決定する(S220)。ここでは、ホーミングセンサ制御部131は、S210において決定されたユーザ入力手法、ユーザの位置と、スクリーン(あるいは、操作体)とホーミングセンサ310との位置関係に基づいて、複数のホーミングセンサ310それぞれに対して評価値を算出し、各評価値に基づいてホーミングセンサ310を決定する。
続いて、入力制御部132は、決定されたホーミングセンサ310に対して、スクリーンをセンシングするように駆動させる(S230)。そして、入力制御部132によって、ホーミングセンサ310の入力画像に関する処理が、操作体によってスクリーン(ポインティング面)が指し示されたことが検出されたことによって開始される。これによって、ユーザによる入力が高解像度にセンシングされる。
ホーミングセンサ310によって、ユーザによる入力がセンシングされると、入力制御部132は、センシングによって得られた画像から入力座標(ポインティング座標)を検出し(S240)、入力座標(ポインティング座標)をスクリーン座標へ変換し、スクリーン座標に基づいて映像を投影する(S250)。続いて、ユーザ入力が終了しない場合には(S260において「No」)、動作がS240に移行されるが、ユーザ入力が終了した場合には(S260において「Yes」)、動作が終了される。
図7は、本開示の実施形態に係る情報処理システム1の基本的な処理の変形例を示すフローチャートである。変形例においても、図6に示された例と同様に、ユーザ入力手法が特定される(S210)。次に、ホーミングセンサ制御部131は、ユーザによる入力をセンシングするホーミングセンサ310の決定を試みる(S220)。ここでは、ホーミングセンサ制御部131は、ホーミングセンサ310の利用状況、S210において決定されたユーザ入力手法、ユーザの位置と、スクリーン(あるいは、操作体)とホーミングセンサ310との位置関係に基づいて、複数のホーミングセンサ310それぞれに対して評価値を算出し、各評価値に基づいてホーミングセンサ310を決定する。
入力制御部132は、ホーミングセンサが決定されたか否かを判定する(S271)。入力制御部132は、使用可能なホーミングセンサ310が存在する場合には(S271において「Yes」)、図6に示された例と同様に、S230に動作を移行させる。一方、入力制御部132は、使用可能なホーミングセンサ310が存在しない場合には(S271において「No」)、俯瞰センサ320に基づく入力座標(ポインティング座標)の検出を行い(S272)、入力座標(ポインティング座標)に基づいて映像を投影する(S250)。ユーザ入力が終了しない場合には(S260において「No」)、動作がS220に移行される。入力制御部132は、ユーザによって入力されている間にも、随時使用可能なホーミングセンサ310が存在するかどうか評価を行い(S220)、使用可能なホーミングセンサ310が存在したら(S271において「Yes」)、可能なタイミングでホーミングセンサ310をユーザによってポインティングされているスクリーンへ駆動させる(S230)。一方、ユーザ入力が終了した場合には(S260において「Yes」)、動作が終了される。
以下では、「入力手法の識別」、「ホーミングセンサ決定」、「ホーミングセンサ駆動」、「入力座標検出」「ユーザ入力終了」について詳しく述べる。
(1.2.1.入力手法の特定)
まず、ユーザによる入力手法の特定(S210)について説明する。図8は、ユーザによる入力手法を特定する処理の例を示すフローチャートである。図8に示されるように、入力手法識別部122は、俯瞰センサ320によるセンシングデータを取得し(S211)、センシングデータに基づいて、ユーザがスクリーンに近づいたかどうかを判定する。次に、入力手法識別部122は、ユーザによる入力手法を特定する。すなわち、入力手法識別部122は、ユーザによる入力手法が2D認識による入力手法であるか、3D認識による入力手法であるかを判定する。
より具体的には、デプスセンサ322が、広視野に利用環境を観測し、スクリーン(室内の壁面や物体など)とユーザとの位置関係をセンシングする。そして、入力手法識別部122は、スクリーンとユーザとの距離が閾値よりも小さくなったか否かによって、スクリーン付近にユーザが検出されたか否かを判定する(ユーザがスクリーンに近づいたか否かを判定する)(S212)。スクリーンとユーザとの距離が閾値よりも小さくなったことは、入力手法識別部122によってユーザの入力状態として判定され得る。あるいは、入力手法識別部122は、俯瞰センサ320によるセンシングデータに基づいて、手指または入力装置200による入力が検出されたか否かを判定する(S212)。手指または入力装置200による入力が検出されたことは、入力手法識別部122によってユーザの入力状態として判定され得る。
例えば、手指による入力は、スクリーンとユーザの手指との位置関係に基づいて、手指がスクリーンに接触したか否かによって判定され得る。また、入力装置200による入力は、入力装置200がペン型の入力装置である場合、俯瞰センサ320によるセンシングデータからIRの輝点が検出されたか否かによって判定され得る。
続いて、入力手法識別部122は、ユーザによる入力手法を特定する。まず、入力手法識別部122は、入力装置200とコンピュータとのネットワ−ク接続状況を確認する。入力手法識別部122は、入力装置200とコンピュータとがネットワ−ク接続されている場合には(S214において「Yes」)、ユーザが入力装置200を用いて入力しようとしていると判定し、センシング方式を2D認識と決定する(S215)。
一方、入力手法識別部122は、入力装置200とコンピュータとがネットワ−ク接続されていない場合には(S214において「No」)、ユーザが手指を用いて入力しようとしていると判定し、センシング方式を3D認識と決定する(S216)。
あるいは、入力手法識別部122は、入力装置200のIMUセンサが動きを検出したか否かによって、ユーザが入力装置200を動かして使用し始めているか否かを判断することも可能である(S214)。
複数ユーザが入力装置200を用いる場合には、入力装置200の使用状況をコンピュータに保持させおく。図9は、入力装置200の使用状況を示すデータの例を示す図である。図9に示された例では、Device_1は、ネットワークを介してコンピュータに接続されており、あるユーザによって使用されている。Device_2は、ネットワークを介してコンピュータに接続されているが、ユーザによって使用されていない。このとき、入力手法識別部122は、俯瞰センサ320によるセンシングデータに基づいてあるユーザがスクリーンに近づいたと判定した場合、他のユーザがDevice_2で入力しようとしている状態であるため、センシング方式を2D認識と決定する。
以上により、ユーザによる入力手法が特定され得る。
(1.2.2.ホーミングセンサの決定)
次に、ホーミングセンサ310の決定(S220)について説明する。上記したように、ホーミングセンサ制御部131は、入力関連オブジェクト(例えば、スクリーン、操作体など)と複数の撮像候補位置それぞれとの位置関係に基づいて、ホーミングセンサ310によって入力画像が撮像される撮像位置を決定する。このとき、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係は、入力関連オブジェクトと複数の撮像候補位置それぞれとの距離を含んでもよい。より具体的には、距離が小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。また、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係は、入力関連オブジェクトを基準とした複数の撮像候補位置それぞれの方向を含んでもよい。より具体的には、入力関連オブジェクトに応じた所定の方向と入力関連オブジェクトを基準とした複数の撮像候補位置それぞれの方向との角度を含んでもよい。ここで、所定の方向は、入力関連オブジェクトがスクリーンである場合、スクリーンの法線方向であってよい。このとき、スクリーンの法線方向と入力関連オブジェクトを基準とした撮像候補位置の方向との角度が小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
あるいは、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係には、複数のホーミングセンサ310(撮像候補装置)それぞれの撮像画像に写る入力関連オブジェクトのサイズが考慮されてもよい。すなわち、ホーミングセンサ310が、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に関連する評価値に基づいて、入力画像を撮像するホーミングセンサ310を決定する場合、かかる評価値は、複数のホーミングセンサ310それぞれによる撮像画像に写る入力関連オブジェクトのサイズを含んでもよい。より具体的には、入力関連オブジェクトを大きく撮像しているホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
あるいは、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係には、複数のホーミングセンサ310それぞれの回転角度が考慮されてもよい。すなわち、ホーミングセンサ310が、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に関連する評価値に基づいて、入力画像を撮像するホーミングセンサ310を決定する場合、かかる評価値は、入力関連オブジェクトが撮像範囲に収まるまでに要する複数のホーミングセンサ310それぞれの回転角度を含んでもよい。より具体的には、入力関連オブジェクトが撮像範囲に収まるまでに要する回転角度が小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
あるいは、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係には、複数のホーミングセンサ310それぞれの撮像画像が障害物またはユーザによって遮蔽される領域が考慮されてもよい。すなわち、ホーミングセンサ310が、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に関連する評価値に基づいて、入力画像を撮像するホーミングセンサ310を決定する場合、かかる評価値は、複数のホーミングセンサ310それぞれの撮像画像に写る障害物またはユーザによるスクリーン(ポインティング面)の遮蔽領域サイズを含んでもよい。より具体的には、撮像画像の遮蔽領域サイズが小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
あるいは、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係には、複数のホーミングセンサ310それぞれの撮像画像に写るスクリーンのうち、利用されない可能性が高い領域が考慮されてもよい。すなわち、ホーミングセンサ310が、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に関連する評価値に基づいて、入力画像を撮像するホーミングセンサ310を決定する場合、かかる評価値は、複数のホーミングセンサ310それぞれの撮像画像に写るスクリーンのうちユーザの位置を基準とした所定方向の領域サイズを含んでもよい。より具体的には、撮像画像に写るスクリーンのうち、ユーザの位置を基準とした所定方向の領域サイズが小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
入力画像を撮像するホーミングセンサ310には、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係以外の情報がさらに考慮されてもよい。例えば、ホーミングセンサ制御部131は、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に追加して、複数のホーミングセンサ310それぞれの分解能に基づいて、撮像位置を決定してもよい。より具体的には、分解能が高いホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
また、ホーミングセンサ制御部131は、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に追加して、複数のホーミングセンサ310それぞれによる外光の検出結果に基づいて、撮像位置を決定してもよい。より具体的には、外光の検出量が閾値を超える領域サイズが小さいホーミングセンサ310ほど、入力画像を撮像するホーミングセンサ310として決定されやすくてよい。
以下では、ホーミングセンサ制御部131が、複数のホーミングセンサ310それぞれについて、上記のように入力画像を撮像するホーミングセンサ310としてどの程度決定されやすいかを示す評価値を、複数の評価項目ごとに算出する場合を主に想定する。そして、ホーミングセンサ制御部131が、複数の評価値と複数の評価値それぞれの重み係数(例えば、重み係数は、操作体の種類に基づいて決定される)とに基づいて撮像位置を決定する場合を主に想定する。しかし、評価値は、複数でなくてもよく、1つであってもよいし、重み係数は特に用いられてなくてもよい。
図10は、ホーミングセンサ310を決定する処理の例を示すフローチャートである。
図10に示されるように、ホーミングセンサ制御部131は、複数存在するホーミングセンサ候補それぞれが、どの程度センシングに適しているかを示す評価値を算出する(S221)。このとき、ホーミングセンサ制御部131は、ユーザによる入力手法に応じて評価項目ごとに重み付けを加味し(S222)、総評価値を算出する(S223)。最後に、ホーミングセンサ制御部131は、総評価値が最も高いホーミングセンサを決定する(S224)。以下に、これらの処理の詳細を述べる。
図11は、評価項目ごとの評価値範囲および重み係数の例を示す図である。図12〜図20は、評価項目の具体例を示す図である。図12〜図20を参照しながら、評価項目の具体例について説明する。
<スクリーンとの距離(Dist)>
図12に示されるように、ホーミングセンサ制御部131は、ホーミングセンサ310の位置とスクリーンScの位置とに基づいて、ホーミングセンサ310とスクリーンScとの距離Distを算出する。ここで、ホーミングセンサ310は、スクリーンScとの距離が小さいほど、高精度にセンシングを行うことが可能である。そのため、ホーミングセンサ制御部131は、スクリーンScに近いホーミングセンサ310ほど、評価値を高く算出する。
ここでは、ホーミングセンサ制御部131は、想定環境におけるホーミングセンサ310からスクリーンScへの最大距離をMaxDistとし、ホーミングセンサ310の特性の範囲およびスクリーンScが画角内に収まる範囲で、ホーミングセンサ310がセンシング可能な最小距離をMinDistとし、算出したDistを、下記の(数式1)に示されるように、MaxDistとMinDistとによって正規化した評価値DistNormを算出する。
DistNorm
=1-(Dist-MinDist)/(MaxDist-MinDist)・・・(数式1)
<スクリーンへのセンシング分解能(Resolution)>
図13に示されるように、ホーミングセンサ制御部131は、ホーミングセンサ310のカメラの解像度とスクリーンScがセンサ画角に占める領域とに基づいて、スクリーンScのセンシング精度Resolutionを算出する。例えば、ホーミングセンサ制御部131は、スクリーンScの横幅が実物大でObjectSize(m)であり、ホーミングセンサ310によって観測されたスクリーンScの横幅がObjectPixel(pixel)である場合には、下記の(数式2)に示されるように、評価値Resolutionを算出する。
Resolution
=ObjectPixel/ObjectSize・・・(数式2)
ここで、Resolutionの単位は(pixel/m)である。すなわち、Resolutionは、1m辺りのセンシング可能なpixel量を示している。したがって、ホーミングセンサ制御部131は、Resolutionが大きいほど高解像度にセンシングが可能であるため、評価値を高く算出する。ここでは、ホーミングセンサ制御部131は、センサの最大解像度をMaxResolutionとし、最小解像度を0とし、下記の(数式3)に示されるように正規化した評価値ResolutionNormを算出する。
ResolutionNorm=Resolution/MaxResolution・・・(数式3)
<スクリーンへのセンシング距離分解能(DepthResolution)>
図14に示されるように、ホーミングセンサ制御部131は、スクリーンScまでの距離Distとデプスセンサの距離分解能とに基づいて、スクリーンScへのセンシング距離分解能DepthResolutionを算出する。この評価項目は3D認識の場合にのみ適用され得る。デプスセンサは、被写体までの距離が、近いほど分解能やデプス値精度が高く、遠いほど分解能やデプス値精度にばらつきが生じる。また、デプスセンサによっては、被写体までの距離がある距離より小さい場合に、デプス値が検出されない場合があり得る。ホーミングセンサ制御部131は、デプスセンサの最大検出デプス値をMaxDepthとし、最小検出デプス値をMinDepthとし、下記の(数式4)に示されるように正規化した評価値DepthResolutionNormを算出する。
DepthResolutionNorm=(DepthResolution-MinDepth)/(MaxDepth-MinDepth)
・・・(数式4)
<スクリーンとセンサの角度(Angle)>
図15に示されるように、ホーミングセンサ制御部131は、ホーミングセンサ310がスクリーンScを向くように駆動された場合におけるスクリーンScの法線の方向とホーミングセンサ310の方向との角度Angleを算出する。この角度Angleが大きいほど、観測されるスクリーンScの歪みが大きくなってしまい、検出精度が低下してしまうことが想定される。そこで、ホーミングセンサ制御部131は、角度が0°である場合における評価値が1となり、180°である場合における評価値が0となるように、下記の(数式5)によって正規化した評価値AngleNormを算出する。
AngleNorm
=1-Angle/180 ・・・(数式5)
<スクリーンまでのセンサ駆動角度(MovingAngle)>
図16に示されるように、ホーミングセンサ制御部131は、現在のホーミングセンサ310の向きからホーミングセンサ310がスクリーンScを向くまでのホーミングセンサ310の回転角度(駆動角度)MovingAngleを算出する。回転角度(駆動角度)が大きいほど、駆動時間を多く要するため、ユーザの入力センシングに時間を要してしまう。そのため、ホーミングセンサ制御部131は、回転角度(駆動角度)が小さいほど、評価値を高く算出する。ここでは、回転角度(駆動角度)が0°である場合における評価値が1となり、180°である場合における評価値が0となるように、下記の(数式6)によって正規化した評価値MovingAngleNormを算出する。
MovingAngleNorm=1-MovingAngle/180・・・(数式6)
<障害物による遮蔽領域>
図17に示されるように、ホーミングセンサ制御部131は、ホーミングセンサ310とスクリーンScとの間に存在する障害物B10による遮蔽領域R10のサイズObjectOcclusionを算出する。より具体的に、ホーミングセンサ制御部131は、センシング画角(すなわち、俯瞰センサ320によって撮像された撮像画像g11)においてスクリーンSc以外の物体(障害物B10)が写る領域の横幅を、その障害物B10による遮蔽領域R10のサイズObjectOcclusion(単位はPixel)として算出し得る。
<ユーザによる遮蔽領域>
図18に示されるように、ホーミングセンサ制御部131は、ユーザU10によるスクリーンScの遮蔽領域R20のサイズHumanOcclusionを算出する。より具体的に、ホーミングセンサ制御部131は、センシング画角(すなわち、俯瞰センサ320によって撮像された撮像画像g12)においてユーザが写る領域の横幅を、そのユーザU10による遮蔽領域R20のサイズHumanOcclusion(単位はPixel)として算出し得る。
<利用されないと予測される領域>
図19に示されるように、ホーミングセンサ制御部131は、ユーザU10によってスクリーンScに対して入力が行われる場合において利用されないと予測される領域HumanPredictOcclusionを推定する。ここでは、ホーミングセンサ制御部131は、ユーザU10の利き手を認識する。図19に示された例では、ユーザU10は右利きであるため、利き手である右手によって多く入力されることが予測できる。また、左手は、利き手と反対側の手であるため、ユーザによってあまり入力されないことが予測できる。そのため、ホーミングセンサ制御部131は、ユーザの利き手側と反対側の領域を利用されない領域と予測する。
例えば、ホーミングセンサ制御部131は、上記3つの領域(障害物による遮蔽領域、ユーザによる遮蔽領域、利用されないと予測される領域)に対して、領域ごとの和(OR)を取ることによって、ホーミングセンサ310がセンシング可能な領域を求めることができる。ここでは、ホーミングセンサ制御部131は、センサの解像度SensorSize(pixel)を、下記の(数式7)によって正規化した評価値OcclusionNormを算出する。
OcclusionNorm=1-
(ObjectOcclusion || HumanOcclusion
|| HumanPredictOcclusion) / SensorSize・・・(数式7)
<外光>
ホーミングセンサ制御部131は、外光によるセンシングの影響を評価する。ここでは、赤外光がホーミングセンサ310によってセンシングされており、太陽光やハロゲンライトなどの外光によってセンシング精度に影響が出る場合を想定する。図20には、外光による影響例が示されている。ホーミングセンサ310−1からの赤外画像g21には、直接的に太陽Suからの光は観測されない。一方、ホーミングセンサ310−2は、太陽Suが位置する方向に観測するため、赤外画像g22が太陽光で明るくなってしまう。
ここでは、ホーミングセンサ制御部131は、赤外光の検出量が閾値を超える領域の面積に基づいて評価値を算出する。例えば、ホーミングセンサ制御部131は、赤外光の検出量が閾値を超える領域の面積BrighterAreaに対して、下記の(数式8)によって正規化した評価値BrightAreaNormを算出する。
BrightAreaNorm=1-
BrighterArea / SensorSize・・・(数式8)
また、赤外光の検出量が閾値を超える領域は、画像中の領域に該当する。そのため、上記3つの領域(障害物による遮蔽領域、ユーザによる遮蔽領域、利用されないと予測される領域)の和(OR)に対して、さらに赤外光の検出量が閾値を超える領域の和(OR)を取ることによって、すなわち、(数式7)を変形した、1- (ObjectOcclusion || HumanOcclusion || HumanPredictOcclusion ||
BrighterArea) / SensorSizeによって、評価値BrightAreaNormが算出され得る。
上記では、複数の撮像候補位置それぞれにホーミングセンサ310があらかじめ設けられている場合を主に想定した。しかし、複数の撮像候補位置それぞれにホーミングセンサ310があらかじめ設けられていなくてもよい。例えば、ホーミングセンサ310が移動可能な場合には、ホーミングセンサ制御部131は、決定した撮像位置にホーミングセンサ310を移動させてもよい。そのとき、上記において、複数の撮像候補位置それぞれに設けられたホーミングセンサ310の位置が、ホーミングセンサ310が移動可能な複数の撮像候補位置に置き換えられた上で、評価値が算出されてよい。
また、例えば、ホーミングセンサ310が移動可能な場合には、ホーミングセンサ制御部131は、入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係に追加して、ホーミングセンサ310が複数の撮像候補位置それぞれに到達するまでの移動距離に基づいて、撮像位置を決定してもよい。より具体的には、ホーミングセンサ310が到達するまでの移動距離が小さい撮像候補位置ほど、撮像位置として決定されやすくてよい。すなわち、ホーミングセンサ310が複数の撮像候補位置それぞれに到達するまでの移動距離も、評価値として用いられ得る。
<入力手法による評価値の重み付け>
ここでは、ホーミングセンサ制御部131は、入力手法による評価値の重み付けを行う。例えば、図11に示されたような重み係数が設けられている。センシング方式が3D認識の場合は、距離や分解能などが大きくセンシングに影響することが想定される。そのため、重み係数が1より大きく設定されるのがよい。ホーミングセンサ制御部131は、これらの重み係数を上記した評価値に対して乗算することによって得られる値を各評価項目の最終的な評価値とするとよい。
<総評価値算出>
最後に、ホーミングセンサ制御部131は、総評価値を算出する。より具体的には、ホーミングセンサ制御部131は、上記によって算出した各評価項目の最終的な評価値を足し合わせることによって総評価値を算出する。例えば、ホーミングセンサ制御部131は、候補となっているホーミングセンサ310ごとに総評価値を算出し、最も総評価値が高いホーミングセンサ310をユーザの入力センシングに用いる。
(1.2.3.ホーミングセンサ駆動)
ホーミングセンサ制御部131は、決定したホーミングセンサ310をスクリーンScの方向へ回転(駆動)させる。ホーミングセンサ制御部131は、スクリーンScおよびホーミングセンサの3次元的な位置関係をあらかじめデプスセンサによって求めておく。ホーミングセンサ制御部131は、3次元的な位置関係に基づいて、ホーミングセンサ310の回転角度(駆動角度)を算出し、回転角度(駆動角度)に基づいて、ホーミングセンサ310を回転(駆動)させる。駆動完了後、ホーミングセンサ310は、ユーザによる入力をセンシングし、入力制御部132は、入力座標(ポインティング座標)を検出する。
なお、上記した例では、入力箇所が特定された後、ホーミングセンサ310が決定され、ホーミングセンサ310が駆動される場合を主に説明した。しかし、ホーミングセンサ制御部131は、ターゲットの入力状況や入力座標を追跡し、次の目的地を予測して予測結果に基づいてホーミングセンサ310を動かしたり、別のセンサを向かわせたりしてもよい。また、ホーミングセンサ制御部131は、複数センサを同じスクリーンScに向けることによって、複数センサによるセンシング結果を組み合わせてセンシング精度を上げてもよい。
また、ホーミングセンサ制御部131は、決定したホーミングセンサ310がスクリーンScまで回転(駆動)されない場合、スクリーンScの付近のホーミングセンサ310が駆動可能な場所(すなわち、スクリーンScの付近のホーミングセンサ310が向くことが可能なスクリーンSc)を映像や音声でユーザに提示してもよい。
(1.2.4.入力座標検出)
最後に、入力座標の検出について説明する。ここでは、センシング方式が2D認識である場合、および、センシング方式が3D認識である場合それぞれにおける入力座標の検出について説明する。
<2D認識による入力>
図21は、センシング方式が2D認識である場合における入力座標の検出を説明するための図である。図21に示されるように、入力制御部132は、ホーミングセンサ310のカメラによって入力画像g41が撮像され(S310)、入力画像g42から入力座標(x,y)が検出されると(S320)、入力座標(x,y)に対して2次元から2次元への射影変換行列(Homography行列)を乗算することによって、入力座標(x,y)をカメラ座標系からプロジェクタによって投影されているスクリーン座標系に変換できる(S330)。その後、入力制御部132は、スクリーン座標系における入力座標(x',y')に基づいて、投影映像(第1の映像)を生成する(S340)。
例えば、Homography行列については、以下のページが参照されてよい。
http://shogo82148.github.io/homepage/memo/geometry/homography/
<3D認識による入力>
図22は、センシング方式が3D認識である場合における入力座標の検出を説明するための図である。図22に示されるように、入力制御部132は、デプスセンサによって得られたスクリーンScとユーザU10の手指のデプス情報から検出された3次元位置Icam(X,Y,Z)を取得する。そして、入力制御部132は、カメラ座標系で得られた3次元位置Icam (X,Y,Z)をプロジェクタの座標系に変換する。より具体的に、入力制御部132は、カメラ(ホーミングセンサ310)の位置からプロジェクタ420の位置までの回転と並進との行列を表す外部パラメータ(RT)をIcam (X,Y,Z)に乗算することによって、Iproj(X',Y',Z')変換を行う。
次に、入力制御部132は、変換後の3次元位置Iproj(X',Y',Z')に対して、プロジェクタの内部パラメータ(IntrinsicParam)を乗算することによって、3次元位置Iproj(X',Y',Z')からプロジェクタスクリーン座標系における入力座標Iscreen(x',y')への座標変換を行う。入力制御部132は、プロジェクタスクリーン座標系における入力座標Iscreen(x',y')に基づいて、投影映像を生成する。
<映像投影>
入力制御部132は、ホーミングセンサ310のカメラによって撮像された入力画像に関する処理の例として、入力画像から認識される操作体による第1のポインティング座標に基づいて、第1の映像を表示させる表示処理を行う。かかる表示処理は、プロジェクタによってスクリーン(ポインティング面)に第1の映像が投影されることによって実行されてよい。
このとき、ユーザによる入力が開始されるタイミングと比較して、第1の映像を表示させる表示処理が実行されるタイミングが遅延してしまう可能性が想定される。かかる遅延への対策として、入力制御部132は、第1の映像を表示させる表示処理の前に俯瞰センサ320の撮像画像から認識される操作体による第2のポインティング座標に基づいて、第2の映像を表示させてもよい。
(1.2.5.ユーザ入力終了)
ここでは、入力終了の条件について説明する。入力制御部132は、ユーザが入力装置による入力を行っている場合には、入力装置とコンピュータとの接続が切断された場合、ユーザが明示的に入力装置の電源をOFFにした場合(入力装置への電源供給が終了された場合)、または、IMUセンサから動きが所定の時間以上検出されなかった場合に、入力(入力画像に関する処理)を終了してよい。
一方、入力制御部132は、手指または入力装置による入力を行っている場合は、入力座標の認識と同時にユーザの位置を認識し、ユーザがホーミングセンサ310によって撮像されなくなった場合に(ユーザがホーミングセンサ310のセンシング範囲から居なくなったことを検出した場合に)、入力(入力画像に関する処理)を終了してよい。あるいは、入力制御部132は、操作体によってスクリーン(ポインティング面)が指し示されなくなってから第1の時間が経過した場合に(ユーザによって所定の時間以上入力が行われなかった場合に)、入力(入力画像に関する処理)を終了してもよい。あるいは、入力制御部132は、操作体の動きが検出されなくなってから第2の時間が経過した場合に、入力(入力画像に関する処理)を入力してもよい。
[1.3.発展例]
ここでは、本技術が適用可能なケースについて述べる。
<使用環境の応用例>
図23は、使用環境の第1の応用例を説明するための図である。上記では、室内環境でのシステムの利用が想定されている。しかし、図23に示されるように、車内環境に同様のシステムが構築されてもよい。車内環境に俯瞰センサとホーミングセンサおよび表示装置を設けることによって、室内環境と同様に、車内の任意場所で入力を行うことが可能である。今後、自動運転により車内でのコンテンツ体験が大きく変わる可能性がある。本開示の実施形態に係るシステムを構築することによって、ユーザの入力システムを導入可能である。
図24は、使用環境の第2の応用例を説明するための図である。図24に示されるように、会議室環境でも同様のシステムが構築され得る。上記したようなペン型の入力装置を用いて会議室の任意場所に対して入力を行うことが可能となる。図25は、使用環境の第3の応用例を説明するための図である。図25に示されるように、室内エンターテインメント向けに、本開示の実施形態に係るシステムを応用することも可能である。会議室環境と同様に、ペン型の入力装置を用いて、会議室内のどこに対してでもお絵かきができるような体験の構築が可能である。
<システムの応用例>
本開示の実施形態に係るシステムは、1つの室内環境において利用される場合を主に想定している。しかし、異なる室内環境に構築された複数のシステムがネットワーク通信を行ってもよい。これにより、遠隔地に対して入力を行うことが可能となり、遠隔地とのコミュニケーションや作業支援といったアプリケーションを構築可能である。上記したお絵かきが行われる場合においても、同様な応用が可能である。
[1.4.ハードウェア構成例]
次に、図26を参照して、本開示の実施形態に係る情報処理装置100のハードウェア構成について説明する。図26は、本開示の実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図である。
図26に示すように、情報処理装置100は、CPU(Central Processing unit)801、ROM(Read Only Memory)803、およびRAM(Random Access Memory)805を含む。また、情報処理装置100は、ホストバス807、ブリッジ809、外部バス811、インターフェース813、ストレージ装置819、ドライブ821、接続ポート823、通信装置825を含んでもよい。情報処理装置100は、CPU801に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU801は、演算処理装置および制御装置として機能し、ROM803、RAM805、ストレージ装置819、またはリムーバブル記録媒体827に記録された各種プログラムに従って、情報処理装置100内の動作全般またはその一部を制御する。ROM803は、CPU801が使用するプログラムや演算パラメータなどを記憶する。RAM805は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU801、ROM803、およびRAM805は、CPUバスなどの内部バスにより構成されるホストバス807により相互に接続されている。さらに、ホストバス807は、ブリッジ809を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス811に接続されている。
ストレージ装置819は、情報処理装置100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置819は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置819は、CPU801が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ821は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体827のためのリーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ821は、装着されているリムーバブル記録媒体827に記録されている情報を読み出して、RAM805に出力する。また、ドライブ821は、装着されているリムーバブル記録媒体827に記録を書き込む。
接続ポート823は、機器を情報処理装置100に直接接続するためのポートである。接続ポート823は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート823は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート823に外部接続機器829を接続することで、情報処理装置100と外部接続機器829との間で各種のデータが交換され得る。
通信装置825は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置825は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置825は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置825は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置825に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
<2.むすび>
以上説明したように、本開示の実施形態によれば、第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定する判定部と、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、を備える、情報処理装置が提供される。かかる構成によれば、入力に関連するオブジェクトがより高精度にセンシングされる技術が提供される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定する判定部と、
前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、
を備える、情報処理装置。
(2)
前記位置関係は、前記入力関連オブジェクトと前記複数の撮像候補位置それぞれとの距離または前記入力関連オブジェクトを基準とした前記複数の撮像候補位置それぞれの方向を含む、
前記(1)に記載の情報処理装置。
(3)
前記第2の撮像装置は、前記第1の撮像装置と比較して画角が狭い、または、前記第1の撮像装置と比較して解像度が高い、
前記(1)または(2)に記載の情報処理装置。
(4)
前記第1の撮像装置は、俯瞰センサであり、前記第2の撮像装置は、ホーミングセンサである、
前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記情報処理装置は、前記入力画像に関する処理を行う入力制御部を含む、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記入力関連オブジェクトは、操作体とポインティング面とのうち少なくともいずれか一方を含む、
前記(5)に記載の情報処理装置。
(7)
前記入力画像に関する前記処理は、前記操作体によって前記ポインティング面が指し示されることによって開始される、
前記(6)に記載の情報処理装置。
(8)
前記入力画像に関する前記処理は、前記操作体によって前記ポインティング面が指し示されなくなってから第1の時間が経過した場合、前記第2の撮像装置によって前記ユーザが撮像されなくなった場合、前記操作体の動きが検出されなくなってから第2の時間が経過した場合、入力装置とコンピュータとの接続が切断された場合、または、前記入力装置への電源供給が終了された場合に終了される、
前記(6)または(7)に記載の情報処理装置。
(9)
前記入力状態は、前記操作体によって前記ポインティング面が指し示された状態、および、前記ユーザと前記ポインティング面との距離が所定の距離よりも小さい状態の少なくともいずれか一方を含む、
前記(6)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記入力画像に関する前記処理は、前記入力画像から認識される前記操作体による第1のポインティング座標に基づいて、第1の映像を表示させる表示処理を含む、
前記(6)〜(8)のいずれか一項に記載の情報処理装置。
(11)
前記入力制御部は、前記表示処理の前に前記第1の撮像装置の撮像画像から認識される前記操作体による第2のポインティング座標に基づいて、第2の映像を表示させる、
前記(10)に記載の情報処理装置。
(12)
前記表示処理は、プロジェクタによって前記ポインティング面に前記第1の映像が投影されることによって実行される、
前記(10)または(11)に記載の情報処理装置。
(13)
前記センサ制御部は、前記位置関係に応じた評価値を含む複数の評価値と前記複数の評価値それぞれの重み係数とに基づいて前記撮像位置を決定し、
前記重み係数は、前記操作体の種類に基づいて決定される、
前記(6)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記センサ制御部は、前記入力関連オブジェクトと前記複数の撮像候補位置それぞれに設けられた撮像候補装置との位置関係と前記入力状態とに基づいて、前記複数の撮像候補装置から前記第2の撮像装置を選択することによって、前記第2の撮像装置が設けられた位置を前記撮像位置として決定する、
前記(6)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記センサ制御部は、前記位置関係に応じた評価値と前記入力状態とに基づいて、前記撮像位置を決定し、
前記評価値は、前記複数の撮像候補装置それぞれによる撮像画像に写る前記入力関連オブジェクトのサイズ、前記入力関連オブジェクトが撮像範囲に収まるまでに要する前記複数の撮像候補装置それぞれの回転角度、前記撮像画像に写る障害物または前記ユーザによる前記ポインティング面の遮蔽領域サイズ、または、前記撮像画像に写る前記ポインティング面のうち前記ユーザの位置を基準とした所定方向の領域サイズを含む、
前記(14)に記載の情報処理装置。
(16)
前記センサ制御部は、前記複数の撮像候補装置それぞれの分解能または前記複数の撮像候補装置それぞれによる外光の検出結果と前記位置関係と前記入力状態とに基づいて、前記撮像位置を決定する、
前記(14)または(15)に記載の情報処理装置。
(17)
前記センサ制御部は、決定した前記撮像位置に前記第2の撮像装置を移動させる、
前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(18)
前記センサ制御部は、前記第2の撮像装置が前記複数の撮像候補位置それぞれに到達するまでの移動距離と前記位置関係と前記入力状態とに基づいて、前記撮像位置を決定する、
前記(17)に記載の情報処理装置。
(19)
第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定することと、
プロセッサにより、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定することと、
を含む、情報処理方法。
(20)
第1の撮像装置と情報処理装置とを有する情報処理システムであって、
前記第1の撮像装置は、撮像画像を撮像し、
前記情報処理装置は、
前記撮像画像に基づいて、ユーザの入力状態を判定する判定部と、
前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、
を備える、情報処理システム。
1 情報処理システム
100 情報処理装置
110 I/F部
121 環境認識部
122 入力手法識別部
123 ユーザ認識部
124 入力精度解析部
125 ジェスチャ認識部
126 入力装置認識部
131 ホーミングセンサ制御部
132 入力制御部
200 入力装置
210 LED
220 地磁気センサ
230 加速度センサ
240 通信モジュール
250 再帰性反射マーカ
260 ジャイロセンサ
310 ホーミングセンサ
310 ホーミング
311 駆動機構
312 カメラ
313 デプスセンサ
314 レーダ測距センサ
320 俯瞰センサ
321 カメラ
322 デプスセンサ
323 サーモセンサ
324 レーダ測距センサ
330 ホーミングセンサ
400 出力装置
410 駆動機構
420 プロジェクタ
430 ディスプレイ


Claims (20)

  1. 第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定する判定部と、
    前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、
    を備える、情報処理装置。
  2. 前記位置関係は、前記入力関連オブジェクトと前記複数の撮像候補位置それぞれとの距離または前記入力関連オブジェクトを基準とした前記複数の撮像候補位置それぞれの方向を含む、
    請求項1に記載の情報処理装置。
  3. 前記第2の撮像装置は、前記第1の撮像装置と比較して画角が狭い、または、前記第1の撮像装置と比較して解像度が高い、
    請求項1に記載の情報処理装置。
  4. 前記第1の撮像装置は、俯瞰センサであり、前記第2の撮像装置は、ホーミングセンサである、
    請求項1に記載の情報処理装置。
  5. 前記入力関連オブジェクトは、操作体とポインティング面とのうち少なくともいずれか一方を含む、
    請求項1に記載の情報処理装置。
  6. 前記情報処理装置は、前記入力画像に関する処理を行う入力制御部を含む、
    請求項5に記載の情報処理装置。
  7. 前記入力画像に関する前記処理は、前記操作体によって前記ポインティング面が指し示されることによって開始される、
    請求項6に記載の情報処理装置。
  8. 前記入力画像に関する前記処理は、前記操作体によって前記ポインティング面が指し示されなくなってから第1の時間が経過した場合、前記第2の撮像装置によって前記ユーザが撮像されなくなった場合、前記操作体の動きが検出されなくなってから第2の時間が経過した場合、入力装置とコンピュータとの接続が切断された場合、または、前記入力装置への電源供給が終了された場合に終了される、
    請求項6に記載の情報処理装置。
  9. 前記入力状態は、前記操作体によって前記ポインティング面が指し示された状態、および、前記ユーザと前記ポインティング面との距離が所定の距離よりも小さい状態の少なくともいずれか一方を含む、
    請求項6に記載の情報処理装置。
  10. 前記入力画像に関する前記処理は、前記入力画像から認識される前記操作体による第1のポインティング座標に基づいて、第1の映像を表示させる表示処理を含む、
    請求項6に記載の情報処理装置。
  11. 前記入力制御部は、前記表示処理の前に前記第1の撮像装置の撮像画像から認識される前記操作体による第2のポインティング座標に基づいて、第2の映像を表示させる、
    請求項10に記載の情報処理装置。
  12. 前記表示処理は、プロジェクタによって前記ポインティング面に前記第1の映像が投影されることによって実行される、
    請求項10に記載の情報処理装置。
  13. 前記センサ制御部は、前記位置関係に応じた評価値を含む複数の評価値と前記複数の評価値それぞれの重み係数とに基づいて前記撮像位置を決定し、
    前記重み係数は、前記操作体の種類に基づいて決定される、
    請求項6に記載の情報処理装置。
  14. 前記センサ制御部は、前記入力関連オブジェクトと前記複数の撮像候補位置それぞれに設けられた撮像候補装置との位置関係と前記入力状態とに基づいて、前記複数の撮像候補装置から前記第2の撮像装置を選択することによって、前記第2の撮像装置が設けられた位置を前記撮像位置として決定する、
    請求項6に記載の情報処理装置。
  15. 前記センサ制御部は、前記位置関係に関連する評価値と前記入力状態とに基づいて、前記撮像位置を決定し、
    前記評価値は、前記複数の撮像候補装置それぞれによる撮像画像に写る前記入力関連オブジェクトのサイズ、前記入力関連オブジェクトが撮像範囲に収まるまでに要する前記複数の撮像候補装置それぞれの回転角度、前記撮像画像に写る障害物または前記ユーザによる前記ポインティング面の遮蔽領域サイズ、または、前記撮像画像に写る前記ポインティング面のうち前記ユーザの位置を基準とした所定方向の領域サイズを含む、
    請求項14に記載の情報処理装置。
  16. 前記センサ制御部は、前記複数の撮像候補装置それぞれの分解能または前記複数の撮像候補装置それぞれによる外光の検出結果と前記位置関係と前記入力状態とに基づいて、前記撮像位置を決定する、
    請求項14に記載の情報処理装置。
  17. 前記センサ制御部は、決定した前記撮像位置に前記第2の撮像装置を移動させる、
    請求項1に記載の情報処理装置。
  18. 前記センサ制御部は、前記第2の撮像装置が前記複数の撮像候補位置それぞれに到達するまでの移動距離と前記位置関係と前記入力状態とに基づいて、前記撮像位置を決定する、
    請求項17に記載の情報処理装置。
  19. 第1の撮像装置の撮像画像に基づいて、ユーザの入力状態を判定することと、
    プロセッサにより、前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定することと、
    を含む、情報処理方法。
  20. 第1の撮像装置と情報処理装置とを有する情報処理システムであって、
    前記第1の撮像装置は、撮像画像を撮像し、
    前記情報処理装置は、
    前記撮像画像に基づいて、ユーザの入力状態を判定する判定部と、
    前記ユーザによる入力に関連する入力関連オブジェクトと複数の撮像候補位置それぞれとの位置関係と、前記入力状態とに基づいて、前記第1の撮像装置とは異なる第2の撮像装置によって入力画像が撮像される撮像位置を決定するセンサ制御部と、
    を備える、情報処理システム。


JP2017250390A 2017-12-27 2017-12-27 情報処理装置、情報処理方法および情報処理システム Pending JP2019117994A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017250390A JP2019117994A (ja) 2017-12-27 2017-12-27 情報処理装置、情報処理方法および情報処理システム
CN201880075750.1A CN111373732A (zh) 2017-12-27 2018-10-15 信息处理装置、信息处理方法和信息处理系统
PCT/JP2018/038249 WO2019130729A1 (ja) 2017-12-27 2018-10-15 情報処理装置、情報処理方法および情報処理システム
US16/765,804 US11501459B2 (en) 2017-12-27 2018-10-15 Information processing apparatus, method of information processing, and information processing system
EP18893651.2A EP3734960A4 (en) 2017-12-27 2018-10-15 DEVICE, PROCESS, AND SYSTEM FOR PROCESSING INFORMATION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017250390A JP2019117994A (ja) 2017-12-27 2017-12-27 情報処理装置、情報処理方法および情報処理システム

Publications (1)

Publication Number Publication Date
JP2019117994A true JP2019117994A (ja) 2019-07-18

Family

ID=67066995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017250390A Pending JP2019117994A (ja) 2017-12-27 2017-12-27 情報処理装置、情報処理方法および情報処理システム

Country Status (5)

Country Link
US (1) US11501459B2 (ja)
EP (1) EP3734960A4 (ja)
JP (1) JP2019117994A (ja)
CN (1) CN111373732A (ja)
WO (1) WO2019130729A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281813A1 (ja) * 2021-07-09 2023-01-12 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250364A (ja) 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd 人物監視装置
JP2002259989A (ja) 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP3539394B2 (ja) * 2001-03-26 2004-07-07 ミノルタ株式会社 画像処理装置、プログラムおよび記録媒体
GB2470073B (en) * 2009-05-08 2011-08-24 Sony Comp Entertainment Europe Entertainment device, system and method
US20110149126A1 (en) * 2009-12-22 2011-06-23 Olympus Corporation Multiband image pickup method and device
JP5891061B2 (ja) 2012-02-15 2016-03-22 株式会社日立製作所 映像監視装置、監視システム、監視システム構築方法
US9063574B1 (en) * 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
JP5880199B2 (ja) 2012-03-27 2016-03-08 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US10152119B2 (en) * 2014-12-11 2018-12-11 Htc Corporation Head-mounted display apparatus and calibration method thereof
CN104735416A (zh) 2015-03-31 2015-06-24 宣城状元郎电子科技有限公司 跟踪摄像、录音信息采集处理直播网络教学系统
JP2017084307A (ja) 2015-10-30 2017-05-18 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2018067115A (ja) * 2016-10-19 2018-04-26 セイコーエプソン株式会社 プログラム、追跡方法、追跡装置
JP7262973B2 (ja) * 2018-10-31 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281813A1 (ja) * 2021-07-09 2023-01-12 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び撮像方法

Also Published As

Publication number Publication date
US20200320729A1 (en) 2020-10-08
US11501459B2 (en) 2022-11-15
EP3734960A1 (en) 2020-11-04
EP3734960A4 (en) 2021-01-27
WO2019130729A1 (ja) 2019-07-04
CN111373732A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
EP3218781B1 (en) Spatial interaction in augmented reality
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
CN108469899B (zh) 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
US8971565B2 (en) Human interface electronic device
EP4198694A1 (en) Positioning and tracking method and platform, head-mounted display system, and computer-readable storage medium
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
US20140240225A1 (en) Method for touchless control of a device
US20110115892A1 (en) Real-time embedded visible spectrum light vision-based human finger detection and tracking method
TW201911133A (zh) 用於多個自由度之控制器追蹤
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
US11886643B2 (en) Information processing apparatus and information processing method
JP2012238293A (ja) 入力装置
US10444852B2 (en) Method and apparatus for monitoring in a monitoring space
CN110446995B (zh) 信息处理装置、信息处理方法及程序
US8970479B1 (en) Hand gesture detection
TWI499938B (zh) 觸控系統
WO2019130729A1 (ja) 情報処理装置、情報処理方法および情報処理システム
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
CN111819841B (zh) 信息处理装置、信息处理方法和存储介质
US9761009B2 (en) Motion tracking device control systems and methods
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102702585B1 (ko) 전자 장치 및 이의 제어 방법