JP2022047549A - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
JP2022047549A
JP2022047549A JP2019007069A JP2019007069A JP2022047549A JP 2022047549 A JP2022047549 A JP 2022047549A JP 2019007069 A JP2019007069 A JP 2019007069A JP 2019007069 A JP2019007069 A JP 2019007069A JP 2022047549 A JP2022047549 A JP 2022047549A
Authority
JP
Japan
Prior art keywords
coordinate system
axis
image
input coordinate
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019007069A
Other languages
English (en)
Inventor
拓也 池田
Takuya Ikeda
健太郎 井田
Kentaro Ida
脩 繁田
Osamu Shigeta
一真 高橋
Kazuma Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019007069A priority Critical patent/JP2022047549A/ja
Priority to US17/309,985 priority patent/US11550430B2/en
Priority to PCT/JP2019/051426 priority patent/WO2020149148A1/ja
Publication of JP2022047549A publication Critical patent/JP2022047549A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】映像に対するユーザの操作性を向上させる。【解決手段】情報処理装置は、ユーザ操作に基づいて、入力座標系を変更する座標系設定部と、第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う映像制御部とを備える。本技術は、例えば、映像の表示位置の移動が可能な駆動型表示装置を用いて、部屋の壁等に映像を表示するシステムに適用できる。【選択図】図2

Description

本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、映像に対するユーザの操作性を向上させるようにした情報処理装置、情報処理方法、及び、記録媒体に関する。
従来、壁等に投影されている映像に対してユーザの手を用いて遠隔操作する場合に、ユーザの手の指の向きに基づいて、入力座標系を設定することが提案されている(例えば、特許文献1参照)。
国際公開第2017/208628号
しかしながら、ユーザの手の指の向きに基づいて設定された入力座標系が、常に適切であるとは限らない。例えば、映像内のコンテンツの操作と映像の表示位置を移動させる操作とでユーザが異なる入力座標系を想起する場合、同じ入力座標系を用いることにより、ユーザが混乱するおそれがある。
本技術は、このような状況に鑑みてなされたものであり、映像に対するユーザの操作性を向上させるようにするものである。
本技術の一側面の情報処理装置は、ユーザ操作に基づいて、入力座標系を変更する座標系設定部と、第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う映像制御部とを備える。
本技術の一側面の情報処理方法は、情報処理装置が、ユーザ操作に基づいて、入力座標系を変更し、第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う。
本技術の一側面の記録媒体は、ユーザ操作に基づいて、入力座標系を変更し、第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う処理を実行させるためのプログラムが記録されている。
本技術の一側面においては、ユーザ操作に基づいて、入力座標系が変更され、異なる前記入力座標系におけるユーザ操作に基づいて、映像内のコンテンツの制御及び前記映像の表示位置の制御が行われる。
本技術を適用した情報処理システムの構成例及び設置例を示す図である。 情報処理システムの詳細な構成例を示すブロック図である。 駆動型表示装置の第1の構成例を示す図である。 駆動型表示装置の第2の構成例を示す図である。 表示空間モデル生成処理を説明するためのフローチャートである。 空間座標系の例を示す図である。 出力制御処理を説明するためのフローチャートである。 手の位置の検出処理を説明するための図である。 入力座標系の設定方法の第1の例を示す図である。 入力座標系の設定方法の第2の例を示す図である。 入力座標系の設定方法の第3の例を示す図である。 ユーザ操作の種類の例を説明するための図である。 座標系及び映像の表示位置の第1の例を示す図である。 座標系及び映像の表示位置の第1の例を示す図である。 座標系及び映像の表示位置の第1の例を示す図である。 座標系及び映像の表示位置の第2の例を示す図である。 座標系及び映像の表示位置の第2の例を示す図である。 座標系及び映像の表示位置の第2の例を示す図である。 座標系及び映像の表示位置の第2の例を示す図である。 座標系及び映像の表示位置の第3の例を示す図である。 座標系及び映像の表示位置の第3の例を示す図である。 座標系及び映像の表示位置の第3の例を示す図である。 座標系及び映像の表示位置の第4の例を示す図である。 座標系及び映像の表示位置の第4の例を示す図である。 座標系及び映像の表示位置の第4の例を示す図である。 座標系及び映像の表示位置の第5の例を示す図である。 座標系及び映像の表示位置の第5の例を示す図である。 座標系及び映像の表示位置の第5の例を示す図である。 座標系及び映像の表示位置の第6の例を示す図である。 座標系及び映像の表示位置の第6の例を示す図である。 座標系及び映像の表示位置の第6の例を示す図である。 座標系及び映像の表示位置の第7の例を示す図である。 座標系及び映像の表示位置の第7の例を示す図である。 座標系及び映像の表示位置の第7の例を示す図である。 座標系及び映像の表示位置の第8の例を示す図である。 座標系及び映像の表示位置の第8の例を示す図である。 座標系及び映像の表示位置の第8の例を示す図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
<<1.実施の形態>>
図1乃至図37を参照して、本技術の実施の形態について説明する。
<情報処理システム1の構成例及び設置例>
図1は、情報処理システム1の構成例及び設置例を示している。
図1は、情報処理システム1が部屋2に設置されている例を示している。部屋2は、天井2C、床2F、及び、四方の壁2Wa乃至壁2Wd(壁2Wdは不図示)により囲まれた直方体の空間であり、情報処理システム1により映像が表示される表示空間である。部屋2の中には、机3及び机4が配置されている。
情報処理システム1は、検出装置11、情報処理装置12、及び、駆動型表示装置13を備える。検出装置11及び駆動型表示装置13は、例えば、天井2Cに設けられる。情報処理装置12は、部屋2の中及び外のいずれに設けられてもよい。
検出装置11は、ユーザU1によるユーザ操作を検出するための3次元のデプス画像(以下、ユーザ画像と称する)の撮影を行う。検出装置11は、ユーザ画像を含むユーザ画像データを情報処理装置12に送信する。
情報処理装置12は、ユーザ画像データに基づいて、ユーザ操作を検出する。また、情報処理装置12は、駆動型表示装置13から供給される環境画像データに基づいて、表示空間(例えば、部屋2の室内)の3次元形状のモデル(以下、表示空間モデルと称する)を生成する。情報処理装置12は、検出したユーザ操作、及び、表示空間モデル等に基づいて、駆動型表示装置13の映像及び音の出力制御を行う。
駆動型表示装置13は、映像の表示位置(投影位置)を変更可能な表示装置である。駆動型表示装置13は、情報処理装置12の制御の下に、表示空間の任意の位置に映像を投影し、映像に合わせて音を出力する。また、駆動型表示装置13は、表示空間モデルを生成するための3次元のデプス画像(以下、環境画像と称する)の撮影を行う。駆動型表示装置13は、環境画像を含む環境画像データを情報処理装置12に供給する。
<情報処理システム1の詳細な構成例>
図2は、情報処理システム1の詳細な構成例を示している。
検出装置11は、デプスセンサ101を備える。
デプスセンサ101には、例えば、赤外光を用いたToF(Time of Flight)方式、Light Coding方式、アクティブステレオ方式等の任意の方式のデプスセンサが用いられる。デプスセンサ101は、ユーザ画像の撮影を行い、得られたユーザ画像データを情報処理装置12に供給する。
情報処理装置12は、I/F(インタフェース)部121、操作体検出部122、操作内容認識部123、環境認識部124、アプリケーション制御部126、及び、出力制御部127を備える。
I/F部121は、検出装置11及び駆動型表示装置13と各種のデータの送受信を行う。I/F部121は、検出装置11及び駆動型表示装置13から受信したデータを情報処理装置12の各部に供給し、情報処理装置12の各部から取得したデータを検出装置11又は駆動型表示装置13に送信する。
操作体検出部122は、I/F部121を介して、デプスセンサ101からユーザ画像データを受信する。操作体検出部122は、ユーザ画像内において、ユーザU1の操作体であるユーザU1の手の検出処理及び追跡処理を行う。操作体検出部122は、ユーザ画像、及び、ユーザ画像内のユーザU1の手の位置を示す情報を含む操作体情報を操作内容認識部123及び座標系設定部125に供給する。
操作内容認識部123は、操作体情報に基づいて、ユーザ操作の内容、及び、ユーザ操作が行われた位置を認識する。なお、ユーザ操作が行われた位置は、座標系設定部125の入力座標系設定部143により設定される入力座標系を用いて表される。操作内容認識部123は、ユーザ操作の内容を示す情報を座標系設定部125に供給し、ユーザ操作の内容及び位置を含むユーザ操作情報をアプリケーション制御部126に供給する。
環境認識部124は、I/F部121を介して、駆動型表示装置13のデプスセンサ183から環境画像データを受信する。環境認識部124は、環境画像データに基づいて、表示空間モデルの生成処理、並びに、表示空間内の検出装置11及び駆動型表示装置13の位置の認識処理を行う。環境認識部124は、表示空間モデルを示す情報を座標系設定部125、アプリケーション制御部126、及び、映像生成部161に供給する。環境認識部124は、検出装置11及び駆動型表示装置13の位置を示す情報を座標系設定部125及び映像生成部161に供給する。また、環境認識部124は、デプスセンサ183による環境画像の撮影方向を、出力制御部127の駆動制御部162に指示する。
座標系設定部125は、各種の座標系の設定処理を行う。座標系設定部125は、空間座標系設定部141、UI(ユーザインタフェース)座標系設定部142、及び、入力座標系設定部143を備える。
空間座標系設定部141は、表示空間モデル等に基づいて、表示空間内の位置を表すための座標系である空間座標系を設定する。空間座標系設定部141は、設定した空間座標系を示す情報を、環境認識部124、アプリケーション制御部126、及び、出力制御部127に供給する。
UI座標系設定部142は、表示空間モデル、及び、アプリケーション制御部126の映像制御部152から供給される映像の表示位置を示す表示位置情報等に基づいて、UI座標系を設定する。UI座標系は、駆動型表示装置13により表示される映像内の位置を表すための座標系である。UI座標系設定部142は、設定したUI座標系を示す情報をアプリケーション制御部126に供給する。
入力座標系設定部143は、操作体情報、ユーザ操作情報、表示空間モデル、及び、アプリケーション制御部126の映像制御部152から供給される映像の表示位置を示す表示位置情報等に基づいて、入力座標系を設定する。入力座標系設定部143は、設定した入力座標系を示す情報を操作内容認識部123及びアプリケーション制御部126に供給する。
アプリケーション制御部126は、各種のアプリケーションプログラムを実行することにより所定の情報処理を行うとともに、駆動型表示装置13により出力される映像及び音の制御を行う。アプリケーション制御部126は、情報処理部151、映像制御部152、及び、音制御部153を備える。
情報処理部151は、各種のアプリケーションプログラムを実行することにより所定の情報処理を行う。
映像制御部152は、ユーザ操作情報、及び、情報処理部151による情報処理の結果等に基づいて、駆動型表示装置13から出力される映像の制御を行う。例えば、映像制御部152は、映像内のコンテンツ(以下、映像コンテンツとも称する)及び映像の表示位置等を制御する。映像制御部152は、映像コンテンツ及び映像の表示位置を示す情報を含む映像情報を出力制御部127に供給する。
音制御部153は、ユーザ操作情報、及び、情報処理部151による情報処理の結果等に基づいて、駆動型表示装置13から出力される音の制御を行う。例えば、音制御部153は、音の内容(以下、音コンテンツと称する)等を制御する。音制御部153は、音コンテンツを示す情報を含む音情報を出力制御部127に供給する。
出力制御部127は、駆動型表示装置13による映像及び音の出力を制御する。出力制御部127は、映像生成部161、駆動制御部162、及び、音生成部163を備える。
映像生成部161は、映像制御部152により設定された映像コンテンツを含む映像を、映像制御部152により設定された表示位置に表示するための映像データを生成する。映像生成部161は、生成した映像データを、I/F部121を介して駆動型表示装置13に供給する。
駆動制御部162は、映像制御部152により設定された表示位置に映像が表示されるように、I/F部121を介して、駆動型表示装置13の駆動機構184を制御する。
音生成部163は、音制御部153により設定された音コンテンツを含む音を出力するための音データを生成する。音生成部163は、生成した音データを、I/F部121を介して駆動型表示装置13に供給する。
駆動型表示装置13は、プロジェクタ181、スピーカ182、デプスセンサ183、及び、駆動機構184を備える。
プロジェクタ181は、映像生成部161から受信した映像データに基づく映像を表示空間内に投影する。
スピーカ182は、音生成部163から受信した音データに基づく音を出力する。なお、スピーカ182は、一般的なスピーカにより構成されてもよいし、指向性の高い超音波スピーカにより構成されてもよい。スピーカ182が超音波スピーカにより構成される場合、例えば、超音波の出力方向がプロジェクタ181の投影方向と平行になるように、スピーカ182が設置される。
デプスセンサ183には、デプスセンサ101と同様に任意の方式のデプスセンサが用いられる。デプスセンサ183は、環境画像の撮影を行い、得られた環境画像データを情報処理装置12に供給する。
なお、プロジェクタ181とデプスセンサ183をなるべく近くに配置するとともに、プロジェクタ181の投影方向とデプスセンサ183の検出方向がなるべく平行になるようにすることが望ましい。これにより、デプスセンサ183の検出結果に基づいて、プロジェクタ181から出力される映像の幾何補正を行う場合の精度が向上する。
駆動機構184は、プロジェクタ181の映像の表示位置(投影位置)を移動させるための機構を備える。
<駆動型表示装置13の構成例>
次に、図3及び図4を参照して、駆動型表示装置13の構成例について説明する。
図3は、プロジェクタ181が可動式の駆動型表示装置13の構成例を模式的に示している。具体的には、プロジェクタ181は、支持部材201により支持されている。支持部材201の構成は任意である。例えば、支持部材201は、天井から吊り下げるタイプでもよいし、床に置くタイプでもよい。そして、支持部材201により支持された状態で、図示せぬ駆動機構184によりプロジェクタ181の向きを変えることにより、プロジェクタ181により投影される映像の表示位置が移動する。
図4は、プロジェクタ181が固定式の駆動型表示装置13の構成例を示している。具体的には、プロジェクタ181は、例えば、設置部材221を用いて、天井等から吊り下げられる。また、プロジェクタ181のレンズの前には、支持部材222により支持されたミラー223が設けられている。そして、図示せぬ駆動機構184により、支持部材212に支持された状態で、ミラー223の向きを変えることにより、プロジェクタ181により投影される映像の表示位置が移動する。
なお、以下では、主にプロジェクタ181が可動式の駆動型表示装置13を用いた場合の例について説明する。
<表示空間モデル生成処理>
次に、図5のフローチャートを参照して、情報処理システム1により実行される表示空間モデル生成処理について説明する。
この処理は、例えば、情報処理システム1が表示空間に設置されたとき、又は、表示空間に変更が加えられたとき実行される。
ステップS1において、環境認識部124は、変数iに1を代入する。
なお、変数iは、環境画像の撮影方向を示す変数である。デプスセンサ183を駆動可能な範囲内において表示空間(例えば、部屋2の室内)をくまなく撮影できるように、1番目からi_max番目までの撮影方向が予め設定されている。例えば、i番目の撮影方向がパン角Pi及びチルト角Tiといったように、各撮影方向が設定されている。
ステップS2において、駆動型表示装置13は、デプスセンサ183をi番目の撮影方向に向ける。具体的には、環境認識部124は、デプスセンサ183をi番目の撮影方向に向けるように駆動制御部162に指示する。駆動制御部162は、I/F部121を介して、駆動型表示装置13の駆動機構184を制御して、駆動型表示装置13の向きを変えることにより、デプスセンサ183をi番目の撮影方向に向ける。
ステップS3において、デプスセンサ183は、環境画像を撮影する。すなわち、デプスセンサ183は、i番目の撮影方向の環境画像を撮影する。デプスセンサ183は、得られた環境画像データを、I/F部121を介して、環境認識部124に供給する。
ステップS4において、環境認識部124は、変数iがi_maxと等しいか否かを判定する。変数iがi_maxと等しくないと判定された場合、処理はステップS5に進む。
ステップS5において、環境認識部124は、変数iの値を1つインクリメントする。
その後、処理はステップS2に戻り、ステップS4において、変数iがi_maxと等しいと判定されるまで、ステップS2乃至ステップS5の処理が繰り返し実行される。これにより、1番目からi_max番目までの撮影方向の環境画像が撮影される。
一方、ステップS4において、変数iがi_maxと等しいと判定された場合、処理はステップS6に進む。
ステップS6において、環境認識部124は、表示空間モデルを生成する。すなわち、環境認識部124は、表示空間内の各撮影方向の3次元形状を表す環境画像を統合することにより、表示空間全体の3次元形状を表す表示空間モデルを生成する。環境認識部124は、表示空間モデル示す情報を座標系設定部125、アプリケーション制御部126、及び、出力制御部127に供給する。
なお、表示空間モデルの生成には、任意の手法を用いることができる。
ステップS7において、空間座標系設定部141は、空間座標系を設定する。すなわち、空間座標系設定部141は、表示空間モデルに基づいて、表示空間内の位置を表すための空間座標系を設定する。空間座標系設定部141は、空間座標系を示す情報、例えば、表示空間モデル内の空間座標系の位置を示す情報を、環境認識部124、アプリケーション制御部126、及び、出力制御部127に供給する。
なお、空間座標系は、表示空間内の位置を表すことが可能であれば、任意の座標系に設定することができる。例えば、図6に示されるように、部屋2の壁2Wb、壁2Wc、及び、床2Fの交点を原点とし、壁2Wbが横方向に延びる方向をXs軸、垂直上方向をYs軸、壁2Wcが横方向に延びる方向をZs軸とする空間座標系が設定される。
ステップS8において、環境認識部124は、検出装置11及び駆動型表示装置13の位置を検出する。具体的には、環境認識部124は、表示空間モデルに基づいて、空間座標系における検出装置11及び駆動型表示装置13の位置を検出する。環境認識部124は、検出装置11及び駆動型表示装置13の位置を示す情報を座標系設定部125及び出力制御部127に供給する。
駆動型表示装置13の位置は、例えば、映像を所望の位置に表示させるためのプロジェクタ181の位置及び姿勢の算出に用いられる。検出装置11の位置は、デプスセンサ101の位置及び姿勢の算出に用いられ、デプスセンサ101の位置及び姿勢は、入力座標系の設定に用いられる。
その後、表示空間モデル生成処理は終了する。
<出力制御処理>
次に、図7のフローチャートを参照して、情報処理システム1により実行される出力制御処理について説明する。
この処理は、例えば、映像の表示を伴うアプリケーションプログラムの起動の指令が情報処理装置12に入力されたとき開始される。
ステップS51において、情報処理部151は、アプリケーションプログラムを起動する。
これに合わせて、デプスセンサ101は、ユーザ画像を撮影し、得られたユーザ画像データを、I/F部121を介して、操作体検出部122に供給する処理を開始する。
操作体検出部122は、ユーザ画像内のユーザU1の手の位置の検出及び追跡を行う処理を開始する。例えば、操作体検出部122は、図8の斜線部により示されるように、デプス画像内のユーザの手の各指の指先の検出処理及び追跡処理を開始する。また、操作体検出部122は、ユーザ画像データ、及び、ユーザ画像内のユーザU1の手の位置を示す情報を含む操作体情報を操作内容認識部123及び座標系設定部125に供給する処理を開始する。
ステップS52において、操作内容認識部123は、ユーザ操作が開始されたか否かを判定する。具体的には、操作内容認識部123は、操作体情報に基づいて、ユーザ操作の内容を認識する。操作内容認識部123は、入力座標系の設定用のユーザ操作を認識するまで、ユーザ操作が開始されていないと判定する。
一方、操作内容認識部123は、入力座標系の設定用のユーザ操作を認識した場合、ユーザ操作が開始されたと判定し、処理はステップS53に進む。
図9乃至図11は、入力座標系の設定用のユーザ操作の例を示している。
例えば、ユーザU1は、入力座標系を設定する場合、手を所定の形にした状態で、机3又は机4等の所望の平面(以下、入力面と称する)をタッチする。例えば、図9に示されるように、ユーザU1は、人差し指を伸ばした状態で、所望の平面をタッチする。また、例えば、図10又は図11に示されるように、ユーザU1は、手を広げた状態で、所望の平面をタッチする。
操作内容認識部123は、ユーザ画像におけるユーザU1の手及び入力面の3次元情報に基づいて、ユーザU1の手の形、及び、ユーザU1の手の入力面へのタッチを検出する。
なお、ユーザの手のタッチの検出アルゴリズムには、例えば、”R. Xiao, S. Hudson, and C. Harrison, ”Supporting responsive cohabitation between virtual interfaces and physical objects on everyday surfaces,” HCI, vol. 1, no. 1, p. 12, 2017”に記載されている方法等が用いられる。
ステップS53において、入力座標系設定部143は、入力座標系を設定する。
具体的には、操作内容認識部123は、入力座標系の設定用のユーザ操作が行われたことを座標系設定部125に通知する。
入力座標系設定部143は、操作体情報に基づいて、入力座標系の設定用のユーザの入力が行われたときのユーザU1の手の位置及び形状を認識する。そして、入力座標系設定部143は、操作体であるユーザU1の手の向きに基づいて、入力座標系を設定する。
例えば、図9の例では、人差し指の付け根付近に対応する入力面上の点が、入力座標系の原点に設定される。また、入力面において原点を通り、人差し指の指す方向に延びる軸が、入力座標系のYi軸に設定され、入力面において原点を通りYi軸に直交する軸が、入力座標系のXi軸に設定される。
例えば、図10の例では、広げた手により規定される矩形の領域の中心に対応する入力面上の点が、入力座標系の原点に設定される。また、入力面において原点を通り、矩形の領域のユーザの指が伸びる方向と平行な軸が、入力座標系のYi軸に設定され、入力面において原点を通りYi軸に直交する軸が、入力座標系のXi軸に設定される。
例えば、図11の例では、手の甲の中心と対応する入力面上の点が、入力座標系の原点に設定される。また、入力面において原点と人差し指の指先を通る軸が、入力座標系のYi軸に設定され、入力面において原点を通りYi軸に直交する軸が、入力座標系のXi軸に設定される。
入力座標系設定部143は、設定した入力座標系を示す情報、例えば、表示空間モデル及びユーザ画像における入力座標系の位置を示す情報を操作内容認識部123及びアプリケーション制御部126に供給する。
ステップS54において、操作内容認識部123は、ユーザ操作の内容を認識する。具体的には、操作内容認識部123は、操作体検出部122により検出されたユーザU1の手の形状及び位置に基づいて、ユーザ操作の内容、及び、ユーザ操作が行われた入力座標系の位置を認識する。
図12は、ユーザ操作の種類及び操作方法の例を示している。
この例では、ユーザ操作の種類として、UI(ユーザインタフェース)操作、映像の局所移動、及び、映像の空間移動の3種類が例示されている。
UI操作は、映像内の映像コンテンツに対する各種の操作を行うためのユーザ操作である。例えば、映像コンテンツのスクロール、拡大、縮小、映像コンテンツ内の位置の指示又は選択等の操作が該当する。例えば、ユーザは、人差し指等の1本の指により入力面をスライド又はタップすることにより、UI操作を行う。また、例えば、ユーザは、親指と人差し指等の2本の指により入力面をピンチイン又はピンチアウトすることにより、UI操作を行う。
映像の局所移動は、例えば、映像の表示位置を同じ入力面の所定の狭い範囲内で移動させるためのユーザ操作である。例えば、ユーザは、人差し指、中指、及び、薬指等の3本の指を入力面上でスライドすることにより、映像の局所移動を行う。
映像の空間移動は、例えば、映像の表示位置を同じ入力面内で所定の範囲以上移動させたり、異なる表示面に映像を移動させたりするためのユーザ操作である。例えば、ユーザは、5本の指又は掌全体を入力面上でスライドすることにより、映像の空間移動を行う。
操作内容認識部123は、ユーザ操作の内容を示す情報を座標系設定部125に供給し、ユーザ操作の内容及び位置を含むユーザ操作情報をアプリケーション制御部126に供給する。
ステップS55において、情報処理部151は、アプリケーションプログラムの終了が指令されたか否かを判定する。例えば、情報処理部151は、アプリケーションプログラムの終了を指令するユーザ操作が認識されていない場合、アプリケーションプログラムの終了が指令されていないと判定し、処理はステップS56に進む。
ステップS56において、入力座標系設定部143は、ユーザ操作の内容、及び、後述するステップS59において設定される映像の表示位置等に基づいて、入力座標系の変更が必要か否かを判定する。例えば、入力座標系設定部143は、ユーザ操作がUI操作又は映像の局所移動から映像の空間移動に変化した場合、又は、映像の空間移動からUI操作又は映像の局所移動に変化した場合、入力座標系の変更が必要であると判定する。また、例えば、入力座標系設定部143は、入力座標系の設定用のユーザ操作が行われた場合、入力座標系の変更が必要であると判定する。さらに、例えば、入力座標系設定部143は、映像の表示位置の移動に伴い、映像が表示される表示面が変更された場合、入力座標系の変更が必要であると判定する。そして、入力座標系の変更が必要であると判定された場合、処理はステップS57に進む。
ステップS57において、入力座標系設定部143は、入力座標系を変更する。入力座標系設定部143は、変更後の入力座標系を示す情報、例えば、表示空間モデル及びユーザ画像における入力座標系の位置を示す情報を操作内容認識部123及びアプリケーション制御部126に供給する。
なお、入力座標系の変更方法については、後述する。
その後、処理はステップS58に進む。
一方、ステップS56において、入力座標系の変更が必要ないと判定された場合、ステップS57の処理はスキップされ、処理はステップS58に進む。
ステップS58において、アプリケーション制御部126は、出力内容を設定する。具体的には、映像制御部152は、入力座標系設定部143により設定されたユーザ操作の内容及び位置、並びに、情報処理部151による情報処理の結果等に基づいて、駆動型表示装置13から出力する映像内の映像コンテンツを設定する。
また、音制御部153は、ユーザ操作の内容及び位置、並びに、情報処理部151による情報処理の結果等に基づいて、駆動型表示装置13から出力する音の内容である音コンテンツを設定する。音制御部153は、音コンテンツを示す情報を含む音情報を出力制御部127に供給する。
ステップS59において、映像制御部152は、映像の表示位置を設定する。具体的には、映像制御部152は、入力座標系設定部143により設定された入力座標系におけるユーザ操作の内容及び位置等に基づいて、空間座標系における映像の表示位置を設定する。映像制御部152は、映像コンテンツ及び表示位置を示す情報を含む映像情報を出力制御部127に供給する。
また、UI座標系設定部142は、映像制御部152により設定された映像の表示位置及び表示空間モデルに基づいて、UI座標系を設定する。UI座標系設定部142は、設定したUI座標系を示す情報、例えば、表示空間モデル内のUI座標系の位置を示す情報をアプリケーション制御部126に供給する。
ステップS60において、情報処理システム1は、映像及び音を出力する。具体的には、映像生成部161は、設定された映像コンテンツを含む映像を、設定された表示位置に表示するための映像データを生成する。このとき、プロジェクタ181と表示面の位置関係、表示面の形状等に基づいて、映像の幾何補正が行われる。映像生成部161は、生成した映像データを、I/F部121を介して駆動型表示装置13に供給する。
駆動制御部162は、設定された表示位置に映像が表示されるように、I/F部121を介して駆動型表示装置13の駆動機構184を制御する。
プロジェクタ181は、映像生成部161から受信した映像データに基づく映像を表示面に投影する。
音生成部163は、設定された音コンテンツを含む音を出力するための音データを生成する。音生成部163は、生成した音データを、I/F部121を介して駆動型表示装置13に供給する。
スピーカ182は、音生成部163から受信した音データに基づく音を出力する。
その後、処理はステップS54に戻り、ステップS55において、アプリケーションプログラムの終了が指令されたと判定されるまで、ステップS54乃至ステップS60の処理が繰り返し実行される。
一方、ステップS55において、例えば、情報処理部151は、アプリケーションプログラムの終了を指令するユーザ操作が認識された場合、アプリケーションプログラムの終了が指令されたと判定し、処理はステップS61に進む。
ステップS61において、情報処理部151は、アプリケーションプログラムを終了する。
その後、出力制御処理は終了する。
<座標系及び映像の表示位置の具体例>
次に、図13乃至図37を参照して、図7の出力制御処理における座標系及び映像の表示位置の具体例について説明する。
<第1の例>
まず、図13乃至図15を参照して、第1の例について説明する。
図13の例では、空間座標系は、図6の例と同様に設定されている。
また、ユーザU1が壁2Wcの方向を向き、机3の上面が入力面に設定されている。そして、入力座標系のXi軸は、机3の上面において、空間座標系のZs軸と平行かつ逆方向に設定されている。Yi軸は、机3の上面において、空間座標系のXs軸と平行かつ逆方向に設定されている。Zi軸は、机3の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定されている。
さらに、ユーザU1の右方向の壁2Wbが表示面に設定され、映像P1が壁2Wbに表示されている。また、映像P1は、各辺が壁2Wbの各辺に平行になるように表示されている。従って、UI座標系のXu軸は、空間座標系のXs軸と平行かつ同じ方向に設定され、Yu軸は、空間座標系のYs軸と平行かつ同じ方向に設定されている。
この状態においてUI操作が行われる場合、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P1内の映像コンテンツのXu軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1内の映像コンテンツのYu軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びYi軸方向の動きに応じて、映像P1内の映像コンテンツがXu軸方向及びYu軸方向にスクロールする。
図14は、図13と同様の状態において、所定の範囲S1内において映像P1の局所移動が行われる場合の例を示している。
この場合も、入力座標系はUI操作が行われる場合と同様に設定され、UI操作が行われる場合と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P1の表示位置のXu軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1の表示位置のYu軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びYi軸方向の動きに応じて、映像P1の表示位置が壁2Wb上をXu軸方向及びYu軸方向に移動する。この例では、ユーザU1が、Xi軸の負の方向かつYi軸の正の方向に手を動かすことにより、映像P1の表示位置が、壁2Wb上をXu軸の負の方向かつYu軸の正の方向に斜めに移動する例が示されている。
図15は、図13と同様の状態において、映像P1の空間移動が行われる場合の例を示している。
この場合、表示面(空間座標系)に応じて入力座標系が変更される。具体的には、入力面及び入力座標系の原点の位置はそのままで(入力座標系と原点は共通で)、入力座標系のXi軸が、机3の上面において、空間座標系のXs軸と平行かつ同じ方向に設定される。Yi軸は、机3の上面において、空間座標系のZs軸と平行かつ逆方向に設定される。Zi軸は、机3の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定される。
そして、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P1の表示位置のXs軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1の表示位置のYs軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びYi軸方向の動きに応じて、映像P1の表示位置が壁2Wb上をXs軸方向及びYs軸方向に移動する。この例では、ユーザU1が、Xi軸の負の方向に手を動かすことにより、映像P1の表示位置が、壁2Wb上をXs軸の負の方向に移動する例が示されている。
このように、ユーザ操作が行われる入力面(例えば、机3の上面)と映像P1が表示される表示面(例えば、壁2Wb)とが互いに垂直な場合、ともに表示面に平行な入力座標系の軸(Xi軸)と空間座標系の軸(Xs軸)とが対応付けられる。これにより、ユーザU1の手のXi軸方向の動きと表示面における映像P1の移動方向とが一致し、ユーザU1のXi軸方向の手の動きに応じて、映像P1が同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P1の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P1の空間移動からUI操作又は映像P1の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図15の状態から、図13又は図14の状態に変更される。
<第2の例>
次に、図16乃至図19を参照して、第2の例について説明する。
図16の例では、空間座標系は、図13の例と同様に設定されている。また、映像P1が、図13の例と同様に表示され、UI座標系が、図13の例と同様に設定されている。一方、図13の例と異なり、ユーザU1が壁2Wbの方向を向き、入力座標系が図15の例と同様に設定されている。
この状態において、UI操作が行われる場合、図13の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1内の映像コンテンツが、図13の例と同様の動きをする。ただし、図13の例と入力座標系の向きが異なるため、映像P1内の映像コンテンツを操作するときにユーザU1が手を動かす方向が異なる。
図17は、図16と同様の状態において、映像P1の局所移動が行われる場合の例を示している。
この場合も、図14の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1の表示位置が、図14の例と同様の動きをする。ただし、図14の例と入力座標系の向きが異なるため、映像P1を局所移動するときにユーザU1が手を動かす方向が異なる。
図18は、図16と同様の状態において、映像P1の空間移動が行われる場合の例を示している。
この場合、入力座標系のXi軸と空間座標系のXs軸とが元々平行かつ同じ方向に設定されているため、入力座標系は変更されない。そして、図15の例と同様に、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。従って、図15の例と入力座標系の向きが同じであるため、図15の例と同様の手の動きにより、映像P1の表示位置を動かすことができる。
図19は、映像P1を壁2Wbから壁2Wcに空間移動させる場合の例を示している。
この場合、映像P1が壁2Wbから壁2Wcに移動した後、表示面の変更に伴い、表示面(空間座標系)に応じて入力座標系が変更される。具体的には、入力面及び入力座標系の原点の位置はそのままで、入力座標系のZi軸が、机3の上面において、空間座標系のZs軸と平行かつ同じ方向に設定される。入力座標系のYi軸は、机3の上面において、空間座標系のXs軸と平行かつ逆方向に設定される。入力座標系のXi軸は、机3の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定される。
そして、入力座標系のZi軸と空間座標系のZs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。これにより、例えば、ユーザU1のZi軸方向の手の動きが、映像P1の表示位置のZs軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1の表示位置のYs軸方向の動きに反映される。例えば、ユーザU1の手のZi軸方向及びYi軸方向の動きに応じて、映像P1の表示位置が壁2Wc上をZs軸方向及びYs軸方向に移動する。図19のBの例では、ユーザU1が、Zi軸の正の方向に手を動かすことにより、映像P1の表示位置が、壁2Wc上をZs軸の正の方向に移動する例が示されている。
このように、映像P1の表示面の移動に応じて入力座標系を変更し、ともに表示面に平行な入力座標系の軸(Zi軸)と空間座標系の軸(Zs軸)とが対応付けられる。これにより、ユーザU1の手のZi軸方向の動きと表示面における映像P1の移動方向とが一致し、ユーザU1のZi軸方向の手の動きに応じて、映像P1が同じ方向に移動する。その結果、映像P1の表示面が変更されても、ユーザU1が、手の動きと映像P1の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。また、ユーザU1は、表示面に手を触れなくても、入力面上の操作だけで、映像P1を異なる表示面に移動させることができる。
なお、映像P1の表示面が移動した場合に、例えば、移動後すぐに入力座標系を変更するようにしてもよいし、映像P1の空間移動が継続している間は、入力座標系を変更せずに、映像P1の空間移動が停止してから(例えば、空間移動の操作が終了してから)、入力座標系を変更するようにしてもよい。
また、例えば、フリック等の操作により、ユーザU1が入力面から手を放した後も、映像P1が移動し続け、映像P1の表示面が移動した後、映像P1の移動が停止するようにしてもよい。この場合、映像P1の移動が停止した後、入力座標系が変更される。
なお、ユーザ操作が映像P1の空間移動からUI操作又は映像P1の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図18又は図19の状態から、図16又は図17の状態に変更される。
<第3の例>
次に、図20乃至図22を参照して、第3の例について説明する。
図20の例では、空間座標系は、図13の例と同様に設定されている。また、映像P1が、図13の例と同様に表示され、UI座標系が、図13の例と同様に設定されている。
一方、入力座標系は、図13の例と異なり、空間座標系に対して傾いている。具体的には、机3の上面が入力面に設定されている。そして、入力座標系のXi軸は、机3の上面において、空間座標系のXs軸及びZs軸に対して傾くように設定されている。Yi軸は、机3の上面において、Xi軸に垂直になり、空間座標系のXs軸及びZs軸に対して傾くように設定されている。Zi軸は、机3の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定されている。
この状態においてUI操作が行われる場合、図13の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1内の映像コンテンツが、図13の例と同様の動きをする。ただし、図13の例と入力座標系の向きが異なるため、映像P1内の映像コンテンツを操作するときにユーザU1が手を動かす方向が異なる。
図21は、図20と同様の状態において、映像P1の局所移動が行われる場合の例を示している。
この場合も、図14の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1の表示位置が、図14の例と同様の動きをする。ただし、図14の例と入力座標系の向きが異なるため、映像P1を局所移動するときにユーザU1が手を動かす方向が異なる。
図22は、図20と同様の状態において、映像P1の空間移動が行われる場合の例を示している。
この場合、図15の例と同様に、空間座標系に応じて入力座標系が変更される。これにより、入力座標系のXi軸が、表示面である壁2Wbに対して平行になる。そして、図15の例と同様の手の動きにより、映像P1の表示位置を動かすことができる。
このように、入力面と表示面が垂直であり、かつ、入力座標系の軸が表示面に対して傾いている場合、映像P1の空間移動が行われるとき、入力座標系の1つの軸(例えば、Xi軸)が表示面に対して平行になるように、入力座標系が変更される。そして、ともに表示面に平行な入力座標系の軸(Xi軸)と空間座標系の軸(Xs軸)とが対応付けられる。これにより、ユーザU1の手のXi軸方向の動きと表示面における映像P1の移動方向とが一致し、ユーザU1のXi軸方向の手の動きに応じて、映像P1が同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P1の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P1の空間移動からUI操作又は映像P1の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図22の状態から、図20又は図21の状態に変更される。
<第4の例>
次に、図23乃至図25を参照して、第4の例について説明する。
図23の例では、空間座標系は、図13の例と同様に設定されている。また、映像P1が、図13の例と同様に表示され、UI座標系が、図13の例と同様に設定されている。
一方、入力座標系は、図13の例と異なっている。具体的には、壁2Waが、入力面に設定されている。そして、入力座標系のXi軸は、壁2Waにおいて、空間座標系のZs軸に平行かつ同じ方向に設定されている。Yi軸は、空間座標系のYs軸に平行かつ同じ方向に設定されている。Zi軸は、壁2Waに垂直な方向、すなわち、空間座標系のXs軸と平行かつ逆方向に設定されている。
この状態において、UI操作が行われる場合、図13の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1内の映像コンテンツが、図13の例と同様の動きをする。ただし、図13の例と入力面及び入力座標系の向きが異なるため、映像P1内の映像コンテンツを操作するときにユーザU1が手を動かす方向が異なる。
図24は、図23と同様の状態において、映像P1の局所移動が行われる場合の例を示している。
この場合も、図14の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1の表示位置が、図14の例と同様の動きをする。ただし、図14の例と入力面及び入力座標系の向きが異なるため、映像P1を局所移動するときにユーザU1が手を動かす方向が異なる。
図25は、図21と同様の状態において、映像P1の空間移動が行われる場合の例を示している。
この場合、入力座標系のYi軸と空間座標系のYs軸とが元々平行かつ同じ方向に設定されているため、入力座標系は変更されない。そして、図15の例と同様に、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P1の表示位置が、図15の例と同様の動きをする。ただし、図15の例と入力座標系の向きが異なるため、映像P1の表示位置を移動するときにユーザU1が手を動かす方向が異なる。
このように、ユーザ操作が行われる入力面(例えば、壁2Wa)と映像P1が表示される表示面(例えば、壁2Wb)とが互いに垂直な場合、ともに表示面に平行な入力座標系の軸(Yi軸)と空間座標系の軸(Ys軸)とが対応付けられる。これにより、ユーザU1の手のYi軸方向の動きと表示面における映像P1の移動方向とが一致し、ユーザU1のYi軸方向の手の動きに応じて、映像P1が同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P1の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P1の空間移動からUI操作又は映像P1の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図25の状態から、図23又は図24の状態に変更される。
<第5の例>
次に、図26乃至図28を参照して、第5の例について説明する。
図26の例では、空間座標系及び入力座標系は、図16の例と同様に設定されている。
また、映像P11が、図16の例と同様に、壁2Wbに表示されている。ただし、図16の例と異なり、映像P11が、空間座標系のXs軸及びYs軸に対して傾いている。そして、UI座標系のXu軸は、空間座標系のXs軸に対して斜め方向に設定されている。UI座標系のYu軸は、空間座標系のYs軸に対して斜め方向に設定されている。
この状態において、UI操作が行われる場合、図16の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P11内の映像コンテンツが、図16の例と同様の動きをする。ただし、空間座標系におけるUI座標系の位置及び向きが図16の例と異なるため、空間座標系において映像P11内の映像コンテンツの動く方向は、図16の例と異なる。
図27は、図26と同様の状態において、映像P11の局所移動が行われる場合の例を示している。
この場合も、図17の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。ただし、図17の例と比較して、空間座標系におけるUI座標系の位置及び向きが異なるため、同じユーザU1の手の動きに対して、空間座標系において映像P11の表示位置が動く方向が異なる。この例では、ユーザU1が、Xi軸の負の方向かつYi軸の正の方向に手を動かすことにより、映像P11の表示位置が、壁2Wb上をXu軸の負の方向かつYu軸の正の方向に斜めに移動する例が示されている。
図28は、図26と同様の状態において、映像P11の空間移動が行われる場合の例を示している。
この場合、図18の例と同様に、入力座標系のXi軸と空間座標系のXs軸とが元々平行かつ同じ方向に設定されているため、入力座標系は変更されない。そして、図18の例と同様に、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。従って、図18の例と入力座標系の向きが同じであるため、図18の例と同様の手の動きにより、映像P11の表示位置を動かすことができる。ただし、映像P11は、空間座標系に対して傾いた状態で移動する。
このように、映像P11が空間座標系の軸に対して傾いて表示されている場合、上述した例と同様の方法により、映像P11が傾いたまま、映像P11の局所移動及び空間移動が行われる。
なお、ユーザ操作が映像P11の空間移動からUI操作又は映像P11の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図28の状態から、図26又は図27の状態に変更される。
<第6の例>
次に、図29乃至図31を参照して、第6の例について説明する。
図29の例では、空間座標系及び入力座標系は、図13の例と同様に設定されている。
また、映像P21が、天井2Cに表示されている。すなわち、天井2Cが表示面に設定されている。UI座標系のXu軸は、空間座標系のZs軸と平行かつ逆方向に設定されている。Yu軸は、空間座標系のXs軸と平行かつ同じ方向に設定されている。
この状態において、UI操作が行われる場合、図13の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P21内の映像コンテンツが、図13の例と同様の動きをする。ただし、空間座標系におけるUI座標系の位置及び向きが図13の例と異なるため、空間座標系において映像P21内の映像コンテンツの動く方向は、図13の例と異なる。
図30は、図29と同様の状態において、映像P21が所定の範囲S21内にいて局所移動が行われる場合の例を示している。
この場合も、図14の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。ただし、図14の例と比較して、空間座標系におけるUI座標系の位置及び向きが異なるため、同じユーザU1の手の動きに対して、空間座標系において映像P21の表示位置が動く方向が異なる。この例では、ユーザU1が、Xi軸の正の方向かつYi軸の正の方向に手を動かすことにより、映像P21の表示位置が、天井Wc上をXu軸の正の方向かつYu軸の正の方向に斜めに移動する例が示されている。
図31は、図29と同様の状態において、映像P21の空間移動が行われる場合の例を示している。
この場合、空間座標系に応じて入力座標系が変更される。具体的には、入力座標系の原点の位置は変わらずに、入力座標系のXi軸は、机3の上面において、空間座標系のXs軸と平行かつ同じ方向に設定される。Yi軸は、机3の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定される。Zi軸は、机3の上面において、空間座標系のZs軸と平行かつ同じ方向に設定される。
そして、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のZi軸と空間座標系のZs軸が対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P21の表示位置のXs軸方向の動きに反映され、ユーザU1のZi軸方向の手の動きが、映像P21の表示位置のZs軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びZi軸方向の動きに応じて、映像P21の表示位置が天井2C上をXs軸方向及びZs軸方向に移動する。この例では、ユーザU1が、Xi軸の正の方向に手を動かすことにより、映像P21の表示位置が、天井2C上をXs軸の正の方向に移動する例が示されている。
このように、ユーザ操作が行われる入力面(例えば、机3の上面)と映像P21が表示される表示面(例えば、天井2C)とが互いに平行である場合、ともに表示面に平行な入力座標系の軸(Xi軸及びZi軸)と空間座標系の軸(Xs軸及びZs軸)とが対応付けられる。これにより、ユーザU1の手の移動方向と表示面における映像P21の移動方向とが一致し、ユーザU1の手の動きに応じて、映像P21が同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P21の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P21の空間移動からUI操作又は映像P21の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図31の状態から、図29又は図30の状態に変更される。
<第7の例>
次に、図32乃至図34を参照して、第7の例について説明する。
図32の例では、空間座標系及び入力座標系は、図16の例と同様に設定されている。
また、映像P31が、床2Fに表示されている。すなわち、床2Fが表示面に設定されている。UI座標系のXu軸は、空間座標系のZs軸と平行かつ逆方向に設定されている。Yu軸は、空間座標系のXs軸と平行かつ逆方向に設定されている。
この状態において、UI操作が行われる場合、図16の例と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。従って、入力座標系におけるユーザU1の手の動きに対して、映像P31内の映像コンテンツが、図16の例と同様の動きをする。ただし、空間座標系におけるUI座標系の位置及び向きが図16の例と異なるため、空間座標系において映像P31内の映像コンテンツの動く方向は、図16の例と異なる。
図32は、図33と同様の状態において、映像P31が所定の範囲S31内にいて局所移動が行われる場合の例を示している。
この場合も、図17の例と同様に、入力座標系はUI操作が行われる場合と同様に設定され、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。ただし、図17の例と比較して、空間座標系におけるUI座標系の位置及び向きが異なるため、同じユーザU1の手の動きに対して、空間座標系において映像P31の表示位置が動く方向が異なる。この例では、ユーザU1が、Xi軸の負の方向かつYi軸の正の方向に手を動かすことにより、映像P31の表示位置が、床2F上をXu軸の負の方向かつYu軸の正の方向に斜めに移動する例が示されている。
図34は、図32と同様の状態において、映像P31の空間移動が行われる場合の例を示している。
この場合、空間座標系に応じて入力座標系が変更される。具体的には、原点の位置を変えずに、入力座標系の各軸が図31の例と同様の方向に設定される。
そして、入力座標系のXi軸と空間座標系のXs軸が対応付けられ、入力座標系のZi軸と空間座標系のZs軸が対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P31の表示位置のXs軸方向の動きに反映され、ユーザU1のZi軸方向の手の動きが、映像P31の表示位置のZs軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びZi軸方向の動きに応じて、映像P31の表示位置が床2F上をXs軸方向及びZs軸方向に移動する。この例では、ユーザU1が、Xi軸の負の方向に手を動かすことにより、映像P31の表示位置が、床2F上をXs軸の負の方向に移動する例が示されている。
このように、ユーザ操作が行われる入力面(例えば、机3の上面)と映像P31が表示される表示面(例えば、床2F)とが互いに平行である場合、表示面に平行な入力座標系の軸(Xi軸及びZi軸)と空間座標系の軸(Xs軸及びZs軸)とが対応付けられる。これにより、ユーザU1の手の移動方向と表示面における映像P31の移動方向とが一致し、ユーザU1の手の動きに応じて、映像P31が同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P31の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P31の空間移動からUI操作又は映像P11の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図34の状態から、図32又は図33の状態に変更される。
<第8の例>
次に、図35乃至図37を参照して、第8の例について説明する。
図35乃至図37の例では、部屋301の室内が表示空間に設定されている。部屋301は、天井301C(不図示)、床301F、及び、四方の壁301Wa乃至壁301Wd(ただし、壁301Wdは不図示)により囲まれた空間である。部屋301の中には、机302が配置されている。
床301F、壁301Wa、及び、壁301Wbは、互いに直交している。一方、壁301Wcは、壁301Wb及び床301Fに対して傾いている。
図35の例では、空間座標系の原点は、壁301Wb、壁301Wc、及び、床301Fの交点に設定されている。Xs軸は、壁301Wbが横方向に延びる方向に設定され、Ys軸は、垂直上方向に設定されている。Zs軸は、Xs軸及びYs軸と直交するように設定されている。従って、Ys軸及びZs軸は、壁301Wcに対して斜めに傾いている。
また、机302の上面が入力面に設定されている。入力座標系のXi軸は、机302の上面において、空間座標系のXs軸と平行かつ同じ方向に設定されている。Yi軸は、机302の上面において、空間座標系のZs軸と平行かつ逆方向に設定されている。Zi軸は、机302の上面に垂直な方向、すなわち、空間座標系のYs軸と平行かつ同じ方向に設定されている。
さらに、壁301Wcが表示面に設定され、映像P41が壁301Wcに表示されている。また、映像P41は、各辺が壁301Wcの各辺に平行になるように表示されている。従って、UI座標系のXu軸及びYu軸は、空間座標系の各軸に対して平行にならずに傾いている。
この状態においてUI操作が行われる場合、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P41内の映像コンテンツのXu軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1内の映像コンテンツのYu軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びYi軸方向の動きに応じて、映像P41内の映像コンテンツがXu軸方向及びYu軸方向にスクロールする。
図36は、図35と同様の状態において、所定の範囲S41内において映像P1の局所移動が行われる場合の例を示している。
この場合も、入力座標系はUI操作が行われる場合と同様に設定され、UI操作が行われる場合と同様に、入力座標系のXi軸とUI座標系のXu軸とが対応付けられ、入力座標系のYi軸とUI座標系のYu軸とが対応付けられる。これにより、例えば、ユーザU1のXi軸方向の手の動きが、映像P41の表示位置のXu軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P1の表示位置のYu軸方向の動きに反映される。例えば、ユーザU1の手のXi軸方向及びYi軸方向の動きに応じて、映像P41の表示位置が壁301Wc上をXu軸方向及びYu軸方向に移動する。この例では、ユーザU1が、Xi軸の負の方向かつYi軸の正の方向に手を動かすことにより、映像P41の表示位置が、壁2Wb上をXu軸の負の方向かつYu軸の正の方向に斜めに移動する例が示されている。
図37は、図35と同様の状態において、映像P41の空間移動が行われる場合の例を示している。
この場合、表示面である壁301Wcに応じて空間座標系が変更される。具体的には、空間座標系の原点の位置はそのままで、空間座標系のZs軸が、壁301Wcが横方向に延びる方向に設定され、Ys軸は、壁301Wcが縦方向に延びる方向に設定される。Xs軸は、Ys軸及びZs軸と直交するように設定される。
また、空間座標系に応じて入力座標系が変更される。具体的には、入力面及び入力座標系の原点の位置はそのままで、入力座標系のZi軸が、机302の上面において、空間座標系のZs軸とできるだけ同じ方向になるように設定される。これにより、Zi軸が、表示面(壁301Wc)にできる限り平行になるように設定される。Yi軸は、机3の上面において、Zi軸に垂直に設定される。Xi軸は、机3の上面に垂直な方向に設定される。
そして、入力座標系のZi軸と空間座標系のZs軸が対応付けられ、入力座標系のYi軸と空間座標系のYs軸が対応付けられる。これにより、例えば、ユーザU1のZi軸方向の手の動きが、映像P41の表示位置のZs軸方向の動きに反映され、ユーザU1のYi軸方向の手の動きが、映像P41の表示位置のYs軸方向の動きに反映される。例えば、ユーザU1の手のZi軸方向及びYi軸方向の動きに応じて、映像P41の表示位置が壁301Wc上をZs軸方向及びYs軸方向に移動する。この例では、ユーザU1が、Zi軸の正の方向に手を動かすことにより、映像P41の表示位置が、壁301Wc上をZs軸の正の方向に移動する例が示されている。
このように、入力面(例えば、机302の上面)に対して表示面(例えば、壁301Wc)が傾いている場合、入力座標系の少なくとも1つの軸(例えば、Zi軸)が、表示面(Zs軸)に対してできる限り平行になるように空間座標系及び入力座標系が設定される。これにより、ユーザU1の手のZi軸方向の動きと表示面における映像P41の移動方向とが略一致し、ユーザU1のZi軸方向の手の動きに応じて、映像P41が略同じ方向に移動する。その結果、ユーザU1が、手の動きと映像P41の表示位置の動きとの対応関係を把握しやすくなり、操作性が向上する。
なお、ユーザ操作が映像P41の空間移動からUI操作又は映像P41の局所移動に切り替えられる場合、入力座標系及び入力座標系と空間座標系の対応関係は、図37の状態から、図35又は図36の状態に変更される。
<<2.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
本技術は、ユーザの手以外の操作体を用いて操作を行う場合にも適用できる。また、操作体は、ユーザの体の全部又は一部であってもよいし、ユーザの体以外の操作部材であってもよい。ユーザの体以外の操作部材は、専用の操作部材であってもよいし、一般的な物体を操作部材として用いるようにしてもよい。
また、ユーザの手以外の操作体を用いる場合、例えば、手を用いる場合と同様に、操作体の向きに基づいて入力座標系を設定するようにしてもよい。
さらに、本技術は、物理的な平面ではなく、仮想的な平面を入力面に設定する場合にも適用することができる。仮想的な平面を入力面に設定した場合、例えば、入力面上でホバー操作が行われる。
また、本技術は、表示面が曲面の場合にも適用することができる。表示面が曲面の場合には、例えば、曲面を平面に近似し、近似された平面を表示面とみなして、上述した処理が行われる。なお、例えば、円柱形の壁等の曲率が大きな曲面に映像を表示する場合、例えば、曲面を複数の平面により近似して上述した処理が行われる。
さらに、表示面と比べて小さな凹凸(例えば、柱、枠、ノブ、取っ手等)が存在する場合、例えば、それらの凹凸を無視して、表示面を1つの平面に近似するようにしてもよい。これにより、座標系の制御が容易になるとともに、入力座標系の頻繁な変更が防止され、ユーザの操作性が向上する。
また、例えば、表示空間内の壁、床、天井等の大きな面と比較して小さな物体(例えば、電化製品、小型の家具等)を無視して、表示面を大きな面に近似するようにしてもよい。これにより、座標系の制御が容易になるとともに、入力座標系の頻繁な変更が防止され、ユーザの操作性が向上する。
さらに、映像は、表示面の正面から投影されてもよいし、表示面の背面から投影されてもよい。また、例えば、表示空間内の壁等を有機ELや液晶等の大型のディスプレイにより構成し、映像をディスプレイに表示させるとともに、ディスプレイ内を移動させるようにしてもよい。
また、デプスセンサ183の代わりに、例えば、複数のレーダ測距センサ、又は、複数のカメラを用いて、ステレオマッチング(パッシブステレオ方式)、又は、SfM(Structure from Motion)等により表示空間モデルを生成するようにしてもよい。さらに、デプスセンサ101の代わりに、複数のレーダ測距センサ、又は、複数のカメラを用いるようにしてもよい。
また、例えば、ユーザが入力面にタッチする動作を、静電容量センサ等を用いて入力面側で検出するようにしてもよい。
さらに、例えば、検出装置11に駆動機構を設けて、デプスセンサ101を表示空間の任意の位置に向けられるようにしてもよい。これにより、ユーザが用いることが可能な入力面の選択肢が増加する。
さらに、表示空間内に複数のユーザがいる場合、例えば、上述した方法により、ユーザ毎に入力座標系を設定したり、変更したりするようにすればよい。これにより、各ユーザが、個別にUI操作、映像の局所移動、及び、映像の空間移動を行うことが可能になる。
<<3.その他>>
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図38は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記憶部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
ユーザ操作に基づいて、入力座標系を変更する座標系設定部と、
第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う映像制御部と
を備える情報処理装置。
(2)
前記座標系設定部は、前記映像が表示される表示面に応じて、前記第2の入力座標系を設定する
前記(1)に記載の情報処理装置。
(3)
前記座標系設定部は、ユーザ操作に用いられる操作体の前記第2の入力座標系における移動方向のうち少なくとも1つと、前記表示面における前記映像の移動方向のうち少なくとも1つとを略一致させる
前記(2)に記載の情報処理装置。
(4)
前記座標系設定部は、前記表示面の変更に伴い、前記第2の入力座標系を変更する
前記(2)又は(3)に記載の情報処理装置。
(5)
前記座標系設定部は、前記映像の表示位置が第1の表示面から第2の表示面に移動した場合、前記第2の表示面に応じて、前記第2の入力座標系を変更する
前記(4)に記載の情報処理装置。
(6)
前記座標系設定部は、前記映像の表示位置が前記第1の表示面から前記第2の表示面に移動した後、前記映像の移動が停止してから前記第2の入力座標系を変更する
前記(5)に記載の情報処理装置。
(7)
前記座標系設定部は、前記表示面が曲面である場合、前記曲面を近似した平面に応じて、前記第2の入力座標系を設定する
前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記映像を表示する空間の3次元モデルを生成する環境認識部を
さらに備え、
前記座標系設定部は、前記3次元モデルに基づいて、空間座標系を設定する
前記(1)に記載の情報処理装置。
(9)
前記座標系設定部は、前記空間座標系に応じて、前記第2の入力座標系を設定する
前記(8)に記載の情報処理装置。
(10)
前記座標系設定部は、前記空間座標系の少なくとも1つの軸と、前記第2の入力座標系の少なくとも1つの軸とを略平行にする
前記(9)に記載の情報処理装置。
(11)
前記座標系設定部は、前記映像の表示位置の移動を行う場合、前記映像が表示される表示面に応じて、前記空間座標系を設定する
前記(9)又は(10)に記載の情報処理装置。
(12)
前記座標系設定部は、前記第1の入力座標系と前記第2の入力座標系とを同じ平面上に設定する
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記座標系設定部は、前記第1の入力座標系の原点と前記第2の入力座標系の原点とを共通にする
前記(12)に記載の情報処理装置。
(14)
前記座標系設定部は、前記映像内のコンテンツの操作を行う第1のユーザ操作に対して、前記第1の入力座標系を設定し、前記映像の表示位置の移動を行う第2のユーザ操作に対して、前記第2の入力座標系を設定する
前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
前記座標系設定部は、前記映像の表示位置を同じ表示面の所定の範囲内で移動させる第3のユーザ操作に対して、前記第1の入力座標系を設定する
前記(14)に記載の情報処理装置。
(16)
前記映像制御部は、前記第1の入力座標系における前記第1のユーザ操作に基づいて、前記映像内のコンテンツの制御を行い、前記第2の入力座標系における前記第2のユーザ操作に基づいて、前記映像の表示位置の制御を行う
前記(14)又は(15)に記載の情報処理装置。
(17)
前記映像の表示位置の移動に用いる駆動機構を備える駆動型表示装置の前記駆動機構の制御を行う駆動制御部を
さらに備える前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
前記座標系設定部は、ユーザ操作に用いられる操作体の向きに基づいて、前記第1の入力座標系を設定する
前記(1)乃至(17)のいずれかに記載の情報処理装置。
(19)
情報処理装置が、
ユーザ操作に基づいて、入力座標系を変更し、
第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う
情報処理方法。
(20)
ユーザ操作に基づいて、入力座標系を変更し、
第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
1 情報処理システム, 2 部屋, 11 検出装置, 12 情報処理装置, 13 駆動型表示装置, 101 デプスセンサ, 122 操作体検出部, 123 操作内容認識部, 124 環境認識部, 125 座標系設定部, 126 アプリケーション制御部, 127 出力制御部, 141 空間座標系設定部, 142 UI座標系設定部, 143 入力座標系設定部, 151 情報処理部, 152 映像制御部, 161 映像生成部, 162 駆動制御部, 181 プロジェクタ, 183 デプスセンサ, 184 駆動機構

Claims (20)

  1. ユーザ操作に基づいて、入力座標系を変更する座標系設定部と、
    第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う映像制御部と
    を備える情報処理装置。
  2. 前記座標系設定部は、前記映像が表示される表示面に応じて、前記第2の入力座標系を設定する
    請求項1に記載の情報処理装置。
  3. 前記座標系設定部は、ユーザ操作に用いられる操作体の前記第2の入力座標系における移動方向のうち少なくとも1つと、前記表示面における前記映像の移動方向のうち少なくとも1つとを略一致させる
    請求項2に記載の情報処理装置。
  4. 前記座標系設定部は、前記表示面の変更に伴い、前記第2の入力座標系を変更する
    請求項2に記載の情報処理装置。
  5. 前記座標系設定部は、前記映像の表示位置が第1の表示面から第2の表示面に移動した場合、前記第2の表示面に応じて、前記第2の入力座標系を変更する
    請求項4に記載の情報処理装置。
  6. 前記座標系設定部は、前記映像の表示位置が前記第1の表示面から前記第2の表示面に移動した後、前記映像の移動が停止してから前記第2の入力座標系を変更する
    請求項5に記載の情報処理装置。
  7. 前記座標系設定部は、前記表示面が曲面である場合、前記曲面を近似した平面に応じて、前記第2の入力座標系を設定する
    請求項2に記載の情報処理装置。
  8. 前記映像を表示する空間の3次元モデルを生成する環境認識部を
    さらに備え、
    前記座標系設定部は、前記3次元モデルに基づいて、空間座標系を設定する
    請求項1に記載の情報処理装置。
  9. 前記座標系設定部は、前記空間座標系に応じて、前記第2の入力座標系を設定する
    請求項8に記載の情報処理装置。
  10. 前記座標系設定部は、前記空間座標系の少なくとも1つの軸と、前記第2の入力座標系の少なくとも1つの軸とを略平行にする
    請求項9に記載の情報処理装置。
  11. 前記座標系設定部は、前記映像の表示位置の移動を行う場合、前記映像が表示される表示面に応じて、前記空間座標系を設定する
    請求項9に記載の情報処理装置。
  12. 前記座標系設定部は、前記第1の入力座標系と前記第2の入力座標系とを同じ平面上に設定する
    請求項1に記載の情報処理装置。
  13. 前記座標系設定部は、前記第1の入力座標系の原点と前記第2の入力座標系の原点とを共通にする
    請求項12に記載の情報処理装置。
  14. 前記座標系設定部は、前記映像内のコンテンツの操作を行う第1のユーザ操作に対して、前記第1の入力座標系を設定し、前記映像の表示位置の移動を行う第2のユーザ操作に対して、前記第2の入力座標系を設定する
    請求項1に記載の情報処理装置。
  15. 前記座標系設定部は、前記映像の表示位置を同じ表示面の所定の範囲内で移動させる第3のユーザ操作に対して、前記第1の入力座標系を設定する
    請求項14に記載の情報処理装置。
  16. 前記映像制御部は、前記第1の入力座標系における前記第1のユーザ操作に基づいて、前記映像内のコンテンツの制御を行い、前記第2の入力座標系における前記第2のユーザ操作に基づいて、前記映像の表示位置の制御を行う
    請求項14に記載の情報処理装置。
  17. 前記映像の表示位置の移動に用いる駆動機構を備える駆動型表示装置の前記駆動機構の制御を行う駆動制御部を
    さらに備える請求項1に記載の情報処理装置。
  18. 前記座標系設定部は、ユーザ操作に用いられる操作体の向きに基づいて、前記第1の入力座標系を設定する
    請求項1に記載の情報処理装置。
  19. 情報処理装置が、
    ユーザ操作に基づいて、入力座標系を変更し、
    第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う
    情報処理方法。
  20. ユーザ操作に基づいて、入力座標系を変更し、
    第1の入力座標系に基づいて映像内のコンテンツの制御を行い、第2の入力座標系に基づいて前記映像の表示位置の制御を行う
    処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019007069A 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体 Pending JP2022047549A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019007069A JP2022047549A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体
US17/309,985 US11550430B2 (en) 2019-01-18 2019-12-27 Information processing apparatus, information processing method, and recording medium
PCT/JP2019/051426 WO2020149148A1 (ja) 2019-01-18 2019-12-27 情報処理装置、情報処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007069A JP2022047549A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
JP2022047549A true JP2022047549A (ja) 2022-03-25

Family

ID=71614389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007069A Pending JP2022047549A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US11550430B2 (ja)
JP (1) JP2022047549A (ja)
WO (1) WO2020149148A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022185342A (ja) * 2021-06-02 2022-12-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531399B2 (en) * 2007-12-07 2013-09-10 Sony Corporation Control apparatus, input apparatus, control system, control method, and handheld apparatus
JP6262563B2 (ja) * 2014-02-21 2018-01-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6314672B2 (ja) * 2014-06-10 2018-04-25 株式会社リコー 表示処理装置、表示処理方法、及びプログラム
WO2017208628A1 (ja) 2016-05-30 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE202017104928U1 (de) 2016-08-23 2017-11-24 Google Inc. Manipulation virtueller Objekte anhand von Controllern mit sechs Freiheitsgraden in erweiterten bzw. virtuellen Realitätsumgebungen
WO2018079446A1 (ja) * 2016-10-27 2018-05-03 日本電気株式会社 情報入力装置および情報入力方法

Also Published As

Publication number Publication date
US20220057892A1 (en) 2022-02-24
WO2020149148A1 (ja) 2020-07-23
US11550430B2 (en) 2023-01-10

Similar Documents

Publication Publication Date Title
CN110476142B (zh) 显示虚拟内容的计算设备、方法和头戴式显示器设备
US9961337B2 (en) Flexible display device and computer with sensors and control approaches
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20120268580A1 (en) Portable computing device with intelligent robotic functions and method for operating the same
KR20100027976A (ko) 이동 장치에서 제스처 및 움직임 기반 내비게이션 및 3차원 가상 콘텐츠와의 인터랙션
JP5783828B2 (ja) 情報処理装置およびその制御方法
US10564420B2 (en) Midair interaction with electronic pen projection computing system
US8977396B2 (en) Mobile robotic assistant for multipurpose applications
US9958946B2 (en) Switching input rails without a release command in a natural user interface
US11886643B2 (en) Information processing apparatus and information processing method
JP2022549361A (ja) コンテンツの表示を制御する方法およびコンピュータプログラム
WO2017052521A1 (en) Image projections
WO2020149148A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2017185502A1 (zh) 一种终端及在终端上实现触觉反馈的方法、装置
US11620790B2 (en) Generating a 3D model of a fingertip for visual touch detection
KR102590132B1 (ko) 디스플레이 장치, 및 디스플레이 장치의 제어방법
US20210294482A1 (en) Information processing device, information processing method, and program
JP2018116346A (ja) 入力制御装置、表示装置、及び入力制御方法
US20180203661A1 (en) Information processing device, information processing method, and program
CN110928472B (zh) 物品处理方法、装置及电子设备
WO2021041428A1 (en) Method and device for sketch-based placement of virtual objects
US20220066300A1 (en) Projection unit and scanner accessories
US20150205374A1 (en) Information processing method and electronic device
JP6484914B2 (ja) 情報処理機器および操作システム
WO2023221929A1 (zh) 画面显示方法、装置、电子设备及存储介质