JPWO2014061310A1 - 表示物制御システム、表示物制御方法及びプログラム - Google Patents

表示物制御システム、表示物制御方法及びプログラム Download PDF

Info

Publication number
JPWO2014061310A1
JPWO2014061310A1 JP2014541967A JP2014541967A JPWO2014061310A1 JP WO2014061310 A1 JPWO2014061310 A1 JP WO2014061310A1 JP 2014541967 A JP2014541967 A JP 2014541967A JP 2014541967 A JP2014541967 A JP 2014541967A JP WO2014061310 A1 JPWO2014061310 A1 JP WO2014061310A1
Authority
JP
Japan
Prior art keywords
image
display
operation target
positional relationship
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014541967A
Other languages
English (en)
Inventor
藤男 奥村
藤男 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014061310A1 publication Critical patent/JPWO2014061310A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/32Surgical cutting instruments
    • A61B2017/320052Guides for cutting instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

特別な装置を装着することを操作者に強いることなく、操作対象の画像と当該画像を操作する物体との位置関係を操作者が認識することができる技術を提供する。所定の作業オブジェクトを用いて、画像表示装置(11)が表示する操作対象画像に対する操作を行うためのシステムであって、認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識部(12)と、認識部(12)が認識した作業オブジェクトの位置と、操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影部(14)と、を有する表示物制御システム(10)を提供する。

Description

本発明は、表示物制御システム、表示物制御方法及びプログラムに関する。
ディスプレイやPCの高性能化に伴い、そこに表示される映像をインタラクティブに制御しようとする試みが多数行われている。特にCADやCG(コンピュータグラフィクス)などでの分野では立体モデル形成のために必要な技術である。PCやワークステーションなどでは一般に2次元や3次元のマウスを用いてこの操作を行っている。より直感的な操作の実現を求めて、大型プロジェクタスクリーンやヘッドマウントディスプレイを含む立体ディスプレイと色々な操作デバイスとを用いるものが開発されている。
非特許文献1に、マークとなる突起を多数取り付けた専用グローブと、この形を読み取るための赤外光投射・パターン読み取り装置とを利用し、ジェスチャーによってインタラクティブに画像データを制御する技術が開示されている。
非特許文献2に、位置測定マーカと触力覚を提示できる小型のアクチュエータを指に装着し、指の位置を測定するとともに、画像に触った感覚を指に与える技術が開示されている。
非特許文献3に、ヘッドマウントディスプレイで立体空間を提示し、手にしたマニピュレータで位置を制御し、その空間内を自由に動けるようにした技術が開示されている。
非特許文献4に、ハーフミラーと種々の入力装置を組み合わせた技術が開示されている。
[online]、[平成24年6月18日検索]、インターネット<URL:http://oblong.com/> "触れる立体テレビを実現するシステムを開発"[online]、[平成24年6月18日検索]、インターネット、<URL:http://www.aist.go.jp/aist_j/press_release/pr2010/pr20100825/pr20100825.html)> "ヘッドマウントディスプレイを用いたVR−CADシステムの構築"、[online]、[平成24年6月18日検索]、インターネット、<URL:http://library.jsce.or.jp/jsce/open/00035/2002/57-4/57-4-0071.pdf> "HoloDesk-Direct 3D Interactions with a Situated See-Through Display"、[online]、[平成24年6月18日検索]、インターネット、<URL:http://research.microsoft.com/apps/video/default.aspx?id=154571>
画像を操作中、操作者は、画像と画像を操作する物体(例:手)との位置関係を把握し難いという問題がある。
非特許文献2に記載の技術の場合、操作者は画像に触ったことを感知できるが、触っていない状態での画像と手との位置関係を把握することができない。また、指に特別な装置を装着しなければならず、面倒である他、操作の妨げになる場合もある。
非特許文献1、3及び4に記載の技術も、当該課題を解決可能に構成していない。
本発明は、特別な装置を装着することを操作者に強いることなく、操作対象の画像と当該画像を操作する物体との位置関係を操作者が認識することができる技術を提供することを課題とする。
本発明によれば、
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うためのシステムであって、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段と、
前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段と、
を有する表示物制御システムが提供される。
また、本発明によれば、
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うための方法であって、
コンピュータが、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識工程と、
前記認識工程で認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影工程と、
を実行する表示物制御方法が提供される。
また、本発明によれば、
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うために、
コンピュータを、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段、
前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段、
として機能させるためのプログラムが提供される。
本発明によれば、特別な装置を装着することを操作者に強いることなく、操作対象の画像と当該画像を操作する物体との位置関係を操作者が認識することができる技術が実現される。
上述した目的、および、その他の目的、特徴および利点は、以下に述べる好適な実施の形態、および、それに付随する以下の図面によって、さらに明らかになる。
本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの機能ブロック図の一例を示す図である。 本実施形態の表示物制御システムの機能ブロック図の一例を示す図である。 本実施形態の処理部の機能ブロック図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の認識・投影装置の一例を示す図である。 本実施形態の認識・投影装置の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 本実施形態の表示物制御システムの使用概念図の一例を示す図である。 参考例を説明するための図である。
以下、本発明の実施の形態について図面を用いて説明する。
なお、本実施形態のシステム、装置は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム(あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムも含む)、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェイスを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
また、本実施形態の説明において利用する機能ブロック図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各システム、装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。
<第1の実施形態>
まず、本実施形態の概要について説明する。
図1に本実施形態の表示物制御システムの使用概念図の一例を示す。図において、101は立体画像表示装置である。この例では国際公開第2007/116910号に記載の2面立体画像表示装置を用いている。102は、認識エリア103内のオブジェクトを認識し、位置情報を取得するとともに、所定の位置に所定の情報を投影する認識・投影装置である。104は画像表示装置101により表示され、操作者(非表示)に立体的に知覚された立体画像、105は操作者(非表示)の右手、106は操作者(非表示)の左手である。107は右手105の甲の上に、認識・投影装置102から投影された立体画像104と右手105間の距離を示す情報(3cm)、108は左手106の手の平の上に、認識・投影装置102から投影された立体画像104の一部の補完画像と、立体画像104と右手105が接触していることを示す情報(ON)である。図示しないが、認識・投影装置102と画像表示装置101は有線及び/又は無線で通信可能になっている。
図示する例の場合、操作者の右手105及び左手106(作業オブジェクト)を用いて、立体画像104(操作対象画像)に対する操作が可能である。
認識・投影装置102は、認識エリア内103内に位置する右手105及び左手106各々を認識すると、各々の位置情報を取得する。また、操作者に知覚される立体画像104の表示位置を認識する。そして、右手105及び左手106各々と、立体画像104との位置関係(位置関係情報)を把握する。位置関係情報は、例えば、右手105及び左手106各々と、立体画像104との距離や、それらが接触しているか否か等である。
その後、認識・投影装置102は、認識した位置関係を示す情報を所定の位置に投影する。図1に示す例では、右手105及び左手106各々の上に、各々と立体画像104との位置関係を示す情報を投影している。右手105に投影されている「3cm」は、右手105と立体画像104との距離を示している。左手106(作業オブジェクト)に投影されている「ON」は、左手106と立体画像104とが接触していることを示している。また、左手106に投影されている立体画像104の一部の画像により、操作者から見て左手106が立体画像104の裏側に位置することが示されている。すなわち、左手106は、操作者から見て立体画像104の裏側から立体画像104に触れていることが示されている。
このような本実施形態によれば、操作者は、投影された情報に基づいて作業オブジェクト(例:左手106及び右手105)と操作対象画像(例:立体画像104)との位置関係を把握しながら、操作対象画像に対する所定の操作を行うことが可能となる。
以下、本実施形態の構成について詳細に説明する。
本実施形態の表示物制御システムは、所定の作業オブジェクトを用いて、表示装置が表示する操作対象画像に対する操作を行うためのシステムであって、認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段と、認識手段が認識した作業オブジェクトの位置と、操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段と、を有する。
図2に、本実施形態の表示物制御システム10の機能ブロック図の一例を示す。図示する表示物制御システム10は、認識部12と、処理部13と、投影部14とを有する。当該例の場合、表示物制御システム10は、画像表示装置11を有さない。なお、表示物制御システム10と画像表示装置11とは有線及び/又は無線で通信可能になっている。認識部12及び投影部14は、図1に示す認識・投影装置102内に備えられる。なお、処理部13は認識・投影装置102内に備えられてもよいし、認識・投影装置102と物理的に分離した装置内に備えられてもよい。後者の場合、処理部13を含む装置と認識・投影装置102とは有線及び/又は無線で通信可能になっている。
図3に、本実施形態の表示物制御システム10の機能ブロック図の他の一例を示す。図示する表示物制御システム10は、画像表示装置11と、認識部12と、処理部13と、投影部14とを有する。当該例の場合、表示物制御システム10は、画像表示装置11を有する。
以下、各部及び装置について説明する。
画像表示装置11は、操作対象となる画像(操作対象画像)を表示する。画像表示装置11は、例えば、立体(3次元)画像を表示する立体画像表示装置であってもよいし、平面(2次元)画像を表示する平面画像表示装置であってもよい。立体画像表示装置の構成は特段制限されず、パララックスバリア方式やレンチキュラ方式等の裸眼方式であってもよいし、アナグリフ方式、偏光フィルタ方式、時分割方式等のメガネ方式であってもよい。しかし、装置の装着等による操作者への負担を軽減する観点からは、裸眼方式の方が好ましい。なお、図1の例の場合、2面のスクリーンを利用しているが、1つのスクリーンのみであってもよいし、又は、それ以上の数のスクリーンを利用してもよい。
画像表示装置11は、処理部13と通信可能に構成されている。そして、画像表示装置11は処理部13から取得した情報に応じて、操作対象画像の表示位置や、構成(形状、色、大きさ等)を変更することができる。
以下では、画像表示装置11は、操作対象画像として立体(3次元)画像を表示する立体画像表示装置であるものとする。
認識部12は、認識エリア103内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する。なお、位置情報は、オブジェクトが占めるエリアの位置を特定できる情報であってもよい。かかる場合、位置情報により、オブジェクトの形状及び大きさをも特定可能である。
認識部12の構成は特段制限されないが、例えば、3次元物体計測装置が用いられる。例えば、いわゆるレーザレンジファインダーなどタイムオブフライト法を用いたものや、マイクロソフト社が販売しているKinectと呼ばれる3角法を用いたものなどがある。
認識部12が認識する所定のオブジェクトは、操作対象画像を操作するための所定の作業オブジェクトや操作者(例:操作者の頭部)等を含む。なお、認識部12は、さらに、画像表示装置11のスクリーンを認識してもよい。所定の作業オブジェクトは、図1に示す例のように操作者の手(右手105、左手106)であってもよいし、所定形状の道具(指示棒)や装置等であってもよい。予めこのような所定のオブジェクトの特徴量を認識部12に保持させておいてもよい。
認識部12は、所定のオブジェクトを認識し、その位置情報を生成すると、処理部13に入力する。
図4に、処理部13の機能ブロック図の一例を示す。図示する処理部13は、表示位置特定部15と、位置関係特定部16と、位置関係情報生成部17と、を有する。位置関係情報生成部17は、図示するように、画像生成部18を有してもよい。
表示位置特定部15は、操作対象画像の表示位置、具体的には、操作者に知覚される操作対象画像の表示位置(第1の表示位置)を特定する。すなわち、表示位置特定部15は、従来技術を利用して、操作者に知覚される立体画像の飛び出し量を算出し、算出した飛び出し量、及び、画像表示装置11のスクリーン位置を利用して、第1の表示位置を特定する。
ここで、本実施形態の表示位置特定部15が飛び出し量を算出可能であることを示すために飛び出し量を算出する処理の一例を説明するが、表示位置特定部15による処理内容はこれに限定されるものではない。
飛び出し量は、例えば、左右像のズレ量、操作者の瞳孔間隔、操作者の目からスクリーンまでの距離を利用して算出できることが知られている。表示位置特定部15は、例えば、画像表示装置11から操作対象画像に関する情報(左右像のズレ量)を取得することができる。また、表示位置特定部15は、例えば、認識部12から操作者の頭部の位置情報及び画像表示装置11のスクリーンの位置情報を取得し、これらを利用して、操作者の目からスクリーンまでの距離を算出することができる。操作者の目の位置は操作者の頭部の位置から推定することができる。なお、画像表示装置11のスクリーンの位置が固定されている場合、表示位置特定部15は、予め、画像表示装置11のスクリーンの位置を示す情報を保持しておいてもよい。また、表示位置特定部15は、予め、一般的な人間の瞳孔間隔を示す値を保持しておくことができる。表示位置特定部15はこのようにして取得した情報を利用して、飛び出し量を算出することができる。
表示位置特定部15は、操作対象画像の第1の表示位置を特定すると、第1の表示位置を示す情報を位置関係特定部16に入力する。なお、第1の表示位置を示す情報は、操作対象画像が占めるエリアの位置を示す情報であってもよい。かかる場合、操作対象画像の形状及び大きさをも特定可能である。例えば、表示位置特定部15は、画像表示装置11から操作対象画像の形状、大きさなどを示す情報を取得し、この情報を利用することで上述のような情報を算出することができる。
位置関係特定部16は、作業オブジェクト(例:図1の右手105や左手106)の位置と、操作者に知覚される操作対象画像の表示位置(第1の表示位置)との位置関係、すなわち、作業オブジェクトと仮想的に第1の表示位置に存在する操作対象画像との位置関係を特定する。なお、位置関係特定部16は、認識部12から、作業オブジェクトの位置情報を取得することができる。
位置関係特定部16が特定する作業オブジェクトと仮想的に第1の表示位置に存在する操作対象画像との位置関係は、例えば、これら間の距離(例:最短距離)であってもよいし、または、これらが互いに接しているか否かを示す情報であってもよいし、または、仮想的に第1の表示位置に存在する操作対象画像の内部に作業オブジェクトが存在するか否かであってもよい。
位置関係特定部16は、認識部12から取得した作業オブジェクトの位置情報、及び、表示位置特定部15から取得した第1の表示位置を示す情報を利用し、従来技術を利用して、上述のような位置関係を算出することができる。
位置関係特定部16は、特定した位置関係を示す情報を、位置関係情報生成部17に入力する。
位置関係情報生成部17は、投影部14が所定の情報(画像)を投影するためのデータを生成する。具体的には、位置関係情報生成部17は、認識部12が認識した作業オブジェクトの位置と、操作対象画像の第1の表示位置との位置関係を示す情報(位置関係情報)、すなわち、位置関係特定部16が特定した位置関係を示す情報を投影部14が投影するためのデータ(投影データ)を生成する。
位置関係情報生成部17により生成される投影データは、図1に示す「3cm」や「ON」のように文字で位置関係を示す情報であってもよいし、または、色の変化により位置関係を示す情報(例:青色のオブジェクト=非接触、赤色のオブジェクト=接触)であってもよいし、または、所定のキャラクタの状態の変化により位置関係を示す情報(例:キャラクタが座っている=非接触、キャラクタが立っている=接触)であってもよい。
画像生成部18は、操作対象画像と作業オブジェクトとの位置関係が、以下の(1)及び(2)を満たす場合、位置関係情報の投影データとして、操作対象画像における、操作者により観察された場合に作業オブジェクトと重なる部分を表す画像(第1の画像)を生成する。例えば、画像生成部18は、画像表示装置11から操作対象画像の画像データを取得し、当該画像データを利用して第1の画像を生成することができる。
(1)操作対象画像の第1の表示位置の方が作業オブジェクトよりも操作者の近くにある。
(2)操作者により観察された場合、操作対象画像と作業オブジェクトの少なくとも一部が互いに重なる関係にある。
例えば、図1に示す左手106(作業オブジェクト)と立体画像104(操作対象画像)とが、上記(1)及び(2)の関係を満たす。かかる場合、画像生成部18は、位置関係情報の投影データとして、立体画像104(操作対象画像)における、操作者により観察された場合に左手106(作業オブジェクト)と重なる部分を表す画像(第1の画像)を生成する。
このようにして生成された第1の画像は、以下で説明する投影部14により、作業オブジェクト上に投影される。図1に示す例の場合、左手106(作業オブジェクト)上に第1の画像が投影されている。より具体的には、左手106(作業オブジェクト)上における、操作者により観察された場合に立体画像104(操作対象画像)と重なる部分に、第1の画像が投影されている。
ここで、画像表示装置101のスクリーンと操作者の間に作業オブジェクトが位置すると、作業オブジェクトにより操作者による操作対象画像の一部または全部の観察が阻害されてしまう。
図1に示す右手105(作業オブジェクト)と立体画像104(操作対象画像)との関係のように、上記(2)の関係を満たすが上記(1)の関係を満たさない場合、右手105と重なる部分が欠落した状態となった立体画像104が操作者に観察されることとなるが、操作者から見て右手105は立体画像104よりも手前側にあるため、立体画像104の右手105と重なる部分が欠落するのは自然な表示である。このような表示から、操作者は、立体画像104よりも右手105が手前側にあることを直感的に把握することができる。
一方、図1に示す左手106(作業オブジェクト)と立体画像104(操作対象画像)との関係のように、上記(1)及び(2)の関係を満たす場合、左手106と重なる部分が欠落した状態となった立体画像104が操作者に観察されることとなるが、操作者から見て左手106は立体画像104の裏側にあるため、立体画像104の左手106と重なる部分が欠落するのは不自然な表示である。このような表示から、操作者は、立体画像104の裏側に左手106が位置することを直感的に把握できない。
そこで、本実施形態では、上記(1)及び(2)の関係を満たす場合、作業オブジェクト(例:左手106)と重なることで操作者に欠落して観察される操作対象画像(例:立体画像104)の欠落部分の画像(第1の画像)を画像生成部18が生成し、当該第1の画像を作業オブジェクト上、具体的には、作業オブジェクト(例:左手106)上における操作対象画像と重なる部分に投影することができる。このようにした場合、操作者には、画像表示装置11により表示された欠落部分を有する操作対象画像(例:立体画像104)と、投影部14により投影された第1の画像とにより形成された操作対象画像が認識されることとなる。すなわち、操作者から見て操作対象画像(例:立体画像104)の裏側に位置する作業オブジェクト(例:左手106)により、操作対象画像(例:立体画像104)の表示が妨げられるという不自然な表示を解消することができる。結果、操作者は、操作者から見て作業オブジェクトが操作対象画像の裏側に存在することを直感的に把握できるようなる。
ところで、画像を見るのは操作者の目であり、目の位置と、第1の表示位置に仮想的に存在する操作対象画像、及び、作業オブジェクトの位置を考慮した画像生成が必要である。作業オブジェクトへの第1の画像の投影においては、目と作業オブジェクトの位置を計算し、作業オブジェクト上の目から見える場所(作業オブジェクト上における、操作者により観察された場合に操作対象画像と重なる部分)に第1画像を投影する必要がある。また、上述した第1の画像については、表示装置上の実際の画像(スクリーン上の画像)と作業オブジェクトとの間にギャップがあるため、目、作業オブジェクト、表示装置上の実際の画像、第1の表示位置の位置関係を考慮して画像を生成することになる。詳しくは以下の実施形態で述べる。
画像生成部18は、例えば、認識部12が認識した操作者の頭の位置及び作業オブジェクトの位置と、操作対象画像の第1の表示位置と、を利用して、第1の画像を生成する。操作者の頭の位置から、操作者の目の位置を推定可能である。
位置関係情報生成部17は、生成した投影データを投影部14に入力する。なお、位置関係情報生成部17は、投影データに加えて、投影する位置(投影位置)を示す情報を、投影部14に入力してもよい。
投影部14は、例えばプロジェクタなどを含んで構成される。
投影部14は、位置関係情報生成部17から取得した投影データを利用して、認識部12が認識した作業オブジェクトの位置と、操作対象画像の表示位置(第1の表示位置)との位置関係を示す情報である位置関係情報を、所定の位置に投影する。投影部14は、位置関係情報生成部17から投影位置を示す情報を取得した場合、その情報で特定される位置に、位置関係情報を投影する。
投影部14は、例えば、作業オブジェクトに位置関係情報を投影してもよい。また、投影部14は、操作者の手、腕、衣服の上等に位置関係情報を投影してもよい。
投影部14は、操作対象画像と作業オブジェクトとの位置関係が、上記(1)及び(2)を満たす場合、位置関係情報として、画像生成部18が生成した第1の画像を作業オブジェクトに投影してもよい。かかる場合、投影部14は、作業オブジェクト上における、操作者により観察された場合に操作対象画像と重なる部分に、第1の画像を投影してもよい。
なお、処理部13は、操作対象画像と作業オブジェクトとの位置関係を示す情報を、画像表示装置11に入力することができる。画像表示装置11は、入力された情報に応じて、操作対象画像の表示位置を変更したり、形状を変更したり、色や大きさ等を変更したりできる。例えば、操作対象画像と作業オブジェクトとが接触している状態で、さらに、作業オブジェクトが操作対象画像側に移動すると(作業オブジェクトが操作対象画像を押すような移動)、その移動量等に応じて、操作対象画像の表示位置を変更したり、形状を変更したりしてもよい。
以上説明した本実施形態によれば、操作者は、投影された情報に基づいて作業オブジェクトと操作対象画像との位置関係を把握しながら、操作対象画像に対する所定の操作を行うことが可能となる。
また、本実施形態では、作業オブジェクトと操作対象画像との位置関係を、作業オブジェクトに投影することができる。このため、操作者は操作している部分から目を離すことなく、必要な情報を得ることができる。また、視線の移動がないことで、操作効率がよく、疲れも少ない。
上記例では、作業オブジェクトは操作者の右手及び左手であったが、操作者のその他の体の一部を作業オブジェクトとすることができる。例えば、操作者の足、頭、ひじ、ひざ、肩、尻等を作業オブジェクトとしてもよい。
また、作業オブジェクトは、作業オブジェクトと操作対象画像との位置関係に応じて(位置関係情報の内容に応じて)光の放射、音の放射、振動の発生、及び、色の変化の中の少なくとも1つの状態変化を起こす装置であってもよい。このような作業オブジェクトによれば、投影部14により投影される投影情報と、作業オブジェクトの状態変化とにより、操作者に、作業オブジェクトと操作対象画像との位置関係を示すことができる。結果、より効率的に、操作者は作業オブジェクトと操作対象画像との位置関係を把握することが可能となる。
<第2の実施形態>
次に、第2の実施形態について説明する。なお、第1の実施形態と同様の構成部分については、適宜説明を省略する。
図5に本実施形態の表示物制御システムの使用概念図の一例を示す。これは図1の状況を横から見た図に相当する。図において、101〜106は図1と同じものである。201は認識部、202は投影部を示している。
認識部201の認識エリア103は、図に示すように、操作者203と画像表示装置11全体をカバーする。これは、第1の実施形態で説明したように、操作者203の頭と右手105と画像表示装置11上の表示物の位置(スクリーンの位置)を認識し、第1の画像を生成等するためである。
投影部202の投影範囲204は、画像表示装置11全体よりやや広めの範囲をカバーする。これにより、操作対象画像と作業オブジェクトとの位置関係を示す情報を、操作対象画像に対して所定の操作を行う作業オブジェクト上に投影可能となっている。
ここで、第1の実施形態で説明した画像生成部18による第1の画像の生成方法について、図5を用いて詳しく述べる。
図中205は、画像表示装置11のスクリーンに映し出されている画像を示す。画像205を観察した操作者は、画像がスクリーンから飛び出しているように知覚する。すなわち、操作者は、立体画像104が表示されているように知覚する。
図中206は、操作者203の目の位置を示している。右手105が立体画像104の下に位置することを示すためには、目の位置206、右手105と画像205の位置、操作者に知覚される立体画像104の表示位置(第1の表示位置)を計算して、例えば、立体画像104の底の部分の画像207、又は、立体画像104の操作者から観察される側の表面部分の画像207を、投影部202から右手105上に投影することになる。これら全ての情報がそろえば、より好ましくは正確なこれら全ての情報がそろえば、より正確な第1の画像が生成できるので好ましい。例えば、立体画像104の表示位置(第1の表示位置)が間違っていれば、他の要素が間違っていなくても投影する画像は異なってくる。ただし、目の位置に関しては頭の位置から推定できるため、本システムにおいては目ではなく頭の位置を認識部201で認識している。このため、従来のように目の位置を検知するための正面からのカメラ撮影は不要である。
本実施形態によれば、第1の実施形態と同様の作用効果を実現することができる。
<第3の実施形態>
次に、第3の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態と同様の構成部分については、適宜説明を省略する。
図7に本実施形態の認識・投影装置102の一例を示す。図6は図5で示した認識・投影装置102を再掲したものである。
投影部202は、いわゆるプロジェクタが用いられる。この場合、図6に示すように、投影範囲204は、画像表示装置11全体よりやや広めの範囲をカバーする。これにより、操作対象画像と作業オブジェクトとの位置関係を示す情報を、操作対象画像に対して所定の操作を行う作業オブジェクト上に投影可能となっている。しかし、実際に画像を投影するのは作業オブジェクト上の一部分のみである。
そこで、図7に示すように、本実施形態の投影部301、302各々の投影範囲303、304は、第2の実施形態の投影部202の投影範囲204よりも小さくなっている。そして、本実施形態の投影部301、302各々は、投影方向が可変になっている。すなわち、投影部301、302は、投影範囲204は狭いが、処理部13又は認識部12から作業オブジェクトの位置情報を取得し、当該情報に従い投影方向を変更することで、作業オブジェクト上への画像の投影を実現する。なお、図7においては、2つの作業オブジェクト(例:右手105及び左手106)各々の上に画像を投影するために2つの投影部301、302を備えているが、投影部の数はこれに限定されない。
図7において、301、302は小型のプロジェクタからなる投影部、303、304はそれぞれの投影範囲である。該小型プロジェクタはそれぞれ、機械的に投影方向を可変できるようになっており、認識部201によって認識された作業オブジェクトの方向に画像を投影することが可能である。
本実施形態のように必要最小限の投影を行うことにより、投影される画像の輝度は図6の例と同じでも、投影装置の小型化、低電力化がはかれる。複数人で作業する場合には更に投影部の数を増やすことで対応できる。このような小型のプロジェクタに関しては、投影距離によらず焦点調整が不要なレーザプロジェクタなどが好適である。
本実施形態によれば、第1及び第2の実施形態と同様の作用効果を実現することができる。
<第4の実施形態>
次に、第4の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態と同様の構成部分については、適宜説明を省略する。
図8に本実施形態の表示物制御システムの使用概念図の一例を示す。図8において、101、102、104、105は図1と同じである。図8(a)に示した401は表示物に近づきつつある右手105への投影画像である。この例では立体画像104と右手105間の距離が5cmであることを示している。前にも述べたが、投影する情報は文字でなくても良いし、距離よりも編集モードを示すようなものであってもよい。要はその応用に対して最も適切な情報を与えれば良い。
図8(b)は右手105が立体画像104に触った瞬間、正確には、右手105と立体画像104との位置関係が互いに接する位置関係になった瞬間を示しており、触ったことを示す「ON」という文字(投影画像402)が右手105に投影されている。
本実施形態の表示物制御システムは、このような立体画像104に対する2つの編集モードを有してもよい。一つは、立体画像104で示されるオブジェクトの内部に作業オブジェクトが侵入できないモードであり、もう一つは、立体画像104で示されるオブジェクトの内部に作業オブジェクトが侵入できるモードである。
前者の場合、図8(b)に示すように右手105が立体画像104を触った後、さらに、右手105が下方に移動すると、立体画像104の表示位置を右手105により押された方向に移動したり、又は、立体画像104の形状を右手105による押圧に応じて変形させたりすることができる。このような立体画像104の表示態様の変更は、画像表示装置11により実現される。
一方、後者の場合、図8(b)に示すように右手105が立体画像104を触った後、さらに、右手105が下方に移動すると、図8(c)に示すように、立体画像104は表示位置や形状を変えず、右手105が立体画像104の中に入ってく。すなわち、画像生成部18がそのような状態を示す投影画像(第1の画像)を生成し、投影部14がその投影画像403(第1の画像)を右手105の所定位置に投影する。なお、図8(c)に示す例では、さらに、立体画像104内に侵入した右手105の侵入距離(図中、「5cm」)が右手105に投影されている。
操作対象画像(立体画像104)が複雑な構成である場合、内部の構造物に触りたいという要求も発生するため、後者のモードがあれば有効である。
図8(d)は、右手105で立体画像104を下から触っている状態を示している。右手105には、このような状態を示す投影画像(第1の画像)404が投影されている。
ここで、従来技術に発生する他の課題(表示の乱れ)、及び、本発明の表示物制御システムが当該課題に対して優位であることを説明する。
図16に、従来技術に発生する表示の乱れの様子を示す。図において、1301は操作対象となる表示物、1302は操作対象の背景画面、1303は操作対象となる表示物1301を上から触るかっこうになった腕、1304は腕1303を避けて画像を形成するためにできた黒色部分、1305は操作対象となる表示物1301を下から触るかっこうになった腕である。操作対象となる表示物1301には上からも下からもさわれるのが好ましいが、従来のシステムでは1方向からのみしか画像が投影されないため1304のような黒色部分が発生する。この部分は腕1303、1305の動きにつれて画像を避けるように生成されていくため、ちらつきが大きくなり、非常に使いづらい。
また、この画像の乱れは視線の方向に大きく依存する。それはLCDからの画像と手の位置に視差が存在するからである。非特許文献4に記載の技術においては、カメラが操作者の目の位置を検知し、それに応じて画像の調整を行っている。このように正面から操作者の顔を認識しなければならないシステムではカメラの存在が表示装置の置き場所を制限してしまうという問題がある。
次に、図9を用いて、本発明の表示物制御システムが当該課題に対して優位であることを説明する。
図において、501は表示装置上の操作対象となる表示物、502は背景、503は表示物501を上から触るかっこうになっている右腕、504は表示物501を下から触るかっこうになっている右腕、505はそのように認識させるために右手に投影された第1の画像(補完投影画像)を示している。
図16に示した例の場合、図9(a)のように表示物501の上に手が来る場合、上から画像を重ねるのみであったため、手を避けて画像を表示せざるを得ず、避けるための黒い部分が画像を乱していた。これに対し、本発明のシステムでは表示物501の上から触る格好になっている場合は画像の乱れは一切発生しない。単に画像表示装置11が表示する画像の上に手があるだけであるからである。下から触ろうとする場合(図9(b)参照)も同様に、背景502と右腕504の間には乱れは起きえない。
ただし、表示物の下に来る手に投影される第1の画像(補完投影画像)に画像の乱れが生じ得る。しかし、その性質と程度は図16を用いて説明した従来例の画像の乱れに比べれば小さい。理由は2つある。一つは、そもそも表示する画像が手の下に存在する表示物と同じものであり、指の隙間や手の位置をそれほど気にしなくても良いと言うことである。従って、手の位置が多少ずれても、指が動いても画像を変化させる必要がなく、ちらつきも発生しない。もう一つの理由は、下にある画像表示装置と投影部から投影される画像の輝度差である。同じ画像を重ねると言っても別物であるから、影響は受ける。しかし、一般に液晶ディスプレイなどからの光の方が強いことと、液晶ディスプレイの面は鏡面に近く、大抵は目に直接はいらない方向に反射されるため、よけいに輝度差がつき、その影響は軽減される。以上のような理由で、本発明の方が、従来技術に比べて画像の乱れをはるかに小さくできる。
本実施形態によれば、第1乃至第3の実施形態と同様の作用効果を実現することができる。
<第5の実施形態>
次に、第5の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態と同様の構成部分については、適宜説明を省略する。
本実施形態の表示物制御システムは、作業オブジェクトがペン状の道具である。
図10に本実施形態の表示物制御システムの使用概念図の一例を示す。図において、601は操作者(非表示)に立体的に知覚された表示物、602は右腕、603は作業オブジェクトである操作用のペン状の道具を示している。図10(a)に示すように、手には認識・投影装置より、ペン状の道具603と表示物601との位置関係を示す情報(投影画像604)が投影されている。ここでは表示物601上の点A、B、Cそれぞれからのペン状の道具603までの距離(例:最短距離)が示されている。
図10(b)はペン状の道具603が表示物601の点Aに接触した状態、正確には、ペン状の道具603と表示物601の点Aとの位置関係が互いに接する位置関係になった状態を示している。その結果、手に表示される位置関係を示す投影画像606は、点Aとペン状の道具603が当該状態となっていることを示す「A:ON」となっている。また、編集モードとなっていることを示している(Edit mode)。さらに、ペン状の道具603の先端から光605を放射している。操作者は、これらの情報により、ペン状の道具603が表示物601の点Aに接触したことを把握することができる。
なお、光を放射する状態変化に加えて、又は、代えて、ペン状の道具603から音が発せられてもよいし、携帯電話のバイブレータのようなものが内蔵されていて、振動を発生させてもよい。
図10(c)はペン状の道具603が温度プローブとして働いている場合を示している。ペン状の道具603は表示物601上のB点に触ったことと、その点の温度を示すため607で示すように、温度に応じた色に変わっている。例えば低温では青色、高温では赤色というように、温度に対して色を割り当てておき、これを表示するものである。ペン状の道具603が表示物601に触っていない場合は白色というように設定しておけば、触ったかどうかも判定できる。コレステリック液晶などを使えば、表面を色々な色に変化させることが可能である。手に投影された情報(投影画像608)はB点の温度が52℃であることを示している。ペン状の道具603の色で直感的に、手への投影情報で正確な値が分かるようになっている。
このように、作業オブジェクトをシステムの一部として情報を伝えるように働かせることで、より分かりやすい操作が可能となる。道具によって与える役割を変えれば、色々な操作を行うことができる。たとえば、ピンセット、ハサミ、ハンマー、ペンチ、ノコギリ、オシロスコープのプローブ、聴診器など色々と応用が可能である。
本実施形態によれば、第1乃至第4の実施形態と同様の作用効果を実現することができる。
<第6の実施形態>
次に、第6の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態と同様の構成部分については、適宜説明を省略する。
本実施形態の表示物制御システムは、作業オブジェクトがメス(刃物)である。
図11に本実施形態の表示物制御システムの使用概念図の一例を示す。図において、701は操作者(非表示)に立体的に知覚された表示物、702は右手、703はメスである。704は表示物701とメス703の先端との距離を示す投影画像である。図11(a)には距離が3cmであることが示されている。図11(b)はメス703で表示物701を切り裂いている様子が示されている。切り口は、例えば画像表示装置11が表示する。
ここでは表示物701に切れ込みが入った状態が画像表示装置11により表示されるとともに、705に示すようにメス703の先端に表示物701の補完画像(第1の画像)が投影部14により投影されることで、メス703が表示物701の内部に入っていることが示されている。同時にメス703がどの程度深く入っているかを示す情報(投影画像706)が操作者の手702に投影されている。
当該例などのように、表示物701の内部にものが入るような場合、補完画像(第1の画像)の投影により、操作者に実際にそのように操作しているかのような感覚を与えることができる。なお、ここで用いられる作業オブジェクトは投影画像の色をより正確に操作者に認識させるため、白かつ、表面が散乱性であることが最適である。
本実施形態によれば、第1乃至第5の実施形態と同様の作用効果を実現することができる。
<第7の実施形態>
次に、第7の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態及び/又は第6の実施形態と同様の構成部分については、適宜説明を省略する。
図12に本実施形態の表示物制御システムの使用概念図の一例を示す。802は操作者801に立体的に知覚された表示物である。操作者801は表示物802を左手803で下から支え、右手804で上から押さえて操作している。投影部14からの投影画像はそれぞれの手の上に表示されているものとする。矢印805、806、807は視線の方向を示しており、図12(a)では操作者801は左手803を見ており、図12(b)では操作者801は右手804を見ており、図12(c)では操作者801は全く別の方向を見ている。
前の実施形態で説明したように、第1の画像は、操作者の目、作業オブジェクト、第1の表示位置に仮想的に存在する操作対象画像、及び、画像表示装置11上の画像(スクリーン)の位置を考慮して生成される。図12(a)に示すように、左手803へは、操作者801がその画像を見たときに表示物802の下に左手803があることを直感できる画像を表示する。図12(b)に示すように、右手804へは、操作者801が右手804と表示物802との位置関係を把握できるような情報を表示する。この2つの例では頭の位置は同一であり、その向きが変わっているだけである。左手803、及び、右手804への投影画像は頭がその方向を向いたら表示される画像を表示しておけばよく、実際にどの方向を向いているかは考えなくて良い。その方向を見た時に正しく見えればよい。
従って、本実施形態においては、投影画像は操作者801の頭の位置に応じたものを形成し、実際の視線の方向は考慮しない。すなわち、図12(a)、(b)、(c)において操作者の視線の向きは異なっているが、左手803及び右手804への投影画像はすべて同一でもよい。手を正視している場合でも、横目でちらちら見ている場合でも頭の位置と手との相対関係が同じなら投影画像を変える必要がないからである。目の位置を元に画像を変化させると、画像は絶えず変化することになり、不快なちらつきが発生する。本発明では多少視線がずれてもほとんど画像を変化させなくてよいため、安定した表示が可能である。
なお、本実施形態の場合、操作者の頭の位置のみ認識すればよいため、操作者の視線の向きを測定するための装置(カメラ等)を備える必要がない。このため、コスト面でのメリットの他、システム全体が小さくなる等のメリットも得られる。
本実施形態によれば、第1乃至第6の実施形態と同様の作用効果を実現することができる。
<第8の実施形態>
次に、第8の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態及び/又は第6の実施形態及び/又は第7の実施形態と同様の構成部分については、適宜説明を省略する。
図13に本実施形態の表示物制御システムの使用概念図の一例を示す。上記実施形態では、画像表示装置11が2面立体表示装置である場合を例にとって説明してきたが、本実施形態では、図13に示すように、画像表示装置11が斜め置き型の立体表示装置である。
901は斜め置き型の立体表示装置であり、それ以外の符号は図1及び図5と同一である。斜め置き型は2面立体型と同様、現実に奥行き方向に距離があるため、立体感を得やすい。本実施形態の場合、表示装置が1枚で済むため経済的である。
本実施形態によれば、第1乃至第7の実施形態と同様の作用効果を実現することができる。
<第9の実施形態>
次に、第9の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態及び/又は第6の実施形態及び/又は第7の実施形態及び/又は第8の実施形態と同様の構成部分については、適宜説明を省略する。
図14に本実施形態の表示物制御システムの使用概念図の一例を示す。本実施形態では、図14に示すように、画像表示装置11が縦置き型の立体表示装置である。1001は縦置き型の立体表示装置であり、それ以外の符号は図1及び図5と同一である。スペースのことを考えれば最も小さいフットプリントで実現できるシステムであり、壁にかけることなどを考えれば、設置も容易なシステムである。
本実施形態によれば、第1乃至第8の実施形態と同様の作用効果を実現することができる。
<第10の実施形態>
次に、第10の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態及び/又は第6の実施形態及び/又は第7の実施形態及び/又は第8の実施形態及び/又は第9の実施形態と同様の構成部分については、適宜説明を省略する。
図15に本実施形態の表示物制御システムの使用概念図の一例を示す。本実施形態では、図15に示すように、画像表示装置11が平置き型の立体表示装置である。1101は平置き型の立体表示装置であり、それ以外の符号は図1及び図5と同一である。本実施形態の場合、立体表示装置を平置きできるため、表示装置の外周沿いのあらゆる場所から操作対象画像への操作が可能となる。図では2人の操作者が操作しているところを示している。複数人で同時に操作できることが、この実施形態の利点である。
本実施形態によれば、第1乃至第9の実施形態と同様の作用効果を実現することができる。
<第11の実施形態>
次に、第11の実施形態について説明する。なお、第1の実施形態及び/又は第2の実施形態及び/又は第3の実施形態及び/又は第4の実施形態及び/又は第5の実施形態及び/又は第6の実施形態及び/又は第7の実施形態及び/又は第8の実施形態及び/又は第9の実施形態及び/又は第10の実施形態と同様の構成部分については、適宜説明を省略する。
ここまでの実施形態では、画像表示装置11は立体画像を表示していた。本実施形態では、画像表示装置11は平面(2次元)画像を表示する。
このような本実施形態においては、処理部13の表示位置特定部15は、操作者により観察される平面上における操作対象画像の位置を特定し、位置関係特定部16は、上記平面上における操作対象画像と作業オブジェクトの位置関係を特定してもよい。
本実施形態によれば、第1乃至第10の実施形態と同様の作用効果を実現することができる。
<<付記>>
上記説明によれば、以下の発明の説明がなされている。
<発明1>
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うためのシステムであって、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段と、
前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段と、
を有する表示物制御システム。
<発明2>
発明1に記載の表示物制御システムにおいて、
前記投影手段は、前記作業オブジェクトに前記位置関係情報を投影する表示物制御システム。
<発明3>
発明2に記載の表示物制御システムにおいて、
前記画像表示装置は、前記操作対象画像として立体画像を表示し、
前記位置関係情報は、前記作業オブジェクトの位置と、操作者に知覚される前記操作対象画像の表示位置である第1の表示位置との位置関係を示す情報であり、
前記投影手段は、
前記操作対象画像と前記作業オブジェクトとの位置関係が、
(1)前記操作対象画像の前記第1の表示位置の方が前記作業オブジェクトよりも前記操作者の近くにある、及び、
(2)前記操作者により観察された場合、前記操作対象画像と前記作業オブジェクトの少なくとも一部が互いに重なる関係にある、
を満たす場合、前記位置関係情報として、前記操作対象画像における、前記操作者により観察された場合に前記作業オブジェクトと重なる部分を表す画像である第1の画像を、前記作業オブジェクトに投影する表示物制御システム。
<発明4>
発明3に記載の表示物制御システムにおいて、
前記投影手段は、前記作業オブジェクト上における、前記操作者により観察された場合に前記操作対象画像と重なる部分に、前記第1の画像を投影する表示物制御システム。
<発明5>
発明3または4に記載の表示物制御システムにおいて、
前記認識手段が認識した前記操作者の頭の位置及び前記作業オブジェクトの位置と、前記操作対象画像の前記第1の表示位置と、を利用して、前記第1の画像を生成する画像生成手段をさらに有する表示物制御システム。
<発明6>
発明1から5のいずれかに記載の表示物制御システムにおいて、
前記画像表示装置をさらに有する表示物制御システム。
<発明7>
発明1から6のいずれかに記載の表示物制御システムにおいて、
前記作業オブジェクトは、前記位置関係情報の内容に応じて光の放射、音の放射、振動の発生、及び、色の変化の中の少なくとも1つの状態変化を起こす表示物制御システム。
<発明8>
発明1から6のいずれかに記載の表示物制御システムにおいて、
前記作業オブジェクトは、操作者の身体の一部である表示物制御システム。
<発明9>
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うための方法であって、
コンピュータが、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識工程と、
前記認識工程で認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影工程と、
を実行する表示物制御方法。
<発明9−2>
発明9に記載の表示物制御方法において、
前記投影工程では、前記作業オブジェクトに前記位置関係情報を投影する表示物制御方法。
<発明9−3>
発明9−2に記載の表示物制御方法において、
前記画像表示装置は、前記操作対象画像として立体画像を表示し、
前記位置関係情報は、前記作業オブジェクトの位置と、操作者に知覚される前記操作対象画像の表示位置である第1の表示位置との位置関係を示す情報であり、
前記投影工程では、
前記操作対象画像と前記作業オブジェクトとの位置関係が、
(1)前記操作対象画像の前記第1の表示位置の方が前記作業オブジェクトよりも前記操作者の近くにある、及び、
(2)前記操作者により観察された場合、前記操作対象画像と前記作業オブジェクトの少なくとも一部が互いに重なる関係にある、
を満たす場合、前記位置関係情報として、前記操作対象画像における、前記操作者により観察された場合に前記作業オブジェクトと重なる部分を表す画像である第1の画像を、前記作業オブジェクトに投影する表示物制御方法。
<発明9−4>
発明9−3に記載の表示物制御方法において、
前記投影工程では、前記作業オブジェクト上における、前記操作者により観察された場合に前記操作対象画像と重なる部分に、前記第1の画像を投影する表示物制御方法。
<発明9−5>
発明9−3または9−4に記載の表示物制御方法において、
前記コンピュータが、
前記認識工程で認識した前記操作者の頭の位置及び前記作業オブジェクトの位置と、前記操作対象画像の前記第1の表示位置と、を利用して、前記第1の画像を生成する画像生成工程をさらに実行する表示物制御方法。
<発明9−6>
発明9から9−5のいずれかに記載の表示物制御方法において、
前記コンピュータが、
前記操作対象画像を表示する前記画像表示工程をさらに実行する表示物制御方法。
<発明9−7>
発明9から9−6のいずれかに記載の表示物制御方法において、
前記作業オブジェクトは、前記位置関係情報の内容に応じて光の放射、音の放射、振動の発生、及び、色の変化の中の少なくとも1つの状態変化を起こす表示物制御方法。
<発明9−8>
発明9から9−6のいずれかに記載の表示物制御方法において、
前記作業オブジェクトは、操作者の身体の一部である表示物制御方法。
<発明10>
所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うために、
コンピュータを、
認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段、
前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段、
として機能させるためのプログラム。
<発明10−2>
発明10に記載のプログラムにおいて、
前記投影手段に、前記位置関係情報を前記作業オブジェクトに投影させるプログラム。
<発明10−3>
発明10−2に記載のプログラムにおいて、
前記画像表示装置は、前記操作対象画像として立体画像を表示し、
前記位置関係情報は、前記作業オブジェクトの位置と、操作者に知覚される前記操作対象画像の表示位置である第1の表示位置との位置関係を示す情報であり、
前記投影手段に、
前記操作対象画像と前記作業オブジェクトとの位置関係が、
(1)前記操作対象画像の前記第1の表示位置の方が前記作業オブジェクトよりも前記操作者の近くにある、及び、
(2)前記操作者により観察された場合、前記操作対象画像と前記作業オブジェクトの少なくとも一部が互いに重なる関係にある、
を満たす場合、前記位置関係情報として、前記操作対象画像における、前記操作者により観察された場合に前記作業オブジェクトと重なる部分を表す画像である第1の画像を、前記作業オブジェクトに投影させるプログラム。
<発明10−4>
発明10−3に記載のプログラムにおいて、
前記投影手段に、前記作業オブジェクト上における、前記操作者により観察された場合に前記操作対象画像と重なる部分に、前記第1の画像を投影させるプログラム。
<発明10−5>
発明10−3または10−4に記載のプログラムにおいて、
前記コンピュータを、
前記認識手段が認識した前記操作者の頭の位置及び前記作業オブジェクトの位置と、前記操作対象画像の前記第1の表示位置と、を利用して、前記第1の画像を生成する画像生成手段としてさらに機能させるためのプログラム。
<発明10−6>
発明10から10−5のいずれかに記載のプログラムにおいて、
前記コンピュータを、
前記操作対象画像を表示する画像表示手段としてさらに機能させるためのプログラム。
<発明10−7>
発明10から10−6のいずれかに記載のプログラムにおいて、
前記作業オブジェクトは、前記位置関係情報の内容に応じて光の放射、音の放射、振動の発生、及び、色の変化の中の少なくとも1つの状態変化を起こすプログラム。
<発明10−8>
発明10から10−6のいずれかに記載のプログラムにおいて、
前記作業オブジェクトは、操作者の身体の一部であるプログラム。
この出願は、2012年10月16日に出願された日本特許出願特願2012−229300号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (10)

  1. 所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うためのシステムであって、
    認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段と、
    前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段と、
    を有する表示物制御システム。
  2. 請求項1に記載の表示物制御システムにおいて、
    前記投影手段は、前記作業オブジェクトに前記位置関係情報を投影する表示物制御システム。
  3. 請求項2に記載の表示物制御システムにおいて、
    前記画像表示装置は、前記操作対象画像として立体画像を表示し、
    前記位置関係情報は、前記作業オブジェクトの位置と、操作者に知覚される前記操作対象画像の表示位置である第1の表示位置との位置関係を示す情報であり、
    前記投影手段は、
    前記操作対象画像と前記作業オブジェクトとの位置関係が、
    (1)前記操作対象画像の前記第1の表示位置の方が前記作業オブジェクトよりも前記操作者の近くにある、及び、
    (2)前記操作者により観察された場合、前記操作対象画像と前記作業オブジェクトの少なくとも一部が互いに重なる関係にある、
    を満たす場合、前記位置関係情報として、前記操作対象画像における、前記操作者により観察された場合に前記作業オブジェクトと重なる部分を表す画像である第1の画像を、前記作業オブジェクトに投影する表示物制御システム。
  4. 請求項3に記載の表示物制御システムにおいて、
    前記投影手段は、前記作業オブジェクト上における、前記操作者により観察された場合に前記操作対象画像と重なる部分に、前記第1の画像を投影する表示物制御システム。
  5. 請求項3または4に記載の表示物制御システムにおいて、
    前記認識手段が認識した前記操作者の頭の位置及び前記作業オブジェクトの位置と、前記操作対象画像の前記第1の表示位置と、を利用して、前記第1の画像を生成する画像生成手段をさらに有する表示物制御システム。
  6. 請求項1から5のいずれか1項に記載の表示物制御システムにおいて、
    前記画像表示装置をさらに有する表示物制御システム。
  7. 請求項1から6のいずれか1項に記載の表示物制御システムにおいて、
    前記作業オブジェクトは、前記位置関係情報の内容に応じて光の放射、音の放射、振動の発生、及び、色の変化の中の少なくとも1つの状態変化を起こす表示物制御システム。
  8. 請求項1から6のいずれか1項に記載の表示物制御システムにおいて、
    前記作業オブジェクトは、操作者の身体の一部である表示物制御システム。
  9. 所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うための方法であって、
    コンピュータが、
    認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識工程と、
    前記認識工程で認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影工程と、
    を実行する表示物制御方法。
  10. 所定の作業オブジェクトを用いて、画像表示装置が表示する操作対象画像に対する操作を行うために、
    コンピュータを、
    認識エリア内に位置する所定のオブジェクトを認識し、そのオブジェクトの位置情報を取得する認識手段、
    前記認識手段が認識した前記作業オブジェクトの位置と、前記操作対象画像の表示位置との位置関係を示す情報である位置関係情報を、所定の位置に投影する投影手段、
    として機能させるためのプログラム。
JP2014541967A 2012-10-16 2013-06-21 表示物制御システム、表示物制御方法及びプログラム Pending JPWO2014061310A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012229300 2012-10-16
JP2012229300 2012-10-16
PCT/JP2013/067072 WO2014061310A1 (ja) 2012-10-16 2013-06-21 表示物制御システム、表示物制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2014061310A1 true JPWO2014061310A1 (ja) 2016-09-05

Family

ID=50487888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541967A Pending JPWO2014061310A1 (ja) 2012-10-16 2013-06-21 表示物制御システム、表示物制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2014061310A1 (ja)
WO (1) WO2014061310A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2533777A (en) * 2014-12-24 2016-07-06 Univ Of Hertfordshire Higher Education Corp Coherent touchless interaction with steroscopic 3D images
WO2018116544A1 (ja) * 2016-12-19 2018-06-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019139306A (ja) * 2018-02-06 2019-08-22 富士ゼロックス株式会社 情報処理装置及びプログラム
US11947119B2 (en) 2020-02-17 2024-04-02 Sony Group Corporation Display control device, display control method, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002100285A1 (en) * 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system and a probe therefor
JP2006252036A (ja) * 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> 投影画像作成装置、プログラム、投影画像作成方法及び画像投影システム
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
JP2012208439A (ja) * 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム

Also Published As

Publication number Publication date
WO2014061310A1 (ja) 2014-04-24

Similar Documents

Publication Publication Date Title
EP3997552B1 (en) Virtual user interface using a peripheral device in artificial reality environments
EP3311250B1 (en) System and method for spawning drawing surfaces
US9891704B2 (en) Augmented reality with direct user interaction
KR20230054733A (ko) 가상 제어부들과 상호작용하기 위한 방법들 및/또는 가상 환경들에서 가상 객체들을 이동시키기 위한 어포던스
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP5589625B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110476142A (zh) 虚拟对象用户界面显示
US20120113223A1 (en) User Interaction in Augmented Reality
US8929628B2 (en) Measuring device and measuring method
US20150363070A1 (en) System and method for interfacing with a device via a 3d display
WO2016109409A1 (en) Virtual lasers for interacting with augmented reality environments
EP2717140B1 (en) Equipment control device, operation reception method, and program
CN102651119A (zh) 信息处理装置及其控制方法、透射型头部佩戴型显示装置
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
JP2013029958A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016053320A1 (en) Gesture based manipulation of three-dimensional images
WO2014061310A1 (ja) 表示物制御システム、表示物制御方法及びプログラム
CN107133028B (zh) 一种信息处理方法及电子设备
Arslan et al. E-Pad: Large display pointing in a continuous interaction space around a mobile device
JP5520772B2 (ja) 立体画像の表示システム及び表示方法
US20230042447A1 (en) Method and Device for Managing Interactions Directed to a User Interface with a Physical Object
JP2002297310A (ja) 力覚グリッドを備えた三次元形状描画システム
KR20120132440A (ko) 3차원 디스플레이 방법 및 그를 위한 전자책 시스템