JP6632298B2 - Information processing apparatus, information processing method and program - Google Patents
Information processing apparatus, information processing method and program Download PDFInfo
- Publication number
- JP6632298B2 JP6632298B2 JP2015191826A JP2015191826A JP6632298B2 JP 6632298 B2 JP6632298 B2 JP 6632298B2 JP 2015191826 A JP2015191826 A JP 2015191826A JP 2015191826 A JP2015191826 A JP 2015191826A JP 6632298 B2 JP6632298 B2 JP 6632298B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- projection
- icon
- designated
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
従来、プロジェクタが画像を投影する投影面に対するポインティングには、プロジェクタを制御するPCに接続したポインティングデバイス(マウスやタッチパット)やレーザーポインタ等が利用されるのが一般的である。また、近年ではカメラで撮像した画像から操作者の表示画像に対する指差しを検出し、操作者が指差している投影面上の位置を推定することでポインティングする方法も提案されている。 2. Description of the Related Art Conventionally, a pointing device (mouse or touch pad) connected to a PC that controls a projector, a laser pointer, or the like is generally used for pointing on a projection surface on which an image is projected by a projector. In recent years, a method has been proposed in which pointing is performed by detecting a finger pointing to a display image of an operator from an image captured by a camera, and estimating a position on the projection surface pointed by the operator.
特許文献1には、複数人が同時に表示画面に対してポインティングした場合に、操作者の顔と手を、画面を表示するディスプレイの上に設置されたカメラで撮影した撮影画像から検出している。そして、表示画面上に顔アイコンと手アイコンとして表示してそれぞれを紐で繋ぐことによって操作者とポインタの関連性を提示する技術が開示されている。これにより、複数のユーザそれぞれとポインティングとを対応付けることができる。 In Patent Literature 1, when a plurality of people point at the display screen at the same time, the face and hand of the operator are detected from a captured image captured by a camera installed on a display that displays the screen. . Then, a technology is disclosed in which a face icon and a hand icon are displayed on a display screen, and the relevance between the operator and the pointer is presented by connecting each of the icons with a string. This makes it possible to associate each of the plurality of users with the pointing.
しかしながら、従来技術においては、プロジェクタの全周囲にユーザがいる場合に、複数のユーザのアイコンが重なってしまって区別できなくなることがある。この場合、ユーザとプロジェクタにより投影されるポインティングとの対応関係がわかり難くなってしまうという問題があった。 However, in the related art, when there are users all around the projector, icons of a plurality of users may overlap and become indistinguishable. In this case, there is a problem that it is difficult to understand the correspondence between the user and the pointing projected by the projector.
本発明はこのような問題点に鑑みなされたもので、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合に、指示操作を行っているユーザを区別し、ユーザとアイコンとの対応関係をわかり易く提示することを目的とする。 The present invention has been made in view of such a problem, and when a plurality of icons corresponding to respective instruction operations of a plurality of users are displayed on a projection plane, the user performing the instruction operation is distinguished. The purpose of the present invention is to present the correspondence between a user and an icon in an easily understandable manner.
そこで、本発明は、情報処理装置であって、表示データを投影面に投影する投影手段と、前記投影手段の水平方向の全周囲の画像を撮影する撮影手段と、前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段とを有することを特徴とする。 Therefore, the present invention provides an information processing apparatus, comprising: a projection unit configured to project display data onto a projection surface; a photographing unit configured to photograph an image of the entire circumference of the projection unit in a horizontal direction; A user position specifying unit that specifies a user position based on the position of the projecting unit; and a pointing position on a projection surface, which is a target of a pointing operation performed by a user using an operating element, based on the image. Pointed position specifying means to pass through the position of the projection means and the user position, and corresponding to the projection plane, the positional relationship between the position of the projection means and the user position in a predetermined plane, It said position indicated by the user, based on the inclination determination unit operable shows the indicated position, and to determine the slope of the first icon indicating the relationship between the indication position and the user position, the projection Wherein the position of the unit based on the positional relationship between the user position, and further comprising a display control means for controlling said projecting means to project the first icon slope determined by the slope determining means I do.
本発明によれば、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合に、指示操作を行っているユーザを区別し、ユーザとアイコンとの対応関係をわかり易く提示することができる。 According to the present invention, when a plurality of icons corresponding to respective instruction operations of a plurality of users are displayed on the projection surface, the user performing the instruction operation is distinguished, and the correspondence between the user and the icon is determined. It can be presented clearly.
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態に係るプロジェクタシステムと、その利用形態を示す図である。本実施形態においては、複数のユーザがプロジェクタ100により投影される表示画像を見ながら会議やプレゼンテーションを行う場合を例に、プロジェクタ100について説明する。本実施形態に係るプロジェクタシステムは、情報処理装置としてのプロジェクタ100とネットワーク上に配置されたサーバ装置160とを有している。プロジェクタ100とサーバ装置160は、高速な無線回線161で接続されており、プロジェクタ100はサーバ装置160に蓄積されている各種データ(コンテンツ)をネットワーク経由で取得することによって情報を投影する。もちろんプロジェクタ100がもともと保持しているデータを投影することも可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating a projector system according to a first embodiment and a usage form thereof. In the present embodiment, the
本実施形態では、プロジェクタ100は、テーブル120上に設置されており、投影面140に表示データ150を投影している。さらに、プロジェクタ100の周りを囲うようにユーザ130a〜130cが存在している。なお、以降において、各ユーザ130a〜130cを特に区別する必要がない場合に、単にユーザ130と称する。ユーザ130a〜130cは、プロジェクタ100によって投影される表示データ150を見ながら、会議やプレゼンテーションを行う。この時、投影面140に投影された表示データ150に対する各種操作はユーザ130a〜130cのジェスチャ操作によって行われる。プロジェクタ100は、プロジェクタ100に搭載される全周囲ステレオカメラ110により撮影された画像に基づいて、ジェスチャ操作を検出する。
In the present embodiment, the
そして、プロジェクタ100は、ジェスチャ操作が、表示データ150上のある位置、すなわち投影面140上の位置を指し示す指示操作である場合には、ポインタアイコンを表示する。ここで、ポインタアイコンは、指示操作により指示された点を示すアイコンであり、かつポインタアイコンがいずれのユーザ130a〜130cによる指示操作に対応しているかを示すアイコンである。図1の例では、投影面140には、表示データ150に重畳して、2つのポインタアイコン141a,141bが表示されている。本実施形態においては、ポインタアイコン141a,141bは、矢印を示す画像であるものとする。矢印の先端は、指示操作により指示される位置を示し、矢印の傾きによりポインタアイコンがいずれのユーザ130a〜130cの指示操作に対応するアイコンであるかを示している。このため、ポインタアイコンの傾きは、プロジェクタ100とユーザ130a〜130cの間の位置関係に応じて変化する。詳細については後述する。また、本実施形態においては、指示操作をユーザの指先で行う場合について説明するが指示操作を行う操作子は、指先に限定されるものではない。操作子は、例えば手や腕、差し棒等であってもよい。
Then, when the gesture operation is an instruction operation indicating a certain position on
本実施形態のプロジェクタ100には、全周囲ステレオカメラ110が搭載されている。全周囲ステレオカメラ110は、2つのカメラ111,112を有している。各カメラ111,112は、いずれも水平方向における全周囲(360°)を撮像できる全周囲カメラであり、半天球の画像(上と左右の全方位)を撮影することができる。2つのカメラ111,112は、図に示すように上下に搭載されており、左右全方位(y軸に対して全周囲)の画像を利用することで、ステレオカメラとして機能することができる。
The
本実施形態では、プロジェクタ100の周りに存在するユーザ130a〜130c全員の指差し操作を検出できるように、プロジェクタ100には撮像デバイスとして全周囲ステレオカメラ110が搭載されている。さらに、プロジェクタ100から各オブジェクトまでの距離を算出可能とすべく、全周囲ステレオカメラ110をステレオ構成とし、ステレオ法により距離を算出するものとする。すなわち、図1に示すように、全周囲ステレオカメラ110は、2つのカメラ111,112を有している。カメラ111及びカメラ112は、上下に搭載され、各カメラ111,112は、左右全方位(y軸に対する全周囲)の画像を撮影する。なお、本実施形態において、撮影制御部302が画像を撮像する周期は、全周囲ステレオカメラ110が撮像する画像のフレームレートに一致するものとする。ただし、フレームレートよらない所定の時間を撮像の周期として設定することもできる。
In the present embodiment, the
図2は、プロジェクタ100のハードウェア構成の一例を示す図である。CPU200は、バス203を介して接続される各デバイスを統括的に制御する。オペレーティングシステム(OS)をはじめ、後述するプロジェクタ100の機能や処理に係る各処理プログラム、デバイスドライバ等はROM202に記憶されており、RAM201に一時記憶され、CPU200によって適宜実行される。RAM201は、高速にアクセス可能なCPU200の主メモリ、ワークエリア等の一時記憶領域として用いられる。ここで、OS及び各処理プログラム等はストレージ209に記憶されていてもよく、その場合は電源投入時に必要な情報がRAM201に適宜読み込まれる。また、ディスプレイI/F204は、プロジェクタ100で生成する表示データを投影部205が出力可能な信号に変換する。入力I/F206は、全周囲ステレオカメラ110により撮影された画像をプロジェクタ100が処理可能な形式に変換する。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the
ストレージI/F208は、ストレージ209へのデータの入出力を行う。ストレージ209には、プロジェクタ100が投影する表示データのUI(User Interface)の部品となる画像やサーバ装置160から取得したデータのコピー、プロジェクタ100が内部で起動するプログラム等が格納されている。ストレージ209としては、ディスクデバイスやフラッシュメモリ、ネットワークドライブやUSBドライブ等の大容量記憶装置が使用できる。また、複数の記憶装置を並列に接続して構成されていてもよいし、サーバ装置160に含まれるストレージであっても構わない。ネットワークI/F210は、ネットワーク上のサーバ装置160とリモートで通信を行う。本実施形態では、高速な無線のネットワークの利用を想定しているが、有線のネットワークを利用する形態であっても構わない。
The storage I /
図示していないが、サーバ装置160も、プロジェクタ100と同様に、CPU200、RAM201、ROM202、バス203といったハードウェアで構成されている。さらに、ストレージI/F208、ストレージ209、ネットワークI/F210から構成されている。それぞれのハードウェアの機能はプロジェクタ100と同様である。サーバ装置160のストレージ209には、プレゼン資料やドキュメント、画像や動画といったデータが膨大に格納されているものとし、プロジェクタ100はそれらデータを高速の無線回線161経由で取得することが可能である。
Although not shown, the
図3は、プロジェクタ100の機能構成の一例を示す図である。プロジェクタ100は、通信制御部300、記憶部301、撮影制御部302、領域検出部303及び形状検出部304を有している。さらに、プロジェクタ100は、3次元位置算出部305、基準点特定部306、指差し検出部307及び表示制御部308を有している。これら各機能部は、CPU200が、ROM202に格納されたプログラムをRAM201に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
FIG. 3 is a diagram illustrating an example of a functional configuration of the
通信制御部300は、ストレージI/F208を介して、ストレージ209とのデータの入出力を制御する。また、通信制御部300は、ネットワークI/F 210を介して、ネットワーク上のサーバ装置160とのデータ通信を行う。記憶部301は、ストレージ209により実現される。前述した通り、記憶部301には各種UI部品やサーバ装置160から取得したデータのコピー、プロジェクタ100が実行するプログラムが格納されている。
The
撮影制御部302は、全周囲ステレオカメラ110による撮影を制御する。撮影制御部302は、全周囲ステレオカメラ110で撮像される全周囲のRGBステレオ画像を所定時間間隔で取得し、RAM201に随時保存する。RGBステレオ画像は、2つの視点から撮像された2枚のRGB画像から構成される。これら2つの画像間にはズレ(視差)があり、その視差に基づいて距離(depth)を算出できる。保存されたRGBステレオ画像は、プロジェクタ100の各機能ブロックにおいて順次処理される。なお、本実施形態において、撮影制御部302が画像を撮像する周期は、プロジェクタ100が撮像する画像のフレームレートに一致するものとする。ただし、フレームレートよらない所定の時間を撮像の周期として設定することもできる。また、撮影制御部302は、カメラ111により撮影された画像をマスタ画像、カメラ112により撮影された画像をスレーブ画像として処理するものとするが、この限りではない。
The photographing
領域検出部303は、RAM201に保持されているRGBステレオ画像の色情報を利用することによって、画像内の肌色領域(ユーザ130の顔や手を含む)とそれ以外の領域を検出する。さらに、領域検出部303は、検出した肌色領域をラベリングし、その結果をRAM201に保持する。さらに領域検出部303は、RAM201に保存されている肌色領域から顔領域を検出し、その領域をラベリングしてRAM201に保持する。詳細は後述する。形状検出部304は、RAM201に保持されている肌色領域及び顔領域の情報を利用し、顔領域以外の肌色領域から、指示操作として、指差し形状を検出する。詳細は後述する。さらに、形状検出部304は、検出した指差し形状領域をラベリングし、その結果をRAM201に保持する。本実施形態では、指示操作として検出する形状を人の手の指差し形状としたが、その限りではない。
The
3次元位置算出部305は、RAM201に保持されている顔領域及び指差し形状領域の情報を利用して、プロジェクタ100から各領域の各画素までの三次元位置を算出する。具体的な計算方法は後述するが、ステレオ画像を構成する2つの画像(マスタ画像とスレーブ画像)から対応点を探索し、視差から三角測量を用いて空間上の位置を算出する。ここで、対応点とは、空間中のある一点を二つの視点で同時に撮影したとき、それぞれの視点で撮影した画像中に写ったその点のことであり、一般的に「ステレオ対応点」と呼ばれる点である。例えば、図1に示す点Dを空間中の1点とし、カメラ111,112の2つの視点で点Dを同時に撮像したとき、カメラ111による撮影画像中の点Dと、カメラ112による撮影画像中の点Dが対応点となる。3次元位置算出部305は、算出した各画素の3次元位置情報をRAM201に保持する。
The three-dimensional
本実施形態では、3次元位置計測の手段として全周囲カメラ(全周囲ステレオカメラ110)を用いたが、必ずしもカラー画像である必要はなく、赤外ステレオカメラを用いて全周囲ステレオ画像を取得しても良い。また全周囲ステレオカメラではなく、全周囲画像を撮像可能な距離画像センサを用いることによって3次元位置情報を取得してもよい。さらに、1台のカメラではなく、複数のカメラで全周囲を撮像して3次元位置情報を算出してもよい。 In the present embodiment, the omnidirectional camera (omnidirectional stereo camera 110) is used as the means for measuring the three-dimensional position. However, the omnidirectional camera is not necessarily a color image, and the omnidirectional stereo image is acquired using the infrared stereo camera. May be. Alternatively, the three-dimensional position information may be obtained by using a range image sensor capable of capturing an omnidirectional image instead of the omnidirectional stereo camera. Further, three-dimensional position information may be calculated by imaging the entire periphery with a plurality of cameras instead of one camera.
基準点特定部306は、RAM201に保持されている顔領域の3次元位置情報を利用し、顔領域の位置をユーザ位置として特定し、特定したユーザ位置をRAM201に保持する。基準点特定部306はまた、RAM201に保持されている指差し形状領域の3次元位置情報を利用し、指差し形状領域の位置を操作子位置として特定し、特定した操作子位置をRAM201に保持する。なお、ユーザ位置及び操作子位置は、いずれも3次元座標系における位置とする。指差し検出部307は、RAM201に保持されているユーザ位置と操作子位置とに基づいて、投影面140への指差し操作を検出する。詳細は後述する。表示制御部308は、記憶部301に保持されているデータやネットワーク上のサーバ装置160から取得したデータから表示データを生成し、投影部205が表示データを投影するよう制御する。表示制御部308はさらに、指差し検出部307によってユーザの指差し操作が検出されている場合には、ユーザが指差した位置に対応する投影面140上の位置にポインタアイコンを表示するよう制御する。
The reference point specifying unit 306 specifies the position of the face area as a user position by using the three-dimensional position information of the face area stored in the
図4は、プロジェクタ100による情報処理を示すフローチャートである。プロジェクタ100は、本処理により表示データ150を投影面140に投影し、さらにユーザの指示操作を検出すると、指示操作に対応するポインタアイコンを表示データ150上に重畳して投影表示する。プロジェクタ100の電源をONにして起動すると、プロジェクタ100は、まずステップS400の処理を実行する。ステップS400において、表示制御部308は、表示データを生成し、これを投影面140に投影するよう投影部205を制御する。なお、ここで投影される表示データは、ストレージ209やサーバ装置160に記憶されている会議で利用するプレゼン資料等である。投影部205は、表示制御部308の制御の下、表示データを投影面に投影表示する(投影処理)。
FIG. 4 is a flowchart illustrating information processing by the
次に、ステップS401において、撮影制御部302は、既定のフレームレートでRGBの全周囲ステレオ画像を撮像するよう全周囲ステレオカメラ110を制御する(撮影制御処理)。撮影制御部302は、得られた全周囲ステレオ画像をRAM201に保持する。全周囲ステレオカメラ110は、撮影制御部302の制御の下、全周囲ステレオ画像を撮影する(撮影処理)。次に、ステップS402において、領域検出部303は、RAM201に保持されている全周囲ステレオ画像を解析し、マスタ画像及びスレーブ画像中に肌色領域があるか否かを検出する。領域検出部303は、肌色領域を検出しなかった場合は(ステップS402でNo)、処理をステップS411へ進める。領域検出部303は、肌色領域を検出した場合は(ステップS402でYes)、処理をステップS403へ進める。
Next, in step S401, the
ステップS403において、領域検出部303は、検出した肌色領域をラベリングし、その結果をRAM201に保持する。さらに、ステップS403において、領域検出部303は、RAM201に保持されている肌色領域から顔領域を検出する。顔の検出については種々のアルゴリズムが知られているが、本実施形態では、顔を局所的な明暗差の集合であると捉え、肌色領域の明暗と複数の単純な明暗パターンとのマッチングを行うことによって顔領域を検出するものとする。そして、領域検出部303は、検出した顔領域をラベリングし、その結果をRAM201に保持する。
In step S403, the
次に、ステップS404において、形状検出部304は、RAM201に保持されている肌色領域のラベル画像と顔領域のラベル画像を利用して、顔領域以外の肌色領域から、指示操作として指差し形状を検出する。図5は、指差し形状を検出する処理の説明図である。形状検出部304は、図5に示す凸形状500を指差し形状として検出する一方で、凸形状501については指差し形状ではないと判断し、指差し形状としては検出しない。具体的には、形状検出部304は、凸形状500の領域中の肌色領域の割合と、凸形状501の領域中の肌色領域の割合との差に着目し、肌色割合に応じて、凸形状500を検出する。
Next, in step S404, the
なお、指差し形状を検出するための処理は、実施形態に限定されるものではない。他の例としては、プロジェクタ100は、検出したい指差し形状の画像をテンプレートとして予めROM202等に記憶しておき、形状検出部304は、撮像した全周囲ステレオ画像と照らし合わせて(マッチングして)指差し形状を検出してもよい。また、他の例としては、形状検出部304は、肌色領域の形状から既定の特徴量を抽出し、機械学習することによって指差し形状を検出することも可能である。そして、形状検出部304は、検出した指差し形状の領域をラベリングし、その結果をRAM201に保持する。次に、ステップS405において、形状検出部304は、指差し形状が存在するか否かを判断する。形状検出部304は、指差し形状が存在しない場合は(ステップS405でNo)、処理をステップS411へ進める。形状検出部304は、指差し形状が存在する場合は(ステップS405でYes)、処理をステップS406へ進める。
Note that the processing for detecting the pointing shape is not limited to the embodiment. As another example, the
ステップS406において、3次元位置算出部305は、RAM201に保存されている全周囲ステレオ画像から、マスタ画像中の顔領域と指差し形状領域の各画素に対する3次元位置を算出する。例えば、マスタ画像中の指差し形状領域の画素(m,n)の3次元位置を算出する場合、3次元位置算出部305は、まず画素の位置(m,n)に対応するステレオ対応点(m1,n1)をスレーブ画像から探索する。そして、3次元位置算出部305は、マスタ画像中の画素の位置(m,n)とスレーブ画像中のステレオ対応点(m1,n1)との視差から三角測量によって、画素の位置(m,n)までの距離(深さ、depth)を求め、3次元空間上の位置を算出する。3次元位置算出部305は、マスタ画像中の顔領域及び指差し形状領域の全ての画素に対し、前述した3次元位置の算出を行い、その結果をRAM201に保持する。
In step S <b> 406, the three-dimensional
次に、ステップS407において、基準点特定部306は、RAM201に保持されている顔領域及び指差し形状領域の3次元位置情報を利用して、ユーザ位置及び操作子位置を特定する。以下、まず操作子位置を特定する処理について説明する。本実施形態に係るプロジェクタ100は、指差し形状領域内の指先の位置を操作子位置として決定する。図6は、操作子位置を決定する処理の説明図である。基準点特定部306は、指差し形状領域の輪郭を利用して、指先の位置を決定する。具体的には、基準点特定部306は、図6に示すように、まず輪郭上の等間隔の3点(a,b,c)がなす角度Θが既定の閾値内である指先らしき点を複数個求める。そして、基準点特定部306は、指先らしき点が連続する部分を検出する。基準点特定部306はさらに、その連続する複数の指先らしい点の平均位置を指先位置600、すなわち操作子位置としてRAM201に保持する。
Next, in step S <b> 407, the reference point specifying unit 306 specifies the user position and the operation device position using the three-dimensional position information of the face area and the pointing shape area held in the
次に、ユーザ位置を特定する処理について説明する。本実施形態に係るプロジェクタ100は、顔のアゴの位置をユーザ位置として特定する。基準点特定部306は、前述した顔検出の場合と同様に、顔の局所的な明暗差から目の位置と口の位置を求め、両目を結んだ線から口の方向へ垂線を下ろし、顔領域の輪郭線と交わった位置をアゴの位置として特定する。そして、基準点特定部306は、アゴの位置をユーザ位置としてRAM201に保持する。なお、アゴの位置をユーザ位置としたのは、実際の指差しポインティングの状況やユーザビリティ的な観点を考慮した結果である。なお、本実施形態では顔領域の基準点をアゴの位置としたが、顔領域の重心位置や鼻の位置、両目間の中点をユーザ位置としてもよい。なお、ステップS407の処理は、操作子位置特定処理及びユーザ位置特定処理の一例である。
Next, a process for specifying a user position will be described. The
ステップS407の処理の後、ステップS408において、指差し検出部307は、ステップS407において特定した、操作子位置とユーザ位置の間の距離(以下、ユーザ距離と称する)が距離範囲内か否かを判断する。指差し検出部307は、ユーザ距離が距離範囲内である場合には(ステップS408でYes)、指示操作としての指差し操作を検出したと判断し、処理をステップS409へ進める。指差し検出部307は、ユーザ距離が距離範囲外である場合には(ステップS408でNo)、指示操作を検出しなかったと判断し、処理をステップS411へ進める。ステップS409において、指差し検出部307は、ユーザ130の指差しを検出したことを確定し、ユーザ130の指差しを検出したことを示す検出イベント(2つの基準点の3次元位置情報を含む)を表示制御部308へ通知する。
After the process of step S407, in step S408, the pointing
本実施形態に係るプロジェクタ100においては、距離範囲を20〜70cmとした。距離範囲の上限値を70cmとしたのは、人の手が届く範囲を考慮した結果である。また、距離範囲の下限値を20cmとしたのは、アゴの位置と指先位置があまりにも近い場合は、ユーザは指差し操作(ポインティング)をしようとしたわけでなく、顔近くで偶然に指差し形状をしているだけの可能性が高いからである。つまり指差し操作の誤認識を考慮した結果である。もちろん、距離範囲を「20cmから70cm」以外に設定しても構わない。
In the
次に、ステップS410において、表示制御部308は、指差し検出部307から指差し操作検出イベントを通知される。そして、表示制御部308は、プロジェクタ100とユーザ130の位置関係を示すポインタアイコンを投影面140に表示中の表示データ150に合成して投影表示するよう制御する(表示制御処理)。以下、ポインタアイコンを表示する処理について、図1及び図7を参照しつつ説明する。前提として、図1に示すように、ユーザ130a,130bの2人が投影面140に表示された表示データ150に対して指差し操作を行い、図4のステップS409において指差し検出部307が指差し操作を検出しているものとする。
Next, in step S410, the
この場合、表示制御部308は、RAM201上に保持されている顔領域と指差し形状領域の3次元位置情報に基づいて、図7(a)に示すようなXZ平面(鉛直方向に垂直な面)に平行な面上にマップを作成する(マッピングする)。すなわち、マップは、プロジェクタ100とユーザ130a,130bの位置関係を地図のように上面から見た図(上面図)に相当する。つまり、マップ上では、Z軸のマイナス方向を上方向とした場合には、プロジェクタ100に対してユーザ130aは下側に、ユーザ130bは右側にマッピングされる。なお、三角形の領域701は投影領域の範囲、円形の領域702は全周囲ステレオカメラ110で3次元位置情報を算出可能な領域を示している。また、703はプロジェクタ100を上から見た際の中心点、704a,704bは、それぞれ基準点特定部306が特定したユーザ130a,130bのユーザ位置(アゴの位置)である。
In this case, based on the three-dimensional position information of the face area and the pointing area held in the
さらに表示制御部308は、マップ上のプロジェクタ100の中心点703とユーザ位置704a,704bを結ぶ直線705a,705bを求める。そして、表示制御部308は、図7(b)に示すように、マップ上のプロジェクタ100の中心点703を投影面140の対応中心点713に対応付ける。ここで、対応中心点713は、予め定められた位置であり、本実施形態においては、投影面140の中心位置とする。但し、対応中心点713の位置は、予め定められた投影面140の中心付近の位置であればよく、中心位置に限定されるものではない。さらに、表示制御部308は、2つの直線705a,705bそれぞれを、投影面140の対応中心点713に対応付けることにより2つの直線715a,715bを描画し、さらに各直線715a,715bを表示データ150の境界線まで引き伸ばす。そして、表示制御部308は、各直線715a,715bと表示データ150の境界線との交点720a,720bを求める。表示制御部308は、求めた交点720a,720bをそれぞれユーザ130a,130bに対して割り当てるポインタアイコン141a,141bの進入位置として決定する(進入位置決定処理)。
Further, the
さらに、表示制御部308は、ユーザ130aについての、ユーザ位置と操作子位置とを結ぶ直線に基づいて、ユーザ130aが指差している表示データ150上の位置(投影面140上の位置)をユーザ130aの指示位置として特定する。本処理は、投影面上の指示位置を特定する指示位置特定処理の一例である。具体的には、表示制御部308は、ユーザ位置と操作子位置とを結ぶ直線と、投影面140とが交わる位置721aを、指示位置として特定する。同様に、表示制御部308は、ユーザ130bについての、ユーザ位置と操作子位置とを結ぶ直線に基づいて、ユーザ130bの指示位置721bを特定する。
Further, the
表示制御部308は、進入位置720aと指示位置721aとを結ぶ直線に沿って、指示位置721aを先端位置とする矢印形状のポインタアイコン141aを投影表示するよう制御する。また、表示制御部308は、進入位置720bと指示位置721bとを結ぶ直線に沿って、指示位置721bを先端位置とする矢印形状のポインタアイコン141bを投影表示するよう制御する。
The
ここで、ポインタアイコン141a,141bは、いずれもユーザ位置と指示位置との関係を示すアイコンの一例である。また、進入位置720aと指示位置721aとを結ぶ直線は、ポインタアイコン141aの傾きを定める直線であり、この直線を求める処理は、ポインタアイコンの傾きを決定する傾き決定処理の一例である。なお、表示制御部308は、ポインタを表示した後、ユーザ位置や操作子位置が移動した場合には、移動後の位置に応じて、適宜ポインタの表示を更新する。
Here, each of the
図4に戻り、ステップS411において、CPU200は、プロジェクタ100の動作を終了するか否かを判定する。CPU200は、プロジェクタ100に設けられた物理ボタンやGUIに対する入力によりプロジェクタ100を終了する指示がなされた場合に、プロジェクタ100の動作を終了すると判断する。CPU200は、動作を終了する場合には(ステップS411でYes)、処理を終了する。CPU200は、動作を終了しない場合には(ステップS411でNo)、処理をS400へ進め、処理を続ける。
Referring back to FIG. 4, in step S411,
以上説明したように、本実施形態に係るプロジェクタ100は、投影部205とユーザ130の位置関係からポインタの進入位置を求め、そのポインタ進入位置に応じて傾きの変化するポインタを表示した。このように、プロジェクタ100とユーザ位置関係をポインタの表示形態に対応させて投影面140に合成表示することにより、ポインティングを行っているユーザのプロジェクタ100に対するおおよその相対位置をユーザに認識させることができる。
As described above, the
地図に代表されるように、上面から見た位置、すなわち水平面へのマッピングに人は慣れているので、一度マッピングルールを理解すれば、表示されているポインタアイコンを見るだけで位置関係を直観的に把握可能である。そのために必要な表示領域はポインタアイコンを表示する領域のみであるので、従来型のポインタアイコンを表示する場合と比較してもリーズナブルである。 As represented by a map, people are accustomed to mapping from the top, that is, mapping to the horizontal plane, so once you understand the mapping rules, you can intuitively understand the positional relationship just by looking at the displayed pointer icon It is possible to grasp. The display area required for that is only the area for displaying the pointer icon, so that it is reasonable compared to the case of displaying the conventional pointer icon.
さらに、本実施形態で説明したような投影面に投影された表示データを利用しながら会議を行うユースケースでは、プロジェクタ100の周りにユーザがいる場合が多い。従って、本実施形態で示すように、全周囲ステレオカメラ110をプロジェクタ100に一体化させることにより、ユーザ位置を簡単に全周囲でマッピングすることができる。
Further, in a use case where a conference is performed using display data projected on the projection surface as described in the present embodiment, a user is often present around the
本実施形態の第1の変更例としては、アイコンは、矢印型のポインタアイコンに限定されるものではない。図8は、アイコンの変更例を示す図である。表示制御部308は、図8に示すように、ユーザの腕を模した透過性のある影アイコン800a,800bを表示してもよい。
As a first modification of the present embodiment, the icons are not limited to arrow-type pointer icons. FIG. 8 is a diagram illustrating an example of changing icons. The
また、第2の変更例としては、表示制御部308は、ポインタアイコンをアニメーション表示してもよい。例えば、図7(b)に示す例において、ポインタアイコン141a,141bがそれぞれ進入位置720a,720bから指示位置721a,721bまで移動するようなアニメーションを表示してもよい。これにより、ユーザにポインタアイコン141a,141bの進入位置720a,720bを明確に認識してもらうことができる。さらに、表示制御部308は、ポインタアイコン141a,141bがそれぞれ指示位置721a,721bに到達した後、指差し操作が未検出となってから一定時間経過後に、ポインタアイコン141a,141bを非表示にするよう制御してもよい。
As a second modification, the
また、第3の変更例としては、本実施形態では、全周囲画ステレオ画像からユーザの顔や指差しを検出したが、これに限定されるものではない。他の例としては、プロジェクタ100は、位置情報が取得可能なデバイスから取得できる位置情報を用いてユーザの顔や指差しを検出してもよい。
As a third modification, in the present embodiment, the user's face and pointing are detected from the omnidirectional stereo image, but the present invention is not limited to this. As another example, the
また、第3の変更例としては、プロジェクタ100は、ポインタアイコンとしての矢印の長さを、指示位置とユーザ位置の間の距離に基づいて決定してもよい(長さ決定処理)。
As a third modification, the
(第2の実施形態)
次に、第2の実施形態に係るプロジェクタ100について説明する。第2の実施形態に係るプロジェクタ100は、図4のステップS410において、プロジェクタ100とユーザ130との位置関係をXY平面に平行な面上にマッピングし、このマッピング結果に基づいてポインタアイコンを表示する。以下、第2の実施形態に係るプロジェクタ100について第1の実施形態に係るプロジェクタ100と異なる点について説明する。図9は、第2の実施形態に係るマッピング処理の説明図である。図9(a)に示す902は操作子位置、903はユーザ位置である。900は、操作子位置902とユーザ位置903を結ぶ直線が投影面140と交わる位置、すなわち指示位置である。
(Second embodiment)
Next, a
本実施形態においては、表示制御部308は、操作子位置902とユーザ位置903とに基づいて、操作位置900を求める。さらに、表示制御部308は、操作位置900と操作子位置902とを結ぶ線分のx,y成分であるx1,y1を求める。ここで、x1は、図9(b)に示すように線分をx方向に射影した長さである。また、y1は、図9(c)に示すように線分をy方向に射影した長さである。さらに、表示制御部308は、操作子位置902から投影面140上への垂線の長さ、すなわちz方向の成分z1の大きさに応じてポインタの奥行(矢印の遠近感)を調整する。なお、第2の実施形態に係るプロジェクタ100のこれ以外の構成及び処理は、第1の実施形態に係るプロジェクタ100の構成及び処理と同様である。
In the present embodiment, the
このように、第2の実施形態に係るプロジェクタ100は、カーナビの一人称視点表示のように、プロジェクタ100に対するユーザの位置関係を一人称視点でマッピングしてポインタ(アイコン)を投影表示する。1人称視点のマッピングは、上面から見た位置へのマッピング(上面図)と比較すると見たままとなるので、直観的に各ユーザのおおよその位置をユーザ自身に認識させることができる。
As described above, the
(第3の実施形態)
図10は、第3の実施形態に係るプロジェクタ1010の説明図である。第3の実施形態に係るプロジェクタ1010は、懐中電灯型のモバイルデバイスである。すなわち、プロジェクタ1010は移動可能である。このため、プロジェクタ1010の位置は一定ではなく、またプロジェクタ1010の位置に応じて投影方向も変化する。プロジェクタ1010は、変化するプロジェクタ1010の位置に応じて、ポインタを表示する。以下、第3の実施形態に係るプロジェクタ1010について他の実施形態に係るプロジェクタ1010と異なる点について説明する。なお、本実施形態においては、美術館の学芸員がプロジェクタ1010を持ち、プロジェクタ1010により表示データを投影表示させながら、来客者に対して美術品1080についての説明を行う場合を例にプロジェクタ100について説明する。図10に示す1040は投影面を示している。なお、投影面1040は、美術品1080の後方に設けられているものとする。また、他の例としては、投影面1040は、美術品1080の前方に設けられていてもよい。この場合には、投影面1040は透明な面であるものとする。
(Third embodiment)
FIG. 10 is an explanatory diagram of a
図10(a)に示すように、第3の実施形態に係る全周囲ステレオカメラ1010は、2つのカメラ1011,1012の他に、距離画像センサ1013を有している。プロジェクタ1010は、ユーザとしての美術館の学芸員1030aによって携帯されるモバイルデバイスであり、投影対象物や投影面は変化する。また、プロジェクタ1010と、ユーザとしての来客者1030a,1030b,1030cとの間の位置関係も頻繁に変化する。このため、プロジェクタ1010は、全周囲ステレオ画像だけでなく、距離画像センサ1013の検出結果を利用して、既定のフレームレートで距離画像を撮像する。プロジェクタ1010は、領域検出部303と形状検出部304で撮像した距離画像を処理することによって、投影対象物が何であるかを識別する。つまり、投影対象物がある特定の美術品であることを識別する。プロジェクタ1010は、この識別情報を利用し、ネットワーク上のサーバ装置160から識別した美術品1080に関する情報を取得し、美術品1080自体に情報を重畳表示する。プロジェクタ1010は、例えば、美術品の名前や作者等の付加情報を重畳表示することができる。
As shown in FIG. 10A, the
図10(a)は、学芸員1030aがプロジェクタ1010を用いて来客者1030b,1030cに対して美術品1080の説明をしている時に、来客者1030b,1030cの2人が美術品1080の一部をポインティングしている場面を示している。第1の実施形態の場合と同様に、来客者1030b,1030cの指差し操作は、プロジェクタ1010によって検出され、その結果、投影面1040に各来客者1030b,1030cに対応するポインタアイコン1041b,1041cが表示されている。また、図10(a)の1042b,1042cは、それぞれポインタアイコン1041b,1041cの進入位置を示している。
FIG. 10A shows that when the
ここで、来客者1030bが指差した位置、すなわちポインタアイコン1041bの先端の位置に関して学芸員1030aが説明しようとして、図10(a)に示す矢印Aの方向にプロジェクタ1010を回転させたとする。この場合、図10(b)に示すように、投影面は、1040から他の面1050に変化する。なお、このとき、来客者1030b,1030cが指差しの対象としている位置は変わっていないものとするが、プロジェクタ1010の回転移動に起因して、プロジェクタ1010と来客者1030b,1030cとの間の位置関係が変化する。これに従い、来客者1030bに対応するポインタアイコン1041bは、図10(b)に示すポインタアイコン1051bに変化する。ここで、1052bは、ポインタアイコン1051bの進入位置である。すなわち、ユーザ130bに対応するポインタが指差し対象とする美術品1080の位置は変わらないが、ポインタアイコンの進入位置及び傾きが変化する。
Here, it is assumed that the
一方で、プロジェクタ1010の回転移動に起因して、プロジェクタ1010と来客者1030cとの間の位置関係が変化し、来客者1030cに対応するポインタアイコン1041cは、図10(b)に示すポインタアイコン1051cに変化する。しかしながら、ポインタアイコン1051cの位置は、投影面1050の範囲外、すなわち投影範囲の外側になってしまう。このように、プロジェクタ1010は、ポインタアイコンの位置が投影面1050の範囲外になった時点で、ポインタアイコンの表示を終了し、ポインタアイコンに替えて、矢尻型の関連アイコン1060を投影面1050の境界位置に表示する。関連アイコン1060は、その方向に来客者1030cが指している位置があることを示している。さらに、プロジェクタ1010は、再びポインタアイコン1051cが投影面1050の範囲内になった場合には、関連アイコン1060の表示を終了し、関連アイコン1060に替えてポインタアイコン1051cを表示する。
On the other hand, due to the rotational movement of the
プロジェクタ1010が、このような表示制御を行うことにより、学芸員1030aは、来客者1030b,1030cがポインティングしている箇所(説明を聞きたいと思っている箇所)を順番に1つずつ説明することができる。さらに、本実施形態のプロジェクタ1010は、指示位置をRAM201等の記憶部に記録しておく(記録処理)。そして、プロジェクタ1010は、一定時間以上指差し操作が継続した場合には、指差し操作が終了した後も、対応するポインタアイコン又は関連アイコンの表示を継続するよう制御してもよい。これにより、来客者は、説明の順番が回ってくるまで、指差し操作を継続する必要がなくなり、プロジェクタ1010の利便性を向上させることができる。
By performing such display control by the
以上説明したように、懐中電灯型のモバイルデバイスのような実施形態においても、ポインタアイコンを操作しているユーザのおおまかな位置を伝えることができる。つまり、プロジェクタ1010に対するユーザ位置関係をポインタアイコンの進入位置やポインタの傾きを利用してユーザにフィードバックすることにより、ユーザはポインティングしているユーザのおおよその位置を認識可能となる。
As described above, even in an embodiment such as a flashlight-type mobile device, the approximate position of the user operating the pointer icon can be reported. That is, the user's positional relationship with the
以上、上述した各実施形態によれば、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合においても、指示操作を行っているユーザとアイコンとの対応関係をわかり易く提示することができる。 As described above, according to each of the above-described embodiments, even when a plurality of icons corresponding to a plurality of user's instruction operations are displayed on the projection surface, the correspondence between the user performing the instruction operation and the icons Can be presented in an easy-to-understand manner.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
100 プロジェクタ
110 全周囲ステレオカメラ
140 投影面
150 表示データ
Claims (11)
前記投影手段の水平方向の全周囲の画像を撮影する撮影手段と、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段と
を有することを特徴とする情報処理装置。 Projecting means for projecting the display data on a projection surface;
Photographing means for photographing an image of the entire circumference in the horizontal direction of the projecting means,
Based on the image, based on the position of the projecting means, a user position specifying means for specifying a user position,
Based on the image, a designated position specifying unit that specifies a designated position on a projection plane that is a target of a designated operation performed using a manipulator by a user;
Passing the position of the projection means and the user position, and corresponding to the projection plane, the positional relationship between the position of the projection means and the user position on a predetermined plane, and the designated position by the user A tilt determining unit that determines the tilt of a first icon indicating the designated position, and indicating a relationship between the user position and the designated position, based on
Display control means for controlling the projection means to project the first icon whose inclination has been determined by the inclination determination means based on a positional relationship between the position of the projection means and the user position. Characteristic information processing device.
前記画像に基づいて、前記投影手段の位置を基準とした、操作子位置を特定する操作子位置特定手段をさらに有し、
前記指示位置特定手段は、前記操作子位置と前記顔の位置とに基づいて、前記投影面上の指示位置を特定し、
前記表示制御手段は、前記指示位置特定手段により特定された前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す前記第1のアイコンを投影するよう制御することを特徴とする請求項1に記載の情報処理装置。 The user position specifying means specifies the position of the user's face as the user position,
Based on the image, based on the position of the projection means, further comprising an operator position specifying means for specifying an operator position,
The specified position specifying means specifies a specified position on the projection plane based on the operator position and the position of the face,
The display control means controls the projection so as to project the first icon indicating the designated position specified by the designated position specifying means and indicating a relationship between the user position and the designated position. The information processing device according to claim 1.
前記傾き決定手段は、前記進入位置と前記指示位置とに基づいて、前記第1のアイコンの傾きを決定することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。 An entry position determination unit that determines an entry position of the first icon on the projection plane based on the positional relationship,
It said tilt deciding means, on the basis of the entry position and said instructed position, the information processing apparatus according to any one of claims 1 to 3, characterized by determining the slope of the first icon.
前記表示制御手段は、前記長さ決定手段により長さが決定された前記第1のアイコンを投影するよう制御することを特徴とする請求項2に記載の情報処理装置。 A length determining unit that determines a length of the first icon based on a distance between the pointing position and the operating element position;
The information processing apparatus according to claim 2, wherein the display control unit controls to project the first icon whose length is determined by the length determination unit.
前記表示制御手段は、前記投影手段の移動により前記指示位置が前記投影面の外側になった場合に、前記指示位置の方向を示す第2のアイコンを投影するよう前記投影手段を制御することを特徴とする請求項2に記載の情報処理装置。 The projection means is movable;
The display control unit controls the projection unit to project a second icon indicating the direction of the designated position when the designated position is outside the projection plane due to movement of the projection unit. The information processing apparatus according to claim 2, wherein
前記表示制御手段は、前記記憶手段に記録された前記指示位置に基づいて、前記第2のアイコンを投影するよう制御することを特徴とする請求項8に記載の情報処理装置。 Recording means for recording the designated position in storage means,
The information processing apparatus according to claim 8 , wherein the display control unit controls to project the second icon based on the designated position recorded in the storage unit.
表示データを投影面に投影する投影手段の水平方向の全周囲の画像を撮影する撮影ステップと、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定ステップと、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定ステップと、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定ステップと、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定ステップで傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御ステップと
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A photographing step of photographing an image of the entire circumference in the horizontal direction of the projection means for projecting the display data on the projection surface;
Based on the image, based on the position of the projection means, a user position specifying step of specifying a user position,
Based on the image, a specified position specifying step of specifying a specified position on a projection plane to be a target of a specified operation performed by a user using an operator;
The positional relationship between the position of the projection unit and the user position on a predetermined plane, passing through the position of the projection unit and the user position, and corresponding to the projection plane, and the designated position by the user. A tilt determining step of determining the tilt of a first icon indicating the designated position and indicating a relationship between the user position and the designated position, based on
A display control step of controlling the projection means to project the first icon whose inclination has been determined in the inclination determination step based on a positional relationship between the position of the projection means and the user position. Characteristic information processing method.
表示データを投影面に投影する投影手段の水平方向の全周囲の画像を撮影するよう制御する撮影制御手段と、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段と
して機能させるためのプログラム。 Computer
Shooting control means for controlling to shoot an image of the entire circumference in the horizontal direction of the projection means for projecting the display data on the projection surface,
Based on the image, based on the position of the projecting means, a user position specifying means for specifying a user position,
Based on the image, a designated position specifying unit that specifies a designated position on a projection plane that is a target of a designated operation performed using a manipulator by a user;
The positional relationship between the position of the projection unit and the user position on a predetermined plane, passing through the position of the projection unit and the user position, and corresponding to the projection plane, and the designated position by the user. , Based on the inclination position determining means for determining the inclination of a first icon indicating the designated position and indicating the relationship between the user position and the designated position,
A function of a display control unit that controls the projection unit to project the first icon whose inclination is determined by the inclination determination unit based on a positional relationship between the position of the projection unit and the user position. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015191826A JP6632298B2 (en) | 2015-09-29 | 2015-09-29 | Information processing apparatus, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015191826A JP6632298B2 (en) | 2015-09-29 | 2015-09-29 | Information processing apparatus, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068468A JP2017068468A (en) | 2017-04-06 |
JP6632298B2 true JP6632298B2 (en) | 2020-01-22 |
Family
ID=58492421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015191826A Active JP6632298B2 (en) | 2015-09-29 | 2015-09-29 | Information processing apparatus, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6632298B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7416391B2 (en) * | 2018-12-28 | 2024-01-17 | 国立大学法人高知大学 | pointing device |
CN113110768B (en) * | 2021-03-24 | 2022-10-18 | 东风柳州汽车有限公司 | Automobile instrument interface display processing method and device and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5343773B2 (en) * | 2009-09-04 | 2013-11-13 | ソニー株式会社 | Information processing apparatus, display control method, and display control program |
US20130328770A1 (en) * | 2010-02-23 | 2013-12-12 | Muv Interactive Ltd. | System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
JP5921981B2 (en) * | 2012-07-25 | 2016-05-24 | 日立マクセル株式会社 | Video display device and video display method |
JP6149433B2 (en) * | 2013-03-11 | 2017-06-21 | 株式会社リコー | Video conference device, video conference device control method, and program |
US9846486B2 (en) * | 2013-06-27 | 2017-12-19 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
-
2015
- 2015-09-29 JP JP2015191826A patent/JP6632298B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017068468A (en) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
JP6074494B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
US9516214B2 (en) | Information processing device and information processing method | |
WO2019062619A1 (en) | Method, apparatus and system for automatically labeling target object within image | |
JP5921271B2 (en) | Object measuring apparatus and object measuring method | |
JP6044426B2 (en) | Information operation display system, display program, and display method | |
JP6955369B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
JP6723814B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
JP2016218905A (en) | Information processing device, information processing method and program | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP2011039844A (en) | Image recognition device, operation decision method and program | |
JP4733600B2 (en) | Operation detection device and its program | |
JP2019501747A5 (en) | ||
JP7406875B2 (en) | Information processing equipment and programs | |
JP2009251702A (en) | Information processing unit, information processing method, and information processing program | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JPWO2020080107A1 (en) | Information processing equipment, information processing methods, and programs | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230245332A1 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
CN113228117A (en) | Authoring apparatus, authoring method, and authoring program | |
JP6643825B2 (en) | Apparatus and method | |
US11450014B2 (en) | Systems and methods for continuous image alignment of separate cameras | |
CN110858095A (en) | Electronic device capable of being controlled by head and operation method thereof | |
JP2017103607A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191210 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6632298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |