JP6632298B2 - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP6632298B2
JP6632298B2 JP2015191826A JP2015191826A JP6632298B2 JP 6632298 B2 JP6632298 B2 JP 6632298B2 JP 2015191826 A JP2015191826 A JP 2015191826A JP 2015191826 A JP2015191826 A JP 2015191826A JP 6632298 B2 JP6632298 B2 JP 6632298B2
Authority
JP
Japan
Prior art keywords
user
projection
icon
designated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015191826A
Other languages
Japanese (ja)
Other versions
JP2017068468A (en
Inventor
基起 仲間
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015191826A priority Critical patent/JP6632298B2/en
Publication of JP2017068468A publication Critical patent/JP2017068468A/en
Application granted granted Critical
Publication of JP6632298B2 publication Critical patent/JP6632298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

従来、プロジェクタが画像を投影する投影面に対するポインティングには、プロジェクタを制御するPCに接続したポインティングデバイス(マウスやタッチパット)やレーザーポインタ等が利用されるのが一般的である。また、近年ではカメラで撮像した画像から操作者の表示画像に対する指差しを検出し、操作者が指差している投影面上の位置を推定することでポインティングする方法も提案されている。   2. Description of the Related Art Conventionally, a pointing device (mouse or touch pad) connected to a PC that controls a projector, a laser pointer, or the like is generally used for pointing on a projection surface on which an image is projected by a projector. In recent years, a method has been proposed in which pointing is performed by detecting a finger pointing to a display image of an operator from an image captured by a camera, and estimating a position on the projection surface pointed by the operator.

特許文献1には、複数人が同時に表示画面に対してポインティングした場合に、操作者の顔と手を、画面を表示するディスプレイの上に設置されたカメラで撮影した撮影画像から検出している。そして、表示画面上に顔アイコンと手アイコンとして表示してそれぞれを紐で繋ぐことによって操作者とポインタの関連性を提示する技術が開示されている。これにより、複数のユーザそれぞれとポインティングとを対応付けることができる。   In Patent Literature 1, when a plurality of people point at the display screen at the same time, the face and hand of the operator are detected from a captured image captured by a camera installed on a display that displays the screen. . Then, a technology is disclosed in which a face icon and a hand icon are displayed on a display screen, and the relevance between the operator and the pointer is presented by connecting each of the icons with a string. This makes it possible to associate each of the plurality of users with the pointing.

特許第5343773号公報Japanese Patent No. 5343773

しかしながら、従来技術においては、プロジェクタの全周囲にユーザがいる場合に、複数のユーザのアイコンが重なってしまって区別できなくなることがある。この場合、ユーザとプロジェクタにより投影されるポインティングとの対応関係がわかり難くなってしまうという問題があった。   However, in the related art, when there are users all around the projector, icons of a plurality of users may overlap and become indistinguishable. In this case, there is a problem that it is difficult to understand the correspondence between the user and the pointing projected by the projector.

本発明はこのような問題点に鑑みなされたもので、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合に、指示操作を行っているユーザを区別し、ユーザとアイコンとの対応関係をわかり易く提示することを目的とする。   The present invention has been made in view of such a problem, and when a plurality of icons corresponding to respective instruction operations of a plurality of users are displayed on a projection plane, the user performing the instruction operation is distinguished. The purpose of the present invention is to present the correspondence between a user and an icon in an easily understandable manner.

そこで、本発明は、情報処理装置であって、表示データを投影面に投影する投影手段と、前記投影手段の水平方向の全周囲の画像を撮影する撮影手段と、前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段とを有することを特徴とする。 Therefore, the present invention provides an information processing apparatus, comprising: a projection unit configured to project display data onto a projection surface; a photographing unit configured to photograph an image of the entire circumference of the projection unit in a horizontal direction; A user position specifying unit that specifies a user position based on the position of the projecting unit; and a pointing position on a projection surface, which is a target of a pointing operation performed by a user using an operating element, based on the image. Pointed position specifying means to pass through the position of the projection means and the user position, and corresponding to the projection plane, the positional relationship between the position of the projection means and the user position in a predetermined plane, It said position indicated by the user, based on the inclination determination unit operable shows the indicated position, and to determine the slope of the first icon indicating the relationship between the indication position and the user position, the projection Wherein the position of the unit based on the positional relationship between the user position, and further comprising a display control means for controlling said projecting means to project the first icon slope determined by the slope determining means I do.

本発明によれば、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合に、指示操作を行っているユーザを区別し、ユーザとアイコンとの対応関係をわかり易く提示することができる。   According to the present invention, when a plurality of icons corresponding to respective instruction operations of a plurality of users are displayed on the projection surface, the user performing the instruction operation is distinguished, and the correspondence between the user and the icon is determined. It can be presented clearly.

第1の実施形態に係るプロジェクタシステムと、その利用形態を示す図である。FIG. 1 is a diagram illustrating a projector system according to a first embodiment and a usage form thereof. プロジェクタのハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a projector. プロジェクタの機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of a projector. 情報処理を示すフローチャートである。It is a flowchart which shows information processing. 指差し形状を検出する処理の説明図である。It is explanatory drawing of the process which detects a pointing shape. 操作子位置を決定する処理の説明図である。FIG. 9 is an explanatory diagram of a process for determining an operation element position. ポインタアイコンを表示する処理の説明図である。FIG. 9 is an explanatory diagram of a process of displaying a pointer icon. アイコンの変更例を示す図である。It is a figure showing the example of a change of an icon. 第2の実施形態に係るマッピング処理の説明図である。FIG. 14 is an explanatory diagram of a mapping process according to the second embodiment. 第3の実施形態に係るプロジェクタの説明図である。FIG. 11 is an explanatory diagram of a projector according to a third embodiment.

以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態に係るプロジェクタシステムと、その利用形態を示す図である。本実施形態においては、複数のユーザがプロジェクタ100により投影される表示画像を見ながら会議やプレゼンテーションを行う場合を例に、プロジェクタ100について説明する。本実施形態に係るプロジェクタシステムは、情報処理装置としてのプロジェクタ100とネットワーク上に配置されたサーバ装置160とを有している。プロジェクタ100とサーバ装置160は、高速な無線回線161で接続されており、プロジェクタ100はサーバ装置160に蓄積されている各種データ(コンテンツ)をネットワーク経由で取得することによって情報を投影する。もちろんプロジェクタ100がもともと保持しているデータを投影することも可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating a projector system according to a first embodiment and a usage form thereof. In the present embodiment, the projector 100 will be described as an example in which a plurality of users hold a conference or a presentation while viewing a display image projected by the projector 100. The projector system according to the present embodiment includes a projector 100 as an information processing device and a server device 160 arranged on a network. The projector 100 and the server device 160 are connected by a high-speed wireless line 161. The projector 100 projects information by acquiring various data (contents) stored in the server device 160 via a network. Of course, the data originally held by the projector 100 can be projected.

本実施形態では、プロジェクタ100は、テーブル120上に設置されており、投影面140に表示データ150を投影している。さらに、プロジェクタ100の周りを囲うようにユーザ130a〜130cが存在している。なお、以降において、各ユーザ130a〜130cを特に区別する必要がない場合に、単にユーザ130と称する。ユーザ130a〜130cは、プロジェクタ100によって投影される表示データ150を見ながら、会議やプレゼンテーションを行う。この時、投影面140に投影された表示データ150に対する各種操作はユーザ130a〜130cのジェスチャ操作によって行われる。プロジェクタ100は、プロジェクタ100に搭載される全周囲ステレオカメラ110により撮影された画像に基づいて、ジェスチャ操作を検出する。   In the present embodiment, the projector 100 is installed on a table 120 and projects display data 150 on a projection surface 140. Further, users 130a to 130c are present so as to surround the projector 100. In the following, when it is not necessary to particularly distinguish the users 130a to 130c, the users 130a to 130c are simply referred to as users 130. The users 130a to 130c hold a conference or a presentation while viewing the display data 150 projected by the projector 100. At this time, various operations on the display data 150 projected on the projection surface 140 are performed by gesture operations of the users 130a to 130c. Projector 100 detects a gesture operation based on an image captured by omnidirectional stereo camera 110 mounted on projector 100.

そして、プロジェクタ100は、ジェスチャ操作が、表示データ150上のある位置、すなわち投影面140上の位置を指し示す指示操作である場合には、ポインタアイコンを表示する。ここで、ポインタアイコンは、指示操作により指示された点を示すアイコンであり、かつポインタアイコンがいずれのユーザ130a〜130cによる指示操作に対応しているかを示すアイコンである。図1の例では、投影面140には、表示データ150に重畳して、2つのポインタアイコン141a,141bが表示されている。本実施形態においては、ポインタアイコン141a,141bは、矢印を示す画像であるものとする。矢印の先端は、指示操作により指示される位置を示し、矢印の傾きによりポインタアイコンがいずれのユーザ130a〜130cの指示操作に対応するアイコンであるかを示している。このため、ポインタアイコンの傾きは、プロジェクタ100とユーザ130a〜130cの間の位置関係に応じて変化する。詳細については後述する。また、本実施形態においては、指示操作をユーザの指先で行う場合について説明するが指示操作を行う操作子は、指先に限定されるものではない。操作子は、例えば手や腕、差し棒等であってもよい。   Then, when the gesture operation is an instruction operation indicating a certain position on display data 150, that is, a position on projection plane 140, projector 100 displays a pointer icon. Here, the pointer icon is an icon indicating a point pointed by the pointing operation, and an icon indicating which of the users 130a to 130c the pointing icon corresponds to the pointing operation. In the example of FIG. 1, two pointer icons 141a and 141b are displayed on the projection plane 140 so as to be superimposed on the display data 150. In the present embodiment, the pointer icons 141a and 141b are images showing arrows. The tip of the arrow indicates the position specified by the pointing operation, and the inclination of the arrow indicates which of the users 130a to 130c the pointer icon corresponds to the pointing operation of the user. Therefore, the inclination of the pointer icon changes according to the positional relationship between the projector 100 and the users 130a to 130c. Details will be described later. Further, in the present embodiment, a case will be described in which the instruction operation is performed with the fingertip of the user, but the operator for performing the instruction operation is not limited to the fingertip. The operator may be, for example, a hand, an arm, a stick, or the like.

本実施形態のプロジェクタ100には、全周囲ステレオカメラ110が搭載されている。全周囲ステレオカメラ110は、2つのカメラ111,112を有している。各カメラ111,112は、いずれも水平方向における全周囲(360°)を撮像できる全周囲カメラであり、半天球の画像(上と左右の全方位)を撮影することができる。2つのカメラ111,112は、図に示すように上下に搭載されており、左右全方位(y軸に対して全周囲)の画像を利用することで、ステレオカメラとして機能することができる。   The omnidirectional stereo camera 110 is mounted on the projector 100 of the present embodiment. The omnidirectional stereo camera 110 has two cameras 111 and 112. Each of the cameras 111 and 112 is an omnidirectional camera that can capture the entire circumference (360 °) in the horizontal direction, and can capture an image of a semi-celestial sphere (up and down and left and right omnidirectional directions). The two cameras 111 and 112 are mounted vertically as shown in the figure, and can function as a stereo camera by using images in all left and right directions (all around the y axis).

本実施形態では、プロジェクタ100の周りに存在するユーザ130a〜130c全員の指差し操作を検出できるように、プロジェクタ100には撮像デバイスとして全周囲ステレオカメラ110が搭載されている。さらに、プロジェクタ100から各オブジェクトまでの距離を算出可能とすべく、全周囲ステレオカメラ110をステレオ構成とし、ステレオ法により距離を算出するものとする。すなわち、図1に示すように、全周囲ステレオカメラ110は、2つのカメラ111,112を有している。カメラ111及びカメラ112は、上下に搭載され、各カメラ111,112は、左右全方位(y軸に対する全周囲)の画像を撮影する。なお、本実施形態において、撮影制御部302が画像を撮像する周期は、全周囲ステレオカメラ110が撮像する画像のフレームレートに一致するものとする。ただし、フレームレートよらない所定の時間を撮像の周期として設定することもできる。   In the present embodiment, the projector 100 is equipped with an omnidirectional stereo camera 110 as an imaging device so that the pointing operation of all the users 130a to 130c around the projector 100 can be detected. Furthermore, in order to be able to calculate the distance from the projector 100 to each object, the omnidirectional stereo camera 110 has a stereo configuration, and calculates the distance by the stereo method. That is, as shown in FIG. 1, the omnidirectional stereo camera 110 has two cameras 111 and 112. The cameras 111 and 112 are mounted vertically, and each of the cameras 111 and 112 captures an image in all left and right directions (all around the y axis). In the present embodiment, it is assumed that the cycle at which the imaging control unit 302 captures an image matches the frame rate of the image captured by the omnidirectional stereo camera 110. However, a predetermined time that does not depend on the frame rate can be set as the imaging cycle.

図2は、プロジェクタ100のハードウェア構成の一例を示す図である。CPU200は、バス203を介して接続される各デバイスを統括的に制御する。オペレーティングシステム(OS)をはじめ、後述するプロジェクタ100の機能や処理に係る各処理プログラム、デバイスドライバ等はROM202に記憶されており、RAM201に一時記憶され、CPU200によって適宜実行される。RAM201は、高速にアクセス可能なCPU200の主メモリ、ワークエリア等の一時記憶領域として用いられる。ここで、OS及び各処理プログラム等はストレージ209に記憶されていてもよく、その場合は電源投入時に必要な情報がRAM201に適宜読み込まれる。また、ディスプレイI/F204は、プロジェクタ100で生成する表示データを投影部205が出力可能な信号に変換する。入力I/F206は、全周囲ステレオカメラ110により撮影された画像をプロジェクタ100が処理可能な形式に変換する。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the projector 100. The CPU 200 controls each device connected via the bus 203 as a whole. An operating system (OS), various processing programs relating to functions and processes of the projector 100 described later, device drivers, and the like are stored in the ROM 202, temporarily stored in the RAM 201, and executed by the CPU 200 as appropriate. The RAM 201 is used as a temporary storage area such as a main memory and a work area of the CPU 200 which can be accessed at high speed. Here, the OS and each processing program may be stored in the storage 209. In this case, necessary information is read into the RAM 201 as needed when the power is turned on. The display I / F 204 converts display data generated by the projector 100 into a signal that can be output by the projection unit 205. The input I / F 206 converts an image captured by the omnidirectional stereo camera 110 into a format that the projector 100 can process.

ストレージI/F208は、ストレージ209へのデータの入出力を行う。ストレージ209には、プロジェクタ100が投影する表示データのUI(User Interface)の部品となる画像やサーバ装置160から取得したデータのコピー、プロジェクタ100が内部で起動するプログラム等が格納されている。ストレージ209としては、ディスクデバイスやフラッシュメモリ、ネットワークドライブやUSBドライブ等の大容量記憶装置が使用できる。また、複数の記憶装置を並列に接続して構成されていてもよいし、サーバ装置160に含まれるストレージであっても構わない。ネットワークI/F210は、ネットワーク上のサーバ装置160とリモートで通信を行う。本実施形態では、高速な無線のネットワークの利用を想定しているが、有線のネットワークを利用する形態であっても構わない。   The storage I / F 208 inputs and outputs data to and from the storage 209. The storage 209 stores an image serving as a component of a UI (User Interface) of display data projected by the projector 100, a copy of data acquired from the server device 160, a program that the projector 100 starts internally, and the like. As the storage 209, a large-capacity storage device such as a disk device, a flash memory, a network drive, or a USB drive can be used. Further, the storage device may be configured by connecting a plurality of storage devices in parallel, or may be a storage included in the server device 160. The network I / F 210 remotely communicates with the server device 160 on the network. In the present embodiment, it is assumed that a high-speed wireless network is used. However, a configuration using a wired network may be used.

図示していないが、サーバ装置160も、プロジェクタ100と同様に、CPU200、RAM201、ROM202、バス203といったハードウェアで構成されている。さらに、ストレージI/F208、ストレージ209、ネットワークI/F210から構成されている。それぞれのハードウェアの機能はプロジェクタ100と同様である。サーバ装置160のストレージ209には、プレゼン資料やドキュメント、画像や動画といったデータが膨大に格納されているものとし、プロジェクタ100はそれらデータを高速の無線回線161経由で取得することが可能である。   Although not shown, the server device 160 is also configured with hardware such as a CPU 200, a RAM 201, a ROM 202, and a bus 203, like the projector 100. Further, it is configured by a storage I / F 208, a storage 209, and a network I / F 210. The function of each hardware is the same as that of projector 100. It is assumed that the storage device 209 of the server device 160 stores a large amount of data such as presentation materials, documents, images, and moving images, and the projector 100 can acquire the data via the high-speed wireless line 161.

図3は、プロジェクタ100の機能構成の一例を示す図である。プロジェクタ100は、通信制御部300、記憶部301、撮影制御部302、領域検出部303及び形状検出部304を有している。さらに、プロジェクタ100は、3次元位置算出部305、基準点特定部306、指差し検出部307及び表示制御部308を有している。これら各機能部は、CPU200が、ROM202に格納されたプログラムをRAM201に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   FIG. 3 is a diagram illustrating an example of a functional configuration of the projector 100. The projector 100 includes a communication control unit 300, a storage unit 301, a shooting control unit 302, an area detection unit 303, and a shape detection unit 304. Further, the projector 100 includes a three-dimensional position calculation unit 305, a reference point identification unit 306, a pointing detection unit 307, and a display control unit 308. Each of these functional units is realized by the CPU 200 developing a program stored in the ROM 202 in the RAM 201 and executing processing according to each flowchart described later. When hardware is configured as a substitute for software processing using the CPU 200, an arithmetic unit or a circuit corresponding to the processing of each functional unit described here may be configured.

通信制御部300は、ストレージI/F208を介して、ストレージ209とのデータの入出力を制御する。また、通信制御部300は、ネットワークI/F 210を介して、ネットワーク上のサーバ装置160とのデータ通信を行う。記憶部301は、ストレージ209により実現される。前述した通り、記憶部301には各種UI部品やサーバ装置160から取得したデータのコピー、プロジェクタ100が実行するプログラムが格納されている。   The communication control unit 300 controls input and output of data to and from the storage 209 via the storage I / F 208. Further, the communication control unit 300 performs data communication with the server device 160 on the network via the network I / F 210. The storage unit 301 is realized by the storage 209. As described above, the storage unit 301 stores various UI components, copies of data acquired from the server device 160, and programs executed by the projector 100.

撮影制御部302は、全周囲ステレオカメラ110による撮影を制御する。撮影制御部302は、全周囲ステレオカメラ110で撮像される全周囲のRGBステレオ画像を所定時間間隔で取得し、RAM201に随時保存する。RGBステレオ画像は、2つの視点から撮像された2枚のRGB画像から構成される。これら2つの画像間にはズレ(視差)があり、その視差に基づいて距離(depth)を算出できる。保存されたRGBステレオ画像は、プロジェクタ100の各機能ブロックにおいて順次処理される。なお、本実施形態において、撮影制御部302が画像を撮像する周期は、プロジェクタ100が撮像する画像のフレームレートに一致するものとする。ただし、フレームレートよらない所定の時間を撮像の周期として設定することもできる。また、撮影制御部302は、カメラ111により撮影された画像をマスタ画像、カメラ112により撮影された画像をスレーブ画像として処理するものとするが、この限りではない。   The photographing control unit 302 controls photographing by the omnidirectional stereo camera 110. The photographing control unit 302 acquires an RGB stereo image of the entire periphery captured by the omnidirectional stereo camera 110 at predetermined time intervals, and stores the acquired RGB stereo images in the RAM 201 as needed. The RGB stereo image is composed of two RGB images captured from two viewpoints. There is a gap (parallax) between these two images, and a distance (depth) can be calculated based on the parallax. The stored RGB stereo images are sequentially processed in each functional block of the projector 100. In the present embodiment, it is assumed that the cycle at which the imaging control unit 302 captures an image matches the frame rate of the image captured by the projector 100. However, a predetermined time that does not depend on the frame rate can be set as the imaging cycle. The image capturing control unit 302 processes an image captured by the camera 111 as a master image and an image captured by the camera 112 as a slave image, but is not limited thereto.

領域検出部303は、RAM201に保持されているRGBステレオ画像の色情報を利用することによって、画像内の肌色領域(ユーザ130の顔や手を含む)とそれ以外の領域を検出する。さらに、領域検出部303は、検出した肌色領域をラベリングし、その結果をRAM201に保持する。さらに領域検出部303は、RAM201に保存されている肌色領域から顔領域を検出し、その領域をラベリングしてRAM201に保持する。詳細は後述する。形状検出部304は、RAM201に保持されている肌色領域及び顔領域の情報を利用し、顔領域以外の肌色領域から、指示操作として、指差し形状を検出する。詳細は後述する。さらに、形状検出部304は、検出した指差し形状領域をラベリングし、その結果をRAM201に保持する。本実施形態では、指示操作として検出する形状を人の手の指差し形状としたが、その限りではない。   The area detection unit 303 detects a skin color area (including the face and hands of the user 130) and other areas in the image by using the color information of the RGB stereo image stored in the RAM 201. Further, the area detection unit 303 labels the detected skin color area, and stores the result in the RAM 201. Further, the area detection unit 303 detects a face area from the skin color area stored in the RAM 201, labels the area, and stores the label in the RAM 201. Details will be described later. The shape detection unit 304 uses the information on the skin color area and the face area held in the RAM 201 to detect the pointing shape as an instruction operation from the skin color area other than the face area. Details will be described later. Further, the shape detecting unit 304 labels the detected pointing shape area, and stores the result in the RAM 201. In the present embodiment, the shape detected as the pointing operation is the pointing shape of the hand of the person, but is not limited thereto.

3次元位置算出部305は、RAM201に保持されている顔領域及び指差し形状領域の情報を利用して、プロジェクタ100から各領域の各画素までの三次元位置を算出する。具体的な計算方法は後述するが、ステレオ画像を構成する2つの画像(マスタ画像とスレーブ画像)から対応点を探索し、視差から三角測量を用いて空間上の位置を算出する。ここで、対応点とは、空間中のある一点を二つの視点で同時に撮影したとき、それぞれの視点で撮影した画像中に写ったその点のことであり、一般的に「ステレオ対応点」と呼ばれる点である。例えば、図1に示す点Dを空間中の1点とし、カメラ111,112の2つの視点で点Dを同時に撮像したとき、カメラ111による撮影画像中の点Dと、カメラ112による撮影画像中の点Dが対応点となる。3次元位置算出部305は、算出した各画素の3次元位置情報をRAM201に保持する。   The three-dimensional position calculation unit 305 calculates a three-dimensional position from the projector 100 to each pixel of each region using the information on the face region and the pointing shape region held in the RAM 201. Although a specific calculation method will be described later, a corresponding point is searched from two images (a master image and a slave image) constituting a stereo image, and a spatial position is calculated from the parallax using triangulation. Here, the corresponding point is a point in an image taken from each viewpoint when one point in space is photographed simultaneously from two viewpoints, and is generally referred to as a “stereo corresponding point”. It is called point. For example, when the point D shown in FIG. 1 is taken as one point in the space and the point D is imaged simultaneously from two viewpoints of the cameras 111 and 112, the point D in the image captured by the camera 111 and the point D Is the corresponding point. The three-dimensional position calculation unit 305 stores the calculated three-dimensional position information of each pixel in the RAM 201.

本実施形態では、3次元位置計測の手段として全周囲カメラ(全周囲ステレオカメラ110)を用いたが、必ずしもカラー画像である必要はなく、赤外ステレオカメラを用いて全周囲ステレオ画像を取得しても良い。また全周囲ステレオカメラではなく、全周囲画像を撮像可能な距離画像センサを用いることによって3次元位置情報を取得してもよい。さらに、1台のカメラではなく、複数のカメラで全周囲を撮像して3次元位置情報を算出してもよい。   In the present embodiment, the omnidirectional camera (omnidirectional stereo camera 110) is used as the means for measuring the three-dimensional position. However, the omnidirectional camera is not necessarily a color image, and the omnidirectional stereo image is acquired using the infrared stereo camera. May be. Alternatively, the three-dimensional position information may be obtained by using a range image sensor capable of capturing an omnidirectional image instead of the omnidirectional stereo camera. Further, three-dimensional position information may be calculated by imaging the entire periphery with a plurality of cameras instead of one camera.

基準点特定部306は、RAM201に保持されている顔領域の3次元位置情報を利用し、顔領域の位置をユーザ位置として特定し、特定したユーザ位置をRAM201に保持する。基準点特定部306はまた、RAM201に保持されている指差し形状領域の3次元位置情報を利用し、指差し形状領域の位置を操作子位置として特定し、特定した操作子位置をRAM201に保持する。なお、ユーザ位置及び操作子位置は、いずれも3次元座標系における位置とする。指差し検出部307は、RAM201に保持されているユーザ位置と操作子位置とに基づいて、投影面140への指差し操作を検出する。詳細は後述する。表示制御部308は、記憶部301に保持されているデータやネットワーク上のサーバ装置160から取得したデータから表示データを生成し、投影部205が表示データを投影するよう制御する。表示制御部308はさらに、指差し検出部307によってユーザの指差し操作が検出されている場合には、ユーザが指差した位置に対応する投影面140上の位置にポインタアイコンを表示するよう制御する。   The reference point specifying unit 306 specifies the position of the face area as a user position by using the three-dimensional position information of the face area stored in the RAM 201, and stores the specified user position in the RAM 201. The reference point specifying unit 306 also specifies the position of the pointing shape area as a control element position using the three-dimensional position information of the pointing shape area stored in the RAM 201, and stores the specified control element position in the RAM 201. I do. Note that both the user position and the operator position are positions in the three-dimensional coordinate system. The pointing detection unit 307 detects a pointing operation on the projection surface 140 based on the user position and the operation element position held in the RAM 201. Details will be described later. The display control unit 308 generates display data from the data stored in the storage unit 301 and the data acquired from the server device 160 on the network, and controls the projection unit 205 to project the display data. The display control unit 308 further controls to display a pointer icon at a position on the projection plane 140 corresponding to the position pointed by the user when the pointing operation of the user is detected by the pointing detection unit 307. I do.

図4は、プロジェクタ100による情報処理を示すフローチャートである。プロジェクタ100は、本処理により表示データ150を投影面140に投影し、さらにユーザの指示操作を検出すると、指示操作に対応するポインタアイコンを表示データ150上に重畳して投影表示する。プロジェクタ100の電源をONにして起動すると、プロジェクタ100は、まずステップS400の処理を実行する。ステップS400において、表示制御部308は、表示データを生成し、これを投影面140に投影するよう投影部205を制御する。なお、ここで投影される表示データは、ストレージ209やサーバ装置160に記憶されている会議で利用するプレゼン資料等である。投影部205は、表示制御部308の制御の下、表示データを投影面に投影表示する(投影処理)。   FIG. 4 is a flowchart illustrating information processing by the projector 100. The projector 100 projects the display data 150 on the projection surface 140 by this processing, and when detecting a user's instruction operation, projects and displays a pointer icon corresponding to the instruction operation on the display data 150 in a superimposed manner. When the power of the projector 100 is turned on and started, the projector 100 first executes the process of step S400. In step S400, the display control unit 308 controls the projection unit 205 to generate display data and project the display data on the projection plane 140. Note that the display data projected here is a presentation material or the like stored in the storage 209 or the server device 160 and used in a conference. The projection unit 205 projects and displays the display data on the projection plane under the control of the display control unit 308 (projection processing).

次に、ステップS401において、撮影制御部302は、既定のフレームレートでRGBの全周囲ステレオ画像を撮像するよう全周囲ステレオカメラ110を制御する(撮影制御処理)。撮影制御部302は、得られた全周囲ステレオ画像をRAM201に保持する。全周囲ステレオカメラ110は、撮影制御部302の制御の下、全周囲ステレオ画像を撮影する(撮影処理)。次に、ステップS402において、領域検出部303は、RAM201に保持されている全周囲ステレオ画像を解析し、マスタ画像及びスレーブ画像中に肌色領域があるか否かを検出する。領域検出部303は、肌色領域を検出しなかった場合は(ステップS402でNo)、処理をステップS411へ進める。領域検出部303は、肌色領域を検出した場合は(ステップS402でYes)、処理をステップS403へ進める。   Next, in step S401, the imaging control unit 302 controls the omnidirectional stereo camera 110 to capture an RGB omnidirectional stereo image at a predetermined frame rate (imaging control processing). The imaging control unit 302 stores the obtained omnidirectional stereo image in the RAM 201. The omnidirectional stereo camera 110 captures an omnidirectional stereo image under the control of the capturing control unit 302 (photographing processing). Next, in step S402, the area detection unit 303 analyzes the omnidirectional stereo image held in the RAM 201, and detects whether or not there is a skin color area in the master image and the slave image. If the area detecting unit 303 has not detected a skin color area (No in step S402), the processing proceeds to step S411. When detecting the skin color region (Yes in step S402), the region detection unit 303 advances the process to step S403.

ステップS403において、領域検出部303は、検出した肌色領域をラベリングし、その結果をRAM201に保持する。さらに、ステップS403において、領域検出部303は、RAM201に保持されている肌色領域から顔領域を検出する。顔の検出については種々のアルゴリズムが知られているが、本実施形態では、顔を局所的な明暗差の集合であると捉え、肌色領域の明暗と複数の単純な明暗パターンとのマッチングを行うことによって顔領域を検出するものとする。そして、領域検出部303は、検出した顔領域をラベリングし、その結果をRAM201に保持する。   In step S403, the area detecting unit 303 labels the detected skin color area, and stores the result in the RAM 201. Further, in step S403, the area detection unit 303 detects a face area from the skin color area held in the RAM 201. Various algorithms are known for face detection. In the present embodiment, a face is regarded as a set of local light-dark differences, and matching between light-dark in a skin color region and a plurality of simple light-dark patterns is performed. Thus, the face area is detected. Then, the area detection unit 303 labels the detected face area, and stores the result in the RAM 201.

次に、ステップS404において、形状検出部304は、RAM201に保持されている肌色領域のラベル画像と顔領域のラベル画像を利用して、顔領域以外の肌色領域から、指示操作として指差し形状を検出する。図5は、指差し形状を検出する処理の説明図である。形状検出部304は、図5に示す凸形状500を指差し形状として検出する一方で、凸形状501については指差し形状ではないと判断し、指差し形状としては検出しない。具体的には、形状検出部304は、凸形状500の領域中の肌色領域の割合と、凸形状501の領域中の肌色領域の割合との差に着目し、肌色割合に応じて、凸形状500を検出する。   Next, in step S404, the shape detection unit 304 uses the label image of the skin color area and the label image of the face area held in the RAM 201 to detect the pointing shape as a pointing operation from the skin color area other than the face area. To detect. FIG. 5 is an explanatory diagram of the processing for detecting the pointing shape. While detecting the convex shape 500 shown in FIG. 5 as the pointing shape, the shape detecting unit 304 determines that the convex shape 501 is not the pointing shape, and does not detect it as the pointing shape. More specifically, the shape detection unit 304 pays attention to the difference between the ratio of the flesh color region in the region of the convex shape 500 and the ratio of the flesh color region in the region of the convex shape 501. 500 are detected.

なお、指差し形状を検出するための処理は、実施形態に限定されるものではない。他の例としては、プロジェクタ100は、検出したい指差し形状の画像をテンプレートとして予めROM202等に記憶しておき、形状検出部304は、撮像した全周囲ステレオ画像と照らし合わせて(マッチングして)指差し形状を検出してもよい。また、他の例としては、形状検出部304は、肌色領域の形状から既定の特徴量を抽出し、機械学習することによって指差し形状を検出することも可能である。そして、形状検出部304は、検出した指差し形状の領域をラベリングし、その結果をRAM201に保持する。次に、ステップS405において、形状検出部304は、指差し形状が存在するか否かを判断する。形状検出部304は、指差し形状が存在しない場合は(ステップS405でNo)、処理をステップS411へ進める。形状検出部304は、指差し形状が存在する場合は(ステップS405でYes)、処理をステップS406へ進める。   Note that the processing for detecting the pointing shape is not limited to the embodiment. As another example, the projector 100 stores in advance the image of the pointing shape to be detected in the ROM 202 or the like as a template, and the shape detecting unit 304 compares (matches) the captured image with the captured omnidirectional stereo image. The pointing shape may be detected. As another example, the shape detection unit 304 can detect a pointing shape by extracting a predetermined feature amount from the shape of the skin color region and performing machine learning. Then, the shape detection unit 304 labels the detected pointing area, and stores the result in the RAM 201. Next, in step S405, the shape detection unit 304 determines whether or not the pointing shape exists. When the pointing shape does not exist (No in Step S405), the shape detecting unit 304 proceeds with the process to Step S411. If the pointing shape exists (Yes in Step S405), the shape detecting unit 304 proceeds with the process to Step S406.

ステップS406において、3次元位置算出部305は、RAM201に保存されている全周囲ステレオ画像から、マスタ画像中の顔領域と指差し形状領域の各画素に対する3次元位置を算出する。例えば、マスタ画像中の指差し形状領域の画素(m,n)の3次元位置を算出する場合、3次元位置算出部305は、まず画素の位置(m,n)に対応するステレオ対応点(m1,n1)をスレーブ画像から探索する。そして、3次元位置算出部305は、マスタ画像中の画素の位置(m,n)とスレーブ画像中のステレオ対応点(m1,n1)との視差から三角測量によって、画素の位置(m,n)までの距離(深さ、depth)を求め、3次元空間上の位置を算出する。3次元位置算出部305は、マスタ画像中の顔領域及び指差し形状領域の全ての画素に対し、前述した3次元位置の算出を行い、その結果をRAM201に保持する。   In step S <b> 406, the three-dimensional position calculation unit 305 calculates a three-dimensional position for each pixel of the face area and the pointing area in the master image from the omnidirectional stereo image stored in the RAM 201. For example, when calculating the three-dimensional position of the pixel (m, n) in the pointing shape area in the master image, the three-dimensional position calculation unit 305 first determines the stereo correspondence point (m, n) corresponding to the pixel position (m, n). m1, n1) is searched from the slave image. Then, the three-dimensional position calculation unit 305 determines the pixel position (m, n) by triangulation from the parallax between the pixel position (m, n) in the master image and the stereo corresponding point (m1, n1) in the slave image. ) Is obtained (depth, depth), and a position in a three-dimensional space is calculated. The three-dimensional position calculation unit 305 calculates the above-described three-dimensional position for all the pixels in the face area and the pointing area in the master image, and stores the result in the RAM 201.

次に、ステップS407において、基準点特定部306は、RAM201に保持されている顔領域及び指差し形状領域の3次元位置情報を利用して、ユーザ位置及び操作子位置を特定する。以下、まず操作子位置を特定する処理について説明する。本実施形態に係るプロジェクタ100は、指差し形状領域内の指先の位置を操作子位置として決定する。図6は、操作子位置を決定する処理の説明図である。基準点特定部306は、指差し形状領域の輪郭を利用して、指先の位置を決定する。具体的には、基準点特定部306は、図6に示すように、まず輪郭上の等間隔の3点(a,b,c)がなす角度Θが既定の閾値内である指先らしき点を複数個求める。そして、基準点特定部306は、指先らしき点が連続する部分を検出する。基準点特定部306はさらに、その連続する複数の指先らしい点の平均位置を指先位置600、すなわち操作子位置としてRAM201に保持する。   Next, in step S <b> 407, the reference point specifying unit 306 specifies the user position and the operation device position using the three-dimensional position information of the face area and the pointing shape area held in the RAM 201. Hereinafter, the processing for specifying the position of the operator will be described first. The projector 100 according to the present embodiment determines the position of the fingertip in the pointing area as the operator position. FIG. 6 is an explanatory diagram of the processing for determining the operation device position. The reference point specifying unit 306 determines the position of the fingertip using the outline of the pointing shape area. Specifically, as shown in FIG. 6, the reference point specifying unit 306 first generates a finger-like point whose angle Θ formed by three equally-spaced points (a, b, c) on the contour is within a predetermined threshold value. Ask for multiple items. Then, the reference point specifying unit 306 detects a portion where points that are likely to be fingertips are continuous. The reference point specifying unit 306 further holds the average position of the plurality of consecutive points that are likely to be the fingertips in the RAM 201 as the fingertip position 600, that is, the operator position.

次に、ユーザ位置を特定する処理について説明する。本実施形態に係るプロジェクタ100は、顔のアゴの位置をユーザ位置として特定する。基準点特定部306は、前述した顔検出の場合と同様に、顔の局所的な明暗差から目の位置と口の位置を求め、両目を結んだ線から口の方向へ垂線を下ろし、顔領域の輪郭線と交わった位置をアゴの位置として特定する。そして、基準点特定部306は、アゴの位置をユーザ位置としてRAM201に保持する。なお、アゴの位置をユーザ位置としたのは、実際の指差しポインティングの状況やユーザビリティ的な観点を考慮した結果である。なお、本実施形態では顔領域の基準点をアゴの位置としたが、顔領域の重心位置や鼻の位置、両目間の中点をユーザ位置としてもよい。なお、ステップS407の処理は、操作子位置特定処理及びユーザ位置特定処理の一例である。   Next, a process for specifying a user position will be described. The projector 100 according to the present embodiment specifies the position of the face jaw as the user position. The reference point specifying unit 306 obtains the position of the eyes and the position of the mouth from the local brightness difference of the face, and lowers the perpendicular from the line connecting both eyes to the direction of the mouth, as in the case of the face detection described above. The position where the line intersects with the outline of the region is specified as the position of the jaw. Then, the reference point specifying unit 306 holds the position of the jaw in the RAM 201 as the user position. The reason why the position of the jaw is set to the user position is a result in consideration of the actual pointing and pointing situation and usability. In the present embodiment, the reference point of the face area is the position of the jaw. However, the position of the center of gravity, the position of the nose, and the middle point between both eyes of the face area may be the user position. Note that the processing in step S407 is an example of the operator position specifying processing and the user position specifying processing.

ステップS407の処理の後、ステップS408において、指差し検出部307は、ステップS407において特定した、操作子位置とユーザ位置の間の距離(以下、ユーザ距離と称する)が距離範囲内か否かを判断する。指差し検出部307は、ユーザ距離が距離範囲内である場合には(ステップS408でYes)、指示操作としての指差し操作を検出したと判断し、処理をステップS409へ進める。指差し検出部307は、ユーザ距離が距離範囲外である場合には(ステップS408でNo)、指示操作を検出しなかったと判断し、処理をステップS411へ進める。ステップS409において、指差し検出部307は、ユーザ130の指差しを検出したことを確定し、ユーザ130の指差しを検出したことを示す検出イベント(2つの基準点の3次元位置情報を含む)を表示制御部308へ通知する。   After the process of step S407, in step S408, the pointing detection unit 307 determines whether or not the distance between the manipulator position and the user position (hereinafter, referred to as a user distance) specified in step S407 is within the distance range. to decide. When the user distance is within the distance range (Yes in step S408), the pointing detection unit 307 determines that a pointing operation as an instruction operation has been detected, and advances the process to step S409. If the user distance is out of the distance range (No in step S408), the pointing detection unit 307 determines that the instruction operation has not been detected, and advances the process to step S411. In step S409, the pointing detection unit 307 determines that the pointing of the user 130 has been detected, and a detection event indicating that the pointing of the user 130 has been detected (including the three-dimensional position information of the two reference points). To the display control unit 308.

本実施形態に係るプロジェクタ100においては、距離範囲を20〜70cmとした。距離範囲の上限値を70cmとしたのは、人の手が届く範囲を考慮した結果である。また、距離範囲の下限値を20cmとしたのは、アゴの位置と指先位置があまりにも近い場合は、ユーザは指差し操作(ポインティング)をしようとしたわけでなく、顔近くで偶然に指差し形状をしているだけの可能性が高いからである。つまり指差し操作の誤認識を考慮した結果である。もちろん、距離範囲を「20cmから70cm」以外に設定しても構わない。   In the projector 100 according to the present embodiment, the distance range is set to 20 to 70 cm. The reason why the upper limit of the distance range is set to 70 cm is a result in consideration of a range that can be reached by humans. Also, the reason why the lower limit of the distance range is set to 20 cm is that when the position of the jaw and the position of the fingertip are too close, the user does not try to perform a pointing operation (pointing), but accidentally points near the face. This is because there is a high possibility that it is merely a shape. In other words, this is the result of considering erroneous recognition of the pointing operation. Of course, the distance range may be set to a value other than “20 cm to 70 cm”.

次に、ステップS410において、表示制御部308は、指差し検出部307から指差し操作検出イベントを通知される。そして、表示制御部308は、プロジェクタ100とユーザ130の位置関係を示すポインタアイコンを投影面140に表示中の表示データ150に合成して投影表示するよう制御する(表示制御処理)。以下、ポインタアイコンを表示する処理について、図1及び図7を参照しつつ説明する。前提として、図1に示すように、ユーザ130a,130bの2人が投影面140に表示された表示データ150に対して指差し操作を行い、図4のステップS409において指差し検出部307が指差し操作を検出しているものとする。   Next, in step S410, the display control unit 308 is notified of the pointing operation detection event from the pointing detection unit 307. Then, the display control unit 308 performs control such that the pointer icon indicating the positional relationship between the projector 100 and the user 130 is combined with the display data 150 being displayed on the projection plane 140 and projected and displayed (display control processing). Hereinafter, the process of displaying the pointer icon will be described with reference to FIGS. 1 and 7. As a premise, as shown in FIG. 1, two users 130a and 130b perform a pointing operation on the display data 150 displayed on the projection surface 140, and the pointing detection unit 307 detects the finger in step S409 in FIG. It is assumed that the insertion operation has been detected.

この場合、表示制御部308は、RAM201上に保持されている顔領域と指差し形状領域の3次元位置情報に基づいて、図7(a)に示すようなXZ平面(鉛直方向に垂直な面)に平行な面上にマップを作成する(マッピングする)。すなわち、マップは、プロジェクタ100とユーザ130a,130bの位置関係を地図のように上面から見た図(上面図)に相当する。つまり、マップ上では、Z軸のマイナス方向を上方向とした場合には、プロジェクタ100に対してユーザ130aは下側に、ユーザ130bは右側にマッピングされる。なお、三角形の領域701は投影領域の範囲、円形の領域702は全周囲ステレオカメラ110で3次元位置情報を算出可能な領域を示している。また、703はプロジェクタ100を上から見た際の中心点、704a,704bは、それぞれ基準点特定部306が特定したユーザ130a,130bのユーザ位置(アゴの位置)である。   In this case, based on the three-dimensional position information of the face area and the pointing area held in the RAM 201, the display control unit 308 determines the XZ plane (the plane perpendicular to the vertical direction) as shown in FIG. Create a map on a plane parallel to (). That is, the map corresponds to a diagram (top view) in which the positional relationship between the projector 100 and the users 130a and 130b is viewed from above like a map. That is, on the map, when the minus direction of the Z-axis is the upward direction, the user 130a is mapped to the lower side and the user 130b is mapped to the right side with respect to the projector 100. Note that a triangular area 701 indicates the range of the projection area, and a circular area 702 indicates an area where the omnidirectional stereo camera 110 can calculate three-dimensional position information. Reference numeral 703 denotes a center point when the projector 100 is viewed from above, and reference numerals 704a and 704b denote user positions (jaw positions) of the users 130a and 130b specified by the reference point specifying unit 306, respectively.

さらに表示制御部308は、マップ上のプロジェクタ100の中心点703とユーザ位置704a,704bを結ぶ直線705a,705bを求める。そして、表示制御部308は、図7(b)に示すように、マップ上のプロジェクタ100の中心点703を投影面140の対応中心点713に対応付ける。ここで、対応中心点713は、予め定められた位置であり、本実施形態においては、投影面140の中心位置とする。但し、対応中心点713の位置は、予め定められた投影面140の中心付近の位置であればよく、中心位置に限定されるものではない。さらに、表示制御部308は、2つの直線705a,705bそれぞれを、投影面140の対応中心点713に対応付けることにより2つの直線715a,715bを描画し、さらに各直線715a,715bを表示データ150の境界線まで引き伸ばす。そして、表示制御部308は、各直線715a,715bと表示データ150の境界線との交点720a,720bを求める。表示制御部308は、求めた交点720a,720bをそれぞれユーザ130a,130bに対して割り当てるポインタアイコン141a,141bの進入位置として決定する(進入位置決定処理)。   Further, the display control unit 308 obtains straight lines 705a and 705b connecting the center point 703 of the projector 100 on the map and the user positions 704a and 704b. Then, the display control unit 308 associates the center point 703 of the projector 100 on the map with the corresponding center point 713 of the projection plane 140, as shown in FIG. Here, the corresponding center point 713 is a predetermined position, and in the present embodiment, is the center position of the projection plane 140. However, the position of the corresponding center point 713 may be a position near the center of the predetermined projection plane 140, and is not limited to the center position. Further, the display control unit 308 draws the two straight lines 715a and 715b by associating each of the two straight lines 705a and 705b with the corresponding center point 713 of the projection plane 140, and further draws each straight line 715a and 715b of the display data 150. Stretch to the border. Then, the display control unit 308 obtains intersections 720a and 720b between the straight lines 715a and 715b and the boundary of the display data 150. The display control unit 308 determines the determined intersections 720a and 720b as the entry positions of the pointer icons 141a and 141b to be assigned to the users 130a and 130b, respectively (entry position determination processing).

さらに、表示制御部308は、ユーザ130aについての、ユーザ位置と操作子位置とを結ぶ直線に基づいて、ユーザ130aが指差している表示データ150上の位置(投影面140上の位置)をユーザ130aの指示位置として特定する。本処理は、投影面上の指示位置を特定する指示位置特定処理の一例である。具体的には、表示制御部308は、ユーザ位置と操作子位置とを結ぶ直線と、投影面140とが交わる位置721aを、指示位置として特定する。同様に、表示制御部308は、ユーザ130bについての、ユーザ位置と操作子位置とを結ぶ直線に基づいて、ユーザ130bの指示位置721bを特定する。   Further, the display control unit 308 determines the position on the display data 150 (the position on the projection plane 140) pointed to by the user 130a based on the straight line connecting the user position and the operation device position for the user 130a. It is specified as the designated position of 130a. This process is an example of a designated position specifying process for specifying a designated position on the projection plane. Specifically, the display control unit 308 specifies a position 721a at which a straight line connecting the user position and the operation device position and the projection plane 140 intersect as the designated position. Similarly, the display control unit 308 specifies the designated position 721b of the user 130b based on a straight line connecting the user position and the operation device position with respect to the user 130b.

表示制御部308は、進入位置720aと指示位置721aとを結ぶ直線に沿って、指示位置721aを先端位置とする矢印形状のポインタアイコン141aを投影表示するよう制御する。また、表示制御部308は、進入位置720bと指示位置721bとを結ぶ直線に沿って、指示位置721bを先端位置とする矢印形状のポインタアイコン141bを投影表示するよう制御する。   The display control unit 308 controls to project and display an arrow-shaped pointer icon 141a having the designated position 721a as a tip position along a straight line connecting the entry position 720a and the designated position 721a. In addition, the display control unit 308 controls to project and display an arrow-shaped pointer icon 141b having the designated position 721b as a tip position along a straight line connecting the entry position 720b and the designated position 721b.

ここで、ポインタアイコン141a,141bは、いずれもユーザ位置と指示位置との関係を示すアイコンの一例である。また、進入位置720aと指示位置721aとを結ぶ直線は、ポインタアイコン141aの傾きを定める直線であり、この直線を求める処理は、ポインタアイコンの傾きを決定する傾き決定処理の一例である。なお、表示制御部308は、ポインタを表示した後、ユーザ位置や操作子位置が移動した場合には、移動後の位置に応じて、適宜ポインタの表示を更新する。   Here, each of the pointer icons 141a and 141b is an example of an icon indicating the relationship between the user position and the designated position. The straight line connecting the entry position 720a and the designated position 721a is a straight line that determines the inclination of the pointer icon 141a, and the process of obtaining this straight line is an example of the inclination determination process that determines the inclination of the pointer icon. When the user position or the operation element position moves after the display of the pointer, the display control unit 308 appropriately updates the display of the pointer according to the moved position.

図4に戻り、ステップS411において、CPU200は、プロジェクタ100の動作を終了するか否かを判定する。CPU200は、プロジェクタ100に設けられた物理ボタンやGUIに対する入力によりプロジェクタ100を終了する指示がなされた場合に、プロジェクタ100の動作を終了すると判断する。CPU200は、動作を終了する場合には(ステップS411でYes)、処理を終了する。CPU200は、動作を終了しない場合には(ステップS411でNo)、処理をS400へ進め、処理を続ける。   Referring back to FIG. 4, in step S411, CPU 200 determines whether or not to terminate the operation of projector 100. CPU 200 determines that the operation of projector 100 is to be terminated when an instruction to terminate projector 100 is given by an input to a physical button or GUI provided on projector 100. When ending the operation (Yes in step S411), the CPU 200 ends the process. When not ending the operation (No in step S411), the CPU 200 advances the processing to S400 and continues the processing.

以上説明したように、本実施形態に係るプロジェクタ100は、投影部205とユーザ130の位置関係からポインタの進入位置を求め、そのポインタ進入位置に応じて傾きの変化するポインタを表示した。このように、プロジェクタ100とユーザ位置関係をポインタの表示形態に対応させて投影面140に合成表示することにより、ポインティングを行っているユーザのプロジェクタ100に対するおおよその相対位置をユーザに認識させることができる。   As described above, the projector 100 according to the present embodiment obtains the pointer entry position from the positional relationship between the projection unit 205 and the user 130, and displays the pointer whose inclination changes according to the pointer entry position. In this manner, by synthesizing and displaying the user's positional relationship with the projector 100 on the projection surface 140 in accordance with the display form of the pointer, the user can recognize the approximate relative position of the pointing user with respect to the projector 100. it can.

地図に代表されるように、上面から見た位置、すなわち水平面へのマッピングに人は慣れているので、一度マッピングルールを理解すれば、表示されているポインタアイコンを見るだけで位置関係を直観的に把握可能である。そのために必要な表示領域はポインタアイコンを表示する領域のみであるので、従来型のポインタアイコンを表示する場合と比較してもリーズナブルである。   As represented by a map, people are accustomed to mapping from the top, that is, mapping to the horizontal plane, so once you understand the mapping rules, you can intuitively understand the positional relationship just by looking at the displayed pointer icon It is possible to grasp. The display area required for that is only the area for displaying the pointer icon, so that it is reasonable compared to the case of displaying the conventional pointer icon.

さらに、本実施形態で説明したような投影面に投影された表示データを利用しながら会議を行うユースケースでは、プロジェクタ100の周りにユーザがいる場合が多い。従って、本実施形態で示すように、全周囲ステレオカメラ110をプロジェクタ100に一体化させることにより、ユーザ位置を簡単に全周囲でマッピングすることができる。   Further, in a use case where a conference is performed using display data projected on the projection surface as described in the present embodiment, a user is often present around the projector 100. Therefore, as shown in the present embodiment, by integrating the omnidirectional stereo camera 110 into the projector 100, the user position can be easily mapped over the entire ambience.

本実施形態の第1の変更例としては、アイコンは、矢印型のポインタアイコンに限定されるものではない。図8は、アイコンの変更例を示す図である。表示制御部308は、図8に示すように、ユーザの腕を模した透過性のある影アイコン800a,800bを表示してもよい。   As a first modification of the present embodiment, the icons are not limited to arrow-type pointer icons. FIG. 8 is a diagram illustrating an example of changing icons. The display control unit 308 may display transparent shadow icons 800a and 800b imitating a user's arm, as shown in FIG.

また、第2の変更例としては、表示制御部308は、ポインタアイコンをアニメーション表示してもよい。例えば、図7(b)に示す例において、ポインタアイコン141a,141bがそれぞれ進入位置720a,720bから指示位置721a,721bまで移動するようなアニメーションを表示してもよい。これにより、ユーザにポインタアイコン141a,141bの進入位置720a,720bを明確に認識してもらうことができる。さらに、表示制御部308は、ポインタアイコン141a,141bがそれぞれ指示位置721a,721bに到達した後、指差し操作が未検出となってから一定時間経過後に、ポインタアイコン141a,141bを非表示にするよう制御してもよい。   As a second modification, the display control unit 308 may display the pointer icon as an animation. For example, in the example shown in FIG. 7B, an animation may be displayed such that the pointer icons 141a and 141b move from the entry positions 720a and 720b to the designated positions 721a and 721b, respectively. This allows the user to clearly recognize the entry positions 720a and 720b of the pointer icons 141a and 141b. Furthermore, after the pointer icons 141a and 141b reach the designated positions 721a and 721b, respectively, the display control unit 308 hides the pointer icons 141a and 141b after a lapse of a predetermined time after the pointing operation is not detected. Such control may be performed.

また、第3の変更例としては、本実施形態では、全周囲画ステレオ画像からユーザの顔や指差しを検出したが、これに限定されるものではない。他の例としては、プロジェクタ100は、位置情報が取得可能なデバイスから取得できる位置情報を用いてユーザの顔や指差しを検出してもよい。   As a third modification, in the present embodiment, the user's face and pointing are detected from the omnidirectional stereo image, but the present invention is not limited to this. As another example, the projector 100 may detect a user's face or pointing using position information that can be obtained from a device that can obtain position information.

また、第3の変更例としては、プロジェクタ100は、ポインタアイコンとしての矢印の長さを、指示位置とユーザ位置の間の距離に基づいて決定してもよい(長さ決定処理)。   As a third modification, the projector 100 may determine the length of the arrow as the pointer icon based on the distance between the designated position and the user position (length determination processing).

(第2の実施形態)
次に、第2の実施形態に係るプロジェクタ100について説明する。第2の実施形態に係るプロジェクタ100は、図4のステップS410において、プロジェクタ100とユーザ130との位置関係をXY平面に平行な面上にマッピングし、このマッピング結果に基づいてポインタアイコンを表示する。以下、第2の実施形態に係るプロジェクタ100について第1の実施形態に係るプロジェクタ100と異なる点について説明する。図9は、第2の実施形態に係るマッピング処理の説明図である。図9(a)に示す902は操作子位置、903はユーザ位置である。900は、操作子位置902とユーザ位置903を結ぶ直線が投影面140と交わる位置、すなわち指示位置である。
(Second embodiment)
Next, a projector 100 according to a second embodiment will be described. In step S410 of FIG. 4, the projector 100 according to the second embodiment maps the positional relationship between the projector 100 and the user 130 on a plane parallel to the XY plane, and displays a pointer icon based on the mapping result. . Hereinafter, differences between the projector 100 according to the second embodiment and the projector 100 according to the first embodiment will be described. FIG. 9 is an explanatory diagram of the mapping processing according to the second embodiment. In FIG. 9A, reference numeral 902 denotes an operator position, and 903 denotes a user position. Reference numeral 900 denotes a position where a straight line connecting the operator position 902 and the user position 903 intersects the projection plane 140, that is, a designated position.

本実施形態においては、表示制御部308は、操作子位置902とユーザ位置903とに基づいて、操作位置900を求める。さらに、表示制御部308は、操作位置900と操作子位置902とを結ぶ線分のx,y成分であるx1,y1を求める。ここで、x1は、図9(b)に示すように線分をx方向に射影した長さである。また、y1は、図9(c)に示すように線分をy方向に射影した長さである。さらに、表示制御部308は、操作子位置902から投影面140上への垂線の長さ、すなわちz方向の成分z1の大きさに応じてポインタの奥行(矢印の遠近感)を調整する。なお、第2の実施形態に係るプロジェクタ100のこれ以外の構成及び処理は、第1の実施形態に係るプロジェクタ100の構成及び処理と同様である。   In the present embodiment, the display control unit 308 obtains the operation position 900 based on the operation element position 902 and the user position 903. Further, the display control unit 308 obtains x1 and y1, which are x and y components of a line connecting the operation position 900 and the operation element position 902. Here, x1 is a length obtained by projecting the line segment in the x direction as shown in FIG. 9B. Further, y1 is the length of the projection of the line segment in the y direction as shown in FIG. 9C. Further, the display control unit 308 adjusts the depth of the pointer (the perspective of the arrow) in accordance with the length of the perpendicular from the operator position 902 to the projection plane 140, that is, the size of the component z1 in the z direction. Other configurations and processes of the projector 100 according to the second embodiment are the same as those of the projector 100 according to the first embodiment.

このように、第2の実施形態に係るプロジェクタ100は、カーナビの一人称視点表示のように、プロジェクタ100に対するユーザの位置関係を一人称視点でマッピングしてポインタ(アイコン)を投影表示する。1人称視点のマッピングは、上面から見た位置へのマッピング(上面図)と比較すると見たままとなるので、直観的に各ユーザのおおよその位置をユーザ自身に認識させることができる。   As described above, the projector 100 according to the second embodiment projects the pointer (icon) by mapping the positional relationship of the user with respect to the projector 100 from the first-person viewpoint, like the first-person viewpoint display of the car navigation system. Since the mapping of the first person viewpoint is left as it is when compared with the mapping to the position viewed from the top (top view), the user can intuitively recognize the approximate position of each user.

(第3の実施形態)
図10は、第3の実施形態に係るプロジェクタ1010の説明図である。第3の実施形態に係るプロジェクタ1010は、懐中電灯型のモバイルデバイスである。すなわち、プロジェクタ1010は移動可能である。このため、プロジェクタ1010の位置は一定ではなく、またプロジェクタ1010の位置に応じて投影方向も変化する。プロジェクタ1010は、変化するプロジェクタ1010の位置に応じて、ポインタを表示する。以下、第3の実施形態に係るプロジェクタ1010について他の実施形態に係るプロジェクタ1010と異なる点について説明する。なお、本実施形態においては、美術館の学芸員がプロジェクタ1010を持ち、プロジェクタ1010により表示データを投影表示させながら、来客者に対して美術品1080についての説明を行う場合を例にプロジェクタ100について説明する。図10に示す1040は投影面を示している。なお、投影面1040は、美術品1080の後方に設けられているものとする。また、他の例としては、投影面1040は、美術品1080の前方に設けられていてもよい。この場合には、投影面1040は透明な面であるものとする。
(Third embodiment)
FIG. 10 is an explanatory diagram of a projector 1010 according to the third embodiment. The projector 1010 according to the third embodiment is a flashlight type mobile device. That is, projector 1010 is movable. For this reason, the position of the projector 1010 is not constant, and the projection direction changes according to the position of the projector 1010. The projector 1010 displays a pointer according to the changing position of the projector 1010. Hereinafter, differences between the projector 1010 according to the third embodiment and the projector 1010 according to the other embodiments will be described. In the present embodiment, the projector 100 will be described as an example in a case where a curator of an art museum has the projector 1010 and gives a description of the artwork 1080 to the visitor while projecting and displaying display data by the projector 1010. I do. Reference numeral 1040 shown in FIG. 10 indicates a projection plane. The projection surface 1040 is provided behind the artwork 1080. Further, as another example, projection surface 1040 may be provided in front of art object 1080. In this case, the projection surface 1040 is a transparent surface.

図10(a)に示すように、第3の実施形態に係る全周囲ステレオカメラ1010は、2つのカメラ1011,1012の他に、距離画像センサ1013を有している。プロジェクタ1010は、ユーザとしての美術館の学芸員1030aによって携帯されるモバイルデバイスであり、投影対象物や投影面は変化する。また、プロジェクタ1010と、ユーザとしての来客者1030a,1030b,1030cとの間の位置関係も頻繁に変化する。このため、プロジェクタ1010は、全周囲ステレオ画像だけでなく、距離画像センサ1013の検出結果を利用して、既定のフレームレートで距離画像を撮像する。プロジェクタ1010は、領域検出部303と形状検出部304で撮像した距離画像を処理することによって、投影対象物が何であるかを識別する。つまり、投影対象物がある特定の美術品であることを識別する。プロジェクタ1010は、この識別情報を利用し、ネットワーク上のサーバ装置160から識別した美術品1080に関する情報を取得し、美術品1080自体に情報を重畳表示する。プロジェクタ1010は、例えば、美術品の名前や作者等の付加情報を重畳表示することができる。   As shown in FIG. 10A, the omnidirectional stereo camera 1010 according to the third embodiment has a range image sensor 1013 in addition to the two cameras 1011 and 1012. The projector 1010 is a mobile device carried by a museum curator 1030a as a user, and changes a projection target and a projection surface. Further, the positional relationship between the projector 1010 and the visitors 1030a, 1030b, and 1030c as the user frequently changes. For this reason, the projector 1010 captures not only the omnidirectional stereo image but also the distance image at a predetermined frame rate using the detection result of the distance image sensor 1013. The projector 1010 processes the distance image captured by the area detection unit 303 and the shape detection unit 304 to identify what the projection target is. That is, it identifies that the projection target object is a specific artwork. Using this identification information, the projector 1010 acquires information on the identified artwork 1080 from the server device 160 on the network, and superimposes and displays the information on the artwork 1080 itself. The projector 1010 can, for example, superimpose and display additional information such as the name of the artwork and the creator.

図10(a)は、学芸員1030aがプロジェクタ1010を用いて来客者1030b,1030cに対して美術品1080の説明をしている時に、来客者1030b,1030cの2人が美術品1080の一部をポインティングしている場面を示している。第1の実施形態の場合と同様に、来客者1030b,1030cの指差し操作は、プロジェクタ1010によって検出され、その結果、投影面1040に各来客者1030b,1030cに対応するポインタアイコン1041b,1041cが表示されている。また、図10(a)の1042b,1042cは、それぞれポインタアイコン1041b,1041cの進入位置を示している。   FIG. 10A shows that when the curator 1030a is explaining the artwork 1080 to the visitors 1030b and 1030c using the projector 1010, two of the visitors 1030b and 1030c are a part of the artwork 1080. Shows a scene where pointing is performed. As in the case of the first embodiment, the pointing operation of the visitors 1030b and 1030c is detected by the projector 1010, and as a result, pointer icons 1041b and 1041c corresponding to the visitors 1030b and 1030c are displayed on the projection surface 1040. Is displayed. Also, 1042b and 1042c in FIG. 10A indicate the entry positions of the pointer icons 1041b and 1041c, respectively.

ここで、来客者1030bが指差した位置、すなわちポインタアイコン1041bの先端の位置に関して学芸員1030aが説明しようとして、図10(a)に示す矢印Aの方向にプロジェクタ1010を回転させたとする。この場合、図10(b)に示すように、投影面は、1040から他の面1050に変化する。なお、このとき、来客者1030b,1030cが指差しの対象としている位置は変わっていないものとするが、プロジェクタ1010の回転移動に起因して、プロジェクタ1010と来客者1030b,1030cとの間の位置関係が変化する。これに従い、来客者1030bに対応するポインタアイコン1041bは、図10(b)に示すポインタアイコン1051bに変化する。ここで、1052bは、ポインタアイコン1051bの進入位置である。すなわち、ユーザ130bに対応するポインタが指差し対象とする美術品1080の位置は変わらないが、ポインタアイコンの進入位置及び傾きが変化する。   Here, it is assumed that the curator 1030a attempts to explain the position pointed by the visitor 1030b, that is, the position of the tip of the pointer icon 1041b, and rotates the projector 1010 in the direction of arrow A shown in FIG. In this case, as shown in FIG. 10B, the projection plane changes from 1040 to another plane 1050. At this time, it is assumed that the position to which the visitor 1030b or 1030c points is not changed, but the position between the projector 1010 and the visitor 1030b or 1030c due to the rotational movement of the projector 1010. Relationships change. Accordingly, the pointer icon 1041b corresponding to the visitor 1030b changes to the pointer icon 1051b shown in FIG. Here, 1052b is the entry position of the pointer icon 1051b. That is, the position of the artwork 1080 to which the pointer corresponding to the user 130b is pointed does not change, but the entry position and the inclination of the pointer icon change.

一方で、プロジェクタ1010の回転移動に起因して、プロジェクタ1010と来客者1030cとの間の位置関係が変化し、来客者1030cに対応するポインタアイコン1041cは、図10(b)に示すポインタアイコン1051cに変化する。しかしながら、ポインタアイコン1051cの位置は、投影面1050の範囲外、すなわち投影範囲の外側になってしまう。このように、プロジェクタ1010は、ポインタアイコンの位置が投影面1050の範囲外になった時点で、ポインタアイコンの表示を終了し、ポインタアイコンに替えて、矢尻型の関連アイコン1060を投影面1050の境界位置に表示する。関連アイコン1060は、その方向に来客者1030cが指している位置があることを示している。さらに、プロジェクタ1010は、再びポインタアイコン1051cが投影面1050の範囲内になった場合には、関連アイコン1060の表示を終了し、関連アイコン1060に替えてポインタアイコン1051cを表示する。   On the other hand, due to the rotational movement of the projector 1010, the positional relationship between the projector 1010 and the visitor 1030c changes, and the pointer icon 1041c corresponding to the visitor 1030c becomes the pointer icon 1051c shown in FIG. Changes to However, the position of the pointer icon 1051c is outside the range of the projection plane 1050, that is, outside the projection range. As described above, when the position of the pointer icon is out of the range of the projection plane 1050, the projector 1010 ends the display of the pointer icon, and replaces the pointer icon with the arrowhead related icon 1060 of the projection plane 1050. Display at the boundary position. The related icon 1060 indicates that there is a position to which the visitor 1030c is pointing in that direction. Furthermore, when the pointer icon 1051c is again within the range of the projection plane 1050, the projector 1010 ends the display of the related icon 1060 and displays the pointer icon 1051c instead of the related icon 1060.

プロジェクタ1010が、このような表示制御を行うことにより、学芸員1030aは、来客者1030b,1030cがポインティングしている箇所(説明を聞きたいと思っている箇所)を順番に1つずつ説明することができる。さらに、本実施形態のプロジェクタ1010は、指示位置をRAM201等の記憶部に記録しておく(記録処理)。そして、プロジェクタ1010は、一定時間以上指差し操作が継続した場合には、指差し操作が終了した後も、対応するポインタアイコン又は関連アイコンの表示を継続するよう制御してもよい。これにより、来客者は、説明の順番が回ってくるまで、指差し操作を継続する必要がなくなり、プロジェクタ1010の利便性を向上させることができる。   By performing such display control by the projector 1010, the curator 1030a can explain the points pointed by the visitors 1030b and 1030c (points where he / she wants to hear the explanation) one by one in order. Can be. Further, the projector 1010 of the present embodiment records the designated position in a storage unit such as the RAM 201 (recording process). Then, when the pointing operation is continued for a certain period of time or longer, the projector 1010 may control to continue displaying the corresponding pointer icon or the related icon even after the pointing operation is completed. This eliminates the need for the visitor to continue the pointing operation until the turn of the explanation comes, and the convenience of the projector 1010 can be improved.

以上説明したように、懐中電灯型のモバイルデバイスのような実施形態においても、ポインタアイコンを操作しているユーザのおおまかな位置を伝えることができる。つまり、プロジェクタ1010に対するユーザ位置関係をポインタアイコンの進入位置やポインタの傾きを利用してユーザにフィードバックすることにより、ユーザはポインティングしているユーザのおおよその位置を認識可能となる。   As described above, even in an embodiment such as a flashlight-type mobile device, the approximate position of the user operating the pointer icon can be reported. That is, the user's positional relationship with the projector 1010 is fed back to the user using the entry position of the pointer icon and the inclination of the pointer, so that the user can recognize the approximate position of the pointing user.

以上、上述した各実施形態によれば、投影面に対し、複数のユーザそれぞれの指示操作に応じた複数のアイコンが表示される場合においても、指示操作を行っているユーザとアイコンとの対応関係をわかり易く提示することができる。   As described above, according to each of the above-described embodiments, even when a plurality of icons corresponding to a plurality of user's instruction operations are displayed on the projection surface, the correspondence between the user performing the instruction operation and the icons Can be presented in an easy-to-understand manner.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100 プロジェクタ
110 全周囲ステレオカメラ
140 投影面
150 表示データ
Reference Signs List 100 Projector 110 Surrounding stereo camera 140 Projection surface 150 Display data

Claims (11)

表示データを投影面に投影する投影手段と、
前記投影手段の水平方向の全周囲の画像を撮影する撮影手段と、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段と
を有することを特徴とする情報処理装置。
Projecting means for projecting the display data on a projection surface;
Photographing means for photographing an image of the entire circumference in the horizontal direction of the projecting means,
Based on the image, based on the position of the projecting means, a user position specifying means for specifying a user position,
Based on the image, a designated position specifying unit that specifies a designated position on a projection plane that is a target of a designated operation performed using a manipulator by a user;
Passing the position of the projection means and the user position, and corresponding to the projection plane, the positional relationship between the position of the projection means and the user position on a predetermined plane, and the designated position by the user A tilt determining unit that determines the tilt of a first icon indicating the designated position, and indicating a relationship between the user position and the designated position, based on
Display control means for controlling the projection means to project the first icon whose inclination has been determined by the inclination determination means based on a positional relationship between the position of the projection means and the user position. Characteristic information processing device.
前記ユーザ位置特定手段は、前記ユーザの顔の位置を前記ユーザ位置として特定し、
前記画像に基づいて、前記投影手段の位置を基準とした、操作子位置を特定する操作子位置特定手段をさらに有し、
前記指示位置特定手段は、前記操作子位置と前記顔の位置とに基づいて、前記投影面上の指示位置を特定し、
前記表示制御手段は、前記指示位置特定手段により特定された前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す前記第1のアイコンを投影するよう制御することを特徴とする請求項1に記載の情報処理装置。
The user position specifying means specifies the position of the user's face as the user position,
Based on the image, based on the position of the projection means, further comprising an operator position specifying means for specifying an operator position,
The specified position specifying means specifies a specified position on the projection plane based on the operator position and the position of the face,
The display control means controls the projection so as to project the first icon indicating the designated position specified by the designated position specifying means and indicating a relationship between the user position and the designated position. The information processing device according to claim 1.
前記平面は、鉛直方向に対し垂直な面であることを特徴とする請求項1又は2に記載の情報処理装置。 The plane is an information processing apparatus according to claim 1 or 2, characterized in that with respect to the vertical direction which is perpendicular to the plane. 前記位置関係に基づいて、前記投影面における前記第1のアイコンの進入位置を決定する進入位置決定手段をさらに有し、
前記傾き決定手段は、前記進入位置と前記指示位置とに基づいて、前記第1のアイコンの傾きを決定することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
An entry position determination unit that determines an entry position of the first icon on the projection plane based on the positional relationship,
It said tilt deciding means, on the basis of the entry position and said instructed position, the information processing apparatus according to any one of claims 1 to 3, characterized by determining the slope of the first icon.
前記表示制御手段は、前記進入位置から前記指示位置に向かって前記第1のアイコンが移動するアニメーションを投影するよう制御することを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 4 , wherein the display control unit controls to project an animation of the first icon moving from the approach position toward the designated position. 前記表示制御手段は、前記第1のアイコンが前記指示位置に到達した後、一定時間経過後に前記第1のアイコンを非表示にするよう制御することを特徴とする請求項に記載の情報処理装置。 6. The information processing apparatus according to claim 5 , wherein the display control unit controls to hide the first icon after a lapse of a predetermined time after the first icon reaches the designated position. 7. apparatus. 前記指示位置と前記操作子位置との間の距離に基づいて、前記第1のアイコンの長さを決定する長さ決定手段をさらに有し、
前記表示制御手段は、前記長さ決定手段により長さが決定された前記第1のアイコンを投影するよう制御することを特徴とする請求項2に記載の情報処理装置。
A length determining unit that determines a length of the first icon based on a distance between the pointing position and the operating element position;
The information processing apparatus according to claim 2, wherein the display control unit controls to project the first icon whose length is determined by the length determination unit.
前記投影手段は移動可能であり、
前記表示制御手段は、前記投影手段の移動により前記指示位置が前記投影面の外側になった場合に、前記指示位置の方向を示す第2のアイコンを投影するよう前記投影手段を制御することを特徴とする請求項2に記載の情報処理装置。
The projection means is movable;
The display control unit controls the projection unit to project a second icon indicating the direction of the designated position when the designated position is outside the projection plane due to movement of the projection unit. The information processing apparatus according to claim 2, wherein
前記指示位置を記憶手段に記録する記録手段をさらに有し、
前記表示制御手段は、前記記憶手段に記録された前記指示位置に基づいて、前記第2のアイコンを投影するよう制御することを特徴とする請求項に記載の情報処理装置。
Recording means for recording the designated position in storage means,
The information processing apparatus according to claim 8 , wherein the display control unit controls to project the second icon based on the designated position recorded in the storage unit.
情報処理装置が実行する情報処理方法であって、
表示データを投影面に投影する投影手段の水平方向の全周囲の画像を撮影する撮影ステップと、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定ステップと、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定ステップと、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定ステップと、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定ステップで傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御ステップと
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus,
A photographing step of photographing an image of the entire circumference in the horizontal direction of the projection means for projecting the display data on the projection surface;
Based on the image, based on the position of the projection means, a user position specifying step of specifying a user position,
Based on the image, a specified position specifying step of specifying a specified position on a projection plane to be a target of a specified operation performed by a user using an operator;
The positional relationship between the position of the projection unit and the user position on a predetermined plane, passing through the position of the projection unit and the user position, and corresponding to the projection plane, and the designated position by the user. A tilt determining step of determining the tilt of a first icon indicating the designated position and indicating a relationship between the user position and the designated position, based on
A display control step of controlling the projection means to project the first icon whose inclination has been determined in the inclination determination step based on a positional relationship between the position of the projection means and the user position. Characteristic information processing method.
コンピュータを、
表示データを投影面に投影する投影手段の水平方向の全周囲の画像を撮影するよう制御する撮影制御手段と、
前記画像に基づいて、前記投影手段の位置を基準とした、ユーザ位置を特定するユーザ位置特定手段と、
前記画像に基づいて、ユーザにより操作子を用いて行われた指示操作の対象となる投影面上の指示位置を特定する指示位置特定手段と、
前記投影手段の位置及び前記ユーザ位置を通り、かつ前記投影面に対応する、予め定められた平面における前記投影手段の位置と前記ユーザ位置との間の位置関係と、前記ユーザによる前記指示位置と、に基づいて、前記指示位置を示し、かつ前記ユーザ位置と前記指示位置との関係を示す第1のアイコンの傾きを決定する傾き決定手段と、
前記投影手段の位置と前記ユーザ位置との位置関係に基づいて、前記傾き決定手段により傾きが決定された前記第1のアイコンを投影するよう前記投影手段を制御する表示制御手段と
して機能させるためのプログラム。
Computer
Shooting control means for controlling to shoot an image of the entire circumference in the horizontal direction of the projection means for projecting the display data on the projection surface,
Based on the image, based on the position of the projecting means, a user position specifying means for specifying a user position,
Based on the image, a designated position specifying unit that specifies a designated position on a projection plane that is a target of a designated operation performed using a manipulator by a user;
The positional relationship between the position of the projection unit and the user position on a predetermined plane, passing through the position of the projection unit and the user position, and corresponding to the projection plane, and the designated position by the user. , Based on the inclination position determining means for determining the inclination of a first icon indicating the designated position and indicating the relationship between the user position and the designated position,
A function of a display control unit that controls the projection unit to project the first icon whose inclination is determined by the inclination determination unit based on a positional relationship between the position of the projection unit and the user position. program.
JP2015191826A 2015-09-29 2015-09-29 Information processing apparatus, information processing method and program Active JP6632298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015191826A JP6632298B2 (en) 2015-09-29 2015-09-29 Information processing apparatus, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191826A JP6632298B2 (en) 2015-09-29 2015-09-29 Information processing apparatus, information processing method and program

Publications (2)

Publication Number Publication Date
JP2017068468A JP2017068468A (en) 2017-04-06
JP6632298B2 true JP6632298B2 (en) 2020-01-22

Family

ID=58492421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191826A Active JP6632298B2 (en) 2015-09-29 2015-09-29 Information processing apparatus, information processing method and program

Country Status (1)

Country Link
JP (1) JP6632298B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416391B2 (en) * 2018-12-28 2024-01-17 国立大学法人高知大学 pointing device
CN113110768B (en) * 2021-03-24 2022-10-18 东风柳州汽车有限公司 Automobile instrument interface display processing method and device and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5343773B2 (en) * 2009-09-04 2013-11-13 ソニー株式会社 Information processing apparatus, display control method, and display control program
US20130328770A1 (en) * 2010-02-23 2013-12-12 Muv Interactive Ltd. System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
JP5921981B2 (en) * 2012-07-25 2016-05-24 日立マクセル株式会社 Video display device and video display method
JP6149433B2 (en) * 2013-03-11 2017-06-21 株式会社リコー Video conference device, video conference device control method, and program
US9846486B2 (en) * 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device

Also Published As

Publication number Publication date
JP2017068468A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6598617B2 (en) Information processing apparatus, information processing method, and program
JP6074494B2 (en) Shape recognition device, shape recognition program, and shape recognition method
US9516214B2 (en) Information processing device and information processing method
WO2019062619A1 (en) Method, apparatus and system for automatically labeling target object within image
JP5921271B2 (en) Object measuring apparatus and object measuring method
JP6044426B2 (en) Information operation display system, display program, and display method
JP6955369B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
JP2016218905A (en) Information processing device, information processing method and program
US9836130B2 (en) Operation input device, operation input method, and program
JP2011039844A (en) Image recognition device, operation decision method and program
JP4733600B2 (en) Operation detection device and its program
JP2019501747A5 (en)
JP7406875B2 (en) Information processing equipment and programs
JP2009251702A (en) Information processing unit, information processing method, and information processing program
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
JP6632298B2 (en) Information processing apparatus, information processing method and program
JPWO2020080107A1 (en) Information processing equipment, information processing methods, and programs
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
US20230245332A1 (en) Systems and methods for updating continuous image alignment of separate cameras
CN113228117A (en) Authoring apparatus, authoring method, and authoring program
JP6643825B2 (en) Apparatus and method
US11450014B2 (en) Systems and methods for continuous image alignment of separate cameras
CN110858095A (en) Electronic device capable of being controlled by head and operation method thereof
JP2017103607A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R151 Written notification of patent or utility model registration

Ref document number: 6632298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151