JP4409545B2 - Three-dimensional position specifying device and method, depth position specifying device - Google Patents
Three-dimensional position specifying device and method, depth position specifying device Download PDFInfo
- Publication number
- JP4409545B2 JP4409545B2 JP2006186798A JP2006186798A JP4409545B2 JP 4409545 B2 JP4409545 B2 JP 4409545B2 JP 2006186798 A JP2006186798 A JP 2006186798A JP 2006186798 A JP2006186798 A JP 2006186798A JP 4409545 B2 JP4409545 B2 JP 4409545B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- unit
- player
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
この発明は、プレイヤーにより操作されるオブジェクトを撮影してその位置を特定する三次元位置特定技術に関する。 The present invention relates to a three-dimensional position specifying technique for shooting an object operated by a player and specifying its position.
従来から、プレイヤーの動作をビデオカメラなどの撮像装置を用いて撮影し、プレイヤーの動画像を画面に映し出して、コマンドの入力やゲームのプレイを可能にしたものが知られている(例えば、特許文献1を参照)。このような画像処理装置では、画面上に配置されるメニュー画面やオブジェクトにプレイヤーの動画像が画面内で接触することで、コマンドを入力することができる。つまり、プレイヤーの動画像そのものが入力インタフェースとして機能している。
上述のようなプレイヤーの動画像を入力インタフェースとして利用するゲームを初めとしたアプリケーションでは、アプリケーションを操作するプレイヤーの行動を、画面上の演出や音声などによって自然なかたちで導き出すことが重要である。不自然な動きをプレイヤーに要求すると、アプリケーションに対するプレイヤーの興味が失われる恐れがある。 In an application such as a game that uses a player's moving image as an input interface as described above, it is important to derive the behavior of the player who operates the application in a natural manner by means of on-screen effects, sounds, and the like. Requesting unnatural movement from a player can result in a loss of player interest in the application.
本発明はこうした課題に鑑みてなされたものであり、その目的は、プレイヤーの動作を入力インタフェースとして利用する装置において、プレイヤーにとって使いやすいインタフェースを実現するための技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for realizing an interface that is easy for a player to use in an apparatus that uses the operation of the player as an input interface.
本発明のある態様は、オブジェクトの三次元位置特定装置である。この装置は、プレイヤーにより操作されるオブジェクトを撮影するカメラと、オブジェクトを特定するための参照画像を格納する参照画像記憶部と、オブジェクトが進入すると想定されている所定の進入領域の反射像をカメラに向けて投影し、オブジェクトの直接像と反射像とをカメラに撮影させる反射手段と、カメラにより撮影されたフレームから、反射像に対応する部分である反射面領域を特定する反射面領域特定部と、フレームに対して参照画像を用いたマッチングを実行して、オブジェクトのフレーム内での位置を特定するフレーム内定位部と、反射面領域から反射像を検出して、カメラの光軸に沿った奥行方向でのオブジェクトの位置を特定する奥行定位部と、を備える。 One embodiment of the present invention is an apparatus for specifying a three-dimensional position of an object. This apparatus includes a camera that captures an object operated by a player, a reference image storage unit that stores a reference image for identifying the object, and a reflected image of a predetermined entry area that the object is supposed to enter. Reflecting means for projecting toward the object and causing the camera to capture a direct image and a reflected image of the object, and a reflecting surface area specifying unit for specifying a reflecting surface area corresponding to the reflected image from the frame shot by the camera And matching using the reference image to the frame to detect the reflected image from the in-frame localization part that identifies the position of the object in the frame and the reflective surface area, along the optical axis of the camera A depth localization unit that identifies the position of the object in the depth direction.
ここで、「オブジェクト」とは、カメラの撮影範囲内でプレイヤーにより操作されるものの総称であり、プレイヤーの頭、腕、手、足、口などの身体の一部と、プレイヤーの身体の一部(例えば手、足、口)により操作される棒、シート、箱などの物体、およびコントローラなどの装置が含まれる。 Here, “object” is a generic term for what is operated by the player within the shooting range of the camera, and part of the body such as the player's head, arms, hands, feet, mouth, and part of the player's body. Included are objects such as bars, sheets, boxes, etc. operated by (eg hands, feet, mouth) and devices such as controllers.
この態様によると、予め定められた進入領域へのオブジェクトの進入を反射体による反射像を利用して検出することで、プレイヤーによるオブジェクトの押し込みや引き出しといった奥行方向のアクションを検出する。従来のようなフレーム間差分に基づいたオブジェクトの検出では、奥行方向すなわちカメラの光軸方向に沿ったオブジェクトの移動の検出は非常に困難であったが、本実施形態では、カメラの光軸と交わる方向からの反射像を利用するので、奥行方向のオブジェクトの移動を正確に検出することができる。 According to this aspect, an action in the depth direction, such as pushing or pulling out an object by the player, is detected by detecting the entry of the object into a predetermined entry area using a reflection image by the reflector. In the conventional object detection based on the inter-frame difference, it is very difficult to detect the movement of the object along the depth direction, that is, the optical axis direction of the camera. Since the reflected image from the intersecting direction is used, the movement of the object in the depth direction can be accurately detected.
本発明の別の態様は、三次元位置特定方法である。この方法は、オブジェクトの直接像と、所定の奥行位置からオブジェクトを反射させた反射像とをカメラにより撮影し、フレーム内で反射像に対応する領域と直接像を含むそれ以外の領域とを特定し、直接像に対するマッチングを実行してオブジェクトのフレーム内での位置を特定し、複数のフレーム間での反射像の差分からオブジェクトが所定の奥行位置にあるか否かを検出することを含む。 Another aspect of the present invention is a three-dimensional position specifying method. In this method, a direct image of an object and a reflected image obtained by reflecting the object from a predetermined depth position are photographed by a camera, and an area corresponding to the reflected image and other areas including the direct image are specified in the frame. Then, matching is performed on the direct image to specify the position of the object in the frame, and detecting whether or not the object is at a predetermined depth position from the difference in the reflected image between the plurality of frames.
なお、本発明の構成要素や表現を方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。 It is also effective as an aspect of the present invention to replace the components and expressions of the present invention among methods, systems, computer programs, recording media storing computer programs, and the like.
本発明によれば、カメラにより撮影されたフレームを用いて、奥行方向へのオブジェクトの移動を検出することができる。 According to the present invention, it is possible to detect the movement of an object in the depth direction using a frame photographed by a camera.
実施の形態1.
図1は、本発明の一実施形態である三次元位置特定装置10の全体構成を示す。本実施形態の三次元位置特定装置は、プレイヤーの操作するオブジェクトを単一のカメラで撮影し、画像処理によりオブジェクトの三次元位置を特定し、特定された三次元位置に応じた画面をディスプレイに表示する。三次元位置特定装置10を利用するアプリケーションの典型例は、画面に表示されたキャラクタ等をプレイヤーの動作で操作するアクションゲームであるが、他の形態のゲームや、簡単なビジネスアプリケーション、ディジタル写真のアルバム表示、楽曲データ再生のアプリケーションなどにも適用することができる。
Embodiment 1 FIG.
FIG. 1 shows an overall configuration of a three-dimensional
三次元位置特定装置10は、ディスプレイ40と、ディスプレイの上側に設置されるカメラ20と、画像処理装置30と、反射体50と、から構成される。
The three-dimensional
ディスプレイ40は、好ましくはプレイヤー72の前方に配置される。プレイヤー72は、カメラ20により撮影された自分の像を見ながらオブジェクトの操作をするかたちになる。
The
カメラ20はプレイヤー72により操作されるオブジェクト70を撮影し、所定のフレームレートでフレームを画像処理装置30に出力する。画像検出の応答性を早めるために、フレームレートはなるべく高いことが好ましい。カメラ20は、ディスプレイ40の上側に設置される。カメラ20の撮影範囲26は、少なくともプレイヤー72の操作するオブジェクト70を捉えるように設定される。これによって、プレイヤー72はディスプレイ40側に正面を向けた状態でオブジェクト70を操作することができる。しかし、三次元位置特定装置10により実施されるアプリケーションの特性に応じて、カメラ20をディスプレイ40の下方や側方に設置したり、またはプレイヤー72がディスプレイ40を見る向きとは異なる場所にカメラ20を設置してもよい。
The
カメラ20から出力されたフレームは、画像処理装置30を経由してディスプレイ40に映し出される。この場合、撮影されたフレームは画像処理装置30によって鏡面処理を施され、ディスプレイ40にはプレイヤー72の鏡面画像が映し出されることが好ましい。鏡面画像を映し出すことで、プレイヤーが例えば手を挙げたときに画面内の像は鏡に映したように同じ側の手を挙げるため、プレイヤーは自らの動作を認識しやすくなる。しかしながら、画像処理装置30によって鏡面処理を施さず、撮影したままの画面をディスプレイ40に映し出してもよい。さらに、三次元位置特定装置10により実施されるアプリケーションの特性に応じて、画像処理装置30によって上下を反転させた画面をディスプレイ40に映し出してもよい。
The frame output from the
画像処理装置30は、外部記憶媒体に格納されたアプリケーションソフトウェアをロードして実行する機能を有する。画像処理装置30は、カメラ20から出力されたフレームに対して上述の鏡面処理を施すほか、フレーム内でオブジェクトの像を検出して所定の画像をオブジェクトに重ねて表示したり、プレイヤーのアクションに応じた指示をアプリケーションに与えるなどの処理を行う。画像処理装置30により所定の処理を施された鏡面画像は、ディスプレイ40に出力される。画像処理装置30は、典型的にはゲームコンソールなどの専用機であるが、画像の入出力機能を備えた汎用のパーソナルコンピュータやサーバなどであってもよい。画像処理装置30のさらに詳細な機能および構成については後述する。
The
ディスプレイ40は、スピーカ42を備えていてもよい。スピーカ42は、ディスプレイ40に表示されるオブジェクトやその他の画像に合わせて画像処理装置30から出力される音声や伴奏などを再生する。スピーカ42は、ディスプレイ40と一体に構成され、ディスプレイ40の近傍に配置されていることが好ましい。しかしながら、スピーカ42とディスプレイ40は一体でなく、互いに離れた位置に配置されてもよい。
The
反射体50は、プレイヤー72とディスプレイ40およびカメラ20との間に設置され、オブジェクト70の反射像をカメラ20に撮影させる役割を有する。本明細書において「オブジェクト」とは、カメラ20の撮影範囲26内でプレイヤー72により操作されるものの総称であり、プレイヤーの頭、腕、手、足、口などの身体の一部と、プレイヤーの身体の一部(例えば手、足、口)により操作される棒、シート、箱などの物体、およびコントローラなどの装置が含まれる。オブジェクトがプレイヤーの意思により動かされることを、オブジェクトが身体の一部である場合を含め、本明細書では「プレイヤーにより操作されるオブジェクト」のように表現する。図1では、一例として、プレイヤーの指がオブジェクト70のとして示されている。
The
オブジェクト70は、その直接像がカメラ20により撮影されるのと同時に、反射体50による反射像もカメラ20により撮影される。言い換えると、カメラ20は、ひとつのフレームの中にオブジェクト70の直接像と反射像の両方を含むことになる。このように、直接像と反射像という二つの方向から見た像としてオブジェクト70を捉えることで、後述するように、単一のカメラからの画像のみでオブジェクト70の三次元位置を特定することができる。
なお、説明を簡単にするために、以下の説明ではプレイヤー72により操作されるオブジェクト70はひとつとするが、二つ以上のオブジェクトが存在しても同様の処理ができることはいうまでもない。
A direct image of the
In order to simplify the description, in the following description, the number of
反射体50は二つの反射面52、54を備えており、それぞれがオブジェクト70を反射させ、それら反射像がカメラ20によって撮影される。したがって、反射面52、54には、オブジェクト70の反射像がカメラ20のレンズで結ばれるように所定の角度が付けられている。また、反射体50の設置場所は、カメラ20から所定の距離だけ離間した位置に限られる。
The
図1に示すように、反射面52、54の上方には、それぞれがオブジェクト70の反射像をカメラ20に向けて投影できる領域である進入領域62、64が広がる。進入領域62、64の広がりは、反射面52、54の傾斜の度合いによって決まり、オブジェクト70が進入すると想定される範囲になる。図1の例では、それぞれの進入領域62、64は互いに交差しないように設定されている。したがって、オブジェクト70が進入領域62内に存在するときは、反射面52により反射された反射像がカメラ20により撮影され、オブジェクト70が進入領域64内に存在するときは、反射面54により反射された反射像がカメラ20により撮影される。但し、オブジェクト70が指や棒のように反射体50の奥行方向にある程度の長さを有する場合、オブジェクト70は進入領域62と64の両方に同時に存在する。
As shown in FIG. 1,
一般に、フレーム間の差分に基づいてオブジェクトの動作を検出しようとした場合、カメラの光軸に沿った方向(図1のz方向)に略平行な動作は、フレーム内でのオブジェクトの差分がわずかになるため検出するのは困難である。そこで、本実施形態では、オブジェクトの直接像とは異なる方向からの像を、反射体50による反射を利用することで取得し、この反射像を利用してz方向のオブジェクトの動作を確実に検出できるようにした。以下では、カメラの光軸に沿った方向のことを単に「奥行方向」と呼ぶことにする。
In general, when an object motion is to be detected based on the difference between frames, a motion substantially parallel to the direction along the optical axis of the camera (z direction in FIG. 1) Therefore, it is difficult to detect. Therefore, in the present embodiment, an image from a direction different from the direct image of the object is acquired by using the reflection by the
図2は、カメラ20と画像処理装置30のハードウェア構成を簡略化して説明した図である。カメラ20は、撮像素子としての画像センサ22と、画像処理部24を備える。画像センサ22は、一般にCCDセンサやCMOSセンサであり、図示しないレンズにより結ばれた像を受光素子で捉えることで画像を記録する。撮影された画像は、RAM等の図示しないメモリに一時的に記憶される。カメラ20の構成については周知であるため、これ以上詳細な記載は省略する。
FIG. 2 is a diagram illustrating a simplified hardware configuration of the
画像処理部24はASIC等の回路からなり、画像センサ22から出力された画像データに対して、A/D変換、デモザイク、ホワイトバランス処理、ノイズ除去、コントラスト強調、色差強調、ガンマ処理などのうち、必要なものを実施する。画像処理部24により処理された画像データは、図示しない通信インタフェースを介して画像処理装置30に転送される。以下の説明では、簡単のために、画像処理部24から画像処理装置30に渡される画像データは画像センサ22からの出力信号をそのままディジタル化したRAWデータであるものとするが、画像データは他の形式、例えばJPEGなどの圧縮されたデータであってもよい。後者の場合、画像処理装置30には、処理部32の前段に圧縮データを復号化する画像復号部が配置される。
The
画像処理装置30は、処理部32と、処理部32から渡された画像データをディスプレイ40に出力する画像出力部34と、処理部32から渡された音声データをスピーカ42に出力する音声出力部36と、を含む。画像処理装置30は、このほかにも、CD−ROM、DVD−ROM、フラッシュメモリを初めとする任意の記録媒体に格納されたアプリケーションソフトウェアを読み出すロード部や、ソフトウェアにしたがって所定のアプリケーションを実行するアプリケーション実行部などを備える。これらの機能は、ゲームコンソールなどの専用機やパーソナルコンピュータなどには当然備えられているものであるから、これ以上詳細な説明は省略する。
The
図3は、反射体50の構造を示す平面図である。反射体50は、全体として薄板状であり、上述したように奥行方向に離間して配置された第1反射面52と第2反射面54とを有している。反射面52、54は、一例では鏡であり、鏡面加工を施した金属、プラスチック、金属を蒸着させたガラスなどでもよい。第1反射面52と第2反射面54とは平行に配置され、また、その長軸がカメラ20の光軸に対して略垂直となるように配置される。第1反射面52と第2反射面54は、図1に示すように、反射面の上方のオブジェクトを反射して、反射像をカメラ20のレンズに向けて投影する角度に設定される。
FIG. 3 is a plan view showing the structure of the
反射体50の長軸方向の両端には、反射体50の位置を画像処理装置30に認識させるためのマーカ56がそれぞれ配置される。このマーカ56は、色付けされた部分であってもよいし、チェックなどの所定の模様が施されていてもよく、あるいは二次元コードなどでもよい。両端にLEDなどの光源を埋め込んでおいてもよい。要するに、カメラ20から出力されるフレーム内で、反射体50の位置を特定するために必要な情報を付与できるものであれば、その形態は問わない。
反射体50が奥行方向に所定の幅を有し、また奥行方向に複数の反射面を備えることで、奥行方向に複数の進入領域62、64を設定することができる。各反射面52、54は、オブジェクトが進入すると想定される相異なる進入領域の反射像をカメラ20に向けて投影し、オブジェクトの反射像をカメラ20に撮影させる。こうすることで、後述するように、奥行方向のオブジェクトの移動を検出できる。
Since the
図4は、処理部32の詳細な構成を示す図である。これらの構成は、CPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックとして描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 4 is a diagram showing a detailed configuration of the
画像取得部102は、カメラ20から出力されたフレームを一枚ずつ取得し、画像反転部104および画像連携音声制御部150に送る。
The
画像反転部104は、画像取得部102から受け取ったフレームに対して鏡面処理(すなわち、画像の左右反転処理)を施し、鏡面画像を生成する。鏡面画像は三次元定位部110およびオンスクリーン表示部144に送られる。
The
三次元定位部110は、画像反転部104から受け取ったカメラ20により撮影されたフレームを利用して、オブジェクトの三次元位置を特定する。三次元位置は、フレーム内でのオブジェクトの位置すなわち画面内の位置に相当する二次元位置、および図1の奥行方向すなわちz方向の位置のことをいう。本実施形態では、オブジェクトの二次元位置を特定することで画面内のオブジェクトを認識し、オブジェクトの奥行位置を特定することでプレイヤーの特定のアクションを検出する。
The three-
三次元定位部110は、反射面領域特定部112、奥行定位部122、フレーム内定位部114、参照画像記憶部120を含む。
The three-
反射面領域特定部112は、カメラ20により撮影されたフレームから、反射体50の第1反射面52および第2反射面54に対応する領域である反射面領域を特定する。反射面領域特定部112は、フレーム内から二カ所のマーカ56を検出し、それらの間に挟まれた領域を反射面領域と特定する。
The reflection surface
奥行定位部122は、反射面領域特定部112により特定された反射面領域から反射像を検出することで、オブジェクトの奥行方向の位置を特定する。具体的には、奥行定位部122は、複数のフレーム間で反射面領域同士を比較してその差分を検出する。あるフレームで反射面領域に反射像がなく、後続するフレームで反射面領域に反射像が映っていれば、オブジェクトがその反射面に対応する進入領域内に位置していると判定できる。
The
この判定を確実に実行するためには、第1反射面52および第2反射面54に映ったオブジェクトの反射像とそれ以外の画像とを明確に識別できる必要がある。したがって、一実施例では、三次元位置の特定処理を開始する前に、奥行定位部122が反射面領域のデフォルト画像を取得しておく。このデフォルト画像と任意のフレームの反射面領域との間に差分が検出されたときに、オブジェクトが進入領域内に位置すると判定するようにしてもよい。
In order to execute this determination with certainty, it is necessary to clearly distinguish the reflected image of the object reflected on the first reflecting
奥行定位部122は、第1反射面52、第2反射面54に対応する反射面領域について同様の処理をすることで、第1進入領域62、第2進入領域64のそれぞれにオブジェクトが進入したか否かを判定する。この判定の結果は、入力制御部130に送られる。
The
フレーム内定位部114は、オブジェクトのフレーム内位置を特定する。フレーム内定位部114は、オブジェクト検出部116を含む。オブジェクト検出部116は、画像反転部104から受け取ったフレームに対して、オブジェクトの参照画像(テンプレート)を用いた周知のパターンマッチングを実行して、オブジェクトのフレーム内位置を特定する。マッチングを実行する対象は、画像反転部104から受け取ったフレームそのものであってもよいし、反射面領域特定部112において特定された反射面領域をフレームから除いたものであってもよい。
The in-
参照画像記憶部120は、オブジェクトを特定するための参照画像を格納している。フレーム内位置を特定すべきオブジェクトについて予め準備しておいた参照画像を格納してもよいが、後述するように、特定すべきオブジェクトをカメラ20により撮影し、フレームからオブジェクトが存在するであろう領域を切り出して、それを参照画像として参照画像記憶部120に格納するようにしてもよい。前者の場合、例えばオブジェクトが手だとすると、数十人ないし数千人の手の画像の平均を取って作成された基準画像を格納しておいてもよいし、プレイヤーの年齢、性別、体格などに応じて分類された複数の参照画像を格納しておいてもよい。参照画像を用いたマッチング技術は、任意のものを使用できる。これらは当業者には周知であるからこれ以上詳細な説明を省略する。
The reference
フレーム内定位部114で特定されたオブジェクトのフレーム内位置の情報は、入力制御部130に与えられる。
Information on the in-frame position of the object specified by the in-
入力制御部130は、ゲームを初めとするアプリケーションを実行する図示しないアプリケーション実行部に対して、カメラ20により撮影されたフレームに対する画像処理によって得られた情報に基づく指示を与える。入力制御部130は、アクション特定部132、表示制御部134、画像記憶部136を含む。
The
アクション特定部132は、奥行定位部122による奥行位置の判定をもとに、第1進入領域62と第2進入領域64の間の奥行方向へのオブジェクト70の移動を検出して、プレイヤーのアクションを特定する。アクション特定部132は、奥行方向におけるオブジェクト70のカメラ20へ向かう移動と、カメラ20から離れる移動とを異なるプレイヤーのアクションとして特定してもよい。アクション特定部132は、特定したアクションを図示しないアプリケーション実行部と表示制御部134とに与える。アプリケーション実行部は、与えられたアクションを入力として受け取り、所定の機能を付与する。
The
表示制御部134は、カメラ20により撮影されたオブジェクトの直接像に重ね合わせて、所定の目的を達成するために表示すべき画像をディスプレイに表示させる。表示制御部134は、オブジェクトが第1反射面52に対応する第1進入領域62に位置するときと、第2反射面54に対応する第2進入領域64に位置するときで、異なる表示態様の画像を表示してもよい。表示制御部134は、オブジェクトの位置に応じた画像を画像記憶部136から検索して、オンスクリーン表示部144に出力する。
The
画像記憶部136は、オブジェクトの直接像に重ねて表示される上述の画像を記憶する。この画像の例には、ゲームに用いるキャラクタ、カーソルなどのポインタ、楽器や武器などの道具、星や太陽などのマーク、手や足などの身体の一部の画像、またはキーボードや電卓などの入力デバイスの画像がある。これらの画像は、ユーザからの入力を受け付けるためにOSが有している入力用画像でもよいし、実行中のアプリケーションソフトウェアから読み出されたアプリケーション画像であってもよい。表示制御部134によってオブジェクトのフレーム内位置に応じた異なる態様の画像を表示させるために、画像記憶部136は、複数の態様の画像を保持していてもよいし、ある画像を変化させるために必要となるデータを保持していてもよい。
The
オンスクリーン表示部144は、画像反転部104から得た鏡面画像に、表示制御部134から出力された画像をオンスクリーン表示させ、画像出力部34に送る。画像出力部34によって、プレイヤーの鏡面画像に重畳された画面がディスプレイ40に表示される。
The on-
画像連携音声制御部150は、三次元定位部110により検出されたオブジェクトの位置や、入力制御部130により検出されたプレイヤーのアクションに連携した音声を出力するように、音声出力部36を制御する。画像連携音声制御部150の具体的な構成は、実施の形態3および4において詳細に説明する。
The image linkage
配置指示部142は、カメラ20により撮影されたプレイヤーの画像とともに、反射体50を設置すべき位置をプレイヤーに指示する表示をディスプレイ40に映し出す。上述したように、反射体50は、オブジェクト70の反射像をカメラ20に撮影させなくてはならないので、反射体50を配置すべき位置はある一定の範囲に制限される。そこで、プレイヤーに反射体50を正しい位置に設置させるために、ディスプレイ40に例えば枠線を表示して、カメラ20により撮影された反射体50が枠線の内側に収まるように、反射体50の位置を調節してもらう。
The
配置確認部140は、カメラ20により撮影されたフレームを参照して、反射体50が適切な位置に設置されたか否かを確認する。具体的には、反射面領域特定部112により反射体50の両端にあるマーカ56のフレーム内位置が検出され、配置確認部140は、マーカ56の位置が配置指示部142の表示した枠線の内側にあるか否かを判定する。マーカが枠線の内側にあれば、反射体が適切に配置された旨の表示をディスプレイ40に表示させるとともに、配置指示部142に対して枠線の表示をやめるように指示する。マーカが枠線の内側に入らない限り、三次元定位部110による定位処理を開始しないように構成してもよい。
The
次に、図5ないし図8を参照して、本実施形態による三次元位置特定装置を利用したアプリケーションの一例を説明する。このアプリケーションは電卓であり、画面上に表示された電卓のキーの画像をプレイヤーがプッシュすることで、数字を入力できるものである。 Next, an example of an application using the three-dimensional position specifying device according to the present embodiment will be described with reference to FIGS. This application is a calculator that allows players to input numbers by pushing the calculator key image displayed on the screen.
図5(a)は、プレイヤー72の操作するオブジェクト70、すなわちプレイヤーの指が、反射体50の第1反射面52の上方に広がる第1進入領域62よりも手前側に位置する状態を示す。これは、画像処理装置30で実行されるアプリケーションが、プレイヤーの何らかのアクションを待機している状態である。図5(b)は、このときディスプレイ40に表示され、プレイヤーにより認識される画面44を示す。図示するように、プレイヤー72、オブジェクト70および反射体50の直接像が画面44に表示される。反射面領域特定部112は、フレームからマーカ56を検出することで、反射面領域50’を特定しておく。
FIG. 5A shows a state in which the
カメラ20および画像処理装置30がスイッチオンされ待機している状態のとき、反射面領域50’のデフォルト画像を記憶しておいてもよい。待機状態では、第1進入領域62および第2進入領域64の上方には背景以外何も存在しない。そこで、デフォルト画像を記憶しておくと、第1進入領域62および第2進入領域64にオブジェクトが進入したときの差分を容易に取ることができ、したがって反射面領域内でのオブジェクトの反射像の検出処理がロバストになる。
When the
従来のフレーム間の動き差分によるオブジェクトの検出方法では、オブジェクトが画面内で静止してしまうと差分がなくなり、何も認識できなくなってしまう。これに対し、本実施形態のように予めデフォルト画像を記憶しておくようにすると、オブジェクトが進入領域に進入した状態のままで静止した場合であっても、静止中も継続してデフォルト画像との差分を得ることができ、したがってオブジェクトの奥行位置を認識し続けることができる。 In the conventional method for detecting an object based on a difference in motion between frames, if the object stops on the screen, the difference disappears and nothing can be recognized. On the other hand, if the default image is stored in advance as in the present embodiment, even when the object is still in the state of entering the entry area, Therefore, the depth position of the object can be continuously recognized.
図6(a)は、プレイヤー72の操作するオブジェクト70が第1進入領域62に進入した状態を示す。図6(b)は、このときディスプレイ40に表示され、プレイヤーにより認識される画面44を示す。オブジェクト70が第1進入領域62に進入したことにより、画面44の第1反射面52に対応する領域に、オブジェクト70の反射像70aが映し出されている。奥行定位部122は、フレーム間で反射面領域の差分を取ることでこの反射像70aを検出する。
FIG. 6A shows a state where the
アクション特定部132は、オブジェクト70が進入領域62に進入したことを知ると、表示制御部134に指示して、電卓アプリケーションを実行するためのアプリケーション画像80をディスプレイ40に表示させる。アプリケーション画像80には、数字または記号を入力するための複数のキー領域が含まれる。アプリケーション画像80は、重畳されるプレイヤーの動作の視認が妨げられないように、線画や半透明であることが好ましいが、不透明の画像であってもよい。また、アクション特定部132は、図示しないアプリケーション実行部に対して、電卓アプリケーションを起動するように指示する。この後、フレーム内定位部114は、マッチングによりオブジェクト70のフレーム内位置を特定することで、オブジェクト70をトラッキングし続ける。図6(b)では、オブジェクト70は、アプリケーション画像80のうち「5」に相当するキーの位置にある。
When the
図7(a)は、第1進入領域62内、すなわち奥行方向に垂直な面内で、プレイヤー72がオブジェクト70を移動させた状態を示す。図7(b)は、このときディスプレイ40に表示され、プレイヤーにより認識される画面44を示す。図7(b)に示すように、プレイヤー72はオブジェクト70をアプリケーション画像80の「5」の位置から「1」の位置に移動させている。これに伴い、オブジェクトの反射像70aの反射面領域内での位置も変化している。しかしながら、オブジェクトが第1進入領域62にあることには変わりないので、アクション特定部132による指示は発生せず、したがってアプリケーション画像80の態様も変化しない。フレーム内定位部114は、アプリケーション画像80のいずれのキーにオブジェクト70があるかをトラッキングし続ける。
FIG. 7A shows a state in which the
図8(a)は、プレイヤー72の操作するオブジェクト70が、第1進入領域62を越えて第2進入領域64に進入した状態を示す。図8(b)は、このときディスプレイ40に表示され、プレイヤーにより認識される画面44を示す。図8(b)に示すように、オブジェクト70が第2進入領域64にまで進入したことで、反射面領域内の第1反射面52に相当する部分には、第1反射面52による反射像70bが、第2反射面54に相当する部分には、第2反射面54による反射像70aが、それぞれ表示されている。奥行定位部122は、フレーム間で反射面領域の差分を取ることで、この反射像70a、70bを検出する。
FIG. 8A shows a state in which the
アクション特定部132は、奥行定位部122からの情報に基づいて、オブジェクト70が第1進入領域62を越えて第2進入領域64にまで移動したことを認識し、オブジェクト70が奥行方向のカメラに向かう側に移動するアクションがプレイヤー72により実行されたと判定する。これにしたがい、アクション特定部132は、アプリケーション実行部に対して、現在オブジェクト70の存在するフレーム内位置に対応したアプリケーション画像80のキーが入力、すなわちプッシュされたことを伝える。これとともに、アクション特定部132は、表示制御部134に対して、現在オブジェクト70の存在するフレーム内位置に対応したアプリケーション画像80のキーの表示態様を変化させるように指令する。図8(b)の例では、オブジェクト70のフレーム内位置に対応するキー「1」の色が変化している(図中の80aを参照)。表示態様の変化は、色の変化のほか、キーの点滅や点灯、キーの押し込まれた態様などであってもよい。このようにして、プレイヤーはオブジェクトを操作することで電卓アプリケーションに数字を入力することができる。同様に、アプリケーション画像としてキーボードを表示し、ワードプロセッサの入力デバイスとして使用してもよい。
Based on the information from the
この後、プレイヤー72がオブジェクト70を第1進入領域62の位置にまで引き戻すと、アクション特定部132はこのアクションを検出し、アプリケーション画像80の「1」に対応するキーの選択を解除したものと判定する。アクション特定部132は、表示制御部134に対して、「1」に対応するキーの表示態様を元の状態に戻すように指令する。
Thereafter, when the
プレイヤー72がオブジェクト70を第1進入領域62よりさらに手前、すなわち図5(a)の状態に戻すと、アクション特定部132はこのアクションを検出し、プレイヤーが電卓アプリケーションの操作を停止したものと判定する。アクション特定部132は、アプリケーション実行部に対して電卓アプリケーションを停止するように伝えるとともに、表示制御部134に対してアプリケーション画像80を非表示にするよう指令する。こうして、再び図5(b)に示すような画面に復帰する。
When the
図9は、本実施形態による三次元位置特定装置10において、図5ないし図8で説明したアプリケーションを実行するフローチャートである。
FIG. 9 is a flowchart for executing the application described with reference to FIGS. 5 to 8 in the three-dimensional
反射体50を適正な位置に設置したのち、カメラ20によるオブジェクト70と反射体50の撮影がなされ、画像取得部102がオブジェクト70の直接像と反射像とを含むフレームを取得する(S10)。反射面領域特定部112は、画像反転部104から与えられたフレーム内でマーカ56を検出することで、反射面領域を特定する(S12)。奥行定位部122は、反射面領域内でフレーム間の差分を検出することで、オブジェクトの奥行方向の位置を特定する(S14)。アクション特定部132は、奥行定位部122からの情報にしたがって、オブジェクト70が第1進入領域62内に進入したか否かを判定する(S16)。オブジェクト70が第1進入領域62に進入しない限り(S16のN)、アプリケーションは実行されない。
After the
オブジェクト70が第1進入領域62に進入すると(S16のY)、アクション特定部132はアプリケーション実行部に対してアプリケーションを開始するように指示する。また、フレーム内定位部114は、マッチングによりオブジェクトのフレーム内位置を特定し、表示制御部134は、オブジェクトのフレーム内位置に所定のアプリケーション画像を重ね合わせて表示する(S18)。フレーム内定位部114は、オブジェクト70が第1進入領域62の内部にある限り、オブジェクトのトラッキングを続ける(S20)。また、奥行定位部122も、第1反射面52および第2反射面54に対応する反射面領域でのフレーム間の差分を検出し、オブジェクトの奥行方向の位置を特定する(S22)。
When the
アクション特定部132は、奥行定位部122からの情報にしたがって、オブジェクト70が第2進入領域64内に進入したか否かを判定する(S24)。オブジェクト70が第2進入領域64に進入しない限り(S24のN)、S18〜S22の処理が繰り返される。オブジェクト70が第2進入領域64に進入すると(S24のY)、アクション特定部132はアプリケーション画像80のキーがプッシュされたと判断し、その情報をアプリケーション実行部および表示制御部134に伝える。これに応じて、オブジェクト70のフレーム内位置に応じた処理がアプリケーションにより実行され、またアプリケーション画像80の表示態様が変化する(S26)。
The
以上説明したように、本実施形態では、予め定められた進入領域へのオブジェクトの進入を反射体による反射像を利用して検出することで、プレイヤーによるオブジェクトの押し込みや引き出しといった奥行方向のアクションを検出する。従来のようなフレーム間差分に基づいたオブジェクトの検出では、奥行方向すなわちカメラの光軸方向に沿ったオブジェクトの移動の検出は非常に困難であったが、本実施形態では、カメラの光軸と交わる方向からの反射像を利用するので、奥行方向のオブジェクトの移動を正確に検出することができる。 As described above, in this embodiment, by detecting the entry of an object into a predetermined entry area using a reflection image by a reflector, an action in the depth direction such as pushing and pulling out the object by the player is performed. To detect. In the conventional object detection based on the inter-frame difference, it is very difficult to detect the movement of the object along the depth direction, that is, the optical axis direction of the camera. Since the reflected image from the intersecting direction is used, the movement of the object in the depth direction can be accurately detected.
従来のように、オブジェクトの存在するフレーム内位置にキャラクタ等を表示させたり音声を出力するなどの何らかの機能を付与すると、プレイヤーがオブジェクトを動かしている間は常にキャラクタの表示や音声の出力が継続されてしまう。他の入力デバイスを併用しない限り、プレイヤーの意志にしたがってそれらの表示や音声をオフすることは困難であった。これに対し、本実施形態では、オブジェクト70を第1進入領域62と第2進入領域64との間で移動させることによって、特定のアプリケーションの機能のオン、オフや、画像の表示、非表示などの機能の切替を、オブジェクトの操作だけで容易に実現することができる。
If a function such as displaying a character or the like at the position in the frame where the object exists and outputting sound is added, the character display and sound output will always continue while the player moves the object. Will be. Unless other input devices were used together, it was difficult to turn off their display and sound according to the player's will. On the other hand, in this embodiment, by moving the
さらに、図5ないし図8を参照して説明したように、本実施形態ではプレイヤーのアクションに複数の意味を持たせることができる。つまり、オブジェクト70が第1進入領域62にある間、プレイヤー72によるオブジェクト70の操作は、アプリケーション画像80における「選択(セレクト)」操作に相当する。したがって、オブジェクトを移動させることで、アプリケーション画像80内でセレクトされるキーが移動する。そして、所望のキーをセレクトした状態で、プレイヤー72がオブジェクト70をさらに押し込む操作をすると、オブジェクト70が第2進入領域64に進入し、これにより「決定」操作を与えることができる。このように、本実施形態では、オブジェクトのストロークを検出できる点に特徴のひとつがある。
Furthermore, as described with reference to FIGS. 5 to 8, in the present embodiment, the player's action can have a plurality of meanings. That is, while the
このストロークを活用することで、様々なアプリケーションが考えられる。例えば、手をカメラに向けて押し込む動きをキャッチ、手をカメラから引き出す動きをリリースに対応させると、画面上に出現するキャラクタを手でキャッチしたり、リリースしたりするゲームを実現することができる。 Various applications can be considered by utilizing this stroke. For example, by catching the movement of pushing the hand toward the camera and making the movement of pulling the hand out of the camera corresponding to the release, it is possible to realize a game of catching or releasing the character appearing on the screen by the hand. .
また、手をカメラに向けて押し込む動きを特定の機能のオンに、手をカメラから引き出す動きを特定の機能のオフに対応させてもよい。これを利用して、例えばペイントソフトにおいて、手を押し込むと画面上に表示されるカーソルの形状が変わり、その状態で手を動かすと画面上に線を書くことが可能になり、また手を引き出すと、カーソルの形状が元に戻り、手を動かしても画面に線が書けなくなる、といった応用も可能である。従来の同様のアプリケーションでは、一旦オブジェクトが認識されると、手を動かすたびに線が書かれるような事態になってしまう。これに対し、本実施形態によればプレイヤーは簡単なアクションを通して機能のオンオフを容易に使い分けることができる。 Further, the movement of pushing the hand toward the camera may correspond to turning on a specific function, and the movement of pulling out the hand from the camera may correspond to turning off the specific function. Using this, for example, in paint software, when you push your hand, the shape of the cursor displayed on the screen changes, and if you move your hand in that state, you can draw a line on the screen and pull out your hand. It is also possible to apply such that the cursor shape returns to its original shape and lines cannot be drawn on the screen even if the hand is moved. In a conventional similar application, once an object is recognized, a line is written every time the hand is moved. On the other hand, according to the present embodiment, the player can easily use functions on and off through simple actions.
実施の形態1では、反射体50が二つの反射面52、54を備えることを述べたが、反射面の数はひとつでも、または三つ以上でもよい。反射面がひとつの場合、プレイヤーによるオブジェクトの押し込みや引き出しなどのアクションは特定できないが、少なくともその反射面に対応する進入領域内にオブジェクトが位置するか否かを特定することができる。反射面が三つ以上の場合でも、それぞれに対応して進入領域が設定され、奥行定位部122によって各進入領域にオブジェクトが進入したか否かを判定する点は上述したのと同様である。反射面の数を多くすることで、より複雑なプレイヤーのアクションを識別することが可能になり、したがってより多様な指示をアプリケーションに与えることが可能になる。
In the first embodiment, it has been described that the
実施の形態2.
実施の形態1では、オブジェクトのフレーム内位置に重ねて電卓のアプリケーション画像を表示することを述べたが、実施の形態2では、プレイヤーにより操作可能なキャラクタを表示する例を説明する。
In the first embodiment, it has been described that the application image of the calculator is displayed so as to overlap the position in the frame of the object. However, in the second embodiment, an example in which a character that can be operated by a player is displayed will be described.
図10(a)は、実施の形態2における三次元位置特定装置12の全体構成を示す。カメラ20、画像処理装置30、ディスプレイ40および反射体50の配置については、実施の形態1と同様である。図10(a)では、プレイヤーの操作するオブジェクト76はプレイヤーの手全体である。オブジェクト76が第1進入領域62に進入すると、上述の通り各機能ブロックによる処理がなされ、アクション特定部132がプレイヤーのアクションを特定する。
FIG. 10A shows the overall configuration of the three-dimensional
実施の形態2では、オブジェクト検出部116は、オブジェクト76とマッチングする参照画像として、手の平を開いた状態を表す参照画像と、手の平を閉じた状態を表す参照画像の二つを使用し、いずれかの参照画像とのマッチングを実行する。こうすることで、オブジェクト検出部116は、オブジェクトのフレーム内位置のみならず手の開閉を検出することができる。アクション特定部132は、表示制御部134に対して、手の平が開いた状態のときは、口を開いたキャラクタ画像をオブジェクトのフレーム内位置に表示し、手が閉じた状態のときは、口を閉じたキャラクタ画像をオブジェクトのフレーム内位置に表示するように指令する。
In the second embodiment, the
図10(b)は、図10(a)に状態に対応したキャラクタ画像82が表示された状態の画面44を示す。図10(a)においてオブジェクト76である手は閉じられているので、図10(b)では口を閉じたキャラクタ画像82がオブジェクト76に重ねて表示される。
FIG. 10B shows the
図11(a)に示すように、プレイヤー72が第1進入領域62内でオブジェクト76である手を開くと、オブジェクト検出部116により手を開いた状態が検出される。これに応じて、図11(b)に示すように、口を閉じたキャラクタ画像82がオブジェクト76に重ねて表示される。
As shown in FIG. 11A, when the
アクション特定部132は、音声出力部36に対して、キャラクタの口の変化に合わせて音声を出力させてもよい。例えば、口を閉じた状態のときは音声を発せず、口を開いたときに音声を発するようにしてもよい。これによって、プレイヤーが第1進入領域62内で手を開閉させることで、キャラクタをしゃべらせるアプリケーションを実現できる。
The
オブジェクト検出部116は、手を閉じた状態から手を開くまでの複数段階の参照画像を有しており、それらを用いたマッチングにより手の開き具合を検出するようにしてもよい。この場合、アクション特定部132は、手の開き具合に応じてキャラクタ画像の口の開度を変えるように表示制御部134に指示してもよい。また、アクション特定部132は、キャラクタの口の開度に応じて、音声の大きさ、音の高さ、声色を変えるよう音声出力部36に指示してもよい。この場合、図示しない音声データ格納部に複数の音声データを準備しておき、音声出力部36は、アクション特定部132からの指示に応じて適切な音声データを検索して出力する。
The
実施の形態2においても、第1進入領域62と第2進入領域64とを特定の機能のオンオフに利用してもよい。一例として、オブジェクト76が第1進入領域62に進入するとキャラクタ画像82の表示が開始され、オブジェクト76が第2進入領域64に位置するときにのみ、手の開閉に合わせて音声が発せられるようにしてもよい。オブジェクト76が第1進入領域62に位置するときにプレイヤー72がオブジェクト76である手を開閉させても、画面内のキャラクタ画像82の口は動作に合わせて開閉されるが音声は発せられない。
Also in the second embodiment, the
キャラクタ画像を重ね合わせるオブジェクトは、プレイヤー72の他の身体の一部、例えば口であってもよい。図12(a)、(b)はその様子を示す。カメラ20により撮影されたフレーム内で、オブジェクト検出部116がプレイヤーの唇78をマッチングにより検出してフレーム内位置を特定する。また、オブジェクト検出部116は、複数の参照画像を用いてマッチングを実行することで、口の開度を検出する。表示制御部134は、プレイヤーの唇に重ね合わせて、上唇および下唇の形状をしたキャラクタ画像84を表示する。表示制御部134は、開度に応じてキャラクタ画像84の上下唇間の間隔を変更する。
The object on which the character image is superimposed may be a part of the other body of the
アクション特定部132は、口の開閉タイミングに合わせて音声を出すように、音声出力部36に指令する。これを利用して、プレイヤーの声と異なる声、例えば動物の鳴き声、著名な人物の声などを、プレイヤーの口の動きに合わせて出力するようなアプリケーションを実現できる。
The
プレイヤーの鏡面画像と重ならない位置に別のキャラクタ画像を表示させて、このキャラクタが口を動かす様子をまねしてプレイヤーが口を動かすようなアプリケーションとしてもよい。キャラクタの口の動きに合わせることができると、キャラクタの声が出力されるようにしてもよい。 Another character image may be displayed at a position that does not overlap with the mirror image of the player, and the player may move the mouth by imitating how the character moves the mouth. If the movement of the mouth of the character can be matched, the voice of the character may be output.
図12の例では、一旦プレイヤーの口がオブジェクト検出部116により検出されると、それ以降プレイヤーが口を動かすたびに音声が出力されてしまう。そこで、反射体50を用いた奥行定位を利用して、プレイヤーの手や指などのオブジェクトが第1進入領域62または第2進入領域64に存在するときにのみ、音声が出力されるようにしてもよい。あるいは、上述したように、オブジェクトが第1進入領域62に進入するとプレイヤーの口に重ねたキャラクタ画像の表示が開始され、オブジェクトが第2進入領域64に進入すると、プレイヤーの口の動きに合わせた音声の出力が開始されるようにしてもよい。このように、本発明では、奥行位置の特定はマッチングによらず、フレーム間で反射面領域の差分を取ることによって行われるため、奥行定位に用いるオブジェクトと、マッチングによりフレーム内位置を特定するオブジェクトとが別々のものであってもよい。したがって、反射体を用いた奥行定位を、オブジェクトのマッチングを利用した特定の機能をオンオフするためのスイッチとしてのみ使用することができる。
In the example of FIG. 12, once the player's mouth is detected by the
実施の形態3.
実施の形態1および2では、二つの反射面を奥行方向に離間して配置した反射体50を用いてオブジェクトの三次元位置を特定する技術を説明した。実施の形態1および2では、オブジェクトのフレーム内位置を特定するために、参照画像を用いたマッチングを実行する。このため、参照画像記憶部120には、予めオブジェクトの参照画像を記憶させておく必要がある。参照画像を予め記憶させておいてもよいが、プレイヤーの身体の一部をオブジェクトとして用いる場合には、認識精度を高めるために、プレイヤー毎にオブジェクトの参照画像を取得することが望ましい。
Embodiment 3 FIG.
In the first and second embodiments, the technology for specifying the three-dimensional position of an object using the
そのため、従来技術では、アプリケーションの実行前に所定の画面を表示して、プレイヤーに対しオブジェクトをカメラにより撮影させる操作を促すことで、オブジェクトの参照画像を取得することが行われている。しかしながら、これはプレイヤーに無駄な動作をさせるばかりか、ゲームなどのアプリケーションを速やかに実行できないという問題がある。 Therefore, in the conventional technology, a reference screen of an object is acquired by displaying a predetermined screen before executing an application and prompting the player to perform an operation of photographing the object with a camera. However, this not only causes the player to perform useless operations, but also has a problem that applications such as games cannot be executed quickly.
そこで、実施の形態3では、事前にオブジェクトの参照画像を保持することなく、オブジェクトの三次元定位と同一の構成を用いてオブジェクトの参照画像を取得する技術について説明する。これによって、プレイヤーはカメラ、ディスプレイ、反射体の設置後に速やかにアプリケーションの実行に移ることができる。
実施の形態1および2で用いた、奥行方向に離間して配置された二枚の反射面を備える反射体の代わりに、実施の形態3では、それぞれの面の法線がオブジェクトの存在する側で交差するように角度を付けられオブジェクトを同時に反射する第1反射面と第2反射面とを備える反射体を用いる点が異なる。
Therefore, in the third embodiment, a technique for acquiring a reference image of an object using the same configuration as the three-dimensional localization of the object without holding the reference image of the object in advance will be described. This allows the player to quickly execute the application after installing the camera, display, and reflector.
Instead of the reflector having two reflecting surfaces arranged in the depth direction apart from each other used in the first and second embodiments, in the third embodiment, the normal of each surface is the side where the object exists. The difference is that a reflector having a first reflecting surface and a second reflecting surface that are angled so as to intersect each other and simultaneously reflect an object is used.
図13は、実施の形態3に係る三次元位置特定装置14を示す。図14は、図13に示す状態で、ディスプレイ40に表示されプレイヤーから認識される画面44を示す。図15は、反射体170の奥行方向すなわちz方向に垂直な平面の断面図である。
FIG. 13 shows a three-dimensional
図13中、カメラ20、画像処理装置30およびディスプレイ40の基本的な機能および配置については、図1で説明したのと同様である。三次元位置特定装置14では、反射体170の構成が実施の形態1と異なる。反射体170は、第1反射面172と第2反射面174を有する。図15に示すように、第1反射面172と第2反射面174は、それぞれの面の法線172d、174dがオブジェクトの存在する側で交差するように角度を付けられ、オブジェクトの二つの反射像を同時にカメラ20に向けて反射するように配置される。
In FIG. 13, the basic functions and arrangement of the
図14に示すように、第1反射面172と第2反射面174は、奥行方向に並べられた複数の短冊状の反射面178a〜178dで構成される。図14では、ひとつの反射面が4つの短冊状反射面で構成されている。反射体170の長軸方向の両端には、反射体50と同じように識別用のマーカ176も設けられる。
As shown in FIG. 14, the first reflecting
第1反射面172および第2反射面174は、反射体50と同じく鏡や鏡面加工を施した金属、プラスチック、金属を蒸着させたガラスなどで構成されてもよいが、微小なプリズムを平面的に配置してなる平面上のマイクロプリズムミラーで構成されることが好ましい。反射面をマイクロプリズムミラーで構成することで、反射体170の厚みを抑えることができ、設置が容易で省スペースとなる。
なお、図13および図15では、反射の方向を分かりやすくするために第1反射面172、第2反射面174、および短冊状反射面178a〜178dに角度を付けて描いたが、実際にはマイクロプリズムミラーはほぼ平面でもこのような反射角を付けることができる点に注意されたい。
The first reflecting
In FIGS. 13 and 15, the first reflecting
第1反射面172と第2反射面174とを角度を付けて配置させたために、図14に示すように、カメラ20から出力されるフレームには、第1反射面172によるオブジェクトの反射像70cと、第2反射面174によるオブジェクトの反射像70dの二つが現れることになる。つまり、オブジェクト70が複数のカメラによりステレオ撮影されたのと同様の状態になる。したがって、周知のステレオ撮影の技術を用いて、二つの反射像70c、70dからオブジェクト70の三次元位置を特定することが可能である。
Since the first reflecting
図16は、実施の形態2における画像処理装置30の構成を示す。画像取得部102、画像反転部104、配置確認部140、配置指示部142およびオンスクリーン表示部144の機能については、図4と同様であるので説明を省略する。
FIG. 16 shows a configuration of the
反射面領域特定部112は、画像反転部104から受け取ったフレーム内で、マーカ176の位置をもとに反射面領域を特定する。
The reflecting surface
フレーム内定位部114は、オブジェクト検出部116に加えてステレオ画像解析部118を含む。ステレオ画像解析部118は、反射面領域特定部112で特定された反射面領域における二つの反射像70c、70dを用いて、既知の技術にしたがってオブジェクト70のフレーム内位置を特定する。反射像70c、70dが反射された位置と、反射像70c、70dの大きさの違いから、オブジェクト70のフレーム内位置を大まかに決定することができる。
The in-
参照画像記憶部120は、ステレオ画像解析部118により特定されたオブジェクト70のフレーム内位置を中心とする所定範囲の画像をフレームから切り出し、参照画像として記憶する。図15に示すように、オブジェクト70は、フレーム内で、オブジェクト70の二つの反射像がある場所から伸ばした第1反射面172および第2反射面174の法線が交わる位置付近にあるはずである。そこで、図15の円180に相当するフレーム内の領域を切り出すことで、オブジェクトの参照画像を取得することができる。
The reference
反射像のステレオ画像により決定されるオブジェクトのフレーム内位置の精度はさほど高くないが、検出対象のオブジェクトより広い範囲の画像を切り出すことによって、この精度の低さをカバーすることができる。参照画像を切り出す範囲の大きさは、実験を通じて適正値を定めればよい。ステレオ画像解析部118は、この所定範囲の画像を参照画像として参照画像記憶部120に記憶する。
Although the accuracy of the position of the object in the frame determined by the stereo image of the reflected image is not so high, the low accuracy can be covered by cutting out an image in a wider range than the object to be detected. The size of the range for cutting out the reference image may be set to an appropriate value through experiments. The stereo
これら一連の処理が終わると、オブジェクト検出部116は、参照画像記憶部120内の参照画像を使用して、オブジェクト70のフレーム内定位およびトラッキングを実行できるようになる。
When these series of processes are completed, the
奥行定位部122は、複数の短冊状反射面178a〜178dのうち、いずれの反射面にオブジェクト70の反射像70c、70dが反射しているかをフレーム間の差分に基づいて検出することによって、オブジェクト70の奥行方向の位置を特定することができる。
The
図17は、実施の形態3において、図5ないし図8で示したのと同様の電卓アプリケーションを実行する手順を示すフローチャートである。 FIG. 17 is a flowchart showing a procedure for executing a calculator application similar to that shown in FIGS. 5 to 8 in the third embodiment.
反射体170を適正な位置に設置したのち、カメラ20によるオブジェクト70と反射体170の撮影がなされ、画像取得部102がオブジェクト70の直接像と反射像とを含むフレームを取得する(S40)。反射面領域特定部112は、画像反転部104から与えられたフレーム内でマーカ176を検出することで、反射面領域を特定する(S42)。反射面領域特定部112は、オブジェクト70の反射像との差分を取るためのデフォルト画像として、オブジェクト70が進入領域182に進入してくる前に、反射面領域の画像を取得しておいてもよい。奥行定位部122は、反射面領域内でフレーム間の差分を検出することで、進入領域182内にオブジェクトが進入したことを検知する。これに応じて、ステレオ画像解析部118は、反射面領域特定部112で特定された反射面領域に映し出されている二つのオブジェクトの反射像70c、70dに基づいて、オブジェクト70のフレーム内での大まかな位置を特定する(S44)。ステレオ画像解析部118は、特定したフレーム内位置を中心とする所定範囲180内の画像を、マッチングに用いるための参照画像としてフレームから切り出し、参照画像記憶部120に格納する(S46)。これ以降は、図9のS14以降と同様であり、フレーム内定位部114は、参照画像記憶部120に格納された参照画像を使用してオブジェクトのフレーム内位置を特定し、奥行定位部122は、反射面領域内でフレーム間の差分を検出することで、オブジェクトの奥行方向の位置を特定する。
After the
ステレオ画像解析部118によるオブジェクトのフレーム内位置の特定が正確に行えなかった場合、参照画像の切り出しが不適切になり、オブジェクト検出部116のマッチングによるオブジェクトの検出ができないことになる。この場合、プレイヤーに対して再度オブジェクトの切り出しを実行することを通知してもよい。
If the stereo
以上説明したように、実施の形態3によれば、オブジェクトの存在する側でそれぞれの法線が交わるように角度を付けた第1反射面と第2反射面とを備える反射体を用いることで、オブジェクトの反射像のステレオ画像を取得する。反射面領域における背景のデフォルト画像とオブジェクトが進入したときの画像との差分を検出することで、参照画像を切り出すためのオブジェクトのステレオ画像を取得するタイミングを計ることができる。また、デフォルト画像を記憶しておくことで、差分検出のロバスト性も高くなる。ステレオ画像を解析することで、オブジェクトのマッチングを実行しなくてもオブジェクトのフレーム内の大まかの位置を特定できるため、その部分を参照画像として取り出すことができる。 As described above, according to the third embodiment, by using a reflector including a first reflection surface and a second reflection surface that are angled so that their normals intersect on the side where the object exists. Obtain a stereo image of the reflected image of the object. By detecting the difference between the default image of the background in the reflection surface area and the image when the object enters, the timing for acquiring the stereo image of the object for cutting out the reference image can be measured. In addition, by storing the default image, the robustness of the difference detection is increased. By analyzing the stereo image, it is possible to specify a rough position in the frame of the object without executing matching of the object, so that the portion can be taken out as a reference image.
このように、参照画像を切り出す段階で、プレイヤーによる参照画像を記憶させる動作を省略されるので、迅速なアプリケーションの開始に寄与する。言い換えると、プレイヤーに特定の動作を強制することがなく、参照画像を取得する手順をプレイヤーから見えなくしている。参照画像を切り出した後は、マッチングによりオブジェクトのフレーム内位置を高精度に検出する。このように、迅速なアプリケーションの開始と、マッチングによる位置精度の高さとを両立させた点が、実施の形態3の特徴のひとつである。 Thus, since the operation of storing the reference image by the player is omitted at the stage of cutting out the reference image, it contributes to the quick start of the application. In other words, the player is not forced to perform a specific action, and the procedure for acquiring the reference image is hidden from the player. After the reference image is cut out, the position of the object in the frame is detected with high accuracy by matching. As described above, one of the features of the third embodiment is that both the rapid start of the application and the high position accuracy by matching are achieved.
上述の反射体170を使用すれば、カメラで撮影されたフレーム内にオブジェクトの直接像がなくても反射像のみでオブジェクトの三次元位置を特定することができる。しかしながら、実施の形態3では、フレーム内定位の精度を高めるために、参照画像の切り出しに成功した後は、参照画像を用いたマッチングによりオブジェクトのフレーム内位置を特定している。
If the above-described
反射体170の短冊状反射面の数を増やして、奥行方向のオブジェクト移動の検出精度を高めることで、より複雑なアプリケーションを実現できる。一例として、バーチャル手術が考えられる。液晶立体ディスプレイに手術部位の三次元画像を表示させ、プレイヤーはメスなどの手術用具の代わりに棒状のオブジェクトを手で持って操作する。三次元定位部110によってオブジェクトの三次元位置を特定し、その位置に応じて、液晶立体ディスプレイに表示される手術部位の三次元画像を変化させる。一例として、オブジェクトをある方向に動かしたときに手術部位が切開されるといった画像を表示する。このとき、オブジェクトの複数箇所にLEDを搭載しておき、オブジェクトを移動させたときのLEDの軌跡をフレーム内で検出して、オブジェクトの動きベクトルを求めてもよい。こうすることで、後述する実施の形態4を利用して、オブジェクトの動きと同期させて所定の効果音をスピーカから出力させることも可能である。
By increasing the number of strip-like reflecting surfaces of the
反射面としてマイクロプリズムミラーを用いれば、鏡の凹凸面の曲率を制御することで、画角を調節できる。したがって、オブジェクトの進入を判定するための進入領域は、図13で示したような反射面の垂直上方に限られず、扇状に広げることもできるし、逆に狭めることも可能である。進入領域を広げれば、位置精度は低下するものの、オブジェクトの奥行方向の移動を検出可能な範囲を広くすることができる。 If a microprism mirror is used as the reflecting surface, the angle of view can be adjusted by controlling the curvature of the uneven surface of the mirror. Therefore, the entry area for determining the entry of the object is not limited to the vertically upper side of the reflecting surface as shown in FIG. 13, and can be widened in a fan shape or conversely narrowed. If the approach area is widened, the position accuracy can be lowered, but the range in which the movement of the object in the depth direction can be detected can be widened.
実施の形態4.
実施の形態1ないし3において、反射体を用いてプレイヤーにより操作されたオブジェクトの三次元位置を特定し、これによってアクションを特定してアプリケーションの機能を働かせることを述べた。これらは、いずれも画面に表示されたアプリケーション画像の表示態様を変化させることで、アクションが認識され特定の機能が有効または無効になったことをプレイヤーに知らしめることができる。
Embodiment 4 FIG.
In Embodiments 1 to 3, it has been described that the three-dimensional position of the object operated by the player is specified using the reflector, and the action of the application is specified by using this to operate the function of the application. In any of these, by changing the display mode of the application image displayed on the screen, it is possible to notify the player that the action is recognized and the specific function is enabled or disabled.
しかしながら、ディスプレイ内のアプリケーション画像の表示態様の変化を通した視覚的通知のみならず、アクションに応じた音声をスピーカから出力すれば、プレイヤーに対し聴覚的にも知らせることができ有利である。この場合、オブジェクトの画像による認識後に音声を出力すると、視覚を通じたプレイヤーの認識とプレイヤーが音声を聞くタイミングとがずれてしまうことが起こり得、プレイヤーに対して違和感を与えてしまう恐れがある。そこで、実施の形態4では、画像処理によってオブジェクトの速度ベクトルを検出し、オブジェクトが仮想的なまたは現実の接触面に到達するまでの予想移動時間を算出し、オブジェクトが接触面に到達する前に音声の出力を実行する技術について説明する。 However, not only a visual notification through a change in the display mode of the application image in the display but also a sound according to the action is output from the speaker, it is advantageous that the player can be notified audibly. In this case, if the sound is output after the recognition of the object image, the recognition of the player through vision and the timing at which the player listens to the sound may be shifted, which may give the player a sense of incongruity. Therefore, in the fourth embodiment, the velocity vector of the object is detected by image processing, the expected movement time until the object reaches the virtual or real contact surface is calculated, and before the object reaches the contact surface, A technique for executing audio output will be described.
図18は、実施の形態4に係る三次元位置特定装置16の構成を示す。図中、カメラ20、画像処理装置30、ディスプレイ40および反射体170は、図13に示したものと同様である。ここでは、図5ないし図8を参照して説明した電卓アプリケーションを考えるものとする。
FIG. 18 shows a configuration of the three-dimensional
プレイヤー72がオブジェクト70を操作する。奥行定位部122は、オブジェクト70が短冊状反射面178dに対応する進入領域に進入したことを検出し、アクション特定部132がオブジェクト70のカメラ方向への移動を特定して、アプリケーション実行部および表示制御部134にその旨を伝える。これによって、上述したように、アプリケーション画像のセレクトされた領域の表示態様が変化し、電卓アプリケーションにセレクト領域に対応する数字が入力される。
The
実施の形態4では、このアプリケーション画像の表示態様の変化とともに、所定の効果音をスピーカ42から出力させる。プレイヤー72は、アプリケーション画像の表示態様の変化とともに音声を聞くことで、オブジェクトを介してアプリケーションを操作している感覚をより強く持つことができる。また、図18に示す、短冊状反射面178dに対応する部分に仮想的な接触面(想定接触面)Wが存在していることを意識させることができる。
In the fourth embodiment, a predetermined sound effect is output from the
図19は、実施の形態4に係る画像処理装置30内の画像連携音声制御部150の構成を示す。これら機能ブロックも、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組合せにより実現できることは明らかである。以下、図18をともに参照して、各機能ブロックについて説明する。
FIG. 19 shows a configuration of the image linkage
速度ベクトル算出部160は、カメラ20により撮影されたフレームを使用して、プレイヤー72の操作するオブジェクト70が想定接触面Wに向かう動作の速度ベクトルを計算する。具体的には、複数のフレーム間での反射像の差分に基づいてオブジェクトの速度ベクトルを算出する。奥行定位部122により短冊状反射面178aに対応する進入領域にオブジェクト70が進入したと判定されたフレームと、短冊状反射面178bまたは178cに対応する進入領域にオブジェクトが進入したと判定されたフレーム間の時間差tfを、カメラ20のフレームレートを参照して計算する。また、短冊状反射面178aと、短冊状反射面178bまたは178cの間の距離をlsとすると、速度ベクトル算出部160は、オブジェクトの70の奥行方向すなわちz方向の速度vをv=ls/tfにより算出する。
The velocity
移動時間算出部156は、速度vと、オブジェクトと想定接触面Wの距離liとを用いて、オブジェクト70が想定接触面Wに到達するまでの移動時間tm=li/vを算出する。
The movement
遅延時間取得部154は、プレイヤーから離間して配置されたスピーカ42から発せられた音声がプレイヤー72に到達するまでの遅延時間tdを取得する。実際には、スピーカ42からプレイヤー72までの正確な距離Lはプレイヤーによって異なるため不明であるが、反射体170を配置すべき位置は決められているため、実用的には距離Lは定数で問題ない。音速Vsも定数とすれば、遅延時間tdは定数で与えられる。この場合、遅延時間取得部154は、定数であるtdを取ってくればよい。別の実施例では、スピーカ42とプレイヤー72の間の距離Lをプレイヤーにより入力させるようにしてもよい。この場合、遅延時間取得部154は、td=L/Vsにより遅延時間tdを計算する。
The delay
音声同期部158は、移動時間tmおよび遅延時間tdを参照してプレイヤーのアクションと同期した音声をスピーカ42から出力させる。具体的には、音声同期部158は、速度vを算出するのに用いたフレームの撮影時刻を起点として、移動時間tmから遅延時間tdを減じた時間の経過後に、所定の音声を出力させる。これにより、オブジェクトが想定接触面Wに到達するのと実質的に同時に、プレイヤーはスピーカ42から発せられた音声を聴取することになる。
The
上述の例では、ディスプレイに表示されたアプリケーション画像の表示態様の変化に合わせて音声を出力することとしたが、アプリケーション画像を用いず、仮想的な接触面の存在を音声による出力だけでプレイヤーに認識させることもできる。 In the above example, the sound is output in accordance with the change in the display mode of the application image displayed on the display. However, the application image is not used, and the presence of the virtual contact surface is simply output to the player by the sound. It can also be recognized.
なお、想定接触面が実在の面である場合、出力される音声は、オブジェクトと面とが接触することで実際に発生する音とは全く異なるタイプの音声であってもよい。 When the assumed contact surface is a real surface, the output sound may be a type of sound that is completely different from the sound actually generated when the object and the surface come into contact with each other.
以上説明したように、実施の形態4によれば、オブジェクトが仮想的なまたは実在の接触面に到達する前に、オブジェクトが接触面に到達する時間を算出し、音声の遅延を考慮して音声を先出しする。これによって、アクションが認識されたことを視覚と聴覚の両方を通じてプレイヤーに知らしめることができる。 As described above, according to the fourth embodiment, the time for the object to reach the contact surface is calculated before the object reaches the virtual or real contact surface, and the sound is considered in consideration of the audio delay. To advance. Thereby, it is possible to inform the player that the action has been recognized through both visual and auditory senses.
なお、スピーカとプレイヤーの間の距離における音声の遅延は、実用的には問題にはならないので、特にオブジェクトの移動速度が比較的遅い場合には、音声同期部158は、遅延時間取得部154による遅延時間tdを考慮しなくてもよい。この場合、音声同期部158は、アクション特定部132によりプレイヤーの何らかのアクション、例えば選択のアクションを特定したときに、それに対応するクリック音や効果音をスピーカ42から出力させる。また、ゲーム性を高めるために、音声同期部158は、計測した移動時間よりも早いタイミングで音声を出力してもよい。
Note that the audio delay at the distance between the speaker and the player is not a problem in practice, so that the
このように、プレイヤーアクションの検出にあわせて音声を出力することで、プレイヤーの体感性を高めることができる。つまり、ある進入領域へオブジェクトを出し入れするのに合わせて適当な効果音を出力することで、その進入領域へのオブジェクトの進入が検知され、他の領域とは異なる意味を有していることをプレイヤーに知らしめることができる。また、プレイヤーが自らオブジェクトによるアプリケーションの操作方法を試行錯誤するときに、適切な領域にオブジェクトが存在するときに音声を出力してやることで、自ら操作方法を学習するように導くことが可能である。 In this way, by outputting sound in accordance with the detection of the player action, it is possible to enhance the player's sensibility. In other words, by outputting an appropriate sound effect as an object is moved in and out of a certain entry area, the entry of the object into that entry area is detected and has a different meaning from the other areas. You can let the player know. In addition, when the player performs trial and error on the operation method of the application by the object, it is possible to guide the user to learn the operation method by outputting a sound when the object exists in an appropriate area.
図12に示したアプリケーションにおいて、速度ベクトル算出部160が複数フレーム間の口の差分情報を利用して、口の開閉速度を計算してもよい。そして、音声同期部158は、この開閉速度と遅延時間とを利用して、プレイヤーの口の開閉とスピーカから発せられる音声とが同期するように、音声の出力タイミングを調節してもよい。
In the application shown in FIG. 12, the speed
実施の形態5.
実施の形態4では、反射体の奥行方向の幅を利用してプレイヤーの操作するオブジェクトの奥行方向の速度ベクトルを算出することを述べた。実施の形態5では、反射体を使用せず、カメラにより撮影されたフレームのみからオブジェクトの速度ベクトルを推定する技術について説明する。但し、本実施形態では、オブジェクトの奥行方向の移動成分は検出できず、フレーム内での移動成分のみが対象になる。
Embodiment 5 FIG.
In the fourth embodiment, it is described that the velocity vector in the depth direction of the object operated by the player is calculated using the width in the depth direction of the reflector. In the fifth embodiment, a technique for estimating the velocity vector of an object from only a frame photographed by a camera without using a reflector will be described. However, in this embodiment, the moving component in the depth direction of the object cannot be detected, and only the moving component in the frame is targeted.
図20は、実施の形態5に係る三次元位置特定装置18の構成を示す。カメラ20、画像処理装置30およびディスプレイ40の配置については、上述の実施形態と同様である。実施の形態5では反射体を使用せず、代わりに、LED等の発光素子の付けられたオブジェクト74をプレイヤーが操作する。
FIG. 20 shows a configuration of the three-dimensional
図21は、カメラ20により撮影されたひとつのフレームから、オブジェクトの速度ベクトルを算出する方法の原理を説明する図である。CCD、CMOS等の画像センサは、素子に蓄えられた光量にしたがって信号を出力するが、素子の全体を走査するには一定の時間が必要である。より詳細に説明すると、画像センサの各画素は、素子の一番上の列からスタートして一番下の列まで一列ずつ移って採光され、その後蓄積された光量の読み出しが始まる。読み出しも採光と同じように一番上の列からスタートして、同じ速度で一番下の底まで一列ずつ進んで順に読み取られる。したがって、採光を開始する画素列と、読み出しを開始する画素列とで時間差のある情報が、一枚のフレームの中に含まれている。
FIG. 21 is a diagram for explaining the principle of a method for calculating the velocity vector of an object from one frame captured by the
例えばCMOSセンサでは、各列で採光開始時間の差があるため、対象物の動きが速いと先に読み出した画像上部と最後に読み出した画像下部で像が歪む(動体歪み)。CMOSは1ラインずつ順に読み出していくため、1画面を1/15秒で読めば、読み始めと読み終わりで1/15秒の差が出る。 For example, in a CMOS sensor, since there is a difference in the daylighting start time in each column, if the movement of the object is fast, the image is distorted at the top of the previously read image and the bottom of the last read image (moving body distortion). Since the CMOS reads out one line at a time, if one screen is read in 1/15 seconds, a difference of 1/15 seconds appears at the beginning and end of reading.
したがって、オブジェクトとして光を発するものを高速で移動させると、図21に示すように、フレーム内で光の動いた部分が軌跡75となって現れることがある。したがって、画像センサのうち最初の画素と最後の画素を走査するまでに要する時間が分かれば、この軌跡を作り出したオブジェクトの速度を算出することが可能である。
Therefore, when an object that emits light is moved at a high speed, a portion where the light has moved in the frame may appear as a
図22は、実施の形態5における画像連携音声制御部150の構成を示す。
FIG. 22 shows a configuration of the image linkage
採光時間取得部152は、カメラ20に採用されている画像センサ22の採光時間teを取得する。この情報は予め入力しておいてもよいし、カメラ20と通信して取得してもよい。
The daylighting
軌跡測定部164は、画像反転部104から軌跡75の残ったフレームを受け取り、その中に含まれている軌跡の長さpとその方向を測定する。速度ベクトル算出部160は、軌跡の長さpと採光時間teとを用いて、オブジェクトの速度v=p/teを算出する。
The
移動時間算出部156は、実施の形態4と同様に、算出された速度vと、オブジェクト74と想定接触面Wまでの距離liを用いて、オブジェクト74の想定接触面Wまでの移動時間tmを算出する。図21の例では、想定接触面Wはフレーム内に仮想的に設定されており、オブジェクト74と想定接触面Wまでの距離liは、フレームの解析により算出する。
Similarly to the fourth embodiment, the movement
遅延時間取得部154および音声同期部158については、実施の形態4と同様である。
The delay
図23は、実施の形態5において、画像に連携して音声を出力させる処理のフローチャートである。まず、LED等の発光素子を有するオブジェクト74を動作させる様子をカメラ20により撮影する(S60)。撮影されたフレームは、画像取得部102から画像連携音声制御部150内の軌跡測定部164に渡される。軌跡測定部164は、フレーム内でLEDにより生じた軌跡75を検出し、この軌跡の長さと方向を測定し、その結果を速度ベクトル算出部160に渡す(S62)。速度ベクトル算出部160は、軌跡の長さ、方向、および画像センサの採光時間とを使用して、オブジェクトの速度vを計算する(S64)。続いて、移動時間算出部156は、想定接触面Wまでの距離liと速度vとを用いて、オブジェクトの接触面への移動時間tmを算出する(S66)。音声同期部158は、速度ベクトルを算出するのに用いたフレームの撮影時刻を起点として、移動時間tmから遅延時間tdを減じることによって、音声の出力タイミングを算出する(S68)。そして、出力タイミングにしたがって音声出力部36から所定の音声を出力させる(S70)。これにより、オブジェクトが想定接触面Wに到達するのと実質的に同時に、プレイヤー72はスピーカ42から発せられた音声を聴取することになる。
FIG. 23 is a flowchart of processing for outputting sound in cooperation with an image in the fifth embodiment. First, the
以上説明したように、実施の形態5によれば、オブジェクトに発光体を付けて移動させた状態を撮影し、カメラの画像センサにおける採光時間と、画像センサから出力されたフレーム内での発光体の軌跡の情報を利用して、オブジェクトの速度を算出することができる。実施の形態5は、複数フレーム間の差分によらず単一のフレームにおける軌跡を測定することで、オブジェクトの速度情報を得られるという特徴がある。但し、オブジェクトに付けた発光体を光らせることと、その軌跡がフレームに残ることが前提となる。 As described above, according to the fifth embodiment, a state in which an object is moved by attaching a light emitter is photographed, the lighting time in the image sensor of the camera, and the light emitter in the frame output from the image sensor. The speed of the object can be calculated using the information of the trajectory. The fifth embodiment has a feature that the velocity information of the object can be obtained by measuring the trajectory in a single frame regardless of the difference between a plurality of frames. However, it is premised that the illuminant attached to the object is illuminated and that the locus remains in the frame.
以上、実施の形態をもとに本発明を説明した。これらの実施の形態は例示であり、各構成要素またはプロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。また、実施の形態で述べた構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 The present invention has been described above based on the embodiment. It is to be understood by those skilled in the art that these embodiments are exemplifications, and various modifications are possible for each component or combination of processes, and such modifications are also within the scope of the present invention. In addition, any combination of the constituent elements described in the embodiment and a representation of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium, and the like are also effective as an aspect of the present invention.
実施の形態では、プレイヤーおよびオブジェクトの鏡面画像をディスプレイに映し出すアプリケーションを説明したが、カメラにより撮影された動画は、ディスプレイに映し出されなくてもよい。 In the embodiment, the application that displays the mirror image of the player and the object on the display has been described. However, the moving image captured by the camera may not be displayed on the display.
上述の実施の形態で述べたようなアプリケーションを効果的に実行するために、十分に高いフレームレートで動画撮影のできるカメラ、そのような高フレームレートの処理が可能な計算能力および描画能力を有する画像処理装置、および高フレームレートで画像を表示できるディスプレイを組み合わせて用いることが望ましい。 In order to effectively execute the application as described in the above-described embodiment, a camera capable of shooting a video at a sufficiently high frame rate, and a calculation capability and a drawing capability capable of processing such a high frame rate are provided. It is desirable to use a combination of an image processing apparatus and a display capable of displaying an image at a high frame rate.
10 三次元位置特定装置、 20 カメラ、 22 画像センサ、 24 画像処理部、 30 画像処理装置、 34 画像出力部、 36 音声出力部、 40 ディスプレイ、 42 スピーカ、 50 反射体、 52 第1反射面、 54 第2反射面、 56 マーカ、 62 第1進入領域、 64 第2進入領域、 70 オブジェクト、 70a 反射像、 70b 反射像、 72 プレイヤー、 74 オブジェクト、 75 軌跡、 76 オブジェクト、 80〜84 アプリケーション画像、 110 三次元定位部、 112 反射面領域特定部、 114 フレーム内定位部、 120 参照画像記憶部、 122 奥行定位部、132 アクション特定部、 134 表示制御部、 150 画像連携音声制御部、 154 遅延時間取得部、 156 移動時間算出部、 158 音声同期部、 160 速度ベクトル算出部、 170 反射体、 172 第1反射面、 174 第2反射面、 176 マーカ、 180 切り出し領域、 182 進入領域。 10 three-dimensional position specifying device, 20 camera, 22 image sensor, 24 image processing unit, 30 image processing device, 34 image output unit, 36 audio output unit, 40 display, 42 speaker, 50 reflector, 52 first reflecting surface, 54 second reflective surface, 56 marker, 62 first entry area, 64 second entry area, 70 object, 70a reflected image, 70b reflected image, 72 player, 74 object, 75 locus, 76 object, 80-84 application image, 110 Three-dimensional localization unit, 112 Reflection surface area specifying unit, 114 In-frame localization unit, 120 Reference image storage unit, 122 Depth localization unit, 132 Action specifying unit, 134 Display control unit, 150 Image linkage audio control unit, 154 Delay time Acquisition part, 1 6 traveling time period calculation unit, 158 audio synchronization unit, 160 velocity-vector calculating unit, 170 reflector, 172 a first reflecting surface, 174 second reflecting surface, 176 markers, 180 cut-out region, 182 entry regions.
Claims (16)
前記オブジェクトを特定するための参照画像を格納する参照画像記憶部と、
前記オブジェクトが進入すると想定されている所定の進入領域の反射像を前記カメラに向けて投影し、前記オブジェクトの直接像と反射像とを前記カメラに撮影させる反射手段と、
前記カメラにより撮影されたフレームから、前記反射像に対応する部分である反射面領域を特定する反射面領域特定部と、
前記フレームに対して前記参照画像を用いたマッチングを実行して、前記オブジェクトのフレーム内での位置を特定するフレーム内定位部と、
前記反射面領域から前記反射像を検出して、前記カメラの光軸に沿った奥行方向での前記オブジェクトの位置を特定する奥行定位部と、
を備えることを特徴とするオブジェクトの三次元位置特定装置。 A camera that shoots an object operated by the player;
A reference image storage unit for storing a reference image for specifying the object;
Reflecting means for projecting a reflected image of a predetermined entry area assumed to be entered by the object toward the camera, and causing the camera to capture a direct image and a reflected image of the object;
A reflection surface region specifying unit for specifying a reflection surface region that is a portion corresponding to the reflection image from a frame photographed by the camera;
An in-frame localization unit that performs matching using the reference image for the frame and identifies the position of the object in the frame;
A depth localization unit that detects the reflected image from the reflective surface region and identifies the position of the object in the depth direction along the optical axis of the camera;
An apparatus for specifying a three-dimensional position of an object.
前記反射面領域特定部は、前記フレーム内から前記マーカを検出することで前記反射面領域を特定することを特徴とする請求項1または2に記載の三次元位置特定装置。 The reflecting means has a marker for notifying the reflecting surface area specifying unit of the position of the reflecting means,
The three-dimensional position specifying device according to claim 1, wherein the reflecting surface area specifying unit specifies the reflecting surface area by detecting the marker from within the frame.
前記フレーム内定位部は、前記二つの反射像を用いて前記オブジェクトのフレーム内での位置を特定し、
前記参照画像記憶部は、前記フレーム内定位部により特定された位置を中心とする所定範囲の画像を前記フレームから切り出して前記参照画像として記憶することを特徴とする請求項1または2に記載の三次元位置特定装置。 The reflection means has a first reflection surface and a second reflection surface that are angled so that the normals of the respective surfaces intersect on the side where the object exists and reflect the object at the same time. Arranged to project towards the camera,
The in-frame localization unit identifies the position of the object in the frame using the two reflected images,
The said reference image memory | storage part cuts out the image of the predetermined range centering on the position specified by the said in-frame localization part from the said frame, and memorize | stores it as the said reference image. 3D positioning device.
前記奥行定位部は、前記複数の進入領域内に前記オブジェクトが進入したか否かを判定し、
前記奥行定位部の判定をもとに前記奥行方向への前記オブジェクトの移動を検出してプレイヤーのアクションを特定するアクション特定部をさらに備えることを特徴とする請求項4に記載の三次元位置特定装置。 The reflecting means has a predetermined width in the depth direction, and a plurality of entry areas are set in the depth direction,
The depth localization unit determines whether the object has entered the plurality of entry areas,
5. The three-dimensional position specification according to claim 4, further comprising an action specifying unit that detects a movement of the object in the depth direction based on the determination of the depth localization unit and specifies a player's action. apparatus.
前記奥行定位部は、第1反射面または第2反射面にそれぞれ対応する進入領域に前記オブジェクトが位置するか否かを判定することを特徴とする請求項1または2に記載の三次元位置特定装置。 The reflection means has a first reflection surface and a second reflection surface that are arranged apart from each other in the depth direction, and is arranged so as to project reflected images of different entry areas onto the camera,
3. The three-dimensional position specification according to claim 1, wherein the depth localization unit determines whether or not the object is located in an entry area corresponding to the first reflection surface or the second reflection surface, respectively. apparatus.
前記表示制御部は、前記オブジェクトが前記第1反射面に対応する進入領域に位置するときと、前記第2反射面に対応する進入領域に位置するときで、異なる表示態様の前記画像を表示することを特徴とする請求項7に記載の三次元位置特定装置。 A display control unit for displaying on the display an image to be displayed in order to achieve a predetermined purpose, superimposed on a direct image of the object photographed by the camera;
The display control unit displays the images in different display modes depending on whether the object is located in an entry area corresponding to the first reflection surface and an entry area corresponding to the second reflection surface. The three-dimensional position specifying device according to claim 7.
それぞれのアクションに異なる機能を付与する入力制御部をさらに備えることを特徴とする請求項6または8に記載の三次元位置特定装置。 The action specifying unit specifies the movement of the object in the depth direction toward the camera and the movement away from the camera as a player action,
The three-dimensional position specifying apparatus according to claim 6, further comprising an input control unit that gives different functions to each action.
前記カメラにより撮影されたフレームを参照して、前記反射手段が配置すべき位置に配置されたか否かを確認する配置確認部と、
をさらに備えることを特徴とする請求項1ないし11のいずれかに記載の三次元位置特定装置。 An arrangement instructing unit that displays on the display a display instructing the player where to place the reflecting means together with the image of the player taken by the camera;
An arrangement confirmation unit that confirms whether or not the reflection means is arranged at a position to be arranged with reference to a frame photographed by the camera;
The three-dimensional position specifying device according to claim 1, further comprising:
プレイヤーから離間して配置されたスピーカから発せられた音声がプレイヤーに到達するまでの遅延時間を取得する遅延時間取得部と、
前記速度ベクトルおよび前記遅延時間を参照して前記プレイヤーのアクションと同期した音声をスピーカから出力させる音声出力部と、
をさらに備えることを特徴とする請求項1ないし12のいずれかに記載の三次元位置特定装置。 A velocity vector calculation unit that calculates a velocity vector of the object based on a difference between the reflected images between a plurality of frames;
A delay time acquisition unit for acquiring a delay time until a sound emitted from a speaker arranged away from the player reaches the player;
An audio output unit that outputs audio synchronized with the player's action with reference to the velocity vector and the delay time from a speaker;
The three-dimensional position specifying device according to claim 1, further comprising:
前記オブジェクトが進入すると想定されている所定の進入領域の反射像を前記カメラに向けて投影する反射手段と、
前記カメラにより撮影されたフレームから、前記反射像に対応する部分である反射面領域を特定する反射面領域特定部と、
前記反射面領域から前記反射像を検出して、前記カメラの光軸に沿った奥行方向で前記進入領域により画成される部分に前記オブジェクトが進入したか否かを判定する奥行定位部と、
を備えることを特徴とするオブジェクトの奥行位置特定装置。 A camera that shoots an object operated by the player;
Reflecting means for projecting a reflected image of a predetermined entry area assumed to be entered by the object toward the camera;
A reflection surface region specifying unit for specifying a reflection surface region that is a portion corresponding to the reflection image from a frame photographed by the camera;
A depth localization unit that detects the reflected image from the reflection surface region and determines whether the object has entered a portion defined by the entry region in a depth direction along the optical axis of the camera;
An apparatus for specifying a depth position of an object.
画像処理装置が、前記オブジェクトを特定するために予め準備された参照画像を用いたマッチングを前記カメラにより撮影されたフレームに対して実行して前記オブジェクトのフレーム内での位置を特定し、該フレームから前記反射像に対応する部分である反射面領域を特定し、該反射面領域から前記反射像を検出し、複数のフレーム間での前記反射像の差分から前記オブジェクトが所定の奥行位置にあるか否かを検出することを特徴とする奥行位置特定方法。 A direct image of the object operated by the player and a reflected image obtained by reflecting the object by the reflecting means arranged in a predetermined depth direction along the optical axis of the camera are photographed by the camera.
An image processing device performs matching using a reference image prepared in advance for specifying the object on a frame photographed by the camera, specifies the position of the object in the frame, and wherein identifying the reflective surface area is a portion corresponding to the reflected image, detects the reflected image from the reflective surface area, the depth position of the from the difference of the reflected image object Jo Tokoro between a plurality of frames from A depth position specifying method that detects whether or not there is a depth .
画像処理装置が、前記オブジェクトを特定するために予め準備された参照画像を用いたマッチングを前記カメラにより撮影されたフレームに対して実行して前記オブジェクトのフレーム内での位置を特定し、該フレームから前記反射像に対応する部分である反射面領域を特定し、該反射面領域から前記反射像を検出して、前記カメラの光軸に沿った奥行方向での前記オブジェクトの位置を特定することを特徴とするオブジェクトの三次元位置特定方法。 A reflecting means for projecting a reflected image of a predetermined entry area assumed to be entered by an object operated by a player toward the camera is arranged, and then the direct image of the object and the projected image are projected by the reflecting means. Take a reflection image with the camera ,
An image processing device performs matching using a reference image prepared in advance for specifying the object on a frame photographed by the camera, specifies the position of the object in the frame, and A reflection surface area corresponding to the reflection image is identified , the reflection image is detected from the reflection surface area , and the position of the object in the depth direction along the optical axis of the camera is identified. A method for specifying a three-dimensional position of an object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006186798A JP4409545B2 (en) | 2006-07-06 | 2006-07-06 | Three-dimensional position specifying device and method, depth position specifying device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006186798A JP4409545B2 (en) | 2006-07-06 | 2006-07-06 | Three-dimensional position specifying device and method, depth position specifying device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008012103A JP2008012103A (en) | 2008-01-24 |
JP4409545B2 true JP4409545B2 (en) | 2010-02-03 |
Family
ID=39069729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006186798A Active JP4409545B2 (en) | 2006-07-06 | 2006-07-06 | Three-dimensional position specifying device and method, depth position specifying device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4409545B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7323315B2 (en) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | Information processing device, information processing method and program |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4848001B2 (en) | 2008-12-18 | 2011-12-28 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
JP7495187B2 (en) * | 2019-12-13 | 2024-06-04 | 株式会社バンダイナムコエンターテインメント | Game system and program |
-
2006
- 2006-07-06 JP JP2006186798A patent/JP4409545B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7323315B2 (en) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2008012103A (en) | 2008-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4627052B2 (en) | Audio output method and apparatus linked to image | |
US8241122B2 (en) | Image processing method and input interface apparatus | |
JP4409545B2 (en) | Three-dimensional position specifying device and method, depth position specifying device | |
US6947029B2 (en) | Handwritten data input device and method, and authenticating device and method | |
JP5806469B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
US8823642B2 (en) | Methods and systems for controlling devices using gestures and related 3D sensor | |
TWI343208B (en) | ||
WO2019100756A1 (en) | Image acquisition method and apparatus, and electronic device | |
US8896626B2 (en) | Image capturing apparatus, image processing apparatus, control method thereof and program | |
JP5205187B2 (en) | Input system and input method | |
JP6684042B2 (en) | Electronics | |
JP2002213947A (en) | System for measuring position of target, and method therefor | |
JP2010134738A (en) | Terminal apparatus, display control method, and display control program | |
JP2007129480A (en) | Imaging device | |
JP2012090905A (en) | Data generating device and control method for the same, and program | |
JP2004312733A (en) | Device incorporating retina tracking and retina tracking system | |
JP6830829B2 (en) | Programs, display devices, display methods, broadcasting systems and broadcasting methods | |
US12014645B2 (en) | Virtual tutorials for musical instruments with finger tracking in augmented reality | |
JP2007025963A (en) | Device and program for measuring line of sight, and program for generating line of sight calibration data | |
JP2007122078A (en) | Musical sound controller | |
JP6836329B2 (en) | Performance device and performance support system | |
KR100715321B1 (en) | Method for juvenile story embodiment using the image processing | |
JP2017062347A (en) | Data processing device and program | |
KR20200079519A (en) | Game machine, game system, memory device having computer program stored therein, and control method | |
JP5318016B2 (en) | GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091110 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4409545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121120 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121120 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131120 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |