JP2012128557A - Subject position measuring apparatus, display system and subject position measuring method - Google Patents
Subject position measuring apparatus, display system and subject position measuring method Download PDFInfo
- Publication number
- JP2012128557A JP2012128557A JP2010278003A JP2010278003A JP2012128557A JP 2012128557 A JP2012128557 A JP 2012128557A JP 2010278003 A JP2010278003 A JP 2010278003A JP 2010278003 A JP2010278003 A JP 2010278003A JP 2012128557 A JP2012128557 A JP 2012128557A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- straight line
- image
- virtual
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、撮影被写体の一部分を球状体と見なして前記撮影被写体の前記一部分の位置を求める被写体位置計測装置、被写体位置計測装置を用いたディスプレイシステム、および被写体位置計測方法に関する。 The present invention relates to a subject position measuring device that obtains the position of a part of the photographed subject by regarding a part of the photographed subject as a spherical body, a display system using the subject position measuring device, and a subject position measuring method.
従来、カメラ等により撮影された動画上の被写体人物の頭部の位置を追跡する方法が種々提案されている。このような被写体人物の頭部の位置の追跡は、運動視差立体視ディスプレイにおいて、視聴者の運動視差に応じて仮想オブジェクトの見え方が変わるようにするために、有効に用いられ得る。運動視差とは、視聴者の視点の位置が変化することで変わる仮想オブジェクトの奥行きの見え方の変化量に関するものである。 Conventionally, various methods for tracking the position of the head of a subject person on a moving image taken by a camera or the like have been proposed. Such tracking of the position of the head of the subject person can be effectively used in a motion parallax stereoscopic display so that the appearance of the virtual object changes according to the motion parallax of the viewer. Motion parallax relates to the amount of change in the appearance of the depth of a virtual object that changes as the position of the viewer's viewpoint changes.
例えば、人物の頭部領域の追跡方法として、ポリゴンモデルを用いた3次元人物頭部追跡方法が知られている。当該方法では、具体的に、三次元ポリゴンモデルを撮影された2次元画像上に投影し、そのときの三次元ポリゴンモデルの色と奥行き情報を用いることにより、撮影された画像上の被写体人物の3次元位置と顔部の向きが推定される。
また、2台のカメラで撮影された画像の情報に基いて、自動的にリアルタイムで被写体人物の顔部を追跡し、その顔部の運動の計測をする他、被写体人物の顔部の特徴を、撮影された画像の情報から抽出し、その特徴を追跡するシステムも知られている。
For example, a three-dimensional human head tracking method using a polygon model is known as a tracking method of a human head region. Specifically, in this method, a three-dimensional polygon model is projected on a captured two-dimensional image, and the color and depth information of the three-dimensional polygon model at that time are used, so that the subject person on the captured image is displayed. The three-dimensional position and the face direction are estimated.
In addition to automatically tracking the face of the subject person in real time based on the information of the images taken by the two cameras and measuring the movement of the face part, Also known is a system that extracts information from a captured image and tracks its characteristics.
上述したような、カメラ等により撮影された動画上の被写体人物の頭部の位置を追跡する方法を、運動視差立体視ディスプレイにおいて用いる場合、被写体人物の頭部の中心位置の空間内の位置座標に基いて、仮想空間内での被写体人物の視点位置を定め、運動視差を考慮して仮想オブジェクトの映像を表示する。このとき、測定対象の頭部の中心位置を定める座標位置が揺らぐと、被写体人物が頭部を動かしていなくても仮想オブジェクトの表示映像が揺らいでしまう不都合が生じる場合がある。 When the method for tracking the position of the head of a subject person on a moving image taken by a camera or the like as described above is used in a motion parallax stereoscopic display, the position coordinates in the space of the center position of the head of the subject person Based on the above, the viewpoint position of the subject person in the virtual space is determined, and the video of the virtual object is displayed in consideration of motion parallax. At this time, if the coordinate position that defines the center position of the head to be measured fluctuates, there may be a problem that the display image of the virtual object fluctuates even if the subject person does not move the head.
上記ポリゴンモデルを用いた3次元人物頭部追跡方法や上記システムにおける被写体人物の顔部の追跡の処理は、一般に被写体人物の照明条件の微妙な揺らぎ等の影響を受けやすいため、測定対象の頭部が動いていなくても、頭部の座標位置が揺らぐ場合がある。
上記揺らぎを抑制するために、ローパスフィルタを用いることもできるが、頭部が実際に移動する場合、実際に移動する頭部に対して頭部の座標位置がリアルタイムで追従しなくなる場合がある。
The 3D human head tracking method using the polygon model and the process of tracking the face of the subject person in the system are generally susceptible to subtle fluctuations in the illumination conditions of the subject person, and therefore the head of the measurement target. Even if the part is not moving, the coordinate position of the head may fluctuate.
In order to suppress the fluctuation, a low-pass filter may be used. However, when the head actually moves, the coordinate position of the head may not follow the moving head in real time.
そこで、本発明は、撮影人物の頭部などの撮影被写体の一部分の位置を求める際、従来の方法とは異なる簡単な方式により、上記一部分の位置を安定して求めることができる被写体位置計測装置および被写体位置計測方法と、この被写体位置計測装置を利用したディスプレイシステムを提供することを目的とする。 Accordingly, the present invention provides a subject position measuring apparatus that can stably determine the position of a part of the subject such as the head of the photographed person by a simple method different from the conventional method. It is another object of the present invention to provide a subject position measuring method and a display system using the subject position measuring apparatus.
本発明の一態様は、撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置である。当該装置は、
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有する。
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備える。
One aspect of the present invention is a subject position measuring apparatus that obtains a position of a part of a photographing subject as a spherical body. The device is
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit that determines a position of the part of the photographed subject by regarding a part of the photographed subject as a spherical body from a plurality of images photographed by the camera.
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains the position of the point at which the straight lines are closest to each other as the center position of the part of the shooting subject in the shooting space.
また、本発明の他の一態様は、映像を表示するディスプレイシステムである。当該システムは、
前記被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備える。
Another embodiment of the present invention is a display system that displays video. The system
The subject position measuring device;
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A screen display device for displaying an image of the virtual object on the screen using the generated video signal.
さらに、本発明の他の一態様は、撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測方法である。当該方法では、
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める。
Furthermore, another aspect of the present invention is a subject position measuring method for obtaining a position of a part of a photographing subject as a spherical body. In this method,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A first imaginary straight line extending from each and contacting the part of the photographic subject is obtained for each of the contour images using the contact position information,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line The position of the point at which they are closest to each other is obtained as the center position of the part of the shooting subject in the shooting space.
上記態様の被写体位置計測装置および被写体位置計測方法によれば、撮影被写体の一部分の位置を求める際、安定して上記一部分の位置を求めることができる。このため、被写体位置計測装置および被写体位置計測方法を利用したディスプレイシステムによれば、仮想オブジェクトの表示映像が揺らいで視聴者に不快を与えることを防止することができる。 According to the subject position measuring apparatus and subject position measuring method of the above aspect, when obtaining the position of a part of the photographic subject, the position of the part can be obtained stably. For this reason, according to the display system using the subject position measuring device and the subject position measuring method, it is possible to prevent the display image of the virtual object from fluctuating and causing discomfort to the viewer.
以下、本発明の被写体位置計測装置、ディスプレイシステム、および被写体位置計測方法について説明する。 The subject position measuring apparatus, display system, and subject position measuring method of the present invention will be described below.
(ディスプレイシステム)
図1は、本実施形態のディスプレイシステム10の概略を説明する図である。図2(a)は、ディスプレイシステム10のブロック構成図であり、図2(b)は、ディスプレイシステム10の機能ブロック図である。
ディスプレイシステム10は、視聴者Vの運動視差により、表示しようとする仮想オブジェクトの見え方が変われるようにする運動視差立体視ディスプレイを含むシステムである。例えば、視聴者Vの視点が左上方にわずかに動いたとき、視聴者Vが左上方から仮想オブジェクトを見るように、ディスプレイシステム10は、視聴者Vの視点に応じて、表示する仮想オブジェクトの奥行きの見え方や陰影を修正して表示する。
(Display system)
FIG. 1 is a diagram illustrating an outline of a
The
ディスプレイシステム10は、一対のカメラ12a,12bと、データ処理装置14と、画面表示装置16と、を有する。
一対のカメラ12は、表示画像を見る視聴者Vをお互いに異なる方向から撮影するために、空間に固定されている。
データ処理装置14は、視聴者Vの頭部の位置に応じて、視聴者Vから見える表示対象の仮想オブジェクトの映像信号を生成する。
データ処理装置14は、図2(a)に示すように、CPU15aと、ROM15bと、RAM15cと、記憶部15dと、入出力部15eと、バス15fと、有するコンピュータによって形成される。CPU15a、ROM15b、RAM15c、記憶部15d、および入出力部15eはバス15fを介してお互いに接続されている。入出力部15eは、カメラ12a,12bと、画面表示装置16と、マウスおよびキーボードを備える図示されない入力操作系と接続されている。
The
The pair of cameras 12 are fixed in space in order to photograph the viewers V who are viewing the display image from different directions.
The
As shown in FIG. 2A, the
ROM15bは、コンピュータの起動によりCPU15aが各処理を実行するOSおよび制御ソフトウェアを記憶している。RAM15cは、後述する各種データ処理の結果を一時的に記憶する。記憶部15dは、データ処理装置14における後述するデータ処理を実行するプログラムを記憶する。また、記憶部15dは、後述する各種データ処理の結果を記憶する。なお、後述するデータ処理を実行するプログラムは、記憶部15dの代わりにROM15bに記憶されてもよい。CPU15aは、コンピュータの各部分の動作の制御と管理を行い、さらに、後述するデータ処理の制御と管理を行う。
The
上記コンピュータであるデータ処理装置14は記憶部15dに記憶されたプログラムを読み出して実行することにより、図2(b)に示すように、データ処理部14aと映像生成部14bを機能的に形成する。すなわち、データ処理部14aおよび映像生成部14bは、ソフトウェアモジュールであり、プログラムをCPU15aが実行することにより仮想的に形成される部分である。
The
データ処理部14aは、カメラ12a,12bで撮影された2方向からの画像から、視聴者Vの頭部を球状体と見なして視聴者Vの頭部の位置を求める。データ処理部14aは、視聴者Vの頭部の位置の情報を映像生成部14bに提供する。
映像生成部14bは、入力された仮想オブジェクトの映像信号に対して、視聴者Vの頭部の位置に応じて、視聴者Vから見える表示対象の仮想オブジェクトの映像信号を生成する。映像生成部14bに入力される映像信号には、例えば、仮想空間内における仮想オブジェクトの3次元座標で表されたデータの他に、仮想空間内で照射される照明光源の向き、照明光の光強度およびスペクトル分布等の情報も含まれる。すなわち、映像生成部14bは、入力された映像信号を用いて、視聴者Vの頭部の位置に応じて3次元データを2次元データに変換し、陰影処理を施すことで、2次元の仮想オブジェクトの映像信号を生成する。
画面表示装置16は、データ処理装置14で生成された2次元の映像信号を用いて仮想オブジェクトの像を画面表示する。
The
The
The
データ処理部14aは、後述するように、視聴者Vの頭部の位置を求める際、安定して頭部の位置を求めることができ、さらに、頭部が実際に移動しても、頭部の座標位置をリアルタイムに追従して求めることができる。したがって、画面表示装置16は、従来の装置のように、視聴者Vの頭部の座標位置が揺らぐことはないので、表示される仮想オブジェクトは揺らいで表示されることはなくなり、視聴者Vの頭部の移動に応じて仮想オブジェクトの像がリアルタイムで変化する。
As will be described later, the
(被写体位置計測装置)
本実施形態の被写体位置計測装置20は、図2(b)に示されるように、データ処理装置14の一部であり、ディスプレイシステム10に搭載されており、図中の点線で示されるように、一対のカメラ12a,12bと、データ処理部14aと、を有する。
カメラ12a,12bは、撮影被写体である視聴者Vをお互いに異なる2方向から撮影する。お互いに異なる2方向から視聴者Vを撮影するのは、視聴者Vの頭部の撮影空間内における位置を求めるためである。
データ処理部14aは、カメラ12a,12bで撮影された2つの画像から、撮影被写体である視聴者Vの頭部を球状体と見なして視聴者Vの頭部の位置を求める。
(Subject position measurement device)
As shown in FIG. 2B, the subject
The
The
図3は、データ処理部14aの構成を示す機能ブロック図である。
データ処理部14aは、上述したように、データ処理装置14であるコンピュータが記憶部15dに記憶されたプログラムを実行することにより機能的に形成されたソフトウェアモジュールである。データ処理部14aは、輪郭抽出部24と、仮想直線抽出部26と、位置算出部28と、を含む。すなわち、輪郭抽出部24、仮想直線抽出部26、および位置算出部28は、データ処理装置14においてプログラムを実行することによって形成されるソフトウェアモジュールである。輪郭抽出部24と、仮想直線抽出部26と、位置算出部28の一部は、ソフトウェアモジュールの代わりに、専用回路等を用いたハードウェアモジュールが用いられてもよい。
FIG. 3 is a functional block diagram showing the configuration of the
As described above, the
輪郭抽出部24は、カメラ12a,12bで撮影された2つの画像のそれぞれにおいて、画像中の視聴者Vの輪郭像を抽出する。輪郭抽出部24は、視聴者Vの輪郭像を抽出するとき、背景画像を用いる。この背景画像は、視聴者Vがカメラ12a,12bの撮影範囲内にいないときの画像がカメラ12a,12bで予め撮影されて、RAM15cあるいは記憶部15dに予め記憶されたものである。輪郭抽出部24は、カメラ12a,12bで撮影された視聴者Vの撮影された画像と、視聴者Vの撮影されていない背景画像との差分を求め、この差分画像を二値化することにより視聴者Vの輪郭像を抽出する。差分画像を所定の閾値を用いて二値化することにより、視聴者Vの輪郭像とそれ以外の像とを明確に区分けすることができる。視聴者Vの輪郭像は、カメラ12a,12bで撮影された視聴者Vの画像毎に抽出される。
The
具体的には、輪郭抽出部24は、視聴者Vの撮影された画像と背景画像における各画素における輝度データの差を求めることにより、輝度データの差分画像を求める。差分画像では、視聴者Vが映っている部分と視聴者Vが映っていない部分とでは画素値が大きく異なる。したがって、二値化した画像は、視聴者Vが映っている部分は例えば白い領域となり、視聴者Vが映っていない部分は例えば黒い領域となる。以降の説明では、視聴者Vが映っている部分は白い領域となり、視聴者Vが映っていない部分は黒い領域となる例で説明する。なお、二値化に用いる閾値は、撮影する照明条件に応じて調整することにより、視聴者V以外の背景画像の一部を輪郭像として誤抽出することを防止できる。抽出された視聴者Vの輪郭像は、ノイズ低減処理として、輪郭像の白領域を縮小した後、白領域を拡大する拡大・縮小処理を施してもよい。輪郭像の白領域を縮小する処理は、例えば、注目する画素が黒の画素と接している場合、注目する画素を強制的に黒の画素にする処理である。輪郭像の白領域を拡大する処理は、例えば、注目する画素が白の画素と接している場合、注目する画素を強制的に白の画素にする処理である。
Specifically, the
輪郭抽出部24は、輝度データを用いた差分画像を作成するが、輝度データの代わりに、色相データの差分を用いて、色相データの差分画像を求めてもよいし、輝度データと色相データの両方を用いた差分画像を求めてもよい。この場合、輝度データの差分画像から得られる輪郭像と、色相データの差分画像から得られる輪郭像との共通部分を、被写体Vの輪郭像として求めることができる。
本実施形態は、視聴者Vの輪郭像を、視聴者Vの有無の画像を用いて抽出するが、このほかの方法として、例えば、視聴者Vの頭部の位置を、目、鼻、口および髪の毛等に関する画像特徴量(色及び形状)を利用して抽出することにより、視聴者Vの輪郭像を抽出してもよい。
The
In this embodiment, the contour image of the viewer V is extracted using the image of the presence or absence of the viewer V. As another method, for example, the position of the head of the viewer V is determined by the eyes, nose, mouth. Further, the contour image of the viewer V may be extracted by extracting using image feature amounts (color and shape) related to hair and the like.
仮想直線抽出部26は、カメラ12a,12bで撮影された視聴者Vの2つの画像のそれぞれから抽出した輪郭像と、差分画像中の水平方向に延びて輪郭像の領域を探索する探索直線とが接する差分画像中の接点位置情報を求める。仮想直線抽出部26は、接点位置情報を、例えば、以下のようにして求める。
The virtual straight
図4は、輪郭像の接点位置情報の算出の一例を説明する図である。
図4には、輪郭像30が二値化された差分画像32内で抽出されている。また、差分画像32には、背景画像に対して照明条件の変化あるいはノイズ等によってできた、視聴者Vの輪郭像30以外の白い領域W1〜W4が存在する。
この状態で、仮想直線抽出部26は、図4中の上方から下方に(差分画像32中の鉛直方向に)移動しながら輪郭像30の領域を探索するために水平方向に延びた探索直線Lsを移動させる。これにより、仮想直線抽出部26は、探索直線Lsが輪郭像30と接する差分画像32中の接点位置情報を求める。具体的には、仮想直線抽出部26は、水平方向に延びる探索直線Lsが輪郭像30を横切るように、探索直線Lsを鉛直方向に1画素ずつ移動させることを繰り返し行う。このとき、仮想直線抽出部26は、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を、接点位置の座標位置を表す接点位置情報の一部(水平方向における情報)として求める。さらに、仮想直線抽出部26は、この平均値に対する探索直線Lsの鉛直方向の位置を接点位置情報の一部(鉛直方向における情報)として求める。
より具体的に説明すると、仮想直線抽出部26は、探索直線Lsを鉛直方向に1画素ずつ移動させることを繰り返し行い、探索直線Lsが視聴者Vの頭部と同じ二値化データの値、すなわち、同じ白い領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る繰り返し回数が所定の回数に達するとき、上記領域を、視聴者Vの頭部の領域と判定する。
探索直線Lsを用いて上記条件で判定が行われるのは、図4に示すように、視聴者Vの輪郭像30以外の白い領域W1〜W4が存在するとき、仮想直線抽出部26がこの領域W1〜W4を誤って視聴者Vの頭部の領域として判定しないためである。差分画像において、白い領域W1〜W4が、視聴者Vの頭部の領域と同様に、広い範囲を持つことは極めて少ない。このことから、仮想直線抽出部26は、探索直線Lsが連続して白い領域を横切る繰り返し回数が所定の回数に達することを頭部の判定の条件として用いる。したがって、判定に用いる上記所定の回数は、予め決定されるが、カメラ12a,12bの撮影倍率等の撮影条件によって変化することが好ましい。
FIG. 4 is a diagram illustrating an example of calculation of contact point position information of a contour image.
In FIG. 4, the
In this state, the virtual straight
More specifically, the virtual straight
As shown in FIG. 4, the determination is made using the search straight line L s under the above conditions when the white areas W 1 to W 4 other than the
仮想直線抽出部26は、上述したように、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を接点位置情報の水平方向における情報として求める。この接点位置情報は、探索直線Lsが図4中の上方から下方に1画素ずつ移動しながら、輪郭像30の最上部分と最初に接する点の位置とは厳密に異なる。しかし、輪郭像30の最上部分が、ノイズ等の影響により必ずしも実際の頭部の接点に対応するとはいえないことから、より安定しかつ正確な接点位置情報を求めるために、仮想直線抽出部26は上述の方法により得られた平均値を接点位置情報の水平方向における情報として求める。勿論、仮想直線抽出部26は、差分画像32にノイズが含まれていない場合、探索直線Lsが輪郭像30の最上部分と最初に接する点の水平方向における位置を、接点位置情報の水平方向における情報として定めてもよい。
As described above, the virtual straight
また、差分画像では、図4に示す画素が白い領域W1〜W4が頭部の領域と繋がることで実際の頭部の領域に比べて水平方向の幅が広がった領域が存在する場合がある。また、差分画像を作成するために用いる背景画像の影響を受けて実際の頭部の領域に比べて水平方向の幅が短くなった領域が存在する場合もある。これらの場合、これらの領域が、探索直線Lsの横切る輪郭像30の領域と判定され、接点位置情報として求める上記中心位置の平均値が不正確になる。このため、仮想直線抽出部26は、以下のような処理を行うことができる。すなわち、仮想直線抽出部26は、探索直線Lsが水平方向に所定の回数連続して輪郭像30を横切るとき、探索直線Lsが輪郭像30を横切る領域の水平方向の横断幅に関する平均値と標準偏差を求める。仮想直線抽出部26は、さらに、この領域のうち、水平方向の横断幅が平均値と標準偏差から求められる許容範囲内に含まれる領域に限定して、水平方向における中心位置の平均値を求める。仮想直線抽出部26は、求めた平均値を接点位置情報の水平方向における情報として定める。すなわち、仮想直線抽出部26は、水平方向の横断幅が平均値と標準偏差から求められる許容範囲内に含まれない領域を除外する。上記平均値をλとし、上記標準偏差をσとしたとき、上記許容範囲は、λ−c・σ〜λ+c・σ(cは、0.5〜1.5の範囲の与えられた定数)とする。あるいは、水平方向の幅が実際の幅に比べて広がった領域を除去する場合は、上記許容範囲は、λ+c・σ以下とする。
なお、本実施形態では、探索直線Lsは、差分画像において水平方向に延びて、鉛直方向に1画素ずつ移動するが、探索直線Lsは、差分画像において傾斜した方向に延びて、この傾斜した方向に直交する方向に移動してもよい。また、探索直線Lsは、1画素分に相当する距離ずつ移動するが、複数画素分に相当する距離ずつ、さらには、予め設定された距離ずつ移動してもよい。
Further, in the difference image, there may be a region in which the width shown in FIG. 4 is wider than the actual head region because the white regions W 1 to W 4 are connected to the head region. is there. Further, there may be a region where the horizontal width is shorter than the actual head region due to the influence of the background image used to create the difference image. In these cases, these areas are determined to be the areas of the
In the present embodiment, the search line L s extends in the horizontal direction in the difference image and moves one pixel at a time in the vertical direction, but the search line L s extends in the direction inclined in the difference image. You may move in the direction orthogonal to the direction. Further, the search straight line L s moves by a distance corresponding to one pixel, but may move by a distance corresponding to a plurality of pixels or by a preset distance.
さらに、仮想直線抽出部26は、求めた接点位置情報(水平方向および鉛直方向における位置情報)を用いて、視聴者Vを撮影した撮影空間内において、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部と接する第1仮想直線を、それぞれの輪郭像30について求める。カメラ12a,12bで撮影された画像内の点は、撮影された画像が歪んでいない場合、カメラ12a,12bそれぞれの撮影中心から延びる直線であるので、画像内の点は、3次元の撮影空間内においては、直線に変換される。このため、仮想直線抽出部26は、接点位置情報を用いて、上記第1仮想直線を簡単に求めることができる。
Further, the virtual straight
仮想直線抽出部26は、撮影された画像内の接点位置情報を用いて第1仮想直線を求めるとき、撮影空間内の正確な第1仮想直線を求めるために、キャリブレーションを行う。具体的には、仮想直線抽出部26は、接点位置情報から第1仮想直線を求めるとき、カメラ12a,12bの撮影レンズに起因する歪曲収差やカメラ12a,12bの撮影位置や撮影倍率等の情報を正確に反映した補正を行う。より、具体的には、仮想直線抽出部26は、例えば、周知のZhangのアルゴリズムを用いてキャリブレーションすることにより、画像内の接点位置情報から第1仮想直線を求める。Zhangのアルゴリズムは、http://research.microsoft.com/en-us/um/people/zhang/calib/ (2010年11月21日検索))、http://research.microsoft.com/en-us/um/people/zhang/Papers/TR98-71.pdf (2010年11月21日検索))等に開示されている。
Zhangのアルゴリズムでは、撮影された画像上の2次元位置座標と、撮影空間内の3次元位置座標との間が、画素のスケール量と画像の歪み量を補正する行列と、撮影空間の回転と平行移動の変換パラメータとを用いて予め関係付けられる。この関係付けは、例えば、カメラ12a,12bを用いて3点以上の異なる位置からチェッカーボードを撮影し、チェッカーの交点の撮影空間内の位置座標列と、各撮影画像内の2次元の位置座標列とを用いて、上記行列および上記変換パラメータの値を同定することにより行われる。
したがって、撮影された画像内の接点位置情報は、事前にキャリブレーションを行って求めておいた上記行列及び変換パラメータの値を用いて、上記関係付けについての計算を行うことにより、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部と接する撮影空間内における正確な直線、すなわち第1仮想直線に変換され得る。
The virtual straight
In the Zhang algorithm, a matrix for correcting a pixel scale amount and an image distortion amount, a rotation of the shooting space, and a space between a two-dimensional position coordinate on the shot image and a three-dimensional position coordinate in the shooting space It is related beforehand using the translation parameter of translation. For example, the checker board is photographed from three or more different positions using the
Therefore, the contact position information in the photographed image is calculated using the matrix and the conversion parameter values obtained by performing the calibration in advance, thereby calculating the relationship, so that the
位置算出部28は、視聴者Vの輪郭像30のそれぞれについて求めた第1仮想直線を、差分画像32中の水平方向に対応する撮影空間内における方向に所定の距離平行移動した第2仮想直線を求める。位置算出部28は、さらに、求めた第2仮想直線同士の交点の位置、あるいは、第2仮想直線同士が最接近する点の位置を、撮影空間内における視聴者Vの頭部の中心位置として求める。
The
図5は、被写体位置計測装置20が行う視聴者Vの頭部Hの位置計測を説明する図である。
図5に示されるように、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部Hと接する撮影空間内における第1仮想直線L1,L2が仮想直線抽出部26で求められる。このとき第1仮想直線L1,L2が頭部Hと接する接点P1,P2は、視聴者Vを撮影するカメラ12a,12bの向きが異なるので、お互いに異なる位置にある。しかし、頭部Hの中心位置は、カメラ12a,12bが視聴者Vを撮影する向きが異なっても同じ位置にある。したがって、この中心位置を求めるために、位置算出部28は、第2仮想直線同士の交点の位置、あるいは第2仮想直線同士が最接近する点の位置を求める。
FIG. 5 is a diagram for explaining the position measurement of the head H of the viewer V performed by the subject
As shown in FIG. 5, first virtual straight lines L 1 and L 2 in a shooting space extending from the shooting center of each of the
すなわち、位置算出部28は、第1仮想直線L1,L2を、差分画像32中の水平方向に対応する撮影空間内における方向に所定の距離平行移動した直線を第2仮想直線L3,L4として求める。このとき、上記所定の距離とは、視聴者Vの頭部Hを球形状とみなして近似したときの球体の半径Rhである。頭部Hの大きさは人間であれば、例えば、18cmといったように略一定に決まっているので、このような球体の半径Rhの値は、人間の平均的な頭部のサイズから定められる。
したがって、第2仮想直線L3,L4同士は、頭部Hの中心位置あるいはその近傍を通るので、位置算出部28は、第2仮想直線L3,L4同士の交点P3の位置、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、頭部Hの中心位置として求める。この中心位置の座標情報が、上述したようなディスプレイシステム10の映像生成部14bに提供される。
ここで、第2仮想直線L3,L4同士が最接近する点の位置は、第2仮想直線L3,L4同士の離間距離が最も小さい線分上の中心位置、あるいは、上記線分を所定の比で分割する線分上の点の位置である。
以上が、被写体位置計測装置20の説明である。
That is, the
Accordingly, since the second virtual straight lines L 3 and L 4 pass through the center position of the head H or the vicinity thereof, the
Here, the position of the point at which the second virtual straight lines L 3 and L 4 are closest to each other is the center position on the line segment where the distance between the second virtual straight lines L 3 and L 4 is the smallest, or the above line segment. Is the position of the point on the line segment that divides.
The above is the description of the subject
(被写体位置計測方法)
図6は、本実施形態の被写体位置計測20が行う被写体位置計測方法のフローの一例を示すフローチャートである。
まず、カメラ12a,12b毎に、Zhangのアルゴリズムを用いてカメラ12a,12bで撮影される画像上の2次元位置座標と、撮影空間内の3次元位置座標との間を関係付ける、上述した行列の各要素の値と変換パラメータの値を取得する。上記行列および上記変換パラメータの値の取得は、上述したように、3点以上の異なる位置からチェッカーボードを撮影し、チェッカーの交点の撮影空間内の位置座標列と、各撮影画像内の2次元の位置座標列とを用いて、同定することにより行われる。
(Subject position measurement method)
FIG. 6 is a flowchart showing an example of the flow of the subject position measurement method performed by the
First, for each of the
次に、カメラ12a,12bは、視聴者Vを撮影し、データ処理部14aは画像を取得する(ステップS10)。撮影された視聴者Vの画像データは、RAM15cあるいは記憶部15dに記憶される。データ処理部14aは、カメラ12a,12bからの画像データの記憶が全て完了したか否かを判定する(ステップS20)。カメラ12a,12bから、視聴者Vの画像データが全てRAM15cあるいは記憶部15dに記憶されるまでデータ処理部14aは待機する。カメラ12a,12bから、視聴者Vの画像データが全て提供され、RAM15cあるいは記憶部15dに記憶された場合(ステップS20におけるYesの場合)、輪郭抽出部24は、視聴者Vの輪郭像30を抽出する(ステップS30)。輪郭像30の抽出は、上述したように、視聴者Vの撮影された画像と、視聴者Vの撮影されていない背景画像との差分を二値化した画像を作成することにより、行われる。輪郭抽出部24は、抽出された輪郭像30を、記憶部15dに記憶する。輪郭像30は、二値化された差分画像に例えば白の領域として形成される。この輪郭像30が含まれた二値化された差分画像が、RAM15cあるいは記憶部15dに記憶される。
Next, the
次に、仮想直線抽出部26は、探索直線Lsが差分画像中の視聴者Vの頭部Hと接する接点位置情報を算出する(ステップS40)。具体的には、仮想直線抽出部26は、水平方向に延びる探索直線Lsを差分画像32中の鉛直方向に1画素分に相当する距離移動させることを繰り返し行う。このとき、探索直線Lsが視聴者Vの頭部Hと同じ二値化データの値を持つ領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る繰り返し回数が所定の回数に達するとき、上記領域を視聴者Vの頭部Hの領域と判定する。このとき、仮想直線抽出部26は、探索直線Lsが輪郭像30を横切る横断幅の水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求める。さらに、仮想直線抽出部26は、上記平均値における探索直線Lsの鉛直方向における位置を接点位置情報の鉛直方向における情報として求める。視聴者Vの頭部の接点位置情報をより正確に求めるために、仮想直線抽出部26は、探索直線Lsが上記領域を横切る横断幅に関する平均値と標準偏差を求め、この横断幅のうち、上記平均値と上記標準偏差から求められる許容範囲内に含まれる横断幅に関する水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求めることが好ましい。これにより、仮想直線抽出部26は、実際の頭部Hの領域と異なる領域を含んで不正確な平均値を求めることを防止することができる。
Next, the virtual straight
次に、仮想直線抽出部26は、求められた接点位置情報を用いて、カメラ12a,12bで撮影した撮影空間内において、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部Hと接する第1仮想直線L1,L2を求める(ステップS50)。具体的には、仮想直線抽出部26は、撮影された画像上の2次元位置座標と、撮影空間内の3次元位置座標との間を関係付ける、予め求めた行列の各要素の値と変換パラメータの値を用いて、接点位置情報から、第1仮想直線L1,L2を求める。
Next, the virtual straight
次に、位置算出部28は、第1仮想直線L1,L2を、差分画像32中の水平方向に対応する撮影空間における方向に所定の距離平行移動した第2仮想直線L3,L4を算出する(ステップS60)。ここで、第1仮想直線L1,L2を平行移動する所定の距離とは、視聴者Vの頭部Hを球形状とみなして近似したときの球体の半径Rhであり、人間の頭部の平均的な半径である。
このような第2仮想直線L3,L4は、カメラ12a,12b毎の差分画像から求められた第1仮想直線L1,L2毎に求められる。したがって、位置算出部28は、カメラ12a,12b毎に、第2仮想直線L3,L4がすべて算出されたか否かを判定する(ステップS70)。第2仮想直線L3,L4が全て算出されるまで、位置算出部28は待機する。
Next, the
The second imaginary straight line L 3, L 4, the
第2仮想直線L3,L4がすべて算出されると(ステップS70においてYesの場合)、位置算出部28は、視聴者Vの頭部の中心位置の座標を算出する(ステップS80)。具体的には、位置算出部28は、第2仮想直線L3,L4同士の交点、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、視聴者Vの頭部の中心位置として、この位置の座標を算出する。視聴者Vの頭部Hの形状は球体形状として処理されるため、第2仮想直線L3,L4同士が交点を持たない場合も多い。このため、位置算出部28は、第2仮想直線L3,L4同士が最接近する点の位置を、視聴者Vの頭部の中心位置として求める。
こうして算出された頭部Hの中心位置の座標は、例えば、図2に示されるような映像生成部14bに提供され、視聴者Vの運動視差により、仮想オブジェクトの見え方が変われるような映像信号を生成するために用いられる。
なお、本実施形態では、視聴者Vを2方向から撮影するためにカメラ12a,12bを用いるが、3つ以上のカメラを用いて3方向以上の方向から視聴者Vを撮影し、3つ以上の第1仮想直線および第2仮想直線を求め、これらの第2仮想直線を用いて、視聴者Vの頭部Hの中心位置を求めてもよい。
When the second virtual straight lines L 3 and L 4 are all calculated (Yes in step S70), the
The coordinates of the center position of the head H calculated in this way are provided to the
In this embodiment, the
本実施形態の被写体位置計測装置20および被写体位置計測方法は、2方向からカメラ12a,12bで撮影したときの視聴者Vの頭部Hに接するように、撮影空間内の2つの第1仮想直線L1,L2を求め、この第1仮想直線L1,L2を、所定の距離平行移動した2つの第2仮想直線間の交点位置、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、頭部Hの位置として求める。このため、本実施形態は、従来に比べて、視聴者Vの頭部Hの位置を簡単な計算により求めることができ、従来のように、照明条件の微妙な揺らぎ等の影響を受ける要素が入りにくい。このため、本実施形態は、視聴者Vの頭部Hの位置を安定して求めることができる。
The subject
被写体位置計測装置20および被写体位置計測方法は、輪郭像と探索直線Lsとが接する画像中の接点位置情報を求めることにより第1仮想直線L1,L2を求めるので、輪郭像30から撮影空間内の第1仮想直線L1,L2を容易に求めることができる。
Since the subject
さらに、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが輪郭像30を横切るように、探索直線Lsを鉛直方向に1画素分に相当する距離移動させることを繰り返し行うことにより、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求める。このため、本実施形態は、探索直線Lsが輪郭像30に接する点を求める場合に比べて、正確かつ安定した接点位置情報を求めることができる。
Furthermore, the object
また、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが差分画像32中の鉛直方向に所定の回数連続して輪郭像30を横切るとき、探索直線Lsが横切る領域の横断幅に関する平均値と標準偏差を求める。このとき、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが横切る領域のうち、横断幅が上記平均値と上記標準偏差から求められる許容範囲内に含まれる領域に関する、差分画像32中の水平方向における中心位置の平均値を用いて接点位置情報の水平方向における情報を求める。このため、本実施形態では、実際の頭部Hの領域と異なる領域を含んだ不正確な平均値を求めることを防止することができる。
Furthermore, the object
被写体位置計測装置20および被写体位置計測方法は、探索直線Lsを差分画像32中の鉛直方に1画素分に相当する距離移動させることを繰り返し行い、探索直線Lsが視聴者Vの頭部Hと同じ二値化データの値を持つ領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る回数が所定の回数に達するとき、上記領域を視聴者Vの頭部Hの領域と判定する。このため、本実施形態は、視聴者Vの頭部Hの領域を誤抽出する可能性は低い。
本実施形態では、被写体および被写体の一部分として人物及び人物の頭部としたが、人物および人物の頭部に限定されず、他の被写体及び被写体の一部が球形状と見なせるものであればよい。
The subject
In this embodiment, a person and a person's head are used as the subject and a part of the subject. However, the present invention is not limited to the person and the person's head, and any other subject or part of the subject may be considered as a spherical shape. .
上記実施形態は、以下に示す内容を開示する。
(付記1)
撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置であって、
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有し、
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備えることを特徴とする被写体位置計測装置。
The said embodiment discloses the content shown below.
(Appendix 1)
A subject position measuring device for obtaining a position of the part by regarding a part of the photographing subject as a spherical body,
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit for determining a position of the part of the photographing subject by regarding a part of the photographing subject as a spherical body from a plurality of images photographed by the camera;
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains a position of a point at which straight lines are closest to each other as a center position of the portion of the shooting subject in the shooting space;
(付記2)
前記仮想直線抽出部は、前記第1の方向に延びる前記探索直線が前記輪郭像を横切るように、前記探索直線を前記第1の方向と直交する第2の方向に予め設定された距離移動させることを繰り返し行うことにより、前記探索直線が前記輪郭像を横切る領域の前記第1の方向における中心位置の平均値を求め、求めた前記平均値を前記接点位置情報の前記第1の方向における情報として定める付記1に記載の被写体位置計測装置。
(Appendix 2)
The virtual straight line extraction unit moves the search straight line in a second direction orthogonal to the first direction so that the search straight line extending in the first direction crosses the contour image. By repeating this, the average value of the center position in the first direction of the region where the search straight line crosses the contour image is obtained, and the obtained average value is obtained as information in the first direction of the contact point position information. The subject position measuring apparatus according to Supplementary Note 1, defined as:
(付記3)
前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切り、かつ、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記領域を前記撮影被写体の前記一部分の領域と判定する、付記2に記載の被写体位置計測装置。
(Appendix 3)
The virtual straight line extracting unit traverses the region where the search straight line crosses a region having the same binarized data value as the contour image, and the search straight line repeats moving in the second direction. The subject position measuring apparatus according to appendix 2, wherein the area is determined as the partial area of the photographic subject when the number of repetitions crossing the predetermined number of times is reached.
(付記4)
前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切るたびに、前記探索直線が前記領域を横切る横断幅を求め、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記横断幅の平均値と標準偏差を求め、前記探索直線が横断した前記領域のうち、横断幅が前記平均値と前記標準偏差から求められる許容範囲内に含まれる領域に限定して、前記第1方向における中心位置の平均値を、前記接点位置情報の前記第1の方向における情報として求める付記1〜3のいずれか1項に記載の被写体位置計測装置。
(Appendix 4)
The virtual straight line extraction unit obtains a transverse width that the search line crosses the region every time the search line crosses the region having the same binarized data value as the contour image, and the search straight line is the second line. When the number of repetitions that cross the region continuously when the movement is repeated in a direction reaches a predetermined number of times, an average value and a standard deviation of the transverse width are obtained, and the transverse width among the regions that the search straight line has traversed Note that the average value of the center position in the first direction is determined as the information in the first direction of the contact position information, limited to a region included in the allowable range obtained from the average value and the standard deviation. The subject position measuring apparatus according to any one of 1 to 3.
(付記5)
前記輪郭抽出部は、前記撮影被写体の撮影された画像と、前記撮影被写体の撮影されていない背景画像との差分を二値化することにより前記輪郭像を抽出する、付記1〜4のいずれか1項に記載の被写体位置計測装置。
(Appendix 5)
Any one of appendices 1 to 4, wherein the contour extraction unit extracts the contour image by binarizing a difference between a captured image of the captured subject and a background image of the captured subject that has not been captured. The subject position measuring apparatus according to Item 1.
(付記6)
映像を表示するディスプレイシステムであって、
付記1〜6のいずれか1項に記載の被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備えることを特徴とするディスプレイシステム。
(Appendix 6)
A display system for displaying images,
The subject position measuring device according to any one of appendices 1 to 6,
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A display system comprising: a screen display device that displays an image of the virtual object on a screen using the generated video signal.
(付記7)
撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置が行う被写体位置計測方法であって、
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める、ことを特徴とする被写体位置計測方法。
(Appendix 7)
A subject position measuring method performed by a subject position measuring device that obtains a position of the part by regarding a part of the photographing subject as a spherical body,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A first imaginary straight line extending from each and contacting the part of the photographic subject is obtained for each of the contour images using the contact position information,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A method for measuring a position of a subject, characterized in that a position of a point where they are closest to each other is obtained as a center position of the part of the photographing subject in the photographing space.
(付記8)
前記第1仮想直線を求めるとき、前記複数の画像のそれぞれから抽出した前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する接点位置情報を求めることにより、前記第1仮想直線を求める、付記7に記載の被写体位置計測方法。
(Appendix 8)
When obtaining the first virtual straight line, obtaining contact position information where the contour image extracted from each of the plurality of images and a search straight line extending in the first direction in the image and searching for the contour image are in contact with each other. The subject position measuring method according to appendix 7, wherein the first virtual straight line is obtained by:
(付記9)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記第1の方向に延びる前記探索直線が前記輪郭線を横切るように、前記探索直線を前記第1の方向と直交する第2の方向に予め設定された距離移動させることを繰り返し行うことにより、前記探索直線が前記輪郭像を横切る領域の前記第1の方向における中心位置の平均値を求め、求めた前記平均値を前記接点位置情報の前記第1の方向における情報として定める、付記8に記載の被写体位置計測方法。
(Appendix 9)
When obtaining the first virtual straight line for each of the contour images, the search straight line is orthogonal to the first direction so that the search straight line extending in the first direction crosses the contour line. By repeatedly performing a predetermined distance movement, an average value of center positions in the first direction of the region where the search line crosses the contour image is obtained, and the obtained average value is used as the contact position information. The subject position measuring method according to appendix 8, wherein the subject position is determined as information in the first direction.
(付記10)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切り、かつ、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記領域を前記撮影被写体の前記一部分の領域と判定する、付記9に記載の被写体位置計測方法。
(Appendix 10)
When the first virtual straight line is obtained for each of the contour images, the search straight line crosses an area having the same binarized data value as the contour image, and the search straight line moves in the second direction. The subject position measuring method according to appendix 9, wherein the region is determined to be the partial region of the photographic subject when the number of repetitions that cross the region continuously reaches a predetermined number when repeated.
(付記11)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切るたびに、前記探索直線が前記領域を横切る横断幅を求め、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記横断幅の平均値と標準偏差を求め、前記探索直線が横断した前記領域のうち、横断幅が前記平均値と前記標準偏差から求められる許容範囲内に含まれる領域に限定して、前記第1方向における中心位置の平均値を、前記接点位置情報の前記第1の方向における情報として求める、付記8〜10のいずれか1項に記載の被写体位置計測方法。
(Appendix 11)
When obtaining the first virtual straight line for each of the contour images, each time the search straight line crosses an area having the same binarized data value as the contour image, a transverse width across which the search straight line crosses the area is obtained. When the number of repetitions that cross the region continuously when the search line repeatedly moves in the second direction reaches a predetermined number of times, an average value and a standard deviation of the transverse width are obtained, and the search line The average value of the center position in the first direction is limited to the area in which the transverse width is included in the allowable range obtained from the average value and the standard deviation, and the average value of the center position in the first position of the contact position information. The subject position measuring method according to any one of appendices 8 to 10, which is obtained as information in one direction.
(付記12)
前記輪郭像を抽出するとき、前記撮影被写体の撮影された画像と、前記撮影被写体の撮影されていない背景画像との差分を二値化することにより前記輪郭像を抽出する、付記7〜11のいずれか1項に記載の被写体位置計測方法。
(Appendix 12)
When extracting the contour image, the contour image is extracted by binarizing a difference between a captured image of the photographic subject and a background image of the photographic subject that has not been captured. The subject position measuring method according to any one of the preceding claims.
以上、本発明の被写体位置計測装置、ディスプレイシステム、および被写体位置計測方法について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。 As described above, the subject position measuring device, the display system, and the subject position measuring method of the present invention have been described in detail. However, the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention. Of course, changes may be made.
10 ディスプレイシステム
12a,12b カメラ
14 データ処理装置
15a CPU
15b ROM
15c RAM
15d 記憶部
15e 入出力部
16 画面表示装置
20 被写体位置計測装置
24 輪郭抽出部
26 仮想直線抽出部
28 位置算出部
30 輪郭像
32 差分画像
10
15b ROM
15c RAM
Claims (6)
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有し、
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備えることを特徴とする被写体位置計測装置。 A subject position measuring device for obtaining a position of the part by regarding a part of the photographing subject as a spherical body,
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit for determining a position of the part of the photographing subject by regarding a part of the photographing subject as a spherical body from a plurality of images photographed by the camera;
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains a position of a point at which straight lines are closest to each other as a center position of the portion of the shooting subject in the shooting space;
請求項1〜4のいずれか1項に記載の被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備えることを特徴とするディスプレイシステム。 A display system for displaying images,
The subject position measuring device according to any one of claims 1 to 4,
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A display system comprising: a screen display device that displays an image of the virtual object on a screen using the generated video signal.
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記複数の画像のそれぞれから抽出した前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める、ことを特徴とする被写体位置計測方法。 A subject position measuring method performed by a subject position measuring device that obtains a position of the part by regarding a part of the photographing subject as a spherical body,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Finding contact position information in the image where the contour image extracted from each of the plurality of images and a search straight line that searches for the contour image extending in the first direction in the image contact each other, A first virtual straight line extending from each of the cameras and in contact with the portion of the subject to be photographed is obtained for each of the contour images using the contact position information in the photographed photographing space,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A method for measuring a position of a subject, characterized in that a position of a point where they are closest to each other is obtained as a center position of the part of the photographing subject in the photographing space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278003A JP5678636B2 (en) | 2010-12-14 | 2010-12-14 | Subject position measuring apparatus, display system, and subject position measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278003A JP5678636B2 (en) | 2010-12-14 | 2010-12-14 | Subject position measuring apparatus, display system, and subject position measuring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012128557A true JP2012128557A (en) | 2012-07-05 |
JP5678636B2 JP5678636B2 (en) | 2015-03-04 |
Family
ID=46645527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010278003A Expired - Fee Related JP5678636B2 (en) | 2010-12-14 | 2010-12-14 | Subject position measuring apparatus, display system, and subject position measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5678636B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09186951A (en) * | 1995-12-28 | 1997-07-15 | Canon Inc | Image recording and reproducing device |
JP2005196519A (en) * | 2004-01-08 | 2005-07-21 | Sony Corp | Image processor and image processing method, recording medium, and program |
JP2007199766A (en) * | 2006-01-23 | 2007-08-09 | Advanced Telecommunication Research Institute International | Face image recording device |
-
2010
- 2010-12-14 JP JP2010278003A patent/JP5678636B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09186951A (en) * | 1995-12-28 | 1997-07-15 | Canon Inc | Image recording and reproducing device |
JP2005196519A (en) * | 2004-01-08 | 2005-07-21 | Sony Corp | Image processor and image processing method, recording medium, and program |
JP2007199766A (en) * | 2006-01-23 | 2007-08-09 | Advanced Telecommunication Research Institute International | Face image recording device |
Also Published As
Publication number | Publication date |
---|---|
JP5678636B2 (en) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10002463B2 (en) | Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color | |
CN107766855B (en) | Chessman positioning method and system based on machine vision, storage medium and robot | |
CN104380338B (en) | Information processor and information processing method | |
WO2018176938A1 (en) | Method and device for extracting center of infrared light spot, and electronic device | |
US9070042B2 (en) | Image processing apparatus, image processing method, and program thereof | |
CN101697233B (en) | Structured light-based three-dimensional object surface reconstruction method | |
US9275277B2 (en) | Using a combination of 2D and 3D image data to determine hand features information | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
US10319104B2 (en) | Method and system for determining datum plane | |
US20210358204A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
US8917317B1 (en) | System and method for camera calibration | |
CN107734267B (en) | Image processing method and device | |
CN107346041B (en) | Method and device for determining grating parameters of naked eye 3D display equipment and electronic equipment | |
CN109816766A (en) | Image processing apparatus, image processing method and storage medium | |
US10771761B2 (en) | Information processing apparatus, information processing method and storing unit | |
US10942567B2 (en) | Gaze point compensation method and apparatus in display device, and display device | |
CN110119258B (en) | Method and system for testing and adjusting positions of display screen and optical system | |
CN107346040B (en) | Method and device for determining grating parameters of naked eye 3D display equipment and electronic equipment | |
JP6317725B2 (en) | System and method for determining clutter in acquired images | |
JP2016170610A (en) | Three-dimensional model processing device and camera calibration system | |
JP2021108193A (en) | Image processing device, image processing method, and program | |
KR20180123302A (en) | Method and Apparatus for Visualizing a Ball Trajectory | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140513 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5678636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |