JP2012128557A - Subject position measuring apparatus, display system and subject position measuring method - Google Patents

Subject position measuring apparatus, display system and subject position measuring method Download PDF

Info

Publication number
JP2012128557A
JP2012128557A JP2010278003A JP2010278003A JP2012128557A JP 2012128557 A JP2012128557 A JP 2012128557A JP 2010278003 A JP2010278003 A JP 2010278003A JP 2010278003 A JP2010278003 A JP 2010278003A JP 2012128557 A JP2012128557 A JP 2012128557A
Authority
JP
Japan
Prior art keywords
subject
straight line
image
virtual
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278003A
Other languages
Japanese (ja)
Other versions
JP5678636B2 (en
Inventor
Ryosuke Miyata
亮介 宮田
Takushi Fujita
卓志 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010278003A priority Critical patent/JP5678636B2/en
Publication of JP2012128557A publication Critical patent/JP2012128557A/en
Application granted granted Critical
Publication of JP5678636B2 publication Critical patent/JP5678636B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To stably determine a position of a portion of a subject such as the head of a person to be photographed through a simple system when determining the position of the portion in a subject position measuring apparatus and subject position measuring method.SOLUTION: A portion of a subject is regarded as a sphere and a position of that portion is determined. Specifically, an apparatus extracts a contour image of the subject in each of images of that portion of the subject photographed using a camera in at least two directions in that image. Further, information on a contact position where the contour image and a search straight line extending in a first direction in the image are brought into contact is determined, thereby determining a first virtual straight line extending from the camera and being in contact with that portion of the subject for each of the contour images in a photographing space. Moreover, in the photographing space, a position of an intersection of second virtual straight lines resulting from moving the first virtual straight line in a direction corresponding to the first direction in parallel by a predetermined distance respectively, or a position of a point where the second virtual straight lines become closest to each other is determined as a center position of that portion.

Description

本発明は、撮影被写体の一部分を球状体と見なして前記撮影被写体の前記一部分の位置を求める被写体位置計測装置、被写体位置計測装置を用いたディスプレイシステム、および被写体位置計測方法に関する。   The present invention relates to a subject position measuring device that obtains the position of a part of the photographed subject by regarding a part of the photographed subject as a spherical body, a display system using the subject position measuring device, and a subject position measuring method.

従来、カメラ等により撮影された動画上の被写体人物の頭部の位置を追跡する方法が種々提案されている。このような被写体人物の頭部の位置の追跡は、運動視差立体視ディスプレイにおいて、視聴者の運動視差に応じて仮想オブジェクトの見え方が変わるようにするために、有効に用いられ得る。運動視差とは、視聴者の視点の位置が変化することで変わる仮想オブジェクトの奥行きの見え方の変化量に関するものである。   Conventionally, various methods for tracking the position of the head of a subject person on a moving image taken by a camera or the like have been proposed. Such tracking of the position of the head of the subject person can be effectively used in a motion parallax stereoscopic display so that the appearance of the virtual object changes according to the motion parallax of the viewer. Motion parallax relates to the amount of change in the appearance of the depth of a virtual object that changes as the position of the viewer's viewpoint changes.

例えば、人物の頭部領域の追跡方法として、ポリゴンモデルを用いた3次元人物頭部追跡方法が知られている。当該方法では、具体的に、三次元ポリゴンモデルを撮影された2次元画像上に投影し、そのときの三次元ポリゴンモデルの色と奥行き情報を用いることにより、撮影された画像上の被写体人物の3次元位置と顔部の向きが推定される。
また、2台のカメラで撮影された画像の情報に基いて、自動的にリアルタイムで被写体人物の顔部を追跡し、その顔部の運動の計測をする他、被写体人物の顔部の特徴を、撮影された画像の情報から抽出し、その特徴を追跡するシステムも知られている。
For example, a three-dimensional human head tracking method using a polygon model is known as a tracking method of a human head region. Specifically, in this method, a three-dimensional polygon model is projected on a captured two-dimensional image, and the color and depth information of the three-dimensional polygon model at that time are used, so that the subject person on the captured image is displayed. The three-dimensional position and the face direction are estimated.
In addition to automatically tracking the face of the subject person in real time based on the information of the images taken by the two cameras and measuring the movement of the face part, Also known is a system that extracts information from a captured image and tracks its characteristics.

大場篤哉、寺田和憲、伊藤昭,「ポリゴンモデルを用いた3次元人物頭部追跡],[online],ロボティクス・メカトロニクス講演会(ROBOMEC05),[平成22年11月19日検索],インターネット(URL:http://www.elf.info.gifu-u.ac.jp/terada/publications/robomec05O.pdf)Atsushi Ohba, Kazunori Terada, Akira Ito, “3D Human Head Tracking Using Polygon Model”, [online], Robotics and Mechatronics Lecture (ROBOMEC05), [November 19, 2010 search], Internet (URL) : Http://www.elf.info.gifu-u.ac.jp/terada/publications/robomec05O.pdf) face LAB (SeeingMachines 社製品) ,[online], [平成22年11月19日検索],インターネット(URL:http://www.creact.co.jp/jpn/facelab/index_f.html)face LAB (SeeingMachines product), [online], [Searched on November 19, 2010], Internet (URL: http://www.creact.co.jp/jpn/facelab/index_f.html)

上述したような、カメラ等により撮影された動画上の被写体人物の頭部の位置を追跡する方法を、運動視差立体視ディスプレイにおいて用いる場合、被写体人物の頭部の中心位置の空間内の位置座標に基いて、仮想空間内での被写体人物の視点位置を定め、運動視差を考慮して仮想オブジェクトの映像を表示する。このとき、測定対象の頭部の中心位置を定める座標位置が揺らぐと、被写体人物が頭部を動かしていなくても仮想オブジェクトの表示映像が揺らいでしまう不都合が生じる場合がある。   When the method for tracking the position of the head of a subject person on a moving image taken by a camera or the like as described above is used in a motion parallax stereoscopic display, the position coordinates in the space of the center position of the head of the subject person Based on the above, the viewpoint position of the subject person in the virtual space is determined, and the video of the virtual object is displayed in consideration of motion parallax. At this time, if the coordinate position that defines the center position of the head to be measured fluctuates, there may be a problem that the display image of the virtual object fluctuates even if the subject person does not move the head.

上記ポリゴンモデルを用いた3次元人物頭部追跡方法や上記システムにおける被写体人物の顔部の追跡の処理は、一般に被写体人物の照明条件の微妙な揺らぎ等の影響を受けやすいため、測定対象の頭部が動いていなくても、頭部の座標位置が揺らぐ場合がある。
上記揺らぎを抑制するために、ローパスフィルタを用いることもできるが、頭部が実際に移動する場合、実際に移動する頭部に対して頭部の座標位置がリアルタイムで追従しなくなる場合がある。
The 3D human head tracking method using the polygon model and the process of tracking the face of the subject person in the system are generally susceptible to subtle fluctuations in the illumination conditions of the subject person, and therefore the head of the measurement target. Even if the part is not moving, the coordinate position of the head may fluctuate.
In order to suppress the fluctuation, a low-pass filter may be used. However, when the head actually moves, the coordinate position of the head may not follow the moving head in real time.

そこで、本発明は、撮影人物の頭部などの撮影被写体の一部分の位置を求める際、従来の方法とは異なる簡単な方式により、上記一部分の位置を安定して求めることができる被写体位置計測装置および被写体位置計測方法と、この被写体位置計測装置を利用したディスプレイシステムを提供することを目的とする。   Accordingly, the present invention provides a subject position measuring apparatus that can stably determine the position of a part of the subject such as the head of the photographed person by a simple method different from the conventional method. It is another object of the present invention to provide a subject position measuring method and a display system using the subject position measuring apparatus.

本発明の一態様は、撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置である。当該装置は、
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有する。
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備える。
One aspect of the present invention is a subject position measuring apparatus that obtains a position of a part of a photographing subject as a spherical body. The device is
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit that determines a position of the part of the photographed subject by regarding a part of the photographed subject as a spherical body from a plurality of images photographed by the camera.
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains the position of the point at which the straight lines are closest to each other as the center position of the part of the shooting subject in the shooting space.

また、本発明の他の一態様は、映像を表示するディスプレイシステムである。当該システムは、
前記被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備える。
Another embodiment of the present invention is a display system that displays video. The system
The subject position measuring device;
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A screen display device for displaying an image of the virtual object on the screen using the generated video signal.

さらに、本発明の他の一態様は、撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測方法である。当該方法では、
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める。
Furthermore, another aspect of the present invention is a subject position measuring method for obtaining a position of a part of a photographing subject as a spherical body. In this method,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A first imaginary straight line extending from each and contacting the part of the photographic subject is obtained for each of the contour images using the contact position information,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line The position of the point at which they are closest to each other is obtained as the center position of the part of the shooting subject in the shooting space.

上記態様の被写体位置計測装置および被写体位置計測方法によれば、撮影被写体の一部分の位置を求める際、安定して上記一部分の位置を求めることができる。このため、被写体位置計測装置および被写体位置計測方法を利用したディスプレイシステムによれば、仮想オブジェクトの表示映像が揺らいで視聴者に不快を与えることを防止することができる。   According to the subject position measuring apparatus and subject position measuring method of the above aspect, when obtaining the position of a part of the photographic subject, the position of the part can be obtained stably. For this reason, according to the display system using the subject position measuring device and the subject position measuring method, it is possible to prevent the display image of the virtual object from fluctuating and causing discomfort to the viewer.

本実施形態のディスプレイシステムの概略を説明する図である。It is a figure explaining the outline of the display system of this embodiment. (a)は、図1に示すディスプレイシステムのブロック構成図であり、(b)は、図1に示すディスプレイシステムの機能ブロック図である。(A) is a block block diagram of the display system shown in FIG. 1, and (b) is a functional block diagram of the display system shown in FIG. 本実施形態の被写体位置計測装置のデータ処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the data processing part of the to-be-photographed object position measuring apparatus of this embodiment. 本実施形態の被写体位置計測装置で行われる輪郭像の接点位置情報の算出の一例を説明する図である。It is a figure explaining an example of the calculation of the contact position information of the outline image performed with the to-be-photographed object position measuring apparatus of this embodiment. 本実施形態の被写体位置計測装置が行う頭部の位置計測の一例を説明する図である。It is a figure explaining an example of the position measurement of the head which the photographic subject position measuring device of this embodiment performs. 本実施形態の被写体位置計測方法のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the to-be-photographed object position measuring method of this embodiment.

以下、本発明の被写体位置計測装置、ディスプレイシステム、および被写体位置計測方法について説明する。   The subject position measuring apparatus, display system, and subject position measuring method of the present invention will be described below.

(ディスプレイシステム)
図1は、本実施形態のディスプレイシステム10の概略を説明する図である。図2(a)は、ディスプレイシステム10のブロック構成図であり、図2(b)は、ディスプレイシステム10の機能ブロック図である。
ディスプレイシステム10は、視聴者Vの運動視差により、表示しようとする仮想オブジェクトの見え方が変われるようにする運動視差立体視ディスプレイを含むシステムである。例えば、視聴者Vの視点が左上方にわずかに動いたとき、視聴者Vが左上方から仮想オブジェクトを見るように、ディスプレイシステム10は、視聴者Vの視点に応じて、表示する仮想オブジェクトの奥行きの見え方や陰影を修正して表示する。
(Display system)
FIG. 1 is a diagram illustrating an outline of a display system 10 according to the present embodiment. FIG. 2A is a block configuration diagram of the display system 10, and FIG. 2B is a functional block diagram of the display system 10.
The display system 10 is a system including a motion parallax stereoscopic display that changes the appearance of a virtual object to be displayed according to the motion parallax of the viewer V. For example, when the viewer V's viewpoint slightly moves to the upper left, the display system 10 displays the virtual object to be displayed according to the viewer V's viewpoint so that the viewer V sees the virtual object from the upper left. Corrects the depth appearance and shading and displays it.

ディスプレイシステム10は、一対のカメラ12a,12bと、データ処理装置14と、画面表示装置16と、を有する。
一対のカメラ12は、表示画像を見る視聴者Vをお互いに異なる方向から撮影するために、空間に固定されている。
データ処理装置14は、視聴者Vの頭部の位置に応じて、視聴者Vから見える表示対象の仮想オブジェクトの映像信号を生成する。
データ処理装置14は、図2(a)に示すように、CPU15aと、ROM15bと、RAM15cと、記憶部15dと、入出力部15eと、バス15fと、有するコンピュータによって形成される。CPU15a、ROM15b、RAM15c、記憶部15d、および入出力部15eはバス15fを介してお互いに接続されている。入出力部15eは、カメラ12a,12bと、画面表示装置16と、マウスおよびキーボードを備える図示されない入力操作系と接続されている。
The display system 10 includes a pair of cameras 12a and 12b, a data processing device 14, and a screen display device 16.
The pair of cameras 12 are fixed in space in order to photograph the viewers V who are viewing the display image from different directions.
The data processing device 14 generates a video signal of a virtual object to be displayed that can be seen by the viewer V according to the position of the head of the viewer V.
As shown in FIG. 2A, the data processing device 14 is formed by a computer having a CPU 15a, a ROM 15b, a RAM 15c, a storage unit 15d, an input / output unit 15e, and a bus 15f. The CPU 15a, ROM 15b, RAM 15c, storage unit 15d, and input / output unit 15e are connected to each other via a bus 15f. The input / output unit 15e is connected to cameras 12a and 12b, a screen display device 16, and an input operation system (not shown) including a mouse and a keyboard.

ROM15bは、コンピュータの起動によりCPU15aが各処理を実行するOSおよび制御ソフトウェアを記憶している。RAM15cは、後述する各種データ処理の結果を一時的に記憶する。記憶部15dは、データ処理装置14における後述するデータ処理を実行するプログラムを記憶する。また、記憶部15dは、後述する各種データ処理の結果を記憶する。なお、後述するデータ処理を実行するプログラムは、記憶部15dの代わりにROM15bに記憶されてもよい。CPU15aは、コンピュータの各部分の動作の制御と管理を行い、さらに、後述するデータ処理の制御と管理を行う。   The ROM 15b stores an OS and control software for the CPU 15a to execute each process when the computer is activated. The RAM 15c temporarily stores the results of various data processing described later. The storage unit 15d stores a program for executing data processing to be described later in the data processing device 14. In addition, the storage unit 15d stores the results of various data processing described later. Note that a program for executing data processing to be described later may be stored in the ROM 15b instead of the storage unit 15d. The CPU 15a controls and manages the operation of each part of the computer, and further controls and manages data processing to be described later.

上記コンピュータであるデータ処理装置14は記憶部15dに記憶されたプログラムを読み出して実行することにより、図2(b)に示すように、データ処理部14aと映像生成部14bを機能的に形成する。すなわち、データ処理部14aおよび映像生成部14bは、ソフトウェアモジュールであり、プログラムをCPU15aが実行することにより仮想的に形成される部分である。   The data processing device 14 which is the computer reads out and executes the program stored in the storage unit 15d, thereby functionally forming the data processing unit 14a and the video generation unit 14b as shown in FIG. 2B. . That is, the data processing unit 14a and the video generation unit 14b are software modules, and are portions that are virtually formed when the CPU 15a executes the program.

データ処理部14aは、カメラ12a,12bで撮影された2方向からの画像から、視聴者Vの頭部を球状体と見なして視聴者Vの頭部の位置を求める。データ処理部14aは、視聴者Vの頭部の位置の情報を映像生成部14bに提供する。
映像生成部14bは、入力された仮想オブジェクトの映像信号に対して、視聴者Vの頭部の位置に応じて、視聴者Vから見える表示対象の仮想オブジェクトの映像信号を生成する。映像生成部14bに入力される映像信号には、例えば、仮想空間内における仮想オブジェクトの3次元座標で表されたデータの他に、仮想空間内で照射される照明光源の向き、照明光の光強度およびスペクトル分布等の情報も含まれる。すなわち、映像生成部14bは、入力された映像信号を用いて、視聴者Vの頭部の位置に応じて3次元データを2次元データに変換し、陰影処理を施すことで、2次元の仮想オブジェクトの映像信号を生成する。
画面表示装置16は、データ処理装置14で生成された2次元の映像信号を用いて仮想オブジェクトの像を画面表示する。
The data processing unit 14a obtains the position of the viewer V's head from images from two directions taken by the cameras 12a and 12b, regarding the viewer V's head as a spherical body. The data processing unit 14a provides information on the position of the head of the viewer V to the video generation unit 14b.
The video generation unit 14b generates a video signal of a virtual object to be displayed that can be viewed by the viewer V according to the position of the head of the viewer V with respect to the input video signal of the virtual object. The video signal input to the video generation unit 14b includes, for example, the direction of the illumination light source irradiated in the virtual space, the light of the illumination light, in addition to the data represented by the three-dimensional coordinates of the virtual object in the virtual space. Information such as intensity and spectral distribution is also included. That is, the video generation unit 14b converts the three-dimensional data into two-dimensional data according to the position of the head of the viewer V using the input video signal, and performs a shadow process, thereby performing a two-dimensional virtual Generate an object video signal.
The screen display device 16 displays an image of the virtual object on the screen using the two-dimensional video signal generated by the data processing device 14.

データ処理部14aは、後述するように、視聴者Vの頭部の位置を求める際、安定して頭部の位置を求めることができ、さらに、頭部が実際に移動しても、頭部の座標位置をリアルタイムに追従して求めることができる。したがって、画面表示装置16は、従来の装置のように、視聴者Vの頭部の座標位置が揺らぐことはないので、表示される仮想オブジェクトは揺らいで表示されることはなくなり、視聴者Vの頭部の移動に応じて仮想オブジェクトの像がリアルタイムで変化する。   As will be described later, the data processing unit 14a can stably determine the position of the head when determining the position of the head of the viewer V, and even if the head actually moves, Can be obtained by following the coordinate position in real time. Therefore, since the screen display device 16 does not fluctuate the coordinate position of the head of the viewer V as in the conventional device, the displayed virtual object will not be fluctuated and displayed. The virtual object image changes in real time as the head moves.

(被写体位置計測装置)
本実施形態の被写体位置計測装置20は、図2(b)に示されるように、データ処理装置14の一部であり、ディスプレイシステム10に搭載されており、図中の点線で示されるように、一対のカメラ12a,12bと、データ処理部14aと、を有する。
カメラ12a,12bは、撮影被写体である視聴者Vをお互いに異なる2方向から撮影する。お互いに異なる2方向から視聴者Vを撮影するのは、視聴者Vの頭部の撮影空間内における位置を求めるためである。
データ処理部14aは、カメラ12a,12bで撮影された2つの画像から、撮影被写体である視聴者Vの頭部を球状体と見なして視聴者Vの頭部の位置を求める。
(Subject position measurement device)
As shown in FIG. 2B, the subject position measuring device 20 of the present embodiment is a part of the data processing device 14 and is mounted on the display system 10, as indicated by a dotted line in the figure. And a pair of cameras 12a and 12b and a data processing unit 14a.
The cameras 12a and 12b shoot the viewer V, who is the subject to be photographed, from two different directions. The reason why the viewer V is photographed from two different directions is to determine the position of the head of the viewer V in the photographing space.
The data processing unit 14a obtains the position of the viewer V's head from the two images captured by the cameras 12a and 12b, regarding the head of the viewer V as the subject to be photographed as a spherical body.

図3は、データ処理部14aの構成を示す機能ブロック図である。
データ処理部14aは、上述したように、データ処理装置14であるコンピュータが記憶部15dに記憶されたプログラムを実行することにより機能的に形成されたソフトウェアモジュールである。データ処理部14aは、輪郭抽出部24と、仮想直線抽出部26と、位置算出部28と、を含む。すなわち、輪郭抽出部24、仮想直線抽出部26、および位置算出部28は、データ処理装置14においてプログラムを実行することによって形成されるソフトウェアモジュールである。輪郭抽出部24と、仮想直線抽出部26と、位置算出部28の一部は、ソフトウェアモジュールの代わりに、専用回路等を用いたハードウェアモジュールが用いられてもよい。
FIG. 3 is a functional block diagram showing the configuration of the data processing unit 14a.
As described above, the data processing unit 14a is a software module that is functionally formed by the computer that is the data processing device 14 executing the program stored in the storage unit 15d. The data processing unit 14 a includes a contour extraction unit 24, a virtual straight line extraction unit 26, and a position calculation unit 28. That is, the contour extraction unit 24, the virtual straight line extraction unit 26, and the position calculation unit 28 are software modules formed by executing a program in the data processing device 14. A hardware module using a dedicated circuit or the like may be used as part of the contour extracting unit 24, the virtual straight line extracting unit 26, and the position calculating unit 28 instead of the software module.

輪郭抽出部24は、カメラ12a,12bで撮影された2つの画像のそれぞれにおいて、画像中の視聴者Vの輪郭像を抽出する。輪郭抽出部24は、視聴者Vの輪郭像を抽出するとき、背景画像を用いる。この背景画像は、視聴者Vがカメラ12a,12bの撮影範囲内にいないときの画像がカメラ12a,12bで予め撮影されて、RAM15cあるいは記憶部15dに予め記憶されたものである。輪郭抽出部24は、カメラ12a,12bで撮影された視聴者Vの撮影された画像と、視聴者Vの撮影されていない背景画像との差分を求め、この差分画像を二値化することにより視聴者Vの輪郭像を抽出する。差分画像を所定の閾値を用いて二値化することにより、視聴者Vの輪郭像とそれ以外の像とを明確に区分けすることができる。視聴者Vの輪郭像は、カメラ12a,12bで撮影された視聴者Vの画像毎に抽出される。   The contour extraction unit 24 extracts a contour image of the viewer V in each of the two images taken by the cameras 12a and 12b. The contour extracting unit 24 uses the background image when extracting the contour image of the viewer V. In this background image, an image obtained when the viewer V is not within the shooting range of the cameras 12a and 12b is taken in advance by the cameras 12a and 12b and stored in the RAM 15c or the storage unit 15d in advance. The contour extracting unit 24 obtains a difference between the image taken by the viewer V taken by the cameras 12a and 12b and the background image not taken by the viewer V, and binarizes the difference image. An outline image of the viewer V is extracted. By binarizing the difference image using a predetermined threshold, it is possible to clearly distinguish the contour image of the viewer V from the other images. The contour image of the viewer V is extracted for each image of the viewer V taken by the cameras 12a and 12b.

具体的には、輪郭抽出部24は、視聴者Vの撮影された画像と背景画像における各画素における輝度データの差を求めることにより、輝度データの差分画像を求める。差分画像では、視聴者Vが映っている部分と視聴者Vが映っていない部分とでは画素値が大きく異なる。したがって、二値化した画像は、視聴者Vが映っている部分は例えば白い領域となり、視聴者Vが映っていない部分は例えば黒い領域となる。以降の説明では、視聴者Vが映っている部分は白い領域となり、視聴者Vが映っていない部分は黒い領域となる例で説明する。なお、二値化に用いる閾値は、撮影する照明条件に応じて調整することにより、視聴者V以外の背景画像の一部を輪郭像として誤抽出することを防止できる。抽出された視聴者Vの輪郭像は、ノイズ低減処理として、輪郭像の白領域を縮小した後、白領域を拡大する拡大・縮小処理を施してもよい。輪郭像の白領域を縮小する処理は、例えば、注目する画素が黒の画素と接している場合、注目する画素を強制的に黒の画素にする処理である。輪郭像の白領域を拡大する処理は、例えば、注目する画素が白の画素と接している場合、注目する画素を強制的に白の画素にする処理である。   Specifically, the contour extracting unit 24 obtains a difference image of the luminance data by obtaining a difference between the luminance data in each pixel in the image taken by the viewer V and the background image. In the difference image, the pixel value is greatly different between a portion where the viewer V is shown and a portion where the viewer V is not shown. Therefore, in the binarized image, a portion where the viewer V is shown is, for example, a white region, and a portion where the viewer V is not shown is, for example, a black region. In the following description, an example will be described in which a portion where the viewer V is shown is a white region, and a portion where the viewer V is not shown is a black region. The threshold used for binarization can be prevented from being erroneously extracted as a contour image by adjusting a part of the background image other than the viewer V by adjusting according to the illumination condition for photographing. The extracted contour image of the viewer V may be subjected to enlargement / reduction processing for enlarging the white region after reducing the white region of the contour image as noise reduction processing. The process of reducing the white area of the contour image is, for example, a process for forcibly setting a pixel of interest to a black pixel when the pixel of interest is in contact with a black pixel. The process of enlarging the white area of the contour image is, for example, a process of forcibly making the pixel of interest a white pixel when the pixel of interest is in contact with a white pixel.

輪郭抽出部24は、輝度データを用いた差分画像を作成するが、輝度データの代わりに、色相データの差分を用いて、色相データの差分画像を求めてもよいし、輝度データと色相データの両方を用いた差分画像を求めてもよい。この場合、輝度データの差分画像から得られる輪郭像と、色相データの差分画像から得られる輪郭像との共通部分を、被写体Vの輪郭像として求めることができる。
本実施形態は、視聴者Vの輪郭像を、視聴者Vの有無の画像を用いて抽出するが、このほかの方法として、例えば、視聴者Vの頭部の位置を、目、鼻、口および髪の毛等に関する画像特徴量(色及び形状)を利用して抽出することにより、視聴者Vの輪郭像を抽出してもよい。
The contour extraction unit 24 creates a difference image using the luminance data, but instead of the luminance data, the difference image of the hue data may be obtained using the difference of the hue data, or the luminance data and the hue data may be obtained. You may obtain | require the difference image using both. In this case, a common part between the contour image obtained from the difference image of the luminance data and the contour image obtained from the difference image of the hue data can be obtained as the contour image of the subject V.
In this embodiment, the contour image of the viewer V is extracted using the image of the presence or absence of the viewer V. As another method, for example, the position of the head of the viewer V is determined by the eyes, nose, mouth. Further, the contour image of the viewer V may be extracted by extracting using image feature amounts (color and shape) related to hair and the like.

仮想直線抽出部26は、カメラ12a,12bで撮影された視聴者Vの2つの画像のそれぞれから抽出した輪郭像と、差分画像中の水平方向に延びて輪郭像の領域を探索する探索直線とが接する差分画像中の接点位置情報を求める。仮想直線抽出部26は、接点位置情報を、例えば、以下のようにして求める。   The virtual straight line extraction unit 26 extracts a contour image extracted from each of the two images of the viewer V taken by the cameras 12a and 12b, and a search straight line that extends in the horizontal direction in the difference image and searches for a region of the contour image. The contact position information in the difference image that touches is obtained. The virtual straight line extraction unit 26 obtains the contact position information as follows, for example.

図4は、輪郭像の接点位置情報の算出の一例を説明する図である。
図4には、輪郭像30が二値化された差分画像32内で抽出されている。また、差分画像32には、背景画像に対して照明条件の変化あるいはノイズ等によってできた、視聴者Vの輪郭像30以外の白い領域W1〜W4が存在する。
この状態で、仮想直線抽出部26は、図4中の上方から下方に(差分画像32中の鉛直方向に)移動しながら輪郭像30の領域を探索するために水平方向に延びた探索直線Lsを移動させる。これにより、仮想直線抽出部26は、探索直線Lsが輪郭像30と接する差分画像32中の接点位置情報を求める。具体的には、仮想直線抽出部26は、水平方向に延びる探索直線Lsが輪郭像30を横切るように、探索直線Lsを鉛直方向に1画素ずつ移動させることを繰り返し行う。このとき、仮想直線抽出部26は、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を、接点位置の座標位置を表す接点位置情報の一部(水平方向における情報)として求める。さらに、仮想直線抽出部26は、この平均値に対する探索直線Lsの鉛直方向の位置を接点位置情報の一部(鉛直方向における情報)として求める。
より具体的に説明すると、仮想直線抽出部26は、探索直線Lsを鉛直方向に1画素ずつ移動させることを繰り返し行い、探索直線Lsが視聴者Vの頭部と同じ二値化データの値、すなわち、同じ白い領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る繰り返し回数が所定の回数に達するとき、上記領域を、視聴者Vの頭部の領域と判定する。
探索直線Lsを用いて上記条件で判定が行われるのは、図4に示すように、視聴者Vの輪郭像30以外の白い領域W1〜W4が存在するとき、仮想直線抽出部26がこの領域W1〜W4を誤って視聴者Vの頭部の領域として判定しないためである。差分画像において、白い領域W1〜W4が、視聴者Vの頭部の領域と同様に、広い範囲を持つことは極めて少ない。このことから、仮想直線抽出部26は、探索直線Lsが連続して白い領域を横切る繰り返し回数が所定の回数に達することを頭部の判定の条件として用いる。したがって、判定に用いる上記所定の回数は、予め決定されるが、カメラ12a,12bの撮影倍率等の撮影条件によって変化することが好ましい。
FIG. 4 is a diagram illustrating an example of calculation of contact point position information of a contour image.
In FIG. 4, the contour image 30 is extracted from the binarized difference image 32. Further, the difference image 32 includes white regions W 1 to W 4 other than the contour image 30 of the viewer V, which are formed by a change in illumination conditions or noise or the like with respect to the background image.
In this state, the virtual straight line extraction unit 26 moves in the horizontal direction to search the region of the contour image 30 while moving from the upper side to the lower side in FIG. 4 (in the vertical direction in the difference image 32). Move s . Thereby, the virtual straight line extraction unit 26 obtains contact position information in the difference image 32 where the search straight line L s contacts the contour image 30. Specifically, the virtual straight line extraction unit 26 repeatedly moves the search straight line L s one pixel at a time in the vertical direction so that the search straight line L s extending in the horizontal direction crosses the contour image 30. At this time, the virtual straight line extraction unit 26 uses the average value of the center position in the horizontal direction of the region where the search straight line L s crosses the contour image 30 as a part of the contact position information indicating the coordinate position of the contact position (information in the horizontal direction). ). Further, the virtual straight line extraction unit 26 obtains the vertical position of the search straight line L s with respect to this average value as a part of the contact position information (information in the vertical direction).
More specifically, the virtual straight line extraction unit 26 repeatedly moves the search straight line L s one pixel at a time in the vertical direction, and the search straight line L s is the same binarized data as that of the viewer V's head. When the value, that is, the number of repetitions that cross the same white area and the search straight line L s continuously crosses the area reaches a predetermined number of times, the area is determined as the head area of the viewer V.
As shown in FIG. 4, the determination is made using the search straight line L s under the above conditions when the white areas W 1 to W 4 other than the contour image 30 of the viewer V exist, as shown in FIG. This is because the regions W 1 to W 4 are not erroneously determined as the region of the head of the viewer V. In the difference image, the white areas W 1 to W 4 have a very wide range in the same manner as the head area of the viewer V. Therefore, the virtual straight line extraction unit 26 uses, as a condition for determining the head, that the number of repetitions that the search straight line L s continuously crosses the white area reaches a predetermined number. Therefore, although the predetermined number of times used for the determination is determined in advance, it is preferable to change depending on the shooting conditions such as the shooting magnification of the cameras 12a and 12b.

仮想直線抽出部26は、上述したように、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を接点位置情報の水平方向における情報として求める。この接点位置情報は、探索直線Lsが図4中の上方から下方に1画素ずつ移動しながら、輪郭像30の最上部分と最初に接する点の位置とは厳密に異なる。しかし、輪郭像30の最上部分が、ノイズ等の影響により必ずしも実際の頭部の接点に対応するとはいえないことから、より安定しかつ正確な接点位置情報を求めるために、仮想直線抽出部26は上述の方法により得られた平均値を接点位置情報の水平方向における情報として求める。勿論、仮想直線抽出部26は、差分画像32にノイズが含まれていない場合、探索直線Lsが輪郭像30の最上部分と最初に接する点の水平方向における位置を、接点位置情報の水平方向における情報として定めてもよい。 As described above, the virtual straight line extraction unit 26 obtains the average value of the center positions in the horizontal direction of the region where the search straight line L s crosses the contour image 30 as information in the horizontal direction of the contact position information. This contact point position information is strictly different from the position of the first point of contact with the uppermost part of the contour image 30 while the search straight line L s moves from top to bottom in FIG. 4 pixel by pixel. However, since the uppermost portion of the contour image 30 does not necessarily correspond to the actual contact of the head due to the influence of noise or the like, the virtual straight line extraction unit 26 is used to obtain more stable and accurate contact position information. Obtains the average value obtained by the above method as information in the horizontal direction of the contact point position information. Of course, if the difference image 32 does not contain noise, the virtual straight line extraction unit 26 determines the horizontal position of the point where the search straight line L s first contacts the uppermost portion of the contour image 30 in the horizontal direction of the contact position information. You may decide as information in.

また、差分画像では、図4に示す画素が白い領域W1〜W4が頭部の領域と繋がることで実際の頭部の領域に比べて水平方向の幅が広がった領域が存在する場合がある。また、差分画像を作成するために用いる背景画像の影響を受けて実際の頭部の領域に比べて水平方向の幅が短くなった領域が存在する場合もある。これらの場合、これらの領域が、探索直線Lsの横切る輪郭像30の領域と判定され、接点位置情報として求める上記中心位置の平均値が不正確になる。このため、仮想直線抽出部26は、以下のような処理を行うことができる。すなわち、仮想直線抽出部26は、探索直線Lsが水平方向に所定の回数連続して輪郭像30を横切るとき、探索直線Lsが輪郭像30を横切る領域の水平方向の横断幅に関する平均値と標準偏差を求める。仮想直線抽出部26は、さらに、この領域のうち、水平方向の横断幅が平均値と標準偏差から求められる許容範囲内に含まれる領域に限定して、水平方向における中心位置の平均値を求める。仮想直線抽出部26は、求めた平均値を接点位置情報の水平方向における情報として定める。すなわち、仮想直線抽出部26は、水平方向の横断幅が平均値と標準偏差から求められる許容範囲内に含まれない領域を除外する。上記平均値をλとし、上記標準偏差をσとしたとき、上記許容範囲は、λ−c・σ〜λ+c・σ(cは、0.5〜1.5の範囲の与えられた定数)とする。あるいは、水平方向の幅が実際の幅に比べて広がった領域を除去する場合は、上記許容範囲は、λ+c・σ以下とする。
なお、本実施形態では、探索直線Lsは、差分画像において水平方向に延びて、鉛直方向に1画素ずつ移動するが、探索直線Lsは、差分画像において傾斜した方向に延びて、この傾斜した方向に直交する方向に移動してもよい。また、探索直線Lsは、1画素分に相当する距離ずつ移動するが、複数画素分に相当する距離ずつ、さらには、予め設定された距離ずつ移動してもよい。
Further, in the difference image, there may be a region in which the width shown in FIG. 4 is wider than the actual head region because the white regions W 1 to W 4 are connected to the head region. is there. Further, there may be a region where the horizontal width is shorter than the actual head region due to the influence of the background image used to create the difference image. In these cases, these areas are determined to be the areas of the contour image 30 that the search straight line L s crosses, and the average value of the center position obtained as the contact position information becomes inaccurate. For this reason, the virtual straight line extraction unit 26 can perform the following processing. That is, the virtual straight line extracting unit 26, the search when the straight line L s crosses the contour image 30 continuously for a predetermined number of times in the horizontal direction, the average values for the horizontal cross width of the region where search straight L s crosses the contour image 30 And obtain the standard deviation. The virtual straight line extraction unit 26 further obtains the average value of the center position in the horizontal direction by limiting the horizontal crossing width within the allowable range obtained from the average value and the standard deviation. . The virtual straight line extraction unit 26 determines the obtained average value as information in the horizontal direction of the contact point position information. That is, the virtual straight line extraction unit 26 excludes a region where the horizontal transverse width is not included in the allowable range obtained from the average value and the standard deviation. When the average value is λ and the standard deviation is σ, the allowable range is λ−c · σ to λ + c · σ (c is a given constant in the range of 0.5 to 1.5) and To do. Or when removing the area | region where the width | variety of the horizontal direction expanded compared with the actual width | variety, the said allowable range shall be (lambda) + c * (sigma) or less.
In the present embodiment, the search line L s extends in the horizontal direction in the difference image and moves one pixel at a time in the vertical direction, but the search line L s extends in the direction inclined in the difference image. You may move in the direction orthogonal to the direction. Further, the search straight line L s moves by a distance corresponding to one pixel, but may move by a distance corresponding to a plurality of pixels or by a preset distance.

さらに、仮想直線抽出部26は、求めた接点位置情報(水平方向および鉛直方向における位置情報)を用いて、視聴者Vを撮影した撮影空間内において、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部と接する第1仮想直線を、それぞれの輪郭像30について求める。カメラ12a,12bで撮影された画像内の点は、撮影された画像が歪んでいない場合、カメラ12a,12bそれぞれの撮影中心から延びる直線であるので、画像内の点は、3次元の撮影空間内においては、直線に変換される。このため、仮想直線抽出部26は、接点位置情報を用いて、上記第1仮想直線を簡単に求めることができる。   Further, the virtual straight line extraction unit 26 extends from the photographing center of each of the cameras 12a and 12b in the photographing space in which the viewer V is photographed using the obtained contact point position information (position information in the horizontal direction and the vertical direction). A first virtual straight line in contact with the head of the viewer V is obtained for each contour image 30. Since the points in the images taken by the cameras 12a and 12b are straight lines extending from the respective photographing centers of the cameras 12a and 12b when the taken images are not distorted, the points in the images are in a three-dimensional shooting space. Inside, it is converted to a straight line. For this reason, the virtual straight line extraction unit 26 can easily obtain the first virtual straight line using the contact point position information.

仮想直線抽出部26は、撮影された画像内の接点位置情報を用いて第1仮想直線を求めるとき、撮影空間内の正確な第1仮想直線を求めるために、キャリブレーションを行う。具体的には、仮想直線抽出部26は、接点位置情報から第1仮想直線を求めるとき、カメラ12a,12bの撮影レンズに起因する歪曲収差やカメラ12a,12bの撮影位置や撮影倍率等の情報を正確に反映した補正を行う。より、具体的には、仮想直線抽出部26は、例えば、周知のZhangのアルゴリズムを用いてキャリブレーションすることにより、画像内の接点位置情報から第1仮想直線を求める。Zhangのアルゴリズムは、http://research.microsoft.com/en-us/um/people/zhang/calib/ (2010年11月21日検索))、http://research.microsoft.com/en-us/um/people/zhang/Papers/TR98-71.pdf (2010年11月21日検索))等に開示されている。
Zhangのアルゴリズムでは、撮影された画像上の2次元位置座標と、撮影空間内の3次元位置座標との間が、画素のスケール量と画像の歪み量を補正する行列と、撮影空間の回転と平行移動の変換パラメータとを用いて予め関係付けられる。この関係付けは、例えば、カメラ12a,12bを用いて3点以上の異なる位置からチェッカーボードを撮影し、チェッカーの交点の撮影空間内の位置座標列と、各撮影画像内の2次元の位置座標列とを用いて、上記行列および上記変換パラメータの値を同定することにより行われる。
したがって、撮影された画像内の接点位置情報は、事前にキャリブレーションを行って求めておいた上記行列及び変換パラメータの値を用いて、上記関係付けについての計算を行うことにより、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部と接する撮影空間内における正確な直線、すなわち第1仮想直線に変換され得る。
The virtual straight line extraction unit 26 performs calibration in order to obtain an accurate first virtual straight line in the photographing space when the first virtual straight line is obtained using the contact position information in the photographed image. Specifically, when the virtual straight line extraction unit 26 obtains the first virtual straight line from the contact position information, information on distortion aberration caused by the photographing lenses of the cameras 12a and 12b, photographing positions of the cameras 12a and 12b, photographing magnification, and the like. Make a correction that accurately reflects. More specifically, the virtual straight line extraction unit 26 obtains the first virtual straight line from the contact position information in the image by performing calibration using, for example, a well-known Zhang algorithm. Zhang's algorithm is http://research.microsoft.com/en-us/um/people/zhang/calib/ (searched on November 21, 2010)), http://research.microsoft.com/en- us / um / people / zhang / Papers / TR98-71.pdf (searched on November 21, 2010)).
In the Zhang algorithm, a matrix for correcting a pixel scale amount and an image distortion amount, a rotation of the shooting space, and a space between a two-dimensional position coordinate on the shot image and a three-dimensional position coordinate in the shooting space It is related beforehand using the translation parameter of translation. For example, the checker board is photographed from three or more different positions using the cameras 12a and 12b, a position coordinate sequence in the photographing space of the intersection of the checkers, and a two-dimensional position coordinate in each photographed image. This is done by identifying the matrix and the value of the conversion parameter using columns.
Therefore, the contact position information in the photographed image is calculated using the matrix and the conversion parameter values obtained by performing the calibration in advance, thereby calculating the relationship, so that the cameras 12a and 12b. It can be converted into an accurate straight line in the photographing space extending from each photographing center and in contact with the head of the viewer V, that is, a first virtual straight line.

位置算出部28は、視聴者Vの輪郭像30のそれぞれについて求めた第1仮想直線を、差分画像32中の水平方向に対応する撮影空間内における方向に所定の距離平行移動した第2仮想直線を求める。位置算出部28は、さらに、求めた第2仮想直線同士の交点の位置、あるいは、第2仮想直線同士が最接近する点の位置を、撮影空間内における視聴者Vの頭部の中心位置として求める。   The position calculation unit 28 translates the first virtual line obtained for each of the contour images 30 of the viewer V by a predetermined distance in the direction in the imaging space corresponding to the horizontal direction in the difference image 32. Ask for. The position calculation unit 28 further uses the obtained position of the intersection of the second virtual lines or the position of the point where the second virtual lines are closest to each other as the center position of the head of the viewer V in the shooting space. Ask.

図5は、被写体位置計測装置20が行う視聴者Vの頭部Hの位置計測を説明する図である。
図5に示されるように、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部Hと接する撮影空間内における第1仮想直線L,L2が仮想直線抽出部26で求められる。このとき第1仮想直線L,L2が頭部Hと接する接点P1,P2は、視聴者Vを撮影するカメラ12a,12bの向きが異なるので、お互いに異なる位置にある。しかし、頭部Hの中心位置は、カメラ12a,12bが視聴者Vを撮影する向きが異なっても同じ位置にある。したがって、この中心位置を求めるために、位置算出部28は、第2仮想直線同士の交点の位置、あるいは第2仮想直線同士が最接近する点の位置を求める。
FIG. 5 is a diagram for explaining the position measurement of the head H of the viewer V performed by the subject position measurement apparatus 20.
As shown in FIG. 5, first virtual straight lines L 1 and L 2 in a shooting space extending from the shooting center of each of the cameras 12 a and 12 b and in contact with the head H of the viewer V are obtained by the virtual straight line extraction unit 26. . At this time, the contact points P 1 and P 2 at which the first virtual straight lines L 1 and L 2 are in contact with the head H are at different positions because the orientations of the cameras 12a and 12b for photographing the viewer V are different. However, the center position of the head H is the same even if the directions in which the cameras 12a and 12b capture the viewer V are different. Therefore, in order to obtain the center position, the position calculation unit 28 obtains the position of the intersection of the second virtual lines or the position of the point where the second virtual lines are closest.

すなわち、位置算出部28は、第1仮想直線L,L2を、差分画像32中の水平方向に対応する撮影空間内における方向に所定の距離平行移動した直線を第2仮想直線L3,L4として求める。このとき、上記所定の距離とは、視聴者Vの頭部Hを球形状とみなして近似したときの球体の半径Rhである。頭部Hの大きさは人間であれば、例えば、18cmといったように略一定に決まっているので、このような球体の半径Rhの値は、人間の平均的な頭部のサイズから定められる。
したがって、第2仮想直線L3,L4同士は、頭部Hの中心位置あるいはその近傍を通るので、位置算出部28は、第2仮想直線L3,L4同士の交点P3の位置、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、頭部Hの中心位置として求める。この中心位置の座標情報が、上述したようなディスプレイシステム10の映像生成部14bに提供される。
ここで、第2仮想直線L3,L4同士が最接近する点の位置は、第2仮想直線L3,L4同士の離間距離が最も小さい線分上の中心位置、あるいは、上記線分を所定の比で分割する線分上の点の位置である。
以上が、被写体位置計測装置20の説明である。
That is, the position calculation unit 28 converts a straight line obtained by translating the first virtual straight lines L 1 and L 2 by a predetermined distance in the direction in the imaging space corresponding to the horizontal direction in the difference image 32 into the second virtual straight lines L 3 and L 3 . determined as L 4. At this time, the predetermined distance is a radius R h of the sphere when the head H of the viewer V is regarded as a spherical shape and approximated. If the size of the head H is a human, it is determined to be substantially constant, for example, 18 cm. Therefore, the value of the radius R h of such a sphere is determined from the average size of the human head. .
Accordingly, since the second virtual straight lines L 3 and L 4 pass through the center position of the head H or the vicinity thereof, the position calculation unit 28 determines the position of the intersection P 3 between the second virtual straight lines L 3 and L 4 , Alternatively, the position of the point at which the second virtual straight lines L 3 and L 4 are closest to each other is obtained as the center position of the head H. The coordinate information of the center position is provided to the video generation unit 14b of the display system 10 as described above.
Here, the position of the point at which the second virtual straight lines L 3 and L 4 are closest to each other is the center position on the line segment where the distance between the second virtual straight lines L 3 and L 4 is the smallest, or the above line segment. Is the position of the point on the line segment that divides.
The above is the description of the subject position measuring apparatus 20.

(被写体位置計測方法)
図6は、本実施形態の被写体位置計測20が行う被写体位置計測方法のフローの一例を示すフローチャートである。
まず、カメラ12a,12b毎に、Zhangのアルゴリズムを用いてカメラ12a,12bで撮影される画像上の2次元位置座標と、撮影空間内の3次元位置座標との間を関係付ける、上述した行列の各要素の値と変換パラメータの値を取得する。上記行列および上記変換パラメータの値の取得は、上述したように、3点以上の異なる位置からチェッカーボードを撮影し、チェッカーの交点の撮影空間内の位置座標列と、各撮影画像内の2次元の位置座標列とを用いて、同定することにより行われる。
(Subject position measurement method)
FIG. 6 is a flowchart showing an example of the flow of the subject position measurement method performed by the subject position measurement 20 of the present embodiment.
First, for each of the cameras 12a and 12b, the matrix described above that associates between the two-dimensional position coordinates on the image photographed by the cameras 12a and 12b using the Zhang algorithm and the three-dimensional position coordinates in the photographing space. Get the value of each element and the value of conversion parameter. As described above, the matrix and the conversion parameter values are obtained by photographing the checkerboard from three or more different positions, and the position coordinate sequence in the photographing space of the intersection of the checkers and the two-dimensional in each photographed image. It is performed by identifying using the position coordinate sequence of.

次に、カメラ12a,12bは、視聴者Vを撮影し、データ処理部14aは画像を取得する(ステップS10)。撮影された視聴者Vの画像データは、RAM15cあるいは記憶部15dに記憶される。データ処理部14aは、カメラ12a,12bからの画像データの記憶が全て完了したか否かを判定する(ステップS20)。カメラ12a,12bから、視聴者Vの画像データが全てRAM15cあるいは記憶部15dに記憶されるまでデータ処理部14aは待機する。カメラ12a,12bから、視聴者Vの画像データが全て提供され、RAM15cあるいは記憶部15dに記憶された場合(ステップS20におけるYesの場合)、輪郭抽出部24は、視聴者Vの輪郭像30を抽出する(ステップS30)。輪郭像30の抽出は、上述したように、視聴者Vの撮影された画像と、視聴者Vの撮影されていない背景画像との差分を二値化した画像を作成することにより、行われる。輪郭抽出部24は、抽出された輪郭像30を、記憶部15dに記憶する。輪郭像30は、二値化された差分画像に例えば白の領域として形成される。この輪郭像30が含まれた二値化された差分画像が、RAM15cあるいは記憶部15dに記憶される。   Next, the cameras 12a and 12b capture the viewer V, and the data processing unit 14a acquires an image (step S10). The photographed image data of the viewer V is stored in the RAM 15c or the storage unit 15d. The data processing unit 14a determines whether or not the storage of the image data from the cameras 12a and 12b has been completed (step S20). The data processing unit 14a waits until all the image data of the viewer V is stored in the RAM 15c or the storage unit 15d from the cameras 12a and 12b. When all the image data of the viewer V is provided from the cameras 12a and 12b and stored in the RAM 15c or the storage unit 15d (Yes in step S20), the contour extracting unit 24 creates the contour image 30 of the viewer V. Extract (step S30). As described above, the contour image 30 is extracted by creating an image in which the difference between the image captured by the viewer V and the background image not captured by the viewer V is binarized. The contour extracting unit 24 stores the extracted contour image 30 in the storage unit 15d. The contour image 30 is formed, for example, as a white region in the binarized difference image. The binarized difference image including the contour image 30 is stored in the RAM 15c or the storage unit 15d.

次に、仮想直線抽出部26は、探索直線Lsが差分画像中の視聴者Vの頭部Hと接する接点位置情報を算出する(ステップS40)。具体的には、仮想直線抽出部26は、水平方向に延びる探索直線Lsを差分画像32中の鉛直方向に1画素分に相当する距離移動させることを繰り返し行う。このとき、探索直線Lsが視聴者Vの頭部Hと同じ二値化データの値を持つ領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る繰り返し回数が所定の回数に達するとき、上記領域を視聴者Vの頭部Hの領域と判定する。このとき、仮想直線抽出部26は、探索直線Lsが輪郭像30を横切る横断幅の水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求める。さらに、仮想直線抽出部26は、上記平均値における探索直線Lsの鉛直方向における位置を接点位置情報の鉛直方向における情報として求める。視聴者Vの頭部の接点位置情報をより正確に求めるために、仮想直線抽出部26は、探索直線Lsが上記領域を横切る横断幅に関する平均値と標準偏差を求め、この横断幅のうち、上記平均値と上記標準偏差から求められる許容範囲内に含まれる横断幅に関する水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求めることが好ましい。これにより、仮想直線抽出部26は、実際の頭部Hの領域と異なる領域を含んで不正確な平均値を求めることを防止することができる。 Next, the virtual straight line extraction unit 26 calculates contact point position information where the search straight line L s contacts the head H of the viewer V in the difference image (step S40). Specifically, the virtual straight line extraction unit 26 repeatedly performs the movement of the search straight line L s extending in the horizontal direction by a distance corresponding to one pixel in the vertical direction in the difference image 32. At this time, the search line L s crosses the region having the same binarized data value as the head H of the viewer V, and the search line L s continues to cross the region continuously is a predetermined number of times. When reaching, the region is determined as the region of the head H of the viewer V. At this time, the virtual straight line extraction unit 26 obtains the average value of the center positions in the horizontal direction of the transverse width at which the search straight line L s crosses the contour image 30 as information in the horizontal direction of the contact position information. Further, the virtual straight line extraction unit 26 obtains the position in the vertical direction of the search straight line L s at the average value as information in the vertical direction of the contact position information. In order to obtain the contact position information of the viewer V's head more accurately, the virtual straight line extraction unit 26 obtains an average value and a standard deviation regarding the crossing width that the search straight line L s crosses the region, and out of the crossing width, The average value of the center position in the horizontal direction related to the transverse width included in the allowable range determined from the average value and the standard deviation is preferably determined as information in the horizontal direction of the contact position information. Thereby, the virtual straight line extraction unit 26 can prevent an inaccurate average value including an area different from the actual area of the head H from being obtained.

次に、仮想直線抽出部26は、求められた接点位置情報を用いて、カメラ12a,12bで撮影した撮影空間内において、カメラ12a,12bそれぞれの撮影中心から延びて視聴者Vの頭部Hと接する第1仮想直線L1,L2を求める(ステップS50)。具体的には、仮想直線抽出部26は、撮影された画像上の2次元位置座標と、撮影空間内の3次元位置座標との間を関係付ける、予め求めた行列の各要素の値と変換パラメータの値を用いて、接点位置情報から、第1仮想直線L1,L2を求める。 Next, the virtual straight line extraction unit 26 extends from the photographing center of each of the cameras 12a and 12b in the photographing space photographed by the cameras 12a and 12b, using the obtained contact position information, and the head H of the viewer V. First imaginary straight lines L 1 and L 2 in contact with are obtained (step S50). Specifically, the virtual straight line extraction unit 26 converts the values of each element of the matrix obtained in advance to relate the two-dimensional position coordinates on the photographed image and the three-dimensional position coordinates in the photographing space. The first virtual straight lines L 1 and L 2 are obtained from the contact point position information using the parameter values.

次に、位置算出部28は、第1仮想直線L1,L2を、差分画像32中の水平方向に対応する撮影空間における方向に所定の距離平行移動した第2仮想直線L3,L4を算出する(ステップS60)。ここで、第1仮想直線L1,L2を平行移動する所定の距離とは、視聴者Vの頭部Hを球形状とみなして近似したときの球体の半径Rhであり、人間の頭部の平均的な半径である。
このような第2仮想直線L3,L4は、カメラ12a,12b毎の差分画像から求められた第1仮想直線L1,L2毎に求められる。したがって、位置算出部28は、カメラ12a,12b毎に、第2仮想直線L3,L4がすべて算出されたか否かを判定する(ステップS70)。第2仮想直線L3,L4が全て算出されるまで、位置算出部28は待機する。
Next, the position calculating unit 28 translates the first virtual straight lines L 1 and L 2 into the second virtual straight lines L 3 and L 4 that are translated by a predetermined distance in the direction in the imaging space corresponding to the horizontal direction in the difference image 32. Is calculated (step S60). Here, the predetermined distance for translating the first virtual straight lines L 1 and L 2 is a radius R h of the sphere when the head H of the viewer V is approximated as a spherical shape, and is a human head. The average radius of the part.
The second imaginary straight line L 3, L 4, the camera 12a, required for first each virtual straight line L 1, L 2 obtained from the difference image for each 12b. Therefore, the position calculation unit 28 determines whether all the second virtual straight lines L 3 and L 4 have been calculated for each of the cameras 12a and 12b (step S70). The position calculation unit 28 waits until all the second virtual straight lines L 3 and L 4 are calculated.

第2仮想直線L3,L4がすべて算出されると(ステップS70においてYesの場合)、位置算出部28は、視聴者Vの頭部の中心位置の座標を算出する(ステップS80)。具体的には、位置算出部28は、第2仮想直線L3,L4同士の交点、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、視聴者Vの頭部の中心位置として、この位置の座標を算出する。視聴者Vの頭部Hの形状は球体形状として処理されるため、第2仮想直線L3,L4同士が交点を持たない場合も多い。このため、位置算出部28は、第2仮想直線L3,L4同士が最接近する点の位置を、視聴者Vの頭部の中心位置として求める。
こうして算出された頭部Hの中心位置の座標は、例えば、図2に示されるような映像生成部14bに提供され、視聴者Vの運動視差により、仮想オブジェクトの見え方が変われるような映像信号を生成するために用いられる。
なお、本実施形態では、視聴者Vを2方向から撮影するためにカメラ12a,12bを用いるが、3つ以上のカメラを用いて3方向以上の方向から視聴者Vを撮影し、3つ以上の第1仮想直線および第2仮想直線を求め、これらの第2仮想直線を用いて、視聴者Vの頭部Hの中心位置を求めてもよい。
When the second virtual straight lines L 3 and L 4 are all calculated (Yes in step S70), the position calculating unit 28 calculates the coordinates of the center position of the viewer V's head (step S80). Specifically, the position calculating unit 28, the second virtual straight line L 3, L 4 intersections of, or the position of the point where the second virtual straight line L 3, L 4 are closest together, the head of the viewer V As the center position of the part, the coordinates of this position are calculated. Since the shape of the head H of the viewer V is processed as a spherical shape, the second virtual straight lines L 3 and L 4 often have no intersection. Therefore, the position calculation unit 28 obtains the position of the point at which the second virtual straight lines L 3 and L 4 are closest to each other as the center position of the viewer V's head.
The coordinates of the center position of the head H calculated in this way are provided to the video generation unit 14b as shown in FIG. 2, for example, and the video in which the appearance of the virtual object is changed by the motion parallax of the viewer V Used to generate a signal.
In this embodiment, the cameras 12a and 12b are used to photograph the viewer V from two directions, but three or more cameras are used to photograph the viewer V from three or more directions. The first virtual straight line and the second virtual straight line may be obtained, and the center position of the head H of the viewer V may be obtained using these second virtual straight lines.

本実施形態の被写体位置計測装置20および被写体位置計測方法は、2方向からカメラ12a,12bで撮影したときの視聴者Vの頭部Hに接するように、撮影空間内の2つの第1仮想直線L1,L2を求め、この第1仮想直線L1,L2を、所定の距離平行移動した2つの第2仮想直線間の交点位置、あるいは、第2仮想直線L3,L4同士が最接近する点の位置を、頭部Hの位置として求める。このため、本実施形態は、従来に比べて、視聴者Vの頭部Hの位置を簡単な計算により求めることができ、従来のように、照明条件の微妙な揺らぎ等の影響を受ける要素が入りにくい。このため、本実施形態は、視聴者Vの頭部Hの位置を安定して求めることができる。 The subject position measuring device 20 and the subject position measuring method of the present embodiment are arranged so that the two first virtual straight lines in the photographing space are in contact with the head H of the viewer V when photographing with the cameras 12a and 12b from two directions. L 1 and L 2 are obtained, and the position of the intersection between the two second virtual lines translated by a predetermined distance or the second virtual lines L 3 and L 4 are obtained by calculating the first virtual lines L 1 and L 2. The position of the closest point is obtained as the position of the head H. For this reason, in the present embodiment, the position of the head H of the viewer V can be obtained by simple calculation as compared with the conventional case, and there are factors that are affected by subtle fluctuations in lighting conditions as in the conventional case. Hard to enter. For this reason, this embodiment can obtain | require the position of the viewer's V head H stably.

被写体位置計測装置20および被写体位置計測方法は、輪郭像と探索直線Lsとが接する画像中の接点位置情報を求めることにより第1仮想直線L1,L2を求めるので、輪郭像30から撮影空間内の第1仮想直線L1,L2を容易に求めることができる。 Since the subject position measuring device 20 and the subject position measuring method obtain the first virtual straight lines L 1 and L 2 by obtaining the contact position information in the image where the contour image and the search straight line L s are in contact with each other, the image is taken from the contour image 30. The first virtual straight lines L 1 and L 2 in the space can be easily obtained.

さらに、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが輪郭像30を横切るように、探索直線Lsを鉛直方向に1画素分に相当する距離移動させることを繰り返し行うことにより、探索直線Lsが輪郭像30を横切る領域の水平方向における中心位置の平均値を、接点位置情報の水平方向における情報として求める。このため、本実施形態は、探索直線Lsが輪郭像30に接する点を求める場合に比べて、正確かつ安定した接点位置情報を求めることができる。 Furthermore, the object position measuring device 20 and the object position measuring method, as search linearly L s crosses the contour image 30, by performing repeatedly be distance moved corresponds to one pixel search straight line L s in a vertical direction The average value of the center position in the horizontal direction of the region where the search straight line L s crosses the contour image 30 is obtained as information in the horizontal direction of the contact point position information. Therefore, the present embodiment, the search straight line L s as compared with the case of obtaining the point in contact with the contour image 30, can be accurately determined and stable contact position information.

また、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが差分画像32中の鉛直方向に所定の回数連続して輪郭像30を横切るとき、探索直線Lsが横切る領域の横断幅に関する平均値と標準偏差を求める。このとき、被写体位置計測装置20および被写体位置計測方法は、探索直線Lsが横切る領域のうち、横断幅が上記平均値と上記標準偏差から求められる許容範囲内に含まれる領域に関する、差分画像32中の水平方向における中心位置の平均値を用いて接点位置情報の水平方向における情報を求める。このため、本実施形態では、実際の頭部Hの領域と異なる領域を含んだ不正確な平均値を求めることを防止することができる。 Furthermore, the object position measuring device 20 and the object position measuring method, the search line L when s traverses the contour image 30 continuously for a predetermined number of times in the vertical direction in the difference image 32, the transverse width of the area where the search line L s crosses Find the mean and standard deviation for. At this time, the subject position measuring device 20 and the subject position measuring method are such that the difference image 32 relates to a region in which the transverse width is included in the allowable range obtained from the average value and the standard deviation among the regions that the search straight line L s crosses. Information in the horizontal direction of the contact position information is obtained using the average value of the center positions in the horizontal direction. For this reason, in this embodiment, it can prevent calculating | requiring the incorrect average value containing the area | region different from the area | region of the actual head H. FIG.

被写体位置計測装置20および被写体位置計測方法は、探索直線Lsを差分画像32中の鉛直方に1画素分に相当する距離移動させることを繰り返し行い、探索直線Lsが視聴者Vの頭部Hと同じ二値化データの値を持つ領域を横切り、かつ、探索直線Lsが連続して上記領域を横切る回数が所定の回数に達するとき、上記領域を視聴者Vの頭部Hの領域と判定する。このため、本実施形態は、視聴者Vの頭部Hの領域を誤抽出する可能性は低い。
本実施形態では、被写体および被写体の一部分として人物及び人物の頭部としたが、人物および人物の頭部に限定されず、他の被写体及び被写体の一部が球形状と見なせるものであればよい。
The subject position measurement device 20 and the subject position measurement method repeatedly move the search line L s in the vertical direction in the difference image 32 by a distance corresponding to one pixel, and the search line L s is the head of the viewer V. When the number of times that the search line L s crosses the region having the same binarized data value as H and the search line L s continuously crosses the region reaches a predetermined number, the region is the region of the head H of the viewer V Is determined. For this reason, this embodiment has a low possibility of erroneously extracting the region of the head H of the viewer V.
In this embodiment, a person and a person's head are used as the subject and a part of the subject. However, the present invention is not limited to the person and the person's head, and any other subject or part of the subject may be considered as a spherical shape. .

上記実施形態は、以下に示す内容を開示する。
(付記1)
撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置であって、
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有し、
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備えることを特徴とする被写体位置計測装置。
The said embodiment discloses the content shown below.
(Appendix 1)
A subject position measuring device for obtaining a position of the part by regarding a part of the photographing subject as a spherical body,
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit for determining a position of the part of the photographing subject by regarding a part of the photographing subject as a spherical body from a plurality of images photographed by the camera;
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains a position of a point at which straight lines are closest to each other as a center position of the portion of the shooting subject in the shooting space;

(付記2)
前記仮想直線抽出部は、前記第1の方向に延びる前記探索直線が前記輪郭像を横切るように、前記探索直線を前記第1の方向と直交する第2の方向に予め設定された距離移動させることを繰り返し行うことにより、前記探索直線が前記輪郭像を横切る領域の前記第1の方向における中心位置の平均値を求め、求めた前記平均値を前記接点位置情報の前記第1の方向における情報として定める付記1に記載の被写体位置計測装置。
(Appendix 2)
The virtual straight line extraction unit moves the search straight line in a second direction orthogonal to the first direction so that the search straight line extending in the first direction crosses the contour image. By repeating this, the average value of the center position in the first direction of the region where the search straight line crosses the contour image is obtained, and the obtained average value is obtained as information in the first direction of the contact point position information. The subject position measuring apparatus according to Supplementary Note 1, defined as:

(付記3)
前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切り、かつ、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記領域を前記撮影被写体の前記一部分の領域と判定する、付記2に記載の被写体位置計測装置。
(Appendix 3)
The virtual straight line extracting unit traverses the region where the search straight line crosses a region having the same binarized data value as the contour image, and the search straight line repeats moving in the second direction. The subject position measuring apparatus according to appendix 2, wherein the area is determined as the partial area of the photographic subject when the number of repetitions crossing the predetermined number of times is reached.

(付記4)
前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切るたびに、前記探索直線が前記領域を横切る横断幅を求め、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記横断幅の平均値と標準偏差を求め、前記探索直線が横断した前記領域のうち、横断幅が前記平均値と前記標準偏差から求められる許容範囲内に含まれる領域に限定して、前記第1方向における中心位置の平均値を、前記接点位置情報の前記第1の方向における情報として求める付記1〜3のいずれか1項に記載の被写体位置計測装置。
(Appendix 4)
The virtual straight line extraction unit obtains a transverse width that the search line crosses the region every time the search line crosses the region having the same binarized data value as the contour image, and the search straight line is the second line. When the number of repetitions that cross the region continuously when the movement is repeated in a direction reaches a predetermined number of times, an average value and a standard deviation of the transverse width are obtained, and the transverse width among the regions that the search straight line has traversed Note that the average value of the center position in the first direction is determined as the information in the first direction of the contact position information, limited to a region included in the allowable range obtained from the average value and the standard deviation. The subject position measuring apparatus according to any one of 1 to 3.

(付記5)
前記輪郭抽出部は、前記撮影被写体の撮影された画像と、前記撮影被写体の撮影されていない背景画像との差分を二値化することにより前記輪郭像を抽出する、付記1〜4のいずれか1項に記載の被写体位置計測装置。
(Appendix 5)
Any one of appendices 1 to 4, wherein the contour extraction unit extracts the contour image by binarizing a difference between a captured image of the captured subject and a background image of the captured subject that has not been captured. The subject position measuring apparatus according to Item 1.

(付記6)
映像を表示するディスプレイシステムであって、
付記1〜6のいずれか1項に記載の被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備えることを特徴とするディスプレイシステム。
(Appendix 6)
A display system for displaying images,
The subject position measuring device according to any one of appendices 1 to 6,
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A display system comprising: a screen display device that displays an image of the virtual object on a screen using the generated video signal.

(付記7)
撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置が行う被写体位置計測方法であって、
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める、ことを特徴とする被写体位置計測方法。
(Appendix 7)
A subject position measuring method performed by a subject position measuring device that obtains a position of the part by regarding a part of the photographing subject as a spherical body,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A first imaginary straight line extending from each and contacting the part of the photographic subject is obtained for each of the contour images using the contact position information,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A method for measuring a position of a subject, characterized in that a position of a point where they are closest to each other is obtained as a center position of the part of the photographing subject in the photographing space.

(付記8)
前記第1仮想直線を求めるとき、前記複数の画像のそれぞれから抽出した前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する接点位置情報を求めることにより、前記第1仮想直線を求める、付記7に記載の被写体位置計測方法。
(Appendix 8)
When obtaining the first virtual straight line, obtaining contact position information where the contour image extracted from each of the plurality of images and a search straight line extending in the first direction in the image and searching for the contour image are in contact with each other. The subject position measuring method according to appendix 7, wherein the first virtual straight line is obtained by:

(付記9)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記第1の方向に延びる前記探索直線が前記輪郭線を横切るように、前記探索直線を前記第1の方向と直交する第2の方向に予め設定された距離移動させることを繰り返し行うことにより、前記探索直線が前記輪郭像を横切る領域の前記第1の方向における中心位置の平均値を求め、求めた前記平均値を前記接点位置情報の前記第1の方向における情報として定める、付記8に記載の被写体位置計測方法。
(Appendix 9)
When obtaining the first virtual straight line for each of the contour images, the search straight line is orthogonal to the first direction so that the search straight line extending in the first direction crosses the contour line. By repeatedly performing a predetermined distance movement, an average value of center positions in the first direction of the region where the search line crosses the contour image is obtained, and the obtained average value is used as the contact position information. The subject position measuring method according to appendix 8, wherein the subject position is determined as information in the first direction.

(付記10)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切り、かつ、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記領域を前記撮影被写体の前記一部分の領域と判定する、付記9に記載の被写体位置計測方法。
(Appendix 10)
When the first virtual straight line is obtained for each of the contour images, the search straight line crosses an area having the same binarized data value as the contour image, and the search straight line moves in the second direction. The subject position measuring method according to appendix 9, wherein the region is determined to be the partial region of the photographic subject when the number of repetitions that cross the region continuously reaches a predetermined number when repeated.

(付記11)
前記第1仮想直線を前記輪郭像のそれぞれについて求めるとき、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切るたびに、前記探索直線が前記領域を横切る横断幅を求め、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記横断幅の平均値と標準偏差を求め、前記探索直線が横断した前記領域のうち、横断幅が前記平均値と前記標準偏差から求められる許容範囲内に含まれる領域に限定して、前記第1方向における中心位置の平均値を、前記接点位置情報の前記第1の方向における情報として求める、付記8〜10のいずれか1項に記載の被写体位置計測方法。
(Appendix 11)
When obtaining the first virtual straight line for each of the contour images, each time the search straight line crosses an area having the same binarized data value as the contour image, a transverse width across which the search straight line crosses the area is obtained. When the number of repetitions that cross the region continuously when the search line repeatedly moves in the second direction reaches a predetermined number of times, an average value and a standard deviation of the transverse width are obtained, and the search line The average value of the center position in the first direction is limited to the area in which the transverse width is included in the allowable range obtained from the average value and the standard deviation, and the average value of the center position in the first position of the contact position information. The subject position measuring method according to any one of appendices 8 to 10, which is obtained as information in one direction.

(付記12)
前記輪郭像を抽出するとき、前記撮影被写体の撮影された画像と、前記撮影被写体の撮影されていない背景画像との差分を二値化することにより前記輪郭像を抽出する、付記7〜11のいずれか1項に記載の被写体位置計測方法。
(Appendix 12)
When extracting the contour image, the contour image is extracted by binarizing a difference between a captured image of the photographic subject and a background image of the photographic subject that has not been captured. The subject position measuring method according to any one of the preceding claims.

以上、本発明の被写体位置計測装置、ディスプレイシステム、および被写体位置計測方法について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。   As described above, the subject position measuring device, the display system, and the subject position measuring method of the present invention have been described in detail. However, the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention. Of course, changes may be made.

10 ディスプレイシステム
12a,12b カメラ
14 データ処理装置
15a CPU
15b ROM
15c RAM
15d 記憶部
15e 入出力部
16 画面表示装置
20 被写体位置計測装置
24 輪郭抽出部
26 仮想直線抽出部
28 位置算出部
30 輪郭像
32 差分画像
10 Display System 12a, 12b Camera 14 Data Processing Device 15a CPU
15b ROM
15c RAM
15d Storage unit 15e Input / output unit 16 Screen display device 20 Subject position measurement device 24 Contour extraction unit 26 Virtual straight line extraction unit 28 Position calculation unit 30 Contour image 32 Difference image

Claims (6)

撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置であって、
撮影被写体を少なくとも2方向から撮影する複数のカメラと、
前記カメラで撮影された複数の画像から、前記撮影被写体の一部分を球状体と見なして撮影被写体の前記一部分の位置を求めるデータ処理部と、を有し、
前記データ処理部は、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出する輪郭抽出部と、
前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求める仮想直線抽出部と、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間内の方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める位置算出部と、を備えることを特徴とする被写体位置計測装置。
A subject position measuring device for obtaining a position of the part by regarding a part of the photographing subject as a spherical body,
A plurality of cameras that photograph a subject to be photographed from at least two directions;
A data processing unit for determining a position of the part of the photographing subject by regarding a part of the photographing subject as a spherical body from a plurality of images photographed by the camera;
The data processing unit
In each of the plurality of images, a contour extraction unit that extracts a contour image of a photographing subject in the image;
Contact position information in the image where the contour image and a search straight line for searching for the contour image in contact with the first image in the first direction come into contact is obtained. A virtual straight line extraction unit for obtaining a first virtual straight line extending from each of the contours of the photographic subject for each of the contour images using the contact point position information;
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A position calculation unit that obtains a position of a point at which straight lines are closest to each other as a center position of the portion of the shooting subject in the shooting space;
前記仮想直線抽出部は、前記第1の方向に延びる前記探索直線が前記輪郭像を横切るように、前記探索直線を前記第1の方向と直交する第2の方向に予め設定された距離移動させることを繰り返し行うことにより、前記探索直線が前記輪郭像を横切る領域の前記第1の方向における中心位置の平均値を求め、求めた前記平均値を前記接点位置情報の前記第1の方向における情報として定める請求項1に記載の被写体位置計測装置。   The virtual straight line extraction unit moves the search straight line in a second direction orthogonal to the first direction so that the search straight line extending in the first direction crosses the contour image. By repeating this, the average value of the center position in the first direction of the region where the search straight line crosses the contour image is obtained, and the obtained average value is obtained as information in the first direction of the contact point position information. The subject position measuring device according to claim 1, defined as: 前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切り、かつ、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記領域を前記撮影被写体の前記一部分の領域と判定する、請求項2に記載の被写体位置計測装置。   The virtual straight line extracting unit traverses the region where the search straight line crosses a region having the same binarized data value as the contour image, and the search straight line repeats moving in the second direction. 3. The subject position measurement apparatus according to claim 2, wherein when the number of repetitions crossing a predetermined number of times is reached, the region is determined as the partial region of the photographing subject. 前記仮想直線抽出部は、前記探索直線が前記輪郭像と同じ二値化データの値を持つ領域を横切るたびに、前記探索直線が前記領域を横切る横断幅を求め、前記探索直線が前記第2の方向に移動を繰り返す際に連続して前記領域を横切る繰り返し回数が所定の回数に達するとき、前記横断幅の平均値と標準偏差を求め、前記探索直線が横断した前記領域のうち、横断幅が前記平均値と前記標準偏差から求められる許容範囲内に含まれる領域に限定して、前記第1方向における中心位置の平均値を、前記接点位置情報の前記第1の方向における情報として求める請求項1〜3のいずれか1項に記載の被写体位置計測装置。   The virtual straight line extraction unit obtains a transverse width that the search line crosses the region every time the search line crosses the region having the same binarized data value as the contour image, and the search straight line is the second line. When the number of repetitions that cross the region continuously when the movement is repeated in a direction reaches a predetermined number of times, an average value and a standard deviation of the transverse width are obtained, and the transverse width among the regions that the search straight line has traversed Is determined only as an area within an allowable range obtained from the average value and the standard deviation, and an average value of the center position in the first direction is obtained as information in the first direction of the contact position information. Item 4. The subject position measuring apparatus according to any one of Items 1 to 3. 映像を表示するディスプレイシステムであって、
請求項1〜4のいずれか1項に記載の被写体位置計測装置と、
前記撮影被写体の前記一部分の前記中心位置に応じて、前記撮影被写体から見える表示対象の仮想オブジェクトの映像信号を生成する映像生成部を含むデータ処理装置と、
生成された映像信号を用いて前記仮想オブジェクトの像を画面表示する画面表示装置と、を備えることを特徴とするディスプレイシステム。
A display system for displaying images,
The subject position measuring device according to any one of claims 1 to 4,
A data processing device including a video generation unit that generates a video signal of a virtual object to be viewed from the shooting subject according to the center position of the portion of the shooting subject;
A display system comprising: a screen display device that displays an image of the virtual object on a screen using the generated video signal.
撮影被写体の一部分を球状体と見なして前記一部分の位置を求める被写体位置計測装置が行う被写体位置計測方法であって、
撮影被写体を少なくとも2方向からカメラを用いて撮影することにより、少なくとも2方向から見た複数の画像を取得し、
前記複数の画像のそれぞれにおいて、前記画像中の撮影被写体の輪郭像を抽出し、
前記複数の画像のそれぞれから抽出した前記輪郭像と前記画像中の第1の方向に延びて前記輪郭像を探索する探索直線とが接する前記画像中の接点位置情報を求め、さらに、撮影被写体を撮影した撮影空間内において、前記カメラそれぞれから延びて前記撮影被写体の前記一部分と接する第1仮想直線を、前記接点位置情報を用いて前記輪郭像のそれぞれについて求め、
前記輪郭像のそれぞれについて求めた前記第1仮想直線を、前記第1の方向に対応する前記撮影空間における方向に所定の距離平行移動した第2仮想直線同士の交点、あるいは、前記第2仮想直線同士が最接近する点の位置を、前記撮影空間における前記撮影被写体の前記一部分の中心位置として求める、ことを特徴とする被写体位置計測方法。
A subject position measuring method performed by a subject position measuring device that obtains a position of the part by regarding a part of the photographing subject as a spherical body,
By photographing a subject to be photographed from at least two directions using a camera, a plurality of images viewed from at least two directions are acquired,
In each of the plurality of images, extract a contour image of the photographic subject in the image,
Finding contact position information in the image where the contour image extracted from each of the plurality of images and a search straight line that searches for the contour image extending in the first direction in the image contact each other, A first virtual straight line extending from each of the cameras and in contact with the portion of the subject to be photographed is obtained for each of the contour images using the contact position information in the photographed photographing space,
An intersection of the second virtual lines obtained by translating the first virtual line obtained for each of the contour images by a predetermined distance in a direction in the imaging space corresponding to the first direction, or the second virtual line A method for measuring a position of a subject, characterized in that a position of a point where they are closest to each other is obtained as a center position of the part of the photographing subject in the photographing space.
JP2010278003A 2010-12-14 2010-12-14 Subject position measuring apparatus, display system, and subject position measuring method Expired - Fee Related JP5678636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278003A JP5678636B2 (en) 2010-12-14 2010-12-14 Subject position measuring apparatus, display system, and subject position measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278003A JP5678636B2 (en) 2010-12-14 2010-12-14 Subject position measuring apparatus, display system, and subject position measuring method

Publications (2)

Publication Number Publication Date
JP2012128557A true JP2012128557A (en) 2012-07-05
JP5678636B2 JP5678636B2 (en) 2015-03-04

Family

ID=46645527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278003A Expired - Fee Related JP5678636B2 (en) 2010-12-14 2010-12-14 Subject position measuring apparatus, display system, and subject position measuring method

Country Status (1)

Country Link
JP (1) JP5678636B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09186951A (en) * 1995-12-28 1997-07-15 Canon Inc Image recording and reproducing device
JP2005196519A (en) * 2004-01-08 2005-07-21 Sony Corp Image processor and image processing method, recording medium, and program
JP2007199766A (en) * 2006-01-23 2007-08-09 Advanced Telecommunication Research Institute International Face image recording device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09186951A (en) * 1995-12-28 1997-07-15 Canon Inc Image recording and reproducing device
JP2005196519A (en) * 2004-01-08 2005-07-21 Sony Corp Image processor and image processing method, recording medium, and program
JP2007199766A (en) * 2006-01-23 2007-08-09 Advanced Telecommunication Research Institute International Face image recording device

Also Published As

Publication number Publication date
JP5678636B2 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
US10002463B2 (en) Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
CN107766855B (en) Chessman positioning method and system based on machine vision, storage medium and robot
CN104380338B (en) Information processor and information processing method
WO2018176938A1 (en) Method and device for extracting center of infrared light spot, and electronic device
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
CN101697233B (en) Structured light-based three-dimensional object surface reconstruction method
US9275277B2 (en) Using a combination of 2D and 3D image data to determine hand features information
US9519968B2 (en) Calibrating visual sensors using homography operators
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
US10319104B2 (en) Method and system for determining datum plane
US20210358204A1 (en) Image processing apparatus, image processing method, and storage medium
US20130335535A1 (en) Digital 3d camera using periodic illumination
US8917317B1 (en) System and method for camera calibration
CN107734267B (en) Image processing method and device
CN107346041B (en) Method and device for determining grating parameters of naked eye 3D display equipment and electronic equipment
CN109816766A (en) Image processing apparatus, image processing method and storage medium
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
US10942567B2 (en) Gaze point compensation method and apparatus in display device, and display device
CN110119258B (en) Method and system for testing and adjusting positions of display screen and optical system
CN107346040B (en) Method and device for determining grating parameters of naked eye 3D display equipment and electronic equipment
JP6317725B2 (en) System and method for determining clutter in acquired images
JP2016170610A (en) Three-dimensional model processing device and camera calibration system
JP2021108193A (en) Image processing device, image processing method, and program
KR20180123302A (en) Method and Apparatus for Visualizing a Ball Trajectory
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141222

R150 Certificate of patent or registration of utility model

Ref document number: 5678636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees