JP2009093376A - Signal processing system, signal processing method, and program - Google Patents

Signal processing system, signal processing method, and program Download PDF

Info

Publication number
JP2009093376A
JP2009093376A JP2007262657A JP2007262657A JP2009093376A JP 2009093376 A JP2009093376 A JP 2009093376A JP 2007262657 A JP2007262657 A JP 2007262657A JP 2007262657 A JP2007262657 A JP 2007262657A JP 2009093376 A JP2009093376 A JP 2009093376A
Authority
JP
Japan
Prior art keywords
light source
coordinate
source group
conversion parameter
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007262657A
Other languages
Japanese (ja)
Inventor
Hisanobu Sugiyama
寿伸 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007262657A priority Critical patent/JP2009093376A/en
Publication of JP2009093376A publication Critical patent/JP2009093376A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a signal processing system, a signal processing method and a program for seamlessly displaying a CG on an image with respect to the free movement of a camera. <P>SOLUTION: An arithmetic part 23 is configured to calculate an inter-coordinate conversion parameter for converting the position on the (n+1)th coordinates into the position on the n-th coordinates based on the n-th conversion parameter for converting the position on the n-th coordinates specified by the n-th light source group into the position on the coordinates specified by itself and the (n+1)th conversion parameter for converting the position on the (n+1)th coordinates specified by the (n+1)th light source group into the position on the coordinates specified by itself. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラで撮影される実画像上に3次元コンピュータグラフィクス(3D−CG)をリアルタイムに重ね合わせる信号処理システム及び信号処置方法、並びにプログラムに関する。   The present invention relates to a signal processing system, a signal processing method, and a program for superimposing three-dimensional computer graphics (3D-CG) on a real image captured by a camera in real time.

カメラで撮影される実画像上に、撮影空間の3次元情報に基づいて、3次元コンピュータグラフィクス(3D−CG)をリアルタイムに重ね合わせ、表示させる技術が提案されている。これらの技術は、Augmented Reality(拡張現実感)と呼ばれ、実世界と仮想世界の融合による新たな世界感を提供するものとして、ゲーム、エンタテイメント機器、情報機器など、さまざまな用途への応用が期待されている。   A technique for superimposing and displaying three-dimensional computer graphics (3D-CG) in real time on a real image photographed by a camera based on three-dimensional information of a photographing space has been proposed. These technologies are called Augmented Reality, and they can be applied to various applications such as games, entertainment devices, and information devices, as they provide a new world feeling through the fusion of the real world and the virtual world. Expected.

これらの技術では、実画像上に3D−CGを表示させるために、まず、撮影している空間内に3次元配置情報の基準となる座標系(世界座標)を設定し、その座標系におけるカメラの3次元的な位置、視線方向、及び傾き角度を算出する。そして、それらの情報に基づいて、実空間の所定の位置に仮想的に3D−CGのオブジェクトを配置し、カメラの実際の位置、方向から見た時のCGを画像に重ね合わせて表示する。   In these techniques, in order to display 3D-CG on a real image, first, a coordinate system (world coordinate) serving as a reference for three-dimensional arrangement information is set in a space in which the image is taken, and a camera in the coordinate system is set. The three-dimensional position, the line-of-sight direction, and the tilt angle are calculated. Based on the information, a 3D-CG object is virtually arranged at a predetermined position in the real space, and the CG when viewed from the actual position and direction of the camera is superimposed on the image and displayed.

カメラシステムが、このような重ね合わせ表示をカメラや被写体の動きに対応してリアルタイムに実行していくためには、撮影空間内に座標系設定の基準となる目標物を設定し、その目標物が容易に検出されるようにしなければならない。現在、そのための手段として、いくつか方法が提案されている。例えば、撮影空間に2次元コードが印刷されたカードを配置し、カメラがそのコード、形状などを画像処理により判断することにより、カメラに対するカードの配置情報を算出する方法が提案されている(例えば、非特許文献1参照。)。また、撮影画像からある特徴点を抽出し、その特徴点の見え方から解析する手法も提案されている(例えば、非特許文献2参照。)。この手法は、長方形状の紙の四隅の位置を画像処理にて抽出することにより、紙の配置位置を算出している。   In order for the camera system to execute such overlay display in real time in response to the movement of the camera or the subject, a target object serving as a reference for setting the coordinate system is set in the shooting space, and the target object is set. Should be easily detected. At present, several methods have been proposed as means for that purpose. For example, a method has been proposed in which a card on which a two-dimensional code is printed is placed in a shooting space, and the camera determines the code, shape, and the like by image processing, thereby calculating card placement information with respect to the camera (for example, Non-patent document 1). There has also been proposed a method of extracting a feature point from a captured image and analyzing the feature point from the appearance (see, for example, Non-Patent Document 2). In this method, the positions of the paper are calculated by extracting the positions of the four corners of the rectangular paper by image processing.

しかしながら、これらの手法は画像処理が基本となるため、環境光の明暗により画像が不鮮明な場合や、また、目標物の配置の向き、距離により解像度が得られず、画像が解析不能な状況になる場合が想定されるため、カメラや目標物の配置などの使用環境に、さまざまな制約が課せられてしまう。   However, since these methods are based on image processing, the image is unclear due to the brightness of the ambient light, or the resolution cannot be obtained depending on the orientation and distance of the target, and the image cannot be analyzed. Therefore, various restrictions are imposed on the usage environment such as the arrangement of cameras and targets.

一方、このような問題を回避し、さまざまな環境において安定、ロバストな目標物の検出を可能とする方として、LED(Light Emitting Diode)光源をマーカーとした手法が提案されている(例えば、特許文献1参照。)。これは、撮影空間内に、光の点滅パターンでコード化されたデータを発信するLED光源を配置し、そのデータをカメラを構成するイメージセンサーにて受信し、その受光画素位置を解析することにより、3次元情報を算出するものである。この手法によれば、LEDに十分な光度があり、また、指向性が大きければ、環境の明暗やカメラの配置によらず目標物の検出が可能である。さらに、画像処理を必要としないため、目標物の認識も高速となり、リアルタイム性の高いCG表示が可能となる。   On the other hand, a method using an LED (Light Emitting Diode) light source as a marker has been proposed as a method for avoiding such problems and enabling stable and robust target detection in various environments (for example, patents). Reference 1). This is because an LED light source that transmits data encoded with a blinking pattern of light is arranged in the imaging space, the data is received by an image sensor that constitutes the camera, and the light receiving pixel position is analyzed. Three-dimensional information is calculated. According to this method, if the LED has sufficient luminous intensity and has high directivity, it is possible to detect the target regardless of the brightness of the environment or the arrangement of the camera. Furthermore, since image processing is not required, the target is recognized at high speed, and CG display with high real-time characteristics is possible.

Impress Watch、「SCEJ、PS3『THE EYE OF JUDGMENT』カメラでカードの配置を読み取りリアルタイムに反映させるカードゲーム」、[online]、2006年8月25日、[平成19年9月1日検索]、インターネット<URL:http://www.watch.impress.co.jp/game/docs/20060825/teoj.htm>Impress Watch, “SCEJ, PS3“ THE EYE OF JUDGMENT ”card game that reads the card layout in real time and reflects it in real time”, [online], August 25, 2006, [Search September 1, 2007], Internet <URL: http://www.watch.impress.co.jp/game/docs/20060825/teoj.htm> 映像情報メディア学会誌 Vol.51, No.7(1997) pp.1086-1095 (1997)The Journal of the Institute of Image Information and Television Engineers Vol.51, No.7 (1997) pp.1086-1095 (1997) 特開2004−56343号公報JP 2004-56343 A

しかしながら、以上のような撮影空間内に目標物を設定する方法の欠点として、カメラの移動、パン、目標物自体の動きなどにより、撮影空間内から目標物がはずれてしまうと、座標系の設定が不可能になってしまうという問題がある。つまり、目標物が撮影空間内に存在している時はCGが表示されるが、目標物がはずれるとCG表示が消えてしまうことになる。カメラの撮影画角は、通常50−60度程度であるが、携帯端末搭載のカメラなどにおいて、頻繁に移動することが想定されるアプリケーションなどを想定すると、目標物に対して容易にカメラの画角がはずれてしまうことが考えられ実用性に乏しくなる。   However, as a disadvantage of the method of setting the target in the shooting space as described above, if the target moves out of the shooting space due to camera movement, panning, movement of the target itself, etc., the coordinate system is set. There is a problem that becomes impossible. That is, CG is displayed when the target is present in the shooting space, but the CG display disappears when the target is removed. The shooting angle of view of the camera is usually about 50-60 degrees. However, assuming an application that is frequently moved in a camera mounted on a mobile terminal, the camera image can be easily displayed on the target. It is possible that the corners will fall off, making it less practical.

本発明は、このような問題を解決するために提案されたものであり、カメラの自由な動きに対して、CGを画像上にシームレスに表示することができる信号処理システム及び信号処理方法、並びにプログラムを提供する。   The present invention has been proposed to solve such a problem. A signal processing system and a signal processing method capable of seamlessly displaying CG on an image with respect to a free movement of the camera, and Provide a program.

上述の課題を解決するために、本発明に係る信号処理システムは、光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力手段と、前記各光源の識別情報と画素位置に基づいて前記光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する自身座標変換パラメータを算出する演算手段とを備え、前記演算手段は、第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記第1の光源群が規定する第1の座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する第2の座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出することを特徴としている。   In order to solve the above-described problems, a signal processing system according to the present invention includes an input unit that inputs identification information and a pixel position of each light source of a light source group in which light sources are arranged in a predetermined positional relationship, and each of the light sources. Calculation means for calculating a self-coordinate conversion parameter for converting a position on the coordinate specified by the light source group to a position on the coordinate specified by the light source group based on the identification information and the pixel position. When the identification information and the pixel position of each light source are input from one light source group and the second light source group, the position on the first coordinate defined by the first light source group A first self-coordinate conversion parameter for converting to the position of the second self-coordinate, and a second self-coordinate conversion parameter for converting the position on the second coordinate specified by the second light source group to a position on the coordinate specified by the second light source group Based on the second coordinate position It is characterized by calculating the inter-coordinate conversion parameter for converting the position on the serial first coordinate.

また、本発明に係る信号処理方法は、光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力工程と、第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記各光源の識別情報と画素位置に基づいて前記第1の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとを算出する自身座標パラメータ算出工程と、前記第1の自身座標変換パラメータと前記第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出する座標間変換パラメータ算出工程とを有することを特徴としている。   The signal processing method according to the present invention includes an input step of inputting identification information and a pixel position of each light source of a light source group in which the light sources are arranged in a predetermined positional relationship, a first light source group, and a second light source. When the identification information and the pixel position of each light source are input from the group, the position on the coordinates defined by the first light source group based on the identification information and the pixel position of each light source And a second self-coordinate conversion parameter for converting a position on the coordinate specified by the second light source group to a position on the coordinate specified by the second light source group. A coordinate for converting the position on the second coordinate to the position on the first coordinate based on the self-coordinate parameter calculating step, the first self-coordinate conversion parameter, and the second self-coordinate conversion parameter. Coordinates for calculating conversion parameters It is characterized by having a conversion parameter calculating step.

また、本発明に係るプログラムは、光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力工程と、第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記各光源の識別情報と画素位置に基づいて前記第1の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとを算出する自身座標パラメータ算出工程と、前記第1の自身座標変換パラメータと前記第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出する座標間変換パラメータ算出工程とをコンピュータに実行させる。   In addition, the program according to the present invention includes an input step of inputting identification information and pixel position of each light source of a light source group in which light sources are arranged in a predetermined positional relationship, a first light source group, and a second light source group. If the identification information and the pixel position of each light source are input from, the position on the coordinates that the first light source group defines on the coordinates based on the identification information and the pixel position of each light source Self-coordinates for calculating a first self-coordinate transformation parameter to be converted into a second self-coordinate transformation parameter for transforming a position on the coordinate specified by the second light source group into a position on the coordinate specified by the self Inter-coordinate conversion for converting the position on the second coordinate to the position on the first coordinate based on the parameter calculating step and the first self-coordinate conversion parameter and the second self-coordinate conversion parameter Between coordinates to calculate parameters To perform a conversion parameter calculation process on the computer.

本発明によれば、第2の座標上の位置を第1の座標上の位置に変換する座標間変換パラメータを算出するため、カメラの自由な動きに対して、CGを画像上にシームレスに表示することができる。   According to the present invention, since the inter-coordinate conversion parameter for converting the position on the second coordinate to the position on the first coordinate is calculated, CG is seamlessly displayed on the image with respect to the free movement of the camera. can do.

以下、図面を参照しながら、本発明の実施の一形態について説明する。
(第1の実施の形態)
図1は、信号処理システムの構成を示す模式図である。この信号処理システムは、4つのLED(Light Emitting Diode)(L_A〜L_D)が同一平面上に配置された光源群10とカメラ20とを有し、カメラ20の撮影領域内に光源群10が設置されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic diagram showing a configuration of a signal processing system. This signal processing system has a light source group 10 and a camera 20 in which four LEDs (Light Emitting Diodes) (L_A to L_D) are arranged on the same plane, and the light source group 10 is installed in an imaging region of the camera 20. Has been.

光源群10は、例えば、図1に示すようにLED(L_A〜L_D)が平面ボードに固定されている。また、これに限られず、壁などに固定されて設置されていてもよい。4つのLEDは、例えば一辺の長さがSの正方形状に配置されている。また、各LEDは高速で点滅を繰り返しており、その点滅パターンにデータをコード化してのせることにより、それぞれ異なる例えば8bitのID識別情報(ID_A〜ID_D)を発信する。   In the light source group 10, for example, LEDs (L_A to L_D) are fixed to a flat board as shown in FIG. Moreover, it is not restricted to this, You may be fixed and installed in the wall etc. For example, the four LEDs are arranged in a square shape with one side having a length of S. Each LED repeats blinking at high speed, and by coding data in the blinking pattern, different ID identification information (ID_A to ID_D) of 8 bits, for example, is transmitted.

一方、カメラ20は、通常の画像を取得すると同時に、イメージセンサーの各画素が光源群10からの情報を検出することにより、どのLEDがどの画素に結像しているかを認識することができる(例えば、特開2003−169251参照。)。このようにカメラ20において、4つのLEDが結像した画素の位置関係を解析することにより、光源群10を基準としたカメラ20の位置と姿勢(視線方向、傾き)を算出することが可能となる。   On the other hand, the camera 20 can recognize which LED forms an image on which pixel by detecting information from the light source group 10 by each pixel of the image sensor simultaneously with acquiring a normal image ( For example, refer to JP2003-169251.). As described above, in the camera 20, by analyzing the positional relationship between the pixels formed by the four LEDs, it is possible to calculate the position and orientation (gaze direction, inclination) of the camera 20 with respect to the light source group 10. Become.

図2は、信号処理装置の構成を示すブロック図である。この信号処理装置は、例えばカメラ20に設置され、センサー21と、信号処理部22と、演算部23と、メモリ24と、表示部25とを備えている。   FIG. 2 is a block diagram illustrating a configuration of the signal processing device. This signal processing device is installed in, for example, the camera 20 and includes a sensor 21, a signal processing unit 22, a calculation unit 23, a memory 24, and a display unit 25.

センサー21は、上述した光源群10を撮像し、画像信号(RAWデータ)と光通信信号とを出力する。   The sensor 21 images the light source group 10 described above, and outputs an image signal (RAW data) and an optical communication signal.

信号処理部22は、RAWデータを処理する画像信号処理部221と、光通信信号をデコードするデコード処理部222とを有している。画像信号処理部221は、RAWデータを、例えばYUV422等の所定のフォーマットに変換する。デコード処理部222は、光通信信号をデコードして各光源のID番号を検出するとともに、画像から各光源の画素位置を検出する。   The signal processing unit 22 includes an image signal processing unit 221 that processes RAW data and a decoding processing unit 222 that decodes an optical communication signal. The image signal processing unit 221 converts the RAW data into a predetermined format such as YUV422. The decode processing unit 222 decodes the optical communication signal to detect the ID number of each light source, and detects the pixel position of each light source from the image.

演算部23は、カメラ位置・姿勢検出部231と、変換パラメータ算出部232と、3DCG位置座標算出部233と、3DCG合成処理部234とを有している。カメラ位置・姿勢検出部231では、各光源のID番号及び画素位置から光源群の位置関係を取得し、光源群が規定する座標上の位置をカメラ自身が規定する座標上の位置に変換する自身座標変換パラメータを算出する。変換パラメータ算出部232は、後述するように一方の光源群が規定する座標と他方の光源群が規定する座標との間の座標間変換パラメータを算出する。3DCG位置座標算出部233は、光源群が規定する3DCGの座標を自身座標変換パラメータや座標間変換パラメータに基づいて変換する。3DCG合成処理部234は、3DCGを画像信号に合成する。   The calculation unit 23 includes a camera position / posture detection unit 231, a conversion parameter calculation unit 232, a 3DCG position coordinate calculation unit 233, and a 3DCG composition processing unit 234. The camera position / orientation detection unit 231 acquires the positional relationship of the light source group from the ID number and pixel position of each light source, and converts the position on the coordinate specified by the light source group into the position on the coordinate specified by the camera itself A coordinate conversion parameter is calculated. The conversion parameter calculation unit 232 calculates an inter-coordinate conversion parameter between coordinates defined by one light source group and coordinates defined by the other light source group, as will be described later. The 3DCG position coordinate calculation unit 233 converts 3DCG coordinates defined by the light source group based on its own coordinate conversion parameters and inter-coordinate conversion parameters. The 3DCG synthesis processing unit 234 synthesizes 3DCG into an image signal.

メモリ24は、自身座標変換パラメータ、座標間パラメータ等を記憶するパラメータ記憶部241と、光源群によって予め定められた3DCG位置を記憶する記憶部24とを有している。   The memory 24 includes a parameter storage unit 241 that stores its own coordinate conversion parameters, inter-coordinate parameters, and the like, and a storage unit 24 that stores a 3DCG position predetermined by the light source group.

表示部25は、LCD(Liquid Crystal Display)等のディスプレイからなり、3DCGが合成された画像を表示する。   The display unit 25 includes a display such as an LCD (Liquid Crystal Display) and displays an image in which 3DCG is synthesized.

次に、光源群10とカメラ20との座標系の関係について詳細に説明する。図3及び図4は、光源群とカメラ20の座標系の関係を示す図であり、図5は座標変換処理を示すフローチャートである。   Next, the relationship of the coordinate system between the light source group 10 and the camera 20 will be described in detail. 3 and 4 are diagrams showing the relationship between the light source group and the coordinate system of the camera 20, and FIG. 5 is a flowchart showing the coordinate conversion process.

ここでは、カメラ20の位置と姿勢を示す座標系をカメラ座標系(CC:Camera Coordinate)とし、撮像面(結合平面)の方向をx−y軸、光軸方向をz軸とする。カメラの撮像面は、CCの原点から焦点距離fだけ−z側に離れたところに設定される。一方、光源群10の座標系は、実空間の絶対座標を規定する世界座標(WC:World Coordinate)とし、L_AのLED位置を原点、L_Bの方向をx軸、L_Dの方向をy軸、光源群10の平面と垂直な方向をz軸とする。   Here, a coordinate system indicating the position and orientation of the camera 20 is a camera coordinate system (CC: Camera Coordinate), the direction of the imaging surface (coupling plane) is the xy axis, and the optical axis direction is the z axis. The imaging surface of the camera is set at a position away from the CC origin by the focal length f to the −z side. On the other hand, the coordinate system of the light source group 10 is a world coordinate (WC: World Coordinate) that defines absolute coordinates in real space, the LED position of L_A is the origin, the direction of L_B is the x axis, the direction of L_D is the y axis, The direction perpendicular to the plane of the group 10 is taken as the z-axis.

CC上における、WCのx,y,z軸を規定する直交単位ベクトルを(ux,uy,uz)、WCの原点をd1=(d1,d2,d3)とすると、WC上の任意の点(xw,yw,zw)をCC上の座標値(xi,yi,zi)に変換する計算式は、(1−1)式で表現することができる。   If the orthogonal unit vector that defines the x, y, z axes of WC on the CC is (ux, ui, uz) and the origin of WC is d1 = (d1, d2, d3), an arbitrary point on WC ( A calculation formula for converting xw, yw, zw) into a coordinate value (xi, yi, zi) on CC can be expressed by formula (1-1).

Figure 2009093376
Figure 2009093376

ここで、U=(ux,uy,uz)は回転変換、d1は平行移動の成分を表している。また、CC上の(xi,yi,zi)は、(1−2)式により撮像面(センサー)上の画素位置(Xi,Yi)に変換される。   Here, U = (ux, uy, uz) represents a rotational transformation, and d1 represents a translation component. Further, (xi, yi, zi) on the CC is converted into a pixel position (Xi, Yi) on the imaging surface (sensor) by the expression (1-2).

Figure 2009093376
Figure 2009093376

変換パラメータUとd1の各要素の値は、カメラの位置、姿勢の動きに応じて逐次変化していくものであるが、その都度、WC上での各光源の座標値(0,0)(S,0)(S,S)(0,S)に対応する撮像平面での受光画素位置(x0,y0)(x1,y1)(x2,y2)(x3,y3)の情報が得られれば、これらから、(1−3)式のように変換パラメータの要素をリアルタイムに算出することが可能である。   The value of each element of the conversion parameters U and d1 changes sequentially according to the movement of the camera position and posture. Each time, the coordinate value (0, 0) ( If information of the light receiving pixel position (x0, y0) (x1, y1) (x2, y2) (x3, y3) on the imaging plane corresponding to (S, 0) (S, S) (0, S) is obtained. From these, it is possible to calculate the elements of the conversion parameter in real time as shown in equation (1-3).

Figure 2009093376
Figure 2009093376

そして、変換パラメータが得られれば、その逆変換演算を(1−4)式〜(1−7)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出することができる。   When the conversion parameter is obtained, the inverse conversion operation is performed as in the expressions (1-4) to (1-7), so that the camera position (xc, yc, zc) on the WC, the camera Vector components indicating the line-of-sight direction (xv, yv, zv) and the upper direction (xu, yu, zu) of the camera can be calculated.

Figure 2009093376
Figure 2009093376

通常、OpenGL(Open Graphics Library)などの3次元グラフィクスAPI(Application Program Interface)では、WCに対するカメラの位置、姿勢のパラメータが決定されれば、WC上の任意な位置に配置された3D−CGオブジェクトをカメラからみた図形として表示することが可能である。よって、これにより、光源群を基準とした実画像への3D−CGの重ね合わせ表示が可能となる。   Normally, in a 3D graphics API (Application Program Interface) such as OpenGL (Open Graphics Library), a 3D-CG object placed at an arbitrary position on the WC is determined if the camera position and orientation parameters are determined with respect to the WC. Can be displayed as a figure viewed from the camera. Therefore, 3D-CG can be superimposed and displayed on the actual image based on the light source group.

ここで、図4に示すように、光源群10とは別の光源群11を用意すれば、光源群10によって規定されるWC上に、光源群11によって規定されるローカル座標(LC1:Local Coordinate 1)を設定することができる。光源群11に設置されているLED光源のID識別情報を(ID_E〜ID_H)として光源群10と区別し、光源群10の時と同様な計算を行わせることにより、光源群11に対するカメラ座標への変換行列Eと平行移動成分d2を算出することができる。   Here, as shown in FIG. 4, if a light source group 11 different from the light source group 10 is prepared, local coordinates (LC1: Local Coordinate) defined by the light source group 11 on the WC defined by the light source group 10. 1) can be set. The ID identification information of the LED light sources installed in the light source group 11 is distinguished from the light source group 10 as (ID_E to ID_H), and the same calculation as that for the light source group 10 is performed, so that the camera coordinates for the light source group 11 are obtained. The conversion matrix E and the translation component d2 can be calculated.

Figure 2009093376
Figure 2009093376

この変換パラメータが得られれば、その逆変換演算を(1−9)式〜(1−11)式のように行うことにより、LC1上でのカメラの位置(xc_e,yc_e,zc_e)、カメラの視線方向(xv_e,yv_e,zv_e)、カメラの上部方向(xu_e,yu_e,zu_e)を示す各ベクトル成分を算出することができる。   If this conversion parameter is obtained, the inverse conversion operation is performed as in equations (1-9) to (1-11), so that the camera position (xc_e, yc_e, zc_e) on the LC 1 Each vector component indicating the line-of-sight direction (xv_e, yv_e, zv_e) and the upper direction of the camera (xu_e, yu_e, zu_e) can be calculated.

Figure 2009093376
Figure 2009093376

また、光源群10に対するカメラパラメータは、Uとd1で与えられるので、これらの変換パラメータの組み合わせによりLC1上の座標値(xe,ye,ze)をWC上の座標値(xw,yw,zw)に変換することができる。   Further, since the camera parameters for the light source group 10 are given by U and d1, coordinate values (xe, ye, ze) on LC1 are converted into coordinate values (xw, yw, zw) on WC by combining these conversion parameters. Can be converted to

Figure 2009093376
Figure 2009093376

この変換パラメータが得られれば、その逆変換演算を(1−13)式〜(1−15)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出することができる。   If this conversion parameter is obtained, the inverse conversion operation is performed as in equations (1-13) to (1-15), so that the camera position (xc, yc, zc) on the WC and the camera Each vector component indicating the line-of-sight direction (xv, yv, zv) and the upper direction (xu, yu, zu) of the camera can be calculated.

Figure 2009093376
Figure 2009093376

続いて、図5に示すフローチャートを参照して、信号処理装置における演算処理について説明する。ステップS11において、デコード処理部222は、入力されたID番号及び画素位置から各LED(L_A〜L_D)のカメラ結像平面上の結像位置を検出する。   Next, arithmetic processing in the signal processing device will be described with reference to the flowchart shown in FIG. In step S11, the decode processing unit 222 detects the imaging position on the camera imaging plane of each LED (L_A to L_D) from the input ID number and pixel position.

ステップS12において、カメラ位置・姿勢検出部231は、各LED(L_A〜L_D)のカメラ結像平面上の結像位置及び上記式(1−1)〜式(1−3)に基づいてWC上の任意の点(xw,yw,zw)をCC上の座標値(xi,yi,zi)に変換する変換パラメータ、変換行列U及び平行移動成分d1を算出する。   In step S <b> 12, the camera position / posture detection unit 231 determines whether the LEDs (L_A to L_D) are on the WC based on the imaging positions on the camera imaging plane and the above expressions (1-1) to (1-3). A conversion parameter, a conversion matrix U, and a translation component d1 for converting an arbitrary point (xw, yw, zw) into a coordinate value (xi, yi, zi) on CC are calculated.

また、カメラ位置・姿勢検出部231は、変換パラメータU,d1に基づいて、その逆変換演算を(1−4)式〜(1−7)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出する(ステップS13)。   Further, the camera position / orientation detection unit 231 performs the inverse conversion operation on the basis of the conversion parameters U and d1 as in Expressions (1-4) to (1-7), so that the camera on the WC Each vector component indicating the position (xc, yc, zc), the viewing direction of the camera (xv, yv, zv), and the upper direction (xu, yu, zu) of the camera is calculated (step S13).

ここで、カメラ20の撮像領域において、WCを規定する光源群10とLC1を規定する光源群11が存在する場合、デコード処理部22は、光源群10の場合と同様に、入力されたID番号及び画素位置から各LED(L_E〜L_H)のカメラ結像平面上の結像位置を検出する。   Here, when the light source group 10 that defines WC and the light source group 11 that defines LC1 exist in the imaging region of the camera 20, the decode processing unit 22 receives the input ID number as in the case of the light source group 10. And the imaging position on the camera imaging plane of each LED (L_E to L_H) is detected from the pixel position.

そして、ステップS14において、カメラ位置・姿勢検出部231は、各LED(L_E〜L_H)のカメラ結像平面上の結像位置及び上記式(1−1)〜式(1−3)に基づいてLC1上の任意の点(xe,ye,ze)をCC上の座標値(xi,yi,zi)に変換する変換パラメータ、変換行列E及び平行移動成分d2を算出する(式(1−8)参照。)。   In step S14, the camera position / posture detection unit 231 determines the positions of the LEDs (L_E to L_H) on the camera imaging plane and the above formulas (1-1) to (1-3). A conversion parameter, a conversion matrix E, and a translation component d2 for converting an arbitrary point (xe, ye, ze) on LC1 into a coordinate value (xi, yi, zi) on CC are calculated (formula (1-8)). reference.).

ステップS15において、変換パラメータ算出部232は、LC1上の任意の点(xe,ye,ze)をWC上の座標値(xw,yw,zw)に変換する変換パラメータ、変換行列M及び平行移動成分Dを算出する(式(1−12)参照。)。変換行列M及び平行移動成分Dは、パラメータ記憶部241に記憶される。また、変換パラメータ算出部232は、変換パラメータM,Dに基づいて、その逆変換演算を(1−13)式〜(1−15)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出する。 In step S15, the conversion parameter calculation unit 232, any point on LC1 (xe, ye, ze) coordinate values on WC and (xw, yw, zw) conversion parameter for converting the transformation matrix M 1 and translation calculating the component D 1 (equation (1-12) reference.). The transformation matrix M 1 and the translation component D 1 are stored in the parameter storage unit 241. Further, the conversion parameter calculation unit 232 performs the inverse conversion operation on the basis of the conversion parameters M 1 and D 1 as shown in the equations (1-13) to (1-15), so that the camera on the WC Each vector component indicating the position (xc, yc, zc), the viewing direction of the camera (xv, yv, zv), and the upper direction of the camera (xu, yu, zu) is calculated.

ステップS16において、3DCG位置座標算出部233は、LC1上に定義される3DCGモデルの位置をWC上へ変換する。具体的には、3DCG位置座標算出部233は、3DCG位置座標記憶部242からLC1上に定義された3DCGモデルの座標を読み出し、変換パラメータM,Dに基づいて、LC1上の任意の点をWC上の座標に変換する(式(1−12)参照。)。また、3DCG合成処理部234は、画像信号処理部221からの画像に3DCGモデルを合成し、表示部25に出力する。 In step S16, the 3DCG position coordinate calculation unit 233 converts the position of the 3DCG model defined on the LC1 onto the WC. Specifically, the 3DCG position coordinate calculation unit 233 reads the coordinates of the 3DCG model defined on the LC1 from the 3DCG position coordinate storage unit 242 and, based on the conversion parameters M 1 and D 1 , any point on the LC1. Is converted into coordinates on the WC (see Expression (1-12)). The 3DCG synthesis processing unit 234 synthesizes the 3DCG model with the image from the image signal processing unit 221 and outputs the synthesized 3DCG model to the display unit 25.

これにより、例えば、WCで規定される仮想空間中で、光源群11によって規定される3D−CGを重ね合わせて表示させることが可能となり、光源群11の動きによって3D−CGをコントロールすることが可能となる。   Thereby, for example, 3D-CG defined by the light source group 11 can be superimposed and displayed in the virtual space defined by the WC, and the 3D-CG can be controlled by the movement of the light source group 11. It becomes possible.

(第2の実施の形態)
図6は、第2の実施の形態における撮像領域の変化を示す模式図である。第1の実施の形態では、光源群10と光源群11が同時に画角内に存在している際、2つの光源群間の相対的な関係を算出して、WCで規定される仮想空間中で光源群11によって規定される3DCGを重ね合わせて表示することとしたが、第2の実施の形態では、光源群10が撮影領域から外れた場合、光源群10を基準としたWCの座標系を引き続き継承する。なお、第2の実施形態における信号処理装置の構成は、図2に示す信号処理装置の構成と同様であるため、同一符号を付して説明を省略する。
(Second Embodiment)
FIG. 6 is a schematic diagram illustrating changes in the imaging region in the second embodiment. In the first embodiment, when the light source group 10 and the light source group 11 exist within the angle of view at the same time, a relative relationship between the two light source groups is calculated and the virtual space defined in the WC is calculated. 3DCG defined by the light source group 11 is superimposed and displayed. However, in the second embodiment, when the light source group 10 is out of the imaging region, the WC coordinate system based on the light source group 10 is used. Will continue to be inherited. In addition, since the structure of the signal processing apparatus in 2nd Embodiment is the same as that of the structure of the signal processing apparatus shown in FIG. 2, it attaches | subjects the same code | symbol and abbreviate | omits description.

図7A及び図7Bは、第2の実施の形態における信号処理装置の動作を示すフローチャートである。ここでは、図6に示すように、カメラ20をパンすることにより、カメラ20の撮影領域が光源群10の方向から光源群11の方向へ移動していく場合を考える。なお、ステップS11〜ステップS15は、第1の実施の形態における処理と同様である。すなわち、図5に示す動作にステップS20〜ステップS26が追加されている。   7A and 7B are flowcharts showing the operation of the signal processing apparatus according to the second embodiment. Here, as shown in FIG. 6, a case is considered where the shooting region of the camera 20 moves from the direction of the light source group 10 to the direction of the light source group 11 by panning the camera 20. Steps S11 to S15 are the same as the processing in the first embodiment. That is, steps S20 to S26 are added to the operation shown in FIG.

先ず、ステップS20において、カメラ位置・姿勢検出部231は、各光源のID番号から、カメラの撮像領域内に光源群10と光源群11とが存在することを検出する。つまり、光源群10のLEDのID番号(ID_A〜ID_D)と光源群11のLED番号(ID_E〜ID_H)を検出する。   First, in step S20, the camera position / orientation detection unit 231 detects from the ID number of each light source that the light source group 10 and the light source group 11 exist in the imaging region of the camera. That is, the LED ID number (ID_A to ID_D) of the light source group 10 and the LED number (ID_E to ID_H) of the light source group 11 are detected.

ステップS20において、光源群10と光源群11が両方存在している撮像領域1の場合、ステップS11に進む。   In step S20, in the case of the imaging region 1 where both the light source group 10 and the light source group 11 exist, the process proceeds to step S11.

ステップS11〜ステップS15は、第1の実施の形態における処理と同様である。すなわち、撮像領域1において、LC1上の任意の点(xe,ye,ze)をWC上の座標値(xw,yw,zw)に変換する変換パラメータ、変換行列M及び平行移動成分Dを算出する(式(1−12)参照。)。ここで、変換パラメータU,d1,E,d2の各要素値は、カメラ20の動きにより逐次変化していく。しかし、変換パラメータM,Dは、それぞれCCとLC1間の回転変換、平行移動成分を表すので、光源群10と光源群11間の相対的な関係が固定されているとすれば、その要素値はカメラ20の動きによらず一定となる。 Steps S11 to S15 are the same as the processing in the first embodiment. That is, in the imaging region 1, any point on LC1 (xe, ye, ze) coordinate values on WC and (xw, yw, zw) conversion parameter for converting the, the transformation matrix M 1 and the parallel movement component D 1 Calculate (see Formula (1-12)). Here, the element values of the conversion parameters U, d 1, E, and d 2 change sequentially with the movement of the camera 20. However, since the conversion parameters M 1 and D 1 represent the rotational transformation and translation component between CC and LC 1 respectively, if the relative relationship between the light source group 10 and the light source group 11 is fixed, The element value is constant regardless of the movement of the camera 20.

WCを規定する光源群10(ID_A〜ID_D)が検出されず、LC1を規定する光源群11(L_E〜L_H)のみが検出された場合(ステップS21)、図7Bに示すステップS22に進み、変換行列M及び平行移動成分Dをパラメータ記憶部241に記憶する。このように光源群10が撮像領域から外れた場合(撮像領域2)、変換パラメータM,Dをパラメータ記憶部241に記憶すればよい。 When the light source group 10 (ID_A to ID_D) that defines WC is not detected and only the light source group 11 (L_E to L_H) that defines LC1 is detected (step S21), the process proceeds to step S22 shown in FIG. The matrix M 1 and the translation component D 1 are stored in the parameter storage unit 241. As described above, when the light source group 10 is out of the imaging region (imaging region 2), the conversion parameters M 1 and D 1 may be stored in the parameter storage unit 241.

ステップS23において、変換パラメータ算出部232は、変換行列M及び平行移動成分Dに基づいて、その逆変換演算を(1−13)式〜(1−15)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出する。 In step S23, the conversion parameter calculation unit 232, based on the transformation matrix M 1 and the parallel movement component D 1, by performing the inverse transform operation (1-13) as formula - (1-15) below, Vector components indicating the camera position (xc, yc, zc) on the WC, the viewing direction of the camera (xv, yv, zv), and the upper direction (xu, yu, zu) of the camera are calculated.

ステップS24において、3DCG位置座標算出部233は、3DCG位置座標記憶部242から3DCGモデルデータを読み出し、3DCGモデルの定義座標系がWCかLC1か否かを判別する。   In step S24, the 3DCG position coordinate calculation unit 233 reads 3DCG model data from the 3DCG position coordinate storage unit 242, and determines whether the definition coordinate system of the 3DCG model is WC or LC1.

3DCGモデルの定義座標系がLC1の場合、ステップS25に進み、LC1上に定義される3DCGモデルをWC上へ変換する。具体的には、3DCG位置座標算出部233は、3DCG位置座標記憶部242からLC1上に定義された3DCGモデルデータを読み出し、変換パラメータM,Dに基づいて、LC1上の任意の点をWC上の座標に変換する(式(1−12)参照。)。そして、3DCG合成処理部234は、画像信号処理部221からの画像に3DCGモデルを合成し、表示部25に出力する。 When the definition coordinate system of the 3DCG model is LC1, the process proceeds to step S25, and the 3DCG model defined on LC1 is converted to WC. Specifically, the 3DCG position coordinate calculation unit 233 reads 3DCG model data defined on the LC1 from the 3DCG position coordinate storage unit 242, and selects an arbitrary point on the LC1 based on the conversion parameters M 1 and D 1. The coordinates are converted into coordinates on the WC (see Expression (1-12)). Then, the 3DCG synthesis processing unit 234 synthesizes the 3DCG model with the image from the image signal processing unit 221 and outputs it to the display unit 25.

また、3DCGモデルの定義座標系がWCの場合、ステップS26に進み、3DCG合成処理部234は、画像信号処理部221からの画像に3DCGモデルを合成し、表示部25に出力する。   When the definition coordinate system of the 3DCG model is WC, the process proceeds to step S <b> 26, and the 3DCG synthesis processing unit 234 synthesizes the 3DCG model with the image from the image signal processing unit 221 and outputs it to the display unit 25.

このように撮影領域が移動し、光源群10が撮像領域から外れた場合(撮像領域2)、LC1の座標系をWCの座標系に換算することにより、従来、WCを規定することができずに表示されなかった3DCGオブジェクトの表示を引き続き維持することが可能となる。つまり、変換パラメータM,Dを記憶しておくことにより、LC1上の座標値をWC上の座標値に変換することが可能となるので、撮像領域1の時に表示されていたWC上やLC1上に配置設定されていた3DCGオブジェクトを、撮像領域2に移動してもシームレスに表示し続けることが可能となる。 When the imaging region moves in this manner and the light source group 10 deviates from the imaging region (imaging region 2), conventionally, the WC cannot be defined by converting the LC1 coordinate system into the WC coordinate system. It is possible to continue to display the 3DCG object that was not displayed on the screen. That is, by storing the conversion parameters M 1 and D 1 , the coordinate values on the LC 1 can be converted into the coordinate values on the WC. Even if the 3DCG object set on the LC 1 is moved to the imaging area 2, it can be displayed seamlessly.

(第3の実施の形態)
第3の実施の形態では、第2の実施の形態と同様な手法を用いてローカル座標により座標変換を中継し、カメラ20がさらに移動してもWC座標を継承していく。なお、第3の実施形態における信号処理装置の構成は、図2に示す信号処理装置の構成と同様であるため、同一符号を付して説明を省略する。
(Third embodiment)
In the third embodiment, coordinate conversion is relayed using local coordinates using the same method as in the second embodiment, and the WC coordinates are inherited even if the camera 20 moves further. In addition, since the structure of the signal processing apparatus in 3rd Embodiment is the same as that of the signal processing apparatus shown in FIG. 2, it attaches | subjects the same code | symbol and abbreviate | omits description.

図8は、第3の実施の形態における撮像領域の変化を示す模式図である。ここでは、図8に示すように3つの光源群10、11、12が固定して配置されている状況において、カメラ20の画角(撮像領域)が光源群10から光源群12の方向へパンする場合について説明する。   FIG. 8 is a schematic diagram illustrating changes in the imaging region in the third embodiment. Here, as shown in FIG. 8, in a situation where the three light source groups 10, 11, and 12 are fixedly arranged, the angle of view (imaging area) of the camera 20 is panned from the light source group 10 to the light source group 12. The case where it does is demonstrated.

変換パラメータ算出部232は、WCとLC1との間の変換と同様に、LC2上の任意の点(xf,yf,zf)をLC1上の座標値(xe,ye,ze)に変換する変換パラメータM,Dを算出する。 The conversion parameter calculation unit 232 converts the arbitrary point (xf, yf, zf) on the LC2 into the coordinate value (xe, ye, ze) on the LC1, similarly to the conversion between the WC and the LC1. M 2 and D 2 are calculated.

Figure 2009093376
Figure 2009093376

この変換パラメータが得られれば、その逆変換演算を(3−2)式〜(3−4)式のように行うことにより、LC2上でのカメラの位置(xc_f,yc_f,zc_f)、カメラの視線方向(xv_f,yv_f,zv_f)、カメラの上部方向(xu_f,yu_f,zu_f)を示す各ベクトル成分を算出することができる。   If this conversion parameter is obtained, the inverse conversion operation is performed as shown in equations (3-2) to (3-4), so that the camera position (xc_f, yc_f, zc_f) on LC2 and the camera Each vector component indicating the line-of-sight direction (xv_f, yv_f, zv_f) and the upper direction of the camera (xu_f, yu_f, zu_f) can be calculated.

Figure 2009093376
Figure 2009093376

また、光源群11に対するカメラパラメータは、MとDで与えられるので、これらの変換パラメータの組み合わせによりLC2上の座標値(xf,yf,zf)をWC上の座標値(xw,yw,zw)に変換することができる。 Further, since the camera parameters for the light source group 11 are given by M 1 and D 1 , the coordinate values (xf, yf, zf) on LC2 are converted into the coordinate values (xw, yw, zw).

Figure 2009093376
Figure 2009093376

この変換パラメータが得られれば、演算を(3−6)式〜(3−8)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出することができる。   If this conversion parameter is obtained, the calculation is performed as shown in equations (3-6) to (3-8), so that the camera position (xc, yc, zc) on the WC and the line-of-sight direction of the camera ( xv, yv, zv), vector components indicating the upper direction (xu, yu, zu) of the camera can be calculated.

Figure 2009093376
Figure 2009093376

図9A及び図9Bは、第3の実施の形態における信号処理装置の動作を示すフローチャートである。ここで、ステップS20〜ステップS22までは、図7Aに示す同一符号の処理と同様なため、説明を省略する。すなわち、図7A及び図7Bに示す動作にステップS31〜ステップS34が追加されている。   9A and 9B are flowcharts illustrating the operation of the signal processing device according to the third embodiment. Here, steps S20 to S22 are the same as the processes with the same reference numerals shown in FIG. That is, steps S31 to S34 are added to the operations shown in FIGS. 7A and 7B.

ステップS31において、カメラ20がパンし、光源群11と光源群12とが同じ撮像領域に入った場合、図7Aに示すステップS20〜ステップS15の処理と同様に、それぞれLC1、LC2とCCの間の変換パラメータEとFを算出する。すなわち、LC2上の任意の点(xf,yf,zf)をLC1上の座標値(xe,ye,ze)に変換する変換パラメータM,Dを算出する(式(3−1)参照。)。 In step S31, when the camera 20 pans and the light source group 11 and the light source group 12 enter the same imaging region, similarly to the processing of step S20 to step S15 shown in FIG. 7A, between the LC1, LC2, and CC, respectively. The conversion parameters E and F are calculated. That is, conversion parameters M 2 and D 2 for converting an arbitrary point (xf, yf, zf) on LC2 into a coordinate value (xe, ye, ze) on LC1 are calculated (see Expression (3-1)). ).

LC1を規定する光源群11(L_E〜L_H)が検出されず、LC2を規定する光源群12(L_I〜L_L)のみが検出された場合(ステップS32)、変換行列M及び平行移動成分Dをパラメータ記憶部241に記憶する(ステップS33)。 Light source group 11 which defines the LC1 (L_E~L_H) is not detected, if only the light source group 12 which defines the LC2 (L_I~L_L) is detected (step S32), the transformation matrix M 2 and the parallel movement component D 2 Is stored in the parameter storage unit 241 (step S33).

ステップS34において、変換パラメータ算出部232は、変換行列M及び平行移動成分Dに基づいて、その逆変換演算を(3−6)式〜(3−8)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出する。 In step S < b > 34, the conversion parameter calculation unit 232 performs an inverse conversion operation based on the conversion matrix M < b > 2 and the translation component D < b > 2 as in Expressions (3-6) to (3-8), Vector components indicating the camera position (xc, yc, zc) on the WC, the viewing direction of the camera (xv, yv, zv), and the upper direction (xu, yu, zu) of the camera are calculated.

ステップS23〜ステップS25については、図7Bに示す同一符号の処理と同様である。   About step S23-step S25, it is the same as that of the process of the same code | symbol shown to FIG. 7B.

このように3つの光源群10、11、12が固定して配置されている状況において、カメラ20の画角(撮像領域)が光源群10から光源群12の方向へパンする場合でも基準座標系を維持することができる。   Thus, in the situation where the three light source groups 10, 11, and 12 are fixedly arranged, the reference coordinate system is used even when the angle of view (imaging area) of the camera 20 pans from the light source group 10 to the light source group 12. Can be maintained.

(第4の実施の形態)
第4の実施の形態では、上述した方法よりさらに広い範囲に渡ってカメラ20の撮影領域が変化する場合にも適用可能なように一般化したものである。つまり、カメラ20の移動範囲に、カメラ撮影領域内に同時に、最低2つが入る間隔に光源群を1からnまでを配置している(光源群間の最長許容間隔は、カメラ20との距離により変化する)。そして、カメラ20の動きに応じて、2つの光源群間の変換パラメータMとDk(1≦k≦n)を順次記憶して行けば、最終的に光源群nのみが撮影領域内に存在している時に、LCn上の任意の点(xn,yn,zn)を、WC上の座標値に変換することができる。
(Fourth embodiment)
The fourth embodiment is generalized so as to be applicable even when the shooting area of the camera 20 changes over a wider range than the above-described method. In other words, the light source groups 1 to n are arranged at intervals of at least two at the same time in the camera photographing area within the movement range of the camera 20 (the longest allowable interval between the light source groups depends on the distance to the camera 20. Change). Then, if the conversion parameters M k and D k (1 ≦ k ≦ n) between the two light source groups are sequentially stored according to the movement of the camera 20, only the light source group n is finally in the imaging region. When present, any point (xn, yn, zn) on LCn can be converted to a coordinate value on WC.

n個の座標系LC1〜LCnを用いて一般化したWCとLCnとの変換式は、(3−9)式で表される。   The conversion formula between WC and LCn generalized using the n coordinate systems LC1 to LCn is expressed by Formula (3-9).

Figure 2009093376
Figure 2009093376

また、LCn上でのカメラの位置(xc_n,yc_n,zc_n)、カメラの視線方向(xv_n,yv_n,zv_n)、カメラの上部方向(xu_n,yu_n,zu_n)を示す各ベクトル成分は、それぞれ(3−10)式〜(3−12)式で算出することができる。   Also, each vector component indicating the camera position (xc_n, yc_n, zc_n), the camera viewing direction (xv_n, yuv_n, zv_n), and the upper direction (xu_n, yu_n, zu_n) of the camera on LCn is (3 -10) It can be calculated by the equations (3-12).

Figure 2009093376
Figure 2009093376

また、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分は、それぞれ(3−13)式〜(3−15)式で算出することができる。   Further, each vector component indicating the camera position (xc, yc, zc) on the WC, the viewing direction of the camera (xv, yv, zv), and the upper direction (xu, yu, zu) of the camera is (3 It can be calculated by the formulas (-13) to (3-15).

Figure 2009093376
Figure 2009093376

図10A及び図10Bは、第4の実施の形態における信号処理装置の動作を示すフローチャートである。ここで、ステップS20〜ステップS24、ステップS31〜ステップS33は、図9A及び図9Bに示す同一符号の処理と同様なため、説明を省略する。すなわち、図9A及び図9Bに示す動作にステップS41及びステップS42が追加されている。   10A and 10B are flowcharts illustrating the operation of the signal processing apparatus according to the fourth embodiment. Here, step S20 to step S24 and step S31 to step S33 are the same as the processes with the same reference numerals shown in FIGS. That is, step S41 and step S42 are added to the operations shown in FIGS. 9A and 9B.

ステップS41において、さらにカメラ20がパンし、光源群n(nは1以上の整数)と光源群n+1とが同じ撮像領域に入った場合、図9A及び図9Bに示すステップS20〜ステップS33の処理と同様にして、変換パラメータM〜M、D〜Dを算出する。変換行列M及び平行移動成分Dはパラメータ記憶部241に記憶される。 In step S41, when the camera 20 further pans and the light source group n (n is an integer equal to or greater than 1) and the light source group n + 1 enter the same imaging region, the processing in steps S20 to S33 shown in FIGS. 9A and 9B. In the same manner, conversion parameters M 3 to M n and D 3 to D n are calculated. The transformation matrix M n and the translation component D n are stored in the parameter storage unit 241.

ステップS42において、変換パラメータ算出部232は、変換行列M及び平行移動成分Dに基づいて、その逆変換演算を(3−13)式〜(3−15)式のように行うことにより、WC上でのカメラの位置(xc,yc,zc)、カメラの視線方向(xv,yv,zv)、カメラの上部方向(xu,yu,zu)を示す各ベクトル成分を算出する。 In step S42, the conversion parameter calculation unit 232, based on the transformation matrix M n and translation component D n, by performing the inverse transform operation (3-13) as formula - (3-15) below, Vector components indicating the camera position (xc, yc, zc) on the WC, the viewing direction of the camera (xv, yv, zv), and the upper direction (xu, yu, zu) of the camera are calculated.

ステップS23〜ステップS25については、図9Bに示す同一符号の処理と同様である。   About step S23-step S25, it is the same as that of the process of the same code | symbol shown to FIG. 9B.

このように実空間中に1つの光源群でWCを規定すれば、任意の撮影領域でWCを継承することができ、例えば、全天球方向において、そのWC座標系に基づくCGを画像上にシームレスに表示することが可能となる。   If the WC is defined by one light source group in the real space as described above, the WC can be inherited in an arbitrary imaging region. For example, in the omnidirectional direction, a CG based on the WC coordinate system is displayed on the image. It is possible to display seamlessly.

ここで、カメラの移動距離が長く、WCへの変換のために多くのLCを中継する必要がある場合は、必ずしも、光源群の物理的な配置の順番どおりに変換計算をする必要はない。光源ボードが多数ある場合、WCへの変換には複数種の中継経路が選択肢としてありえるが、その時は、カメラシステム内で、最も中継座標が少ない経路を抽出、適用すれば、計算誤差を最小にすることが可能である。   Here, when the moving distance of the camera is long and it is necessary to relay many LCs for conversion to WC, it is not always necessary to perform conversion calculation in the order of the physical arrangement of the light source groups. When there are a large number of light source boards, multiple types of relay routes may be used as options for conversion to WC. At that time, if the route with the fewest relay coordinates is extracted and applied in the camera system, the calculation error is minimized. Is possible.

また、光源群の設置は、アプリケーションに応じて、カメラの撮影領域が移動すると考えられる範囲に最低限設置すれば良く、例えば、携帯端末に搭載したカメラを想定した場合などは、カメラを上下に向けることを想定する必要はなく、水平方向のみに必要十分な光源群を配置するなどの方法が考えられる。   In addition, the light source group may be installed at least within the range where the shooting area of the camera is considered to move according to the application.For example, when a camera mounted on a mobile terminal is assumed, the camera is moved up and down. There is no need to assume that the light source is directed, and a method of arranging necessary and sufficient light source groups only in the horizontal direction is conceivable.

また、以上の方法は、全撮影範囲に渡り、LED光源をマーカーとした位置検出を行っているが、他の手法と併用することも可能である。例えば、撮影範囲の特定の領域は2次元バーコードや、特徴点の抽出など画像処理の手法による座標系の決定を行っても良い。   Moreover, although the above method performs position detection using the LED light source as a marker over the entire photographing range, it can also be used in combination with other methods. For example, for a specific area of the shooting range, a coordinate system may be determined by a two-dimensional bar code or image processing method such as feature point extraction.

また、上述の実施の形態では、実画像を取得するセンサーと光通信を行うセンサーが同一であることとしたが、センサーは必ずしも同じものである必要はない。例えば図11に示すように、イメージセンサー212と光通信センサー211を近接して配置し、イメージセンサー212の撮影領域よりも光通信センサー211の検出領域を大きくする(画角β>α)。   In the above-described embodiment, the sensor that acquires the actual image is the same as the sensor that performs optical communication. However, the sensors are not necessarily the same. For example, as shown in FIG. 11, the image sensor 212 and the optical communication sensor 211 are arranged close to each other, and the detection area of the optical communication sensor 211 is made larger than the imaging area of the image sensor 212 (view angle β> α).

これにより、光源群がイメージセンサー212の撮影領域から外れても、光通信センサー211の検出領域からはずれていなければ、WCの位置を保持することができる。一般的にイメージセンサー212の画角は、画像のゆがみ許容やアプリケーションなどに制限されるため、設定の自由度は小さいが、光通信センサー211は基本的にそれらの制約を受けることはなく、画角を大きく設定することが可能である。よって、光源群の設置間隔は、光通信センサー211の検出領域に合わせれば良いため、イメージセンサー212の撮影領域に制約されることなく大きな間隔で設置することができ、総じて、光源群の設置数を少なくすることができる。   Accordingly, even if the light source group is out of the imaging area of the image sensor 212, the position of the WC can be held as long as the light source group does not deviate from the detection area of the optical communication sensor 211. In general, the angle of view of the image sensor 212 is limited to allow distortion of the image, applications, and the like. Therefore, although the degree of freedom of setting is small, the optical communication sensor 211 is basically not restricted by these, and the image It is possible to set a large angle. Therefore, the installation interval of the light source groups may be adjusted according to the detection area of the optical communication sensor 211, so that it can be installed at a large interval without being restricted by the imaging area of the image sensor 212. Can be reduced.

また、上述の実施の形態では、光源群の4つのLED光源により一つの座標系を規定するものであったが、4つのLED光源は必ずしも同じボード、同じ平面に固定されている必要はなく、それぞれの3次元上の配置位置がわかっていれば、空間内に点在していても良い。例えば、4つの光源が撮影領域内に存在し、それぞれの世界座標における座標値が既知であるとすると、それぞれのLED光源の撮像面での画素位置がわかれば、変換パラメータU、d1を算出することができる((1−1)式参照。)。つまり、光源群の各光源の位置を当該光源群が規定する座標上の位置として記憶し、光通信信号に基づいて光源を識別して所定の位置関係を取得することとすればよい。これにより、変換パラメータが一意に決定されるので、世界座標上のカメラの位置も算出することが可能となる。また、この中にローカル座標系を規定する他の4つのLED光源を設定すれば、上述の実施の形態と同様に世界座標系の中に、独立させて3DCGをコントロールできるローカル座標系(LC1)を規定することが可能となる。すなわち、カメラがパンした場合、世界座標系の位置が既知である光源が撮影領域からはずれたとしても、カメラの移動により、他の光源が撮影領域に入ることにより、撮影領域中に世界座標系の位置が既知である光源が最低4つ存在すれば、世界座標系を規定することが可能となる。よって、広い領域内でのカメラの移動に対し、世界座標をシームレスに表示することが可能となる。   In the above-described embodiment, one coordinate system is defined by the four LED light sources of the light source group. However, the four LED light sources are not necessarily fixed to the same board and the same plane. If the respective three-dimensional arrangement positions are known, they may be scattered in the space. For example, if there are four light sources in the imaging region and the coordinate values in the respective world coordinates are known, the conversion parameters U and d1 are calculated if the pixel positions on the imaging surface of the respective LED light sources are known. (Refer to the formula (1-1).) In other words, the position of each light source in the light source group may be stored as a position on the coordinates defined by the light source group, and the light source may be identified based on the optical communication signal to obtain a predetermined positional relationship. Thereby, since the conversion parameter is uniquely determined, the position of the camera on the world coordinates can be calculated. In addition, if other four LED light sources that define the local coordinate system are set therein, the local coordinate system (LC1) that can control 3DCG independently in the world coordinate system as in the above-described embodiment. Can be defined. That is, when the camera pans, even if a light source whose position in the world coordinate system is known deviates from the shooting area, another light source enters the shooting area by moving the camera, so that the world coordinate system is included in the shooting area. If there are at least four light sources whose positions are known, the world coordinate system can be defined. Therefore, the world coordinates can be displayed seamlessly with respect to the movement of the camera within a wide area.

また、以上の世界座標系の計算は、個別配置されたLED光源のみを用いるのではなく、光源群が固定されたボードによって規定される座標系の変換手段と併用して運用されても良い。つまり、個別配置された光源が撮影領域内に4つ存在する時は、上述の予め座標位置を記憶する手法を用い、光源ボードが2つ存在するときは、光源ボード間の座標変換計算を実行すればよい。   Further, the calculation of the above world coordinate system may be operated in combination with the coordinate system conversion means defined by the board to which the light source group is fixed, instead of using only individually arranged LED light sources. In other words, when there are four individually arranged light sources in the imaging area, the above-described method of storing the coordinate position is used, and when there are two light source boards, coordinate conversion calculation between the light source boards is executed. do it.

また、世界座標(WC)を規定する光源ボード、または各ローカル座標(LC)を規定する光源ボードの各LEDの座標位置を、光通信により取得することも可能である。つまり、光源ボードを形成する各LED光源は、ID情報を発信すると同時に世界座標(WC)、または、各ローカル座標(LC)における座標値を送信する。例えば、図1で示す光源ボードの場合、光源L_Aは(0,0,0)、L_Bは(S,0,0)、L_Cは(S,S,0)、L_Dは(0,S,0)の位置座標をデータとして送信する。また、図1のように光源の配置が正方形として規格化されているとすれば、各LEDは単に、正方形の一辺の長さSを送信するだけでも良い。   It is also possible to acquire the coordinate position of each LED of the light source board that defines the world coordinates (WC) or each light source board that defines each local coordinate (LC) by optical communication. That is, each LED light source forming the light source board transmits the coordinate information in the world coordinates (WC) or the local coordinates (LC) simultaneously with transmitting the ID information. For example, in the case of the light source board shown in FIG. 1, the light source L_A is (0, 0, 0), L_B is (S, 0, 0), L_C is (S, S, 0), and L_D is (0, S, 0). ) Position coordinates are transmitted as data. Further, assuming that the arrangement of the light sources is standardized as a square as shown in FIG. 1, each LED may simply transmit the length S of one side of the square.

また、上述の実施の形態では、LED光源をのみを利用して世界座標の計算を行っているが、LED光源の光通信と併用して、カメラの動きを検出する他のセンサーからの情報と併用しても良い。例えば、カメラの平行移動方向と距離は、加速度計によって得られる計測値を2回積分することによって求めることができる。また、カメラの回転方向と角度は、角速度計を積分することにより求めることができる。よって、カメラにこれらのセンサーを搭載し、カメラの移動に伴って、必要とされる光源群が撮影領域内に存在しない時は、これらセンサーによって、求められる平行移動と回転から変換パラメータを算出して、補間することも可能である。   In the above-described embodiment, the world coordinates are calculated using only the LED light source, but in combination with the optical communication of the LED light source, information from other sensors that detect the movement of the camera and You may use together. For example, the translation direction and distance of the camera can be obtained by integrating twice the measurement value obtained by the accelerometer. The rotation direction and angle of the camera can be obtained by integrating an angular velocity meter. Therefore, when these sensors are mounted on the camera and the required light source group does not exist in the shooting area as the camera moves, the conversion parameters are calculated from the required translation and rotation by these sensors. Interpolation is also possible.

また、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。   In the above-described embodiment, the hardware configuration has been described. However, the present invention is not limited to this, and arbitrary processing may be realized by causing a CPU (Central Processing Unit) to execute a computer program. Is possible. In this case, the computer program can be provided by being recorded on a recording medium, or can be provided by being transmitted via the Internet or another transmission medium.

信号処理システムの構成を示す模式図である。It is a schematic diagram which shows the structure of a signal processing system. 信号処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of a signal processing apparatus. 光源群とカメラの座標系の関係を示す図である。It is a figure which shows the relationship between the light source group and the coordinate system of a camera. 光源群とカメラの座標系の関係を示す図である。It is a figure which shows the relationship between the light source group and the coordinate system of a camera. 第1の実施の形態における信号処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the signal processing apparatus in 1st Embodiment. 第2の実施の形態における撮像領域の変化を示す模式図である。It is a schematic diagram which shows the change of the imaging region in 2nd Embodiment. 第2の実施の形態における信号処理装置の動作を示すフローチャートである(その1)。It is a flowchart which shows operation | movement of the signal processing apparatus in 2nd Embodiment (the 1). 第2の実施の形態における信号処理装置の動作を示すフローチャートである(その2)。It is a flowchart which shows operation | movement of the signal processing apparatus in 2nd Embodiment (the 2). 第3の実施の形態における撮像領域の変化を示す模式図である。It is a schematic diagram which shows the change of the imaging area in 3rd Embodiment. 第3の実施の形態における信号処理装置の動作を示すフローチャートである(その1)。It is a flowchart which shows operation | movement of the signal processing apparatus in 3rd Embodiment (the 1). 第3の実施の形態における信号処理装置の動作を示すフローチャートである(その2)。It is a flowchart which shows operation | movement of the signal processing apparatus in 3rd Embodiment (the 2). 第4の実施の形態における信号処理装置の動作を示すフローチャートである(その1)。It is a flowchart which shows operation | movement of the signal processing apparatus in 4th Embodiment (the 1). 第4の実施の形態における信号処理装置の動作を示すフローチャートである(その2)。It is a flowchart which shows operation | movement of the signal processing apparatus in 4th Embodiment (the 2). イメージセンサーと光通信センサーとの検出範囲を示す図である。It is a figure which shows the detection range of an image sensor and an optical communication sensor.

符号の説明Explanation of symbols

10 光源群、11 光源群、12 光源群、20 カメラ、21 センサー、22 信号処理部、22 デコード処理部、23 演算部、24 記憶部、25 表示部、211 光通信センサー、212 イメージセンサー、221 画像信号処理部、222 デコード処理部、231 カメラ位置・姿勢検出部、232 変換パラメータ算出部、233 3DCG位置座標算出部、234 3DCG合成処理部、241 パラメータ記憶部、242 3DCG位置座標記憶部 DESCRIPTION OF SYMBOLS 10 Light source group, 11 Light source group, 12 Light source group, 20 Camera, 21 Sensor, 22 Signal processing part, 22 Decoding process part, 23 Computation part, 24 Storage part, 25 Display part, 211 Optical communication sensor, 212 Image sensor, 221 Image signal processing unit, 222 decode processing unit, 231 camera position / attitude detection unit, 232 conversion parameter calculation unit, 233 3DCG position coordinate calculation unit, 234 3DCG synthesis processing unit, 241 parameter storage unit, 242 3DCG position coordinate storage unit

Claims (14)

光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力手段と、
前記各光源の識別情報と画素位置に基づいて前記光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する自身座標変換パラメータを算出する演算手段とを備え、
前記演算手段は、第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記第1の光源群が規定する第1の座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する第2の座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出することを特徴とする信号処理システム。
Input means for inputting identification information and pixel position of each light source of a light source group in which the light sources are arranged in a predetermined positional relationship;
A calculation means for calculating a self-coordinate conversion parameter for converting a position on the coordinate specified by the light source group into a position on the coordinate specified by the light source group based on the identification information of each light source and the pixel position;
When the identification information and the pixel position of each light source are input from the first light source group and the second light source group, the calculation means determines the position on the first coordinate defined by the first light source group. A first self-coordinate conversion parameter for converting to a position on a coordinate specified by itself, and a second for converting a position on a second coordinate specified by the second light source group to a position on the coordinate specified by the second light source group. And a coordinate conversion parameter for converting a position on the second coordinate to a position on the first coordinate based on the own coordinate conversion parameter.
少なくとも4つの光源が所定の位置関係で配置された光源群をさらに備え、
前記光源は、光の点滅パターンにより当該光源の識別情報を含む光通信信号を送信することを特徴とする請求項1記載の信号処理システム。
A light source group in which at least four light sources are arranged in a predetermined positional relationship;
The signal processing system according to claim 1, wherein the light source transmits an optical communication signal including identification information of the light source by a blinking pattern of light.
前記光源群の画像を取得する撮像手段と、
前記光源群の画像から光通信信号をデコードして各光源の識別情報を検出するとともに各光源が結像した画素位置を検出する検出手段とをさらに備えることを特徴とする請求項2記載の信号処理システム。
An imaging means for acquiring an image of the light source group;
3. The signal according to claim 2, further comprising detection means for detecting an identification information of each light source by decoding an optical communication signal from an image of the light source group and detecting a pixel position where each light source forms an image. Processing system.
前記座標間変換パラメータを記憶する記憶手段をさらに備え、
前記演算手段は、前記記憶手段に記憶された座標間変換パラメータに基づいて前記第2の座標上の位置を前記第1の座標上の位置に変換することを特徴とする請求項3記載の信号処理システム。
Storage means for storing the inter-coordinate conversion parameter,
4. The signal according to claim 3, wherein the computing means converts the position on the second coordinate to the position on the first coordinate based on the inter-coordinate conversion parameter stored in the storage means. Processing system.
前記演算手段は、前記第2の光源群と第3の光源群とから各光源の識別情報と画素位置とが入力された場合、前記第2の自身座標変換パラメータと、前記第3の光源群が規定する第3の座標上の位置を自身が規定する座標上の位置に変換する第3の自身座標変換パラメータとに基づいて、前記第3の座標上の位置を前記第2の座標上の位置に変換する座標間変換パラメータを算出し、
当該座標間変換パラメータと前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータとに基づいて、前記第3の座標上の位置を前記第1の座標上の位置に変換することを特徴とする請求項4記載の信号処理システム。
When the identification information and the pixel position of each light source are input from the second light source group and the third light source group, the calculation means, the second self-coordinate conversion parameter, and the third light source group Based on the third self-coordinate conversion parameter for converting the position on the third coordinate defined by the current position to the position on the coordinate defined by itself, the position on the third coordinate is determined on the second coordinate. Calculate the inter-coordinate conversion parameter to convert to the position,
Based on the inter-coordinate conversion parameter and the inter-coordinate conversion parameter for converting the position on the second coordinate to the position on the first coordinate, the position on the third coordinate is set on the first coordinate. The signal processing system according to claim 4, wherein the signal processing system is converted into a position.
前記演算手段は、前記撮像手段にて取得された画像に前記光源群が予め規定する画像を合成することを特徴とする請求項4記載の信号処理システム。   The signal processing system according to claim 4, wherein the arithmetic unit synthesizes an image preliminarily defined by the light source group with an image acquired by the imaging unit. 前記演算手段は、前記第1の光源群と前記第2の光源群とから光通信信号を受信した状態から前記第2の光源群の光通信信号のみを受信する状態になった場合、前記座標間変換パラメータを前記記憶手段に記憶させることを特徴とする請求項4記載の信号処理システム。   When the arithmetic means is in a state of receiving only the optical communication signal of the second light source group from the state of receiving the optical communication signal from the first light source group and the second light source group, the coordinates 5. The signal processing system according to claim 4, wherein an inter-conversion parameter is stored in the storage means. 前記座標間変換パラメータは、前記第1の座標と前記第2の座標との間の回転変換行列及び並行移動ベクトルの各要素値であることを特徴とする請求項4記載の信号処理システム。   5. The signal processing system according to claim 4, wherein the inter-coordinate conversion parameter is an element value of a rotation conversion matrix and a parallel movement vector between the first coordinate and the second coordinate. 前記光源群は、前記受信手段が少なくとも2つの光源群から光通信信号を受信可能な間隔で配置されていることを特徴とする請求項2記載の信号処理システム。   The signal processing system according to claim 2, wherein the light source group is arranged at an interval at which the receiving unit can receive optical communication signals from at least two light source groups. 前記光源群は、4つの光源が所定の間隔で正方形状に配置されていることを特徴とする請求項2記載の信号処理システム。   The signal processing system according to claim 2, wherein the light source group includes four light sources arranged in a square shape at a predetermined interval. 前記光源は、当該光源の座標情報を含む光通信信号を送信することを特徴とする請求項2記載の信号処理システム。   The signal processing system according to claim 2, wherein the light source transmits an optical communication signal including coordinate information of the light source. 前記光通信信号を受信する受信手段と
前記光源群の画像を取得する撮像手段とをさらに備え、
前記受信手段における光通信信号の受像領域は、前記撮像手段における撮像領域よりも大きいことを特徴とする請求項2記載の信号処理システム。
Receiving means for receiving the optical communication signal; and imaging means for acquiring an image of the light source group;
The signal processing system according to claim 2, wherein an image receiving area of the optical communication signal in the receiving unit is larger than an imaging area in the imaging unit.
光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力工程と、
第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記各光源の識別情報と画素位置に基づいて前記第1の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとを算出する自身座標パラメータ算出工程と、
前記第1の自身座標変換パラメータと前記第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出する座標間変換パラメータ算出工程とを有することを特徴とする信号処理方法。
An input step of inputting identification information and pixel position of each light source of a light source group in which the light sources are arranged in a predetermined positional relationship;
Coordinates defined by the first light source group based on the identification information and the pixel position of each light source when the identification information and the pixel position of each light source are input from the first light source group and the second light source group. A first self-coordinate conversion parameter for converting the upper position into a position on a coordinate specified by itself and a position on the coordinate specified by the second light source group into a position on the coordinate specified by the second light source group; A self-coordinate parameter calculating step of calculating two self-coordinate conversion parameters;
Coordinates for calculating an inter-coordinate conversion parameter for converting a position on the second coordinate to a position on the first coordinate based on the first self-coordinate conversion parameter and the second self-coordinate conversion parameter A signal processing method comprising: an inter-conversion parameter calculation step.
光源が所定の位置関係で配置された光源群の各光源の識別情報と画素位置とを入力する入力工程と、
第1の光源群と第2の光源群とから各光源の識別情報と画素位置とが入力された場合、前記各光源の識別情報と画素位置に基づいて前記第1の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第1の自身座標変換パラメータと、前記第2の光源群が規定する座標上の位置を自身が規定する座標上の位置に変換する第2の自身座標変換パラメータとを算出する自身座標パラメータ算出工程と、
前記第1の自身座標変換パラメータと前記第2の自身座標変換パラメータとに基づいて、前記第2の座標上の位置を前記第1の座標上の位置に変換する座標間変換パラメータを算出する座標間変換パラメータ算出工程とをコンピュータに実行させるプログラム。
An input step of inputting identification information and pixel position of each light source of a light source group in which the light sources are arranged in a predetermined positional relationship;
Coordinates defined by the first light source group based on the identification information and the pixel position of each light source when the identification information and the pixel position of each light source are input from the first light source group and the second light source group. A first self-coordinate conversion parameter for converting the upper position into a position on a coordinate specified by itself and a position on the coordinate specified by the second light source group into a position on the coordinate specified by the second light source group; A self-coordinate parameter calculating step of calculating two self-coordinate conversion parameters;
Coordinates for calculating an inter-coordinate conversion parameter for converting a position on the second coordinate to a position on the first coordinate based on the first self-coordinate conversion parameter and the second self-coordinate conversion parameter A program that causes a computer to execute an inter-conversion parameter calculation step.
JP2007262657A 2007-10-05 2007-10-05 Signal processing system, signal processing method, and program Withdrawn JP2009093376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007262657A JP2009093376A (en) 2007-10-05 2007-10-05 Signal processing system, signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007262657A JP2009093376A (en) 2007-10-05 2007-10-05 Signal processing system, signal processing method, and program

Publications (1)

Publication Number Publication Date
JP2009093376A true JP2009093376A (en) 2009-04-30

Family

ID=40665314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262657A Withdrawn JP2009093376A (en) 2007-10-05 2007-10-05 Signal processing system, signal processing method, and program

Country Status (1)

Country Link
JP (1) JP2009093376A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077780A (en) * 2009-09-30 2011-04-14 Shotoku Corp Method for calculating position of camera device
WO2013118373A1 (en) * 2012-02-10 2013-08-15 ソニー株式会社 Image processing apparatus, image processing method, and program
CN105531756A (en) * 2013-09-17 2016-04-27 索尼公司 Information processing device, information processing method, and computer program
JP2020502623A (en) * 2016-10-27 2020-01-23 シグニファイ ホールディング ビー ヴィSignify Holding B.V. How to provide information about an object

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077780A (en) * 2009-09-30 2011-04-14 Shotoku Corp Method for calculating position of camera device
WO2013118373A1 (en) * 2012-02-10 2013-08-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JPWO2013118373A1 (en) * 2012-02-10 2015-05-11 ソニー株式会社 Image processing apparatus, image processing method, and program
US9268410B2 (en) 2012-02-10 2016-02-23 Sony Corporation Image processing device, image processing method, and program
CN105531756A (en) * 2013-09-17 2016-04-27 索尼公司 Information processing device, information processing method, and computer program
JP2020502623A (en) * 2016-10-27 2020-01-23 シグニファイ ホールディング ビー ヴィSignify Holding B.V. How to provide information about an object

Similar Documents

Publication Publication Date Title
US10852847B2 (en) Controller tracking for multiple degrees of freedom
KR101768958B1 (en) Hybird motion capture system for manufacturing high quality contents
US8798387B2 (en) Image processing device, image processing method, and program for image processing
JP5961249B2 (en) Color channel and light marker
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US8648879B2 (en) Apparatus and method for tracking augmented reality content
US10783654B2 (en) Information processing apparatus, information processing method, and recording medium
US10999412B2 (en) Sharing mediated reality content
TW201142745A (en) Information processing apparatus, information processing system, and information processing method
US10890600B2 (en) Real-time visual-inertial motion tracking fault detection
WO2014016986A1 (en) Three-dimensional environment sharing system, and three-dimensional environment sharing method
TWI642903B (en) Locating method, locator, and locating system for head-mounted display
Côté et al. Live mobile panoramic high accuracy augmented reality for engineering and construction
US10192360B2 (en) Information processing apparatus and information processing method
CN103198286B (en) Information processing terminal, information processing method, and program
KR20150076186A (en) Motion compensation in an interactive display system
KR20110132260A (en) Monitor based augmented reality system
EP3913478A1 (en) Systems and methods for facilitating shared rendering
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP2009093376A (en) Signal processing system, signal processing method, and program
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
KR20230079152A (en) Pose Tracking for Rolling-Shutter Cameras
CN112074705A (en) Method and system for optical inertial tracking of moving object
WO2021075307A1 (en) Information processing device, information processing method, and information processing program
CN111489376B (en) Method, device, terminal equipment and storage medium for tracking interaction equipment

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207