JP2013106324A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2013106324A
JP2013106324A JP2011251094A JP2011251094A JP2013106324A JP 2013106324 A JP2013106324 A JP 2013106324A JP 2011251094 A JP2011251094 A JP 2011251094A JP 2011251094 A JP2011251094 A JP 2011251094A JP 2013106324 A JP2013106324 A JP 2013106324A
Authority
JP
Japan
Prior art keywords
image
image processing
data
processing apparatus
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011251094A
Other languages
Japanese (ja)
Other versions
JP5927856B2 (en
JP2013106324A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011251094A priority Critical patent/JP5927856B2/en
Publication of JP2013106324A publication Critical patent/JP2013106324A/en
Publication of JP2013106324A5 publication Critical patent/JP2013106324A5/ja
Application granted granted Critical
Publication of JP5927856B2 publication Critical patent/JP5927856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily provide an image equivalent to that photographed at a view point which an appreciator desires.SOLUTION: A picked-up image acquisition section 62 acquires data on a plurality of picked-up images imaged by a plurality of cameras 11 imaging prescribed space where an object OB may move from respective positions. A position information acquisition section 63 acquires a position of the object OB moving in the prescribed space. A view point conversion image processing section 74 processes view point conversion on data of the picked-up image acquired by the picked-up image acquisition section 62 on the basis of the acquired position to generate data of the image in which a virtual view point arranged in the object OB watches a prescribed viewing direction as data of a view point conversion image. A display control section 65 performs control for displaying and outputting data of the generated view point conversion image.

Description

本発明は、鑑賞者が所望する視点で撮影されたのと等価な画像を容易に得ることを可能にする、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program that make it possible to easily obtain an image equivalent to a photograph taken from a viewpoint desired by a viewer.

従来、サッカー等のスポーツ競技における放送に用いる映像の撮影では、定点カメラや、報道席のカメラマンが保持するカメラ等が用いられている。即ち、これらのカメラによって、遠方から望遠撮影されたスポーツ競技の映像が放送等されている。   Conventionally, a fixed-point camera, a camera held by a photographer at a news report seat, or the like is used for shooting a video used for broadcasting in a sports competition such as soccer. In other words, sports cameras that are telephoto shot from a distance are broadcast by these cameras.

しかしながら、このような遠方から撮像された映像では、たとえ望遠撮影等を織り交ぜたとしても、迫力に乏しいという印象を鑑賞者に与えてしまう。   However, in such an image captured from a distance, even if telephoto shooting is interwoven, it gives the viewer the impression that it is not powerful.

そこで、サッカー等の球技について、より迫力のある映像を得るために、球技用のボールの中に、カメラやセンサを内蔵する技術が提案されている(例えば、特許文献1〜特許文献3参照)。このような技術を適用することで、ボール内のセンサが衝撃や加速度を検出したら、ボール内のカメラが所定の瞬間の画像を撮影することができるので、ボール視点とした画像の再生が可能になる。ただし、ボールは回転したり振動するので、落下するボール自体の姿勢制御を行うことで画像を安定化する技術も特許文献1に記載されている。   Therefore, in order to obtain a more powerful image of a ball game such as soccer, a technique in which a camera or a sensor is incorporated in a ball for ball game has been proposed (for example, see Patent Documents 1 to 3). . By applying such technology, if the sensor in the ball detects an impact or acceleration, the camera in the ball can take an image at a predetermined moment, so that it is possible to reproduce the image from the ball viewpoint. Become. However, since the ball rotates or vibrates, Patent Document 1 discloses a technique for stabilizing an image by controlling the attitude of the falling ball itself.

なお、サッカーや格闘技等、スポーツを模擬したゲーム機器も近年開発されている(例えば、特許文献4参照)。このようなゲーム機器では、所定のシーンを模擬した3次元CG(Computer Graphics)を再構成して、リプレイ表示することができるようになっている。   In recent years, game machines simulating sports such as soccer and martial arts have also been developed (see, for example, Patent Document 4). In such a game machine, three-dimensional CG (Computer Graphics) simulating a predetermined scene can be reconfigured and replayed.

特開2007−104254号公報JP 2007-104254 A 特開2001−042420号公報JP 2001-042420 A 特開2007−104234号公報JP 2007-104234 A 特開平07−116343号公報JP 07-116343 A

しかしながら、特許文献1〜3の従来の技術を適用してボール視点の画像を得るためには、ボールは逐次姿勢変化していることから、当該ボール自身又は内蔵されたカメラの姿勢制御を逐次的確に行わなければならない。このためには、複雑な構造の大掛かりな設備が必要となり、ボール視点の画像を容易に得ることができなかった。   However, in order to obtain the image of the ball viewpoint by applying the conventional techniques of Patent Documents 1 to 3, since the ball is successively changed in posture, the posture control of the ball itself or a built-in camera is sequentially confirmed. Must be done. For this purpose, a large-scale facility with a complicated structure is required, and an image from a ball viewpoint cannot be easily obtained.

また、鑑賞者の中には、ボールだけではなく、選手等他のオブジェクトを視点とした画像を得ることを要求するものも多く存在するが、特許文献1〜3の従来の技術では当該要求に十分に応えることはできない。   In addition, there are many viewers that request to obtain an image from the viewpoint of not only the ball but also other objects such as players, but the conventional techniques of Patent Documents 1 to 3 meet the request. I can't respond enough.

また、特許文献4の従来の技術は、あくまでもゲームという仮想現実に適用可能な技術であり、現実のスポーツ等を撮像する技術にはそのまま適用することは困難である。   In addition, the conventional technique of Patent Document 4 is a technique that can be applied to a virtual reality of a game to the last, and it is difficult to apply the technique as it is to a technique for imaging a real sport or the like.

本発明は、このような状況に鑑みてなされたものであり、鑑賞者が所望する視点で撮影されたのと等価な画像を容易に得ることを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to easily obtain an image equivalent to a photograph taken from a viewpoint desired by a viewer.

上記目的を達成するため、本発明の一態様の画像処理装置は、オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得手段と、前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得手段と、前記位置取得手段により取得された前記位置に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工手段と、前記画像加工手段により生成された前記視点変換画像のデータを出力する制御を実行する出力制御手段と、を備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention provides data of a plurality of captured images captured by each of a plurality of imaging apparatuses that capture a predetermined space in which an object can move from different positions. The plurality of image acquisition means acquired by the image acquisition means based on the position acquired by the image acquisition means, the position acquisition means for acquiring the position of the object moving in the predetermined space, and the position acquisition means Image processing means for generating, as viewpoint conversion image data, image data representing a state in which the virtual viewpoint arranged on the object looks at a predetermined viewing direction by processing viewpoint data of the captured image data of And output control means for executing control for outputting data of the viewpoint conversion image generated by the image processing means.

本発明によれば、鑑賞者が所望する視点で撮影されたのと等価な画像を容易に得ることができる。   According to the present invention, it is possible to easily obtain an image equivalent to that taken from the viewpoint desired by the viewer.

本発明の第1実施形態に係る画像処理システムの概略的な構成を示す模式図である。1 is a schematic diagram showing a schematic configuration of an image processing system according to a first embodiment of the present invention. 図1の画像処理装置によって生成される視点変換画像の元画像の各種具体例を示す模式図である。FIG. 2 is a schematic diagram illustrating various specific examples of an original image of a viewpoint conversion image generated by the image processing apparatus of FIG. 1. 図1の画像処理装置で生成される視点変換画像の具体例を示している。The example of the viewpoint conversion image produced | generated with the image processing apparatus of FIG. 1 is shown. 本実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the image processing apparatus which concerns on this embodiment. 図4の画像処理装置の機能的構成のうち、視点変換画像生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a viewpoint conversion image generation process among the functional structures of the image processing apparatus of FIG. 図5の機能的構成を有する図4の画像処理装置が実行する、第1実施形態に係る視点変換画像生成処理の流れを説明するフローチャートである。6 is a flowchart illustrating a flow of viewpoint-converted image generation processing according to the first embodiment, which is executed by the image processing apparatus of FIG. 4 having the functional configuration of FIG. 5. 本発明の第1実施形態の第1変形例に係る画像処理システムの概略的な構成を示す模式図であって、選手のオブジェクトが視点として選択された場合における概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the image processing system which concerns on the 1st modification of 1st Embodiment of this invention, Comprising: It is a schematic diagram which shows schematic structure when a player's object is selected as a viewpoint. 図1の画像処理装置で生成される視点変換画像の具体例を示している。The example of the viewpoint conversion image produced | generated with the image processing apparatus of FIG. 1 is shown. 選択オブジェクトの位置情報の取得手法の一例を示す模式図である。It is a schematic diagram which shows an example of the acquisition method of the positional information on a selection object. 選択オブジェクトの位置情報の取得手法の一例を示す模式図である。It is a schematic diagram which shows an example of the acquisition method of the positional information on a selection object. 選択オブジェクトの位置情報の取得手法の一例を示す模式図である。It is a schematic diagram which shows an example of the acquisition method of the positional information on a selection object. 図5の機能的構成を有する図4の画像処理装置が実行する、第2実施形態に係る視点変換画像生成処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the viewpoint conversion image generation process which concerns on 2nd Embodiment which the image processing apparatus of FIG. 4 which has the functional structure of FIG. 5 performs.

[第1実施形態]
以下、本発明の第1実施形態について、図面を用いて説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施形態に係る画像処理システムの概略的な構成を示す模式図である。
本実施形態に係る画像処理システム10は、競技場Fで開催されるサッカーの試合を撮像する用途で設定されている。
このため、サッカーボール(以下、「ボール」と略記する)や選手等から、鑑賞者に提供される画像の視点となり得るオブジェクトがm個採用されるものとする。ここで、mは、1以上の任意の整数値であるが、本実施形態ではボール及び選手数と同一の値である「7」とする。
FIG. 1 is a schematic diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention.
The image processing system 10 according to the present embodiment is set for the purpose of imaging a soccer game held in the stadium F.
For this reason, m objects that can serve as viewpoints of images provided to the viewer are adopted from soccer balls (hereinafter abbreviated as “balls”), players, and the like. Here, m is an arbitrary integer value of 1 or more, but in this embodiment, it is “7”, which is the same value as the ball and the number of players.

具体的には、図1は、ボールのオブジェクトに配置された仮想視点が選択された場合における、本実施形態に係る画像処理システムの概略構成を示している。
なお、本明細書では、実空間を実際に撮像する撮像部(カメラ等)の視点を「実際の視点」と呼び、この実際の視点に対する概念として「仮想視点」が記載されている。即ち、「仮想視点」とは、撮像部以外の物体(実物体又は仮想物体)に可変可能に配置される仮想的な視点をいう。
Specifically, FIG. 1 shows a schematic configuration of the image processing system according to the present embodiment when a virtual viewpoint arranged on a ball object is selected.
In this specification, the viewpoint of an imaging unit (such as a camera) that actually captures a real space is referred to as “real viewpoint”, and “virtual viewpoint” is described as a concept for this actual viewpoint. That is, the “virtual viewpoint” refers to a virtual viewpoint that is variably arranged on an object (real object or virtual object) other than the imaging unit.

図1に示すように、本実施形態に係る画像処理システム10においては、ボールであるオブジェクトOB1及び各選手のそれぞれであるオブジェクトOB2〜OB7と、競技場Fを周囲から撮影するカメラ11a〜11hと、画像処理装置12と、中継装置13と、n台の外部端末14−1〜14−nと、がネットワークNを介して相互に接続されている。ネットワークNは、LAN(Local Area Network)やインターネット等の任意のネットワークである。
以下、外部端末14−1〜14−nを個々に区別する必要がない場合、これらをまとめて、「外部端末14」と単に呼ぶ。また、外部端末14と呼んでいる場合には、その構成要素の符号についても、1〜nを省略して説明する。
また、以下、オブジェクトOB1〜OB7を個々に区別する必要がない場合、これらをまとめて、「オブジェクトOB」と単に呼ぶ。また、オブジェクトOBと呼んでいる場合には、その構成要素の符号についても、1〜7を省略して説明する。
オブジェクトOBは、詳細については、図5を参照し後述するがセンサ部111及び送信部112を備えており、オブジェクトOBの位置情報のデータを画像処理装置12に逐次送信する。
また、以下、カメラ11a〜11hを個々に区別する必要がない場合、これらをまとめて、「カメラ11」と単に呼ぶ。また、カメラ11と呼んでいる場合には、その構成要素の符号についても、a〜hを省略して説明する。
As shown in FIG. 1, in the image processing system 10 according to the present embodiment, an object OB1 that is a ball, objects OB2 to OB7 that are respective players, and cameras 11a to 11h that shoot the stadium F from the surroundings. The image processing device 12, the relay device 13, and n external terminals 14-1 to 14-n are connected to each other via a network N. The network N is an arbitrary network such as a LAN (Local Area Network) or the Internet.
Hereinafter, when it is not necessary to individually distinguish the external terminals 14-1 to 14-n, these are collectively referred to as “external terminal 14”. Further, when the external terminal 14 is called, the reference numerals of the constituent elements are also omitted in the description.
Further, hereinafter, when it is not necessary to individually distinguish the objects OB1 to OB7, they are collectively referred to as “object OB”. Further, in the case of calling the object OB, the reference numerals of the constituent elements are also omitted in the description.
The object OB includes a sensor unit 111 and a transmission unit 112, which will be described in detail later with reference to FIG. 5, and sequentially transmits position information data of the object OB to the image processing device 12.
In addition, hereinafter, when it is not necessary to individually distinguish the cameras 11a to 11h, these are collectively referred to as “camera 11”. In addition, when the camera 11 is called, the reference numerals of the constituent elements will be described with a to h omitted.

図1に示すように、画像処理装置12は、各オブジェクトOB1〜OB7のうち、ボールのオブジェクトOB1を、仮想視点を配置するためのオブジェクトOBとして選択することができる。このように仮想視点となるように選択されたオブジェクトをOB、以下、「選択オブジェクト」と呼ぶ。   As shown in FIG. 1, the image processing apparatus 12 can select a ball object OB1 among the objects OB1 to OB7 as an object OB for arranging a virtual viewpoint. The object selected to become the virtual viewpoint in this way is called OB, and hereinafter referred to as “selected object”.

ここで、本実施形態では、競技場F内の任意の1点はカメラ11a〜11hのうちの少なくとも1つの撮像画像に含まれるように、カメラ11a〜11hの各々は競技場Fの周囲の各位置(定点)に配置されている。従って、本実施形態では、選択オブジェクトOBが映り込んだ画像は、カメラ11a〜11hのうちの少なくとも1つによって常に撮像されているものとする。
そこで、画像処理装置12は、カメラ11a〜11hにより撮像された撮像画像のデータのうち少なくとも1つを、移動方向A1に移動している選択オブジェクトOB1から逐次送信されてくる位置情報に基づいて加工することによって、当該選択オブジェクトOB1に配置された仮想視点がブレや回転をすることなく移動方向A1に移動していくような一連の画像(動画像、連写画像或いは静止画)のデータを生成する。即ち、この場合、画像処理装置12は、選択オブジェクトOB1の移動方向A1に基づく画像(動画像、連写画像或いは静止画)のデータを生成する。
具体的には、選択オブジェクトOB1は、ボールであるために本来ブレや回転が生ずるが、仮想視点は、ブレや回転をすることなく移動方向A1に移動していくように、選択オブジェクトOB1に可変配置される。即ち、図1の例では、仮想視点は、選択オブジェクトOB1から眺望するものであるが、固定的に配置されてブレや回転が生じるのではなく、水平方向は常に一定方向を眺望できるように(その結果回転することなく移動方向A1に移動していくように)選択オブジェクトOB1に可変配置される。ここで、選択オブジェクトOB1からの仮想視点が眺める所定の方向を、以下、「眺望方向」と呼ぶ。
一方で、カメラ11a〜11hにより撮像された撮像画像のデータとは、実際の視点から選択オブジェクトOB1を含む競技場Fを周囲から眺めた様子を表わす画像のデータである。
従って、画像処理装置12は、競技場Fの周囲(外部)の実際の視点から眺めた様子を表わす画像のデータを、競技場F内において選択オブジェクトOB1の移動方向A1に移動する仮想視点が、当該移動方向A1を眺望方向として眺めた様子を表わす画像のデータに変換している、と把握することもできる。
なお、以下、競技場Fの周囲(外部)のカメラ11a〜11h等における実際の視点から眺めた様子を表わす画像のデータを、即ち、変換の元になる画像のデータを、「元画像のデータ」と呼ぶ。一方、元画像のデータから変換した画像のデータ、即ち、競技場Fの内部において選択オブジェクトOB1の移動方向A1に移動する仮想視点が、当該移動方向A1を眺望方向として眺めた様子を表わす画像のデータを、「視点変換画像のデータ」と呼ぶ。
Here, in this embodiment, each of the cameras 11a to 11h is each of the surroundings of the stadium F so that any one point in the stadium F is included in at least one captured image of the cameras 11a to 11h. It is arranged at a position (fixed point). Therefore, in the present embodiment, it is assumed that an image in which the selected object OB is reflected is always captured by at least one of the cameras 11a to 11h.
Therefore, the image processing device 12 processes at least one of the captured image data captured by the cameras 11a to 11h based on position information sequentially transmitted from the selected object OB1 moving in the movement direction A1. As a result, data of a series of images (moving images, continuous shot images, or still images) in which the virtual viewpoint arranged in the selected object OB1 moves in the moving direction A1 without blurring or rotating is generated. To do. That is, in this case, the image processing device 12 generates data of an image (moving image, continuous shot image, or still image) based on the moving direction A1 of the selected object OB1.
Specifically, since the selected object OB1 is a ball, blurring or rotation originally occurs, but the virtual viewpoint can be changed to the selection object OB1 so as to move in the movement direction A1 without blurring or rotation. Be placed. In other words, in the example of FIG. 1, the virtual viewpoint is viewed from the selected object OB1, but is not fixedly placed and does not shake or rotate, so that the horizontal direction can always be viewed in a certain direction ( As a result, the selected object OB1 is variably arranged so as to move in the movement direction A1 without rotating). Here, the predetermined direction viewed from the virtual viewpoint from the selected object OB1 is hereinafter referred to as “view direction”.
On the other hand, the captured image data captured by the cameras 11a to 11h is image data representing a state in which the stadium F including the selected object OB1 is viewed from the periphery from an actual viewpoint.
Therefore, the image processing apparatus 12 has a virtual viewpoint that moves the image data representing the state viewed from the actual viewpoint around (outside) the stadium F in the moving direction A1 of the selected object OB1 in the stadium F. It can also be understood that the moving direction A1 has been converted into image data representing a view as viewed from the viewing direction.
Hereinafter, image data representing a state viewed from an actual viewpoint of the cameras 11a to 11h around the stadium F (external), that is, image data to be converted is referred to as “original image data”. " On the other hand, image data converted from the original image data, that is, an image representing a state where the virtual viewpoint moving in the moving direction A1 of the selected object OB1 in the stadium F is viewed with the moving direction A1 as the viewing direction. The data is referred to as “viewpoint-converted image data”.

図2は、カメラ11a〜11hにより撮像された撮像画像、即ち元画像の候補の各種具体例を示している。   FIG. 2 shows various specific examples of captured images captured by the cameras 11a to 11h, that is, candidates for original images.

図2(a)の元画像の候補は、競技場Fの周囲(図1中、左下の隅)に設置されたカメラ11aにより、競技場Fの手前左側コーナーから右斜め45度の方向で撮像された撮像画像である。
図2(b)の元画像の候補は、競技場Fの周囲(図1中、中央下)に設置されたカメラ11bにより、競技場Fの手前センターラインから正面に向かう方向で撮像された撮像画像である。
図2(c)の元画像の候補は、競技場Fの周囲(図1中、右下の隅)に設置されたカメラ11cにより、競技場Fの手前右側コーナーから左斜め45度の方向で撮像された撮像画像である。
図2(d)の元画像の候補は、競技場Fの周囲(図1中、左上の隅)に設置されたカメラ11dにより、競技場Fの奥左側コーナーから右斜め45度の方向で撮像された撮像画像である。
図2(e)の元画像の候補は、競技場Fの周囲(図1中、中央上)に設置されたカメラ11eにより、競技場Fの奥センターラインから正面に向かう方向で撮像された撮像画像である。
図2(f)の元画像の候補は、競技場Fの周囲(図1中、右上の隅)に設置されたカメラ11fにより、競技場Fの奥右側コーナーから左斜め45度の方向で撮像された撮像画像である。
図2(g)の元画像の候補は、競技場Fの周囲(図1中、左の隅)に設置されたカメラ11gにより、ゴールG1の裏側からゴールG2に向かう方向で撮像された撮像画像である。
図2(h)の元画像の候補は、競技場Fの周囲(図1中、右の隅)に設置されたカメラ11hにより、ゴールG2の裏側からゴールG1に向かう方向で撮像された撮像画像である。
The candidates for the original image in FIG. 2A are taken in the direction of 45 degrees to the right from the front left corner of the stadium F by the camera 11a installed around the stadium F (lower left corner in FIG. 1). This is a captured image.
The candidate of the original image in FIG. 2B is an image picked up in the direction from the front center line of the stadium F to the front by the camera 11b installed around the stadium F (lower center in FIG. 1). It is an image.
The candidate for the original image in FIG. 2 (c) is inclined 45 degrees to the left from the front right corner of the stadium F by the camera 11c installed around the stadium F (lower right corner in FIG. 1). It is a captured image.
The candidate for the original image in FIG. 2 (d) is captured in the direction of 45 ° diagonally right from the far left corner of the stadium F by the camera 11d installed around the stadium F (upper left corner in FIG. 1). This is a captured image.
The candidate for the original image in FIG. 2E is an image picked up in the direction from the back center line of the stadium F to the front by the camera 11e installed around the stadium F (upper center in FIG. 1). It is an image.
The candidate for the original image in FIG. 2 (f) is picked up in the direction of 45 degrees leftward from the far right corner of the stadium F by the camera 11f installed around the stadium F (upper right corner in FIG. 1). This is a captured image.
The candidate for the original image in FIG. 2G is a captured image captured in the direction from the back side of the goal G1 toward the goal G2 by the camera 11g installed around the stadium F (left corner in FIG. 1). It is.
The candidate for the original image in FIG. 2H is a captured image captured in the direction from the back side of the goal G2 toward the goal G1 by the camera 11h installed around the stadium F (right corner in FIG. 1). It is.

本実施形態では、このようにして、カメラ11a〜11hの各々の撮像画像のデータが元画像の候補のデータとなり、これらの候補のデータの中から、選択オブジェクトOBの位置情報に基づいて選択された1つが、元画像のデータとして採用される。   In this embodiment, the captured image data of each of the cameras 11a to 11h becomes the original image candidate data as described above, and is selected from the candidate data based on the position information of the selected object OB. One is used as data of the original image.

ここで、選択オブジェクトOBからの位置情報の取得手法として、本実施形態では次のような手法が採用されている。
即ち、選択オブジェクトOBになり得るオブジェクトOB1〜OB7には、位置情報を取得可能なセンサが取り付けられており、時間の経過と共に位置情報が逐次送信されるので、画像処理装置12が当該位置情報を取得する、という手法が採用されている。
具体的には例えば、ボールのオブジェクトOB1には、位置情報を取得可能なセンサとして、複数の移動位置センサユニットが内蔵されている。移動位置センサユニットは、具体的には、3軸加速度センサ等の3次元位置計測手段や高精度の測位手段と、時間経過毎に3次元位置情報を外部端末14に送信する無線送信手段と、測位手段や無線送信手段に電力を供給する電力供給手段等により構成される。
そこで、本手法では、画像処理装置12は、移動位置センサユニットの無線送信手段から、無線LANやbluetooth(登録商標)等の形態で送信された位置情報を受信することで、当該位置情報を取得する。
Here, as a method for acquiring position information from the selected object OB, the following method is employed in the present embodiment.
That is, the sensors OB1 to OB7 that can be the selected object OB are equipped with sensors capable of acquiring position information, and the position information is sequentially transmitted as time passes. The method of acquiring is adopted.
Specifically, for example, the ball object OB1 includes a plurality of movement position sensor units as sensors capable of acquiring position information. Specifically, the movement position sensor unit includes a three-dimensional position measurement unit such as a three-axis acceleration sensor, a high-precision positioning unit, a wireless transmission unit that transmits three-dimensional position information to the external terminal 14 over time, It comprises power supply means for supplying power to positioning means and wireless transmission means.
Therefore, in this method, the image processing apparatus 12 acquires the position information by receiving the position information transmitted in a form such as a wireless LAN or Bluetooth (registered trademark) from the wireless transmission unit of the movement position sensor unit. To do.

画像処理装置12は、このようにして選択オブジェクトOBの位置情報を取得すると、当該位置情報に基づいて、カメラ11a〜11hの各撮像画像のデータの中から、視点変換画像のデータの生成に必要な元画像のデータを選択する。
詳細には、画像処理装置12は、選択オブジェクトOBの位置情報が取得された時間帯と同時間帯にカメラ11a〜11hの各々により撮像された撮像画像のデータを取得する。画像処理装置12は、これらの撮像画像のデータの中から、元画像のデータとして使用する1つを、選択オブジェクトの位置情報に基づいて選択する。
When the image processing apparatus 12 acquires the position information of the selected object OB in this way, it is necessary for generating viewpoint-converted image data from the captured image data of the cameras 11a to 11h based on the position information. Select the original image data.
Specifically, the image processing apparatus 12 acquires data of captured images captured by each of the cameras 11a to 11h in the same time period as the time period when the position information of the selected object OB is acquired. The image processing apparatus 12 selects one of the captured image data to be used as the original image data based on the position information of the selected object.

画像処理装置12は、このようにして選択した1つの元画像のデータから、所定の移動方向に移動する選択オブジェクトOBの眺望方向の様子を表わす視点変換画像のデータを生成する。
画像処理装置12は、例えば、選択オブジェクトの移動方向と同一方向を眺望方向として仮想視点が眺める様子を示す視点変換画像のデータを生成することができる。
また、画像処理装置12は、選択オブジェクトの移動速度に対応した大きさとなる視点変換画像のデータを生成することができる。画像処理装置12は、例えば、選択オブジェクトの移動速度が速い場合には、通常の視点変換画像のデータとは異なる広角な視点変換画像のデータを生成する。
The image processing apparatus 12 generates viewpoint-converted image data representing the view direction of the selected object OB moving in a predetermined movement direction from the data of one original image selected in this way.
For example, the image processing apparatus 12 can generate viewpoint-converted image data indicating that the virtual viewpoint is viewed with the same direction as the moving direction of the selected object as the viewing direction.
Further, the image processing apparatus 12 can generate viewpoint-converted image data having a size corresponding to the moving speed of the selected object. For example, when the moving speed of the selected object is high, the image processing device 12 generates wide-angle viewpoint-converted image data different from normal viewpoint-converted image data.

図3は、視点変換画像の具体例を示している。   FIG. 3 shows a specific example of the viewpoint conversion image.

図3の例では、複数台のカメラ11a〜11hの各々により撮像された複数の撮像画像のデータ、即ち図2(a)〜図2(h)の各々に示す複数の撮像画像のデータのうち、図2(h)に示す撮像画像のデータが元画像のデータとして選択されている。
そして、図2(h)に示す撮像画像のデータが、所定の手法に基づいて変換されることによって、図3に示す視点変換画像のデータが生成される。
In the example of FIG. 3, among the data of a plurality of captured images captured by each of the plurality of cameras 11 a to 11 h, that is, among the data of the plurality of captured images shown in each of FIGS. 2 (a) to 2 (h). The captured image data shown in FIG. 2H is selected as the original image data.
Then, the captured image data shown in FIG. 2H is converted based on a predetermined method, thereby generating the viewpoint-converted image data shown in FIG.

この場合、視点変換画像のデータへの変換に適用される所定の手法は、特に限定されないが、本実施形態では、例えば、アフィン変換を用いた手法を利用することにより実現可能となる。
このようなアフィン変換を用いた手法を適用することにより、各種オブジェクトOB等を、形状を変形させないで、平行移動や回転をさせたり、縦方向と横方向とで拡大又は縮小の倍率を変化させることが可能になる。
アフィン変換を用いた手法としては、公知又は今後登場するであろう任意の手法、例えば特開2007−133843号公報等に開示されている手法等を採用することができるが、本実施形態では次のような手法が採用されている。
In this case, the predetermined method applied to the conversion of the viewpoint-converted image into data is not particularly limited, but in the present embodiment, for example, it can be realized by using a method using affine transformation.
By applying such a method using affine transformation, various objects OB and the like can be translated and rotated without changing the shape, or the magnification of enlargement or reduction can be changed between the vertical and horizontal directions. It becomes possible.
As a technique using affine transformation, any technique known or will appear in the future, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-133844 can be adopted. Such a method is adopted.

具体的には、アフィン変換では、元画像の座標をローカル座標からワールド座標に変換する変換行列が用いられる。この際、アフィン変換では、ローカル座標からワールド座標に移行する際に、オブジェクトの拡大縮小・回転・平行移動等が行わる。なお、「ローカル座標」とは、個々のオブジェクトの中心位置を(X,Y,Z)=(0,0,0)とする座標系で、オブジェクトの頂点情報等を表わした座標である。
また、「ワールド座標」とは、個々のオブジェクトを共通の3次元仮想空間内に、相対的な位置関係に基づいて配置したときの座標系で表わした座標である。この「ワールド座標」にはオブジェクトだけでなく、光源・視点も配置される。
次いで、アフィン変換では、ワールド座標からビュー座標に変換する変換行列が用いられ、ビュー座標からパースペクティブ座標に変換する変換行列が用いられる。その結果、3次元情報が表示装置の表示部に表示可能な2次元情報に変換される。この際、表示の中心が(X,Y)=(0,0)となる座標系となる。また、「ビュー(視点)座標」は、「ワールド座標」の座標系を視点位置から視点方向を見たときの座標、即ち、視点位置を(X,Y,Z)=(0,0,0)で、視点方向がZ軸のプラス方向となる座標系で表わした座標である。また、「パースペクティブ(透視)座標」は、3次元情報を2次元の座標系で表わした座標である。この「パースペクティブ(透視)座標」は、「スクリーン座標」ともいう。
最後に、アフィン変換では、パースペクティブ座標からディスプレイ座標に変換する変換行列が用いられる。「ディスプレイ座標」は、表示部における描画領域のサイズに対応した座標系で表わした座標である。「ディスプレイ座標」では、パースペクティブ座標で表示の中心を(X,Y)=(0,0)としていたが、表示部における描画領域に対応させるべく、描画領域の左上の点を(X,Y)=(0,0)とする変換が行われる。
画像処理装置12は、このようなアフィン変換を用いることにより、元画像のデータを、所定の移動方向に移動する選択オブジェクトOBの眺望方向を仮想視点とする視点変換画像のデータに変換することができる。
Specifically, in the affine transformation, a transformation matrix that transforms the coordinates of the original image from local coordinates to world coordinates is used. At this time, in the affine transformation, the object is enlarged / reduced / rotated / translated, etc. when moving from the local coordinates to the world coordinates. The “local coordinates” are coordinates representing the vertex information of an object in a coordinate system in which the center position of each object is (X, Y, Z) = (0, 0, 0).
The “world coordinates” are coordinates expressed in a coordinate system when individual objects are arranged in a common three-dimensional virtual space based on a relative positional relationship. In this “world coordinates”, not only objects but also light sources and viewpoints are arranged.
Next, in the affine transformation, a transformation matrix that converts world coordinates to view coordinates is used, and a transformation matrix that converts view coordinates to perspective coordinates is used. As a result, the three-dimensional information is converted into two-dimensional information that can be displayed on the display unit of the display device. At this time, the coordinate system is such that the center of display is (X, Y) = (0, 0). The “view (viewpoint) coordinates” are coordinates when the viewpoint direction is viewed from the viewpoint position in the coordinate system of “world coordinates”, that is, the viewpoint position is (X, Y, Z) = (0, 0, 0). ) In the coordinate system in which the viewpoint direction is the positive direction of the Z axis. Further, “perspective coordinates” are coordinates that represent three-dimensional information in a two-dimensional coordinate system. The “perspective coordinates” are also referred to as “screen coordinates”.
Finally, in affine transformation, a transformation matrix that transforms perspective coordinates into display coordinates is used. “Display coordinates” are coordinates expressed in a coordinate system corresponding to the size of the drawing area in the display unit. In “display coordinates”, the center of display is set to (X, Y) = (0, 0) in perspective coordinates, but the upper left point of the drawing area is set to (X, Y) so as to correspond to the drawing area in the display unit. = (0,0) conversion is performed.
By using such an affine transformation, the image processing device 12 can convert the data of the original image into data of a viewpoint-converted image in which the viewing direction of the selected object OB that moves in a predetermined movement direction is a virtual viewpoint. it can.

図1に戻り、中継装置13は、ネットワークNを介して接続される画像処理装置12と、外部端末14との間で授受される各種情報、例えば視点変換画像のデータを中継する。   Returning to FIG. 1, the relay device 13 relays various types of information exchanged between the image processing device 12 connected via the network N and the external terminal 14, for example, data of a viewpoint conversion image.

外部端末14は、例えばスマートフォン等で構成されおり、例えば画像処理装置12から中継装置13を経由して送信されてきた視点変換画像のデータを受信すると、当該視点変換画像をディスプレイ等に表示する。
ここで、ネットワークNがインターネットであるならば、外部端末14は、視点変換画像のデータの取得要求等の指示を、例えばHTTP(Hypertext Transfer Protocol)によるURL(Uniform Resource Locator)要求により行うことができる。
さらに、外部端末14は、各種制御信号を中継装置13を介して画像処理装置12に送信することで、選択オブジェクトの変更指示等の遠隔制御を実行できる。
The external terminal 14 is configured by, for example, a smartphone or the like, and displays the viewpoint-converted image on a display or the like when receiving the viewpoint-converted image data transmitted from the image processing device 12 via the relay device 13, for example.
Here, if the network N is the Internet, the external terminal 14 can issue an instruction such as an acquisition request for viewpoint-converted image data by a URL (Uniform Resource Locator) request using, for example, HTTP (Hypertext Transfer Protocol). .
Further, the external terminal 14 can execute remote control such as an instruction to change the selected object by transmitting various control signals to the image processing device 12 via the relay device 13.

次に、このような本実施形態の画像処理システム10のうち、主要構成要素たる画像処理装置12の構成について説明する。
[画像処理装置]
図4は、本実施形態に係る画像処理装置12のハードウェアの構成を示すブロック図である。
Next, the configuration of the image processing apparatus 12 as a main component in the image processing system 10 of the present embodiment will be described.
[Image processing device]
FIG. 4 is a block diagram showing a hardware configuration of the image processing apparatus 12 according to the present embodiment.

画像処理装置12は、CPU(Central Processing Unit)31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33と、画像処理部34と、バス35と、入出力インターフェース36と、入力部37と、表示部38と、計時部39と、記憶部40と、通信部41と、ドライブ42と、を備えている。   The image processing apparatus 12 includes a CPU (Central Processing Unit) 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, an image processing unit 34, a bus 35, an input / output interface 36, and an input. A unit 37, a display unit 38, a time measuring unit 39, a storage unit 40, a communication unit 41, and a drive 42 are provided.

CPU31は、ROM32に記録されているプログラム、又は、記憶部40からRAM33にロードされたプログラムに従って各種の処理を実行する。   The CPU 31 executes various processes according to a program recorded in the ROM 32 or a program loaded from the storage unit 40 to the RAM 33.

RAM33には、CPU31が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 33 appropriately stores data necessary for the CPU 31 to execute various processes.

画像処理部34は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU31と協働して、画像のデータに対して各種画像処理を施す。   The image processing unit 34 includes a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 31.

CPU31、ROM32、RAM33及び画像処理部34は、バス35を介して相互に接続されている。このバス35にはまた、入出力インターフェース36も接続されている。入出力インターフェース36には、入力部37、表示部38、計時部39、記憶部40、通信部41及びドライブ42が接続されている。   The CPU 31, ROM 32, RAM 33, and image processing unit 34 are connected to each other via a bus 35. An input / output interface 36 is also connected to the bus 35. An input unit 37, a display unit 38, a timer unit 39, a storage unit 40, a communication unit 41, and a drive 42 are connected to the input / output interface 36.

入力部37は、キーボードやマウス等で構成され、ユーザの指示操作に応じて各種情報を入力する。
表示部38は、ディスプレイにより構成され、各種画像、例えば上述の視点変換画像を表示する。
計時部39は、計時動作を行い、現在時刻を取得する。
記憶部40は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像、例えば上述の視点変換画像のデータを記憶する。
通信部41は、インターネットを含むネットワークNを介して他の装置、例えば画像処理システム10内のオブジェクトOB(図1参照)やカメラ11(図1参照)や外部端末14(図1参照)との間で行う通信を制御する。
The input unit 37 is configured with a keyboard, a mouse, and the like, and inputs various types of information in accordance with user instruction operations.
The display unit 38 includes a display and displays various images, for example, the above-described viewpoint conversion image.
The clock unit 39 performs a clock operation and acquires the current time.
The storage unit 40 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various images, for example, the above-described viewpoint-converted image data.
The communication unit 41 communicates with other devices such as the object OB (see FIG. 1), the camera 11 (see FIG. 1), and the external terminal 14 (see FIG. 1) in the image processing system 10 via the network N including the Internet. Control communications between them.

ドライブ42には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア51が適宜装着される。ドライブ42によってリムーバブルメディア51から読み出されたプログラムは、必要に応じて記憶部40にインストールされる。また、リムーバブルメディア51は、記憶部40に記憶されている画像のデータ等の各種データも、記憶部40と同様に記憶することができる。   A removable medium 51 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 42. The program read from the removable medium 51 by the drive 42 is installed in the storage unit 40 as necessary. The removable medium 51 can also store various data such as image data stored in the storage unit 40 in the same manner as the storage unit 40.

図5は、このような各構成要素を含む画像処理装置12の機能的構成のうち、視点変換画像生成処理を実行するための機能的構成を示す機能ブロック図である。
本明細書における視点変換画像生成処理とは、次のような一連の処理をいう。即ち、画像処理装置12は、選択オブジェクトOBの位置情報から、複数のカメラ11から送信された複数の撮像画像のデータのうち1つを元画像のデータとして選択する。画像処理装置12は、元画像のデータに対して画像変換処理を施すことにより、選択オブジェクトOBの眺望方向を仮想視点が眺める様子を示す視点変換画像のデータを生成する。
FIG. 5 is a functional block diagram showing a functional configuration for executing the viewpoint-converted image generation processing among the functional configurations of the image processing apparatus 12 including such components.
The viewpoint converted image generation processing in this specification refers to the following series of processing. That is, the image processing apparatus 12 selects one of a plurality of captured image data transmitted from the plurality of cameras 11 as original image data from the position information of the selected object OB. The image processing device 12 performs image conversion processing on the original image data, thereby generating viewpoint-converted image data indicating that the virtual viewpoint views the viewing direction of the selected object OB.

ここで、画像処理装置12の機能的構成の理解を容易なものとすべく、その詳細な説明の前に、カメラ11及びオブジェクトOBについて説明する。   Here, in order to facilitate understanding of the functional configuration of the image processing apparatus 12, the camera 11 and the object OB will be described before detailed description thereof.

図5に示すように、カメラ11は、撮像部101と、送信部102と、を備える。   As shown in FIG. 5, the camera 11 includes an imaging unit 101 and a transmission unit 102.

撮像部101は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 101 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部101の出力信号として出力される。
このような撮像部101の出力信号は、送信部102に適宜供給される。即ち、撮像部101は、周囲の空間を連続撮影し、その結果得られる動画像、静止画或いは連写画像のデータ、即ち上述の撮像画像のデータを、バッファ(図示せず)に一次記憶しながら順次圧縮符号化する。
送信部102は、撮像部101から出力された撮像画像のデータを画像処理装置12へ無線送信する。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 101.
Such an output signal of the imaging unit 101 is appropriately supplied to the transmission unit 102. That is, the imaging unit 101 continuously shoots the surrounding space, and temporarily stores the moving image, still image, or continuous-shot image data obtained as a result thereof, that is, the above-described captured image data in a buffer (not shown). In turn, compression encoding is performed.
The transmission unit 102 wirelessly transmits the captured image data output from the imaging unit 101 to the image processing apparatus 12.

オブジェクトOBには、センサ部111と、送信部112とが取り付けられる。
センサ部111は、本実施形態では3軸加速度センサとして構成され、ピエゾ抵抗型もしくは静電容量型の検出機構を備える3軸加速度センサにより構成され、当該検出機構を用いて、加速度の3軸(X,Y,Z)成分を検出し、その検出結果を示すデータを出力する。なお、センサ部111の検出結果を示すデータを、以下、「位置情報のデータ」と呼ぶ。位置情報のデータは、送信部112に適宜供給される。
ここで、位置情報のデータのうち、X成分はオブジェクトOBの垂直方向の振動周期に、Y成分はオブジェクトOBの水平方向の振動周期に、Z成分はオブジェクトOBの進行方向の振動周期に、それぞれ対応する。
また、センサ部111は、任意の姿勢(傾斜角度)状態においても、傾斜角度に応じて補正した3軸加速度データを出力することができる。従って、センサ部111は、傾斜角度に応じて補正された3軸加速度データに対応して、ジャイロセンサを用いた傾斜センサ(図示せず)等から出力するデータを補正するようにする。これによって、オブジェクトOBに遠心力等の外力がかかる動状態で使用するような場合、例えば移動中に被写体を撮像するような場合でも、各種データの正確な取得及び正確な測位演算が実行可能になる。
A sensor unit 111 and a transmission unit 112 are attached to the object OB.
The sensor unit 111 is configured as a three-axis acceleration sensor in the present embodiment, and is configured by a three-axis acceleration sensor including a piezoresistive type or a capacitance type detection mechanism. X, Y, Z) components are detected, and data indicating the detection results are output. The data indicating the detection result of the sensor unit 111 is hereinafter referred to as “position information data”. The position information data is appropriately supplied to the transmission unit 112.
Here, in the position information data, the X component is the vertical vibration cycle of the object OB, the Y component is the horizontal vibration cycle of the object OB, and the Z component is the vibration cycle of the object OB in the traveling direction. Correspond.
Further, the sensor unit 111 can output triaxial acceleration data corrected according to the tilt angle even in an arbitrary posture (tilt angle) state. Therefore, the sensor unit 111 corrects data output from an inclination sensor (not shown) using a gyro sensor or the like in accordance with the triaxial acceleration data corrected according to the inclination angle. As a result, when the object OB is used in a moving state in which an external force such as a centrifugal force is applied, for example, when a subject is imaged during movement, accurate acquisition of various data and accurate positioning calculation can be performed. Become.

送信部112は、センサ部111により出力された位置情報のデータを画像処理装置12へ無線送信する。
なお、本実施形態においては、センサ部111及び送信部112は、上述した移動位置センサユニットとしてユニット化されて、ボールのオブジェクトOB1内に内蔵されたり、選手のオブジェクトOB2〜OB7に取り付けられる。
The transmission unit 112 wirelessly transmits the position information data output from the sensor unit 111 to the image processing apparatus 12.
In the present embodiment, the sensor unit 111 and the transmission unit 112 are unitized as the movement position sensor unit described above, and are built in the ball object OB1 or attached to the player objects OB2 to OB7.

このようなオブジェクトOBが存在する状態で視点変換画像生成処理が実行される場合には、図5に示すように、画像処理装置12のCPU31において、主制御部61と、撮像画像取得部62と、位置情報取得部63と、記憶制御部64と、表示制御部65と、通信制御部66と、が機能する。また、画像処理部34において、移動方向算出部71と、移動速度算出部72と、元画像選択部73と、視点変換画像加工部74と、が機能する。
ただし、図5は例示であり、画像処理部34の機能の少なくとも一部をCPU31に委譲してもよいし、逆に、CPU31の機能の少なくとも一部を画像処理部34に委譲してもよい。
また、画像処理装置12の記憶部40の一領域として、元画像候補データ記憶部81と、オブジェクトデータ記憶部82と、表示データ記憶部83と、が設けられている。なお、元画像候補データ記憶部81、オブジェクトデータ記憶部82及び表示データ記憶部83が記憶部40の一領域として設けられていることは例示であって、その他例えばリムーバブルメディア51の一領域として設けられるようにしてもよい。
When the viewpoint conversion image generation process is executed in a state where such an object OB exists, as shown in FIG. 5, in the CPU 31 of the image processing apparatus 12, the main control unit 61, the captured image acquisition unit 62, The position information acquisition unit 63, the storage control unit 64, the display control unit 65, and the communication control unit 66 function. In the image processing unit 34, a moving direction calculating unit 71, a moving speed calculating unit 72, an original image selecting unit 73, and a viewpoint conversion image processing unit 74 function.
However, FIG. 5 is an example, and at least a part of the function of the image processing unit 34 may be delegated to the CPU 31, and conversely, at least a part of the function of the CPU 31 may be delegated to the image processing unit 34. .
Further, an original image candidate data storage unit 81, an object data storage unit 82, and a display data storage unit 83 are provided as one area of the storage unit 40 of the image processing device 12. Note that the original image candidate data storage unit 81, the object data storage unit 82, and the display data storage unit 83 are provided as one area of the storage unit 40, and other examples are provided as one area of the removable media 51, for example. You may be made to do.

元画像候補データ記憶部81は、カメラ11から逐次送信されて画像処理装置12に受信された、元画像の候補となる撮像画像のデータを逐次記憶する。撮像画像のデータは、取得した時間と共に元画像候補データ記憶部81に記憶される。   The original image candidate data storage unit 81 sequentially stores data of captured images that are sequentially transmitted from the camera 11 and received by the image processing device 12 as candidates for the original image. The captured image data is stored in the original image candidate data storage unit 81 together with the acquired time.

オブジェクトデータ記憶部82は、オブジェクトOBから逐次送信されて画像処理装置12に受信された位置情報のデータを記憶する。位置情報のデータは、取得した時間と共にオブジェクトデータ記憶部82に記憶される。   The object data storage unit 82 stores position information data sequentially transmitted from the object OB and received by the image processing apparatus 12. The position information data is stored in the object data storage unit 82 together with the acquired time.

表示データ記憶部83は、表示部38に表示するための、画像処理部34の後述する視点変換画像加工部74により生成された視点変換画像のデータを記憶する。   The display data storage unit 83 stores data of a viewpoint converted image generated by a viewpoint converted image processing unit 74 (to be described later) of the image processing unit 34 to be displayed on the display unit 38.

主制御部61は、画像処理装置12の各部における各種処理の実行を制御する。具体的には、主制御部61は、入力部37や外部端末14からの指示を受けて、選択オブジェクトの設定やカメラ11における撮像の制御等の各種の制御を行う。   The main control unit 61 controls execution of various processes in each unit of the image processing apparatus 12. Specifically, the main control unit 61 receives various instructions from the input unit 37 and the external terminal 14 and performs various controls such as setting of the selected object and control of imaging in the camera 11.

撮像画像取得部62は、カメラ11a〜11hから送信される撮像画像のデータを、通信部41を介して取得し、当該撮像画像のデータを、計時部39から取得した時刻のデータを付帯情報として付加して元画像候補データ記憶部81に記憶させる制御を実行する。   The captured image acquisition unit 62 acquires captured image data transmitted from the cameras 11a to 11h via the communication unit 41, and the captured image data is time data acquired from the time measuring unit 39 as supplementary information. In addition, the control for storing the original image candidate data in the original image data storage unit 81 is executed.

位置情報取得部63は、オブジェクトOB1〜OB7から送信される位置情報のデータを、通信部41を介して取得する。その後、位置情報取得部63は、オブジェクトOB1〜OB7の位置情報のデータを記憶制御部64に供給する。   The position information acquisition unit 63 acquires the position information data transmitted from the objects OB <b> 1 to OB <b> 7 via the communication unit 41. Thereafter, the position information acquisition unit 63 supplies the position control data of the objects OB1 to OB7 to the storage control unit 64.

記憶制御部64は、各種データを記憶部40に記憶させる制御を実行する。具体的には、記憶制御部64は、位置情報取得部63により取得された位置情報のデータを、計時部39から取得した時刻のデータを付帯情報として付加してオブジェクトデータ記憶部82に記憶させる制御を実行する。   The storage control unit 64 executes control for storing various data in the storage unit 40. Specifically, the storage control unit 64 stores the position information data acquired by the position information acquisition unit 63 in the object data storage unit 82 by adding the time data acquired from the time measuring unit 39 as supplementary information. Execute control.

表示制御部65は、各種の画像を表示部38に表示出力させる制御を実行する。具体的には、表示制御部65は、画像処理部34で生成される視点変換画像を表示部38に表示させる制御を実行する。   The display control unit 65 performs control to display and output various images on the display unit 38. Specifically, the display control unit 65 executes control for causing the display unit 38 to display the viewpoint conversion image generated by the image processing unit 34.

通信制御部66は、カメラ11及び外部端末14と無線通信を行う制御を実行する。具体的には、通信制御部66は、通信部41及びネットワークNを中継する中継装置17を介してカメラ11及び外部端末14と接続して、各種情報を授受するための制御を実行する。   The communication control unit 66 executes control for performing wireless communication with the camera 11 and the external terminal 14. Specifically, the communication control unit 66 is connected to the camera 11 and the external terminal 14 via the communication unit 41 and the relay device 17 that relays the network N, and executes control for transferring various information.

移動方向算出部71は、オブジェクトデータ記憶部82に記憶される位置情報のデータに基づいて、選択オブジェクトの移動方向を算出する。即ち、移動方向算出部71は、オブジェクトデータ記憶部82に記憶される位置情報のデータの履歴から位置情報のデータ間の位置関係を割り出して、移動方向を算出する。   The movement direction calculation unit 71 calculates the movement direction of the selected object based on the position information data stored in the object data storage unit 82. That is, the movement direction calculation unit 71 calculates the movement direction by determining the positional relationship between the position information data from the history of the position information data stored in the object data storage unit 82.

移動速度算出部72は、オブジェクトデータ記憶部82に記憶される位置情報のデータに基づいて、選択オブジェクトOBの移動速度を算出する。即ち、移動方向算出部71は、オブジェクトデータ記憶部82に記憶される位置情報のデータの履歴から、位置情報のデータ間の時間における移動距離を割り出して、移動速度を算出する。   The moving speed calculation unit 72 calculates the moving speed of the selected object OB based on the position information data stored in the object data storage unit 82. That is, the movement direction calculation unit 71 calculates the movement speed by calculating the movement distance between the pieces of position information data from the history of the position information data stored in the object data storage unit 82.

元画像選択部73は、オブジェクトデータ記憶部82に記憶される位置情報、並びに移動速度算出部72により算出された移動方向及び移動速度に基づいて、元画像候補データ記憶部81に記憶されている、同時刻に撮像された撮像画像のデータの中から、所定の1枚を元画像のデータとして選択する。具体的には、元画像選択部73は、オブジェクトOB1〜OB7のうち仮想視点が可変配置されるオブジェクトの移動方向と、カメラ11の光軸の方向(実際の視点)とが最も近似した撮像画像のデータを、元画像のデータとして選択する。   The original image selection unit 73 is stored in the original image candidate data storage unit 81 based on the position information stored in the object data storage unit 82 and the moving direction and moving speed calculated by the moving speed calculation unit 72. , One predetermined image is selected as the original image data from the captured image data captured at the same time. Specifically, the original image selection unit 73 captures an image in which the moving direction of the object whose virtual viewpoint is variably arranged among the objects OB1 to OB7 and the direction of the optical axis of the camera 11 (actual viewpoint) are most approximated. Are selected as original image data.

視点変換画像加工部74は、元画像のデータを画像変換することにより、視点変換の加工をして、選択オブジェクトOBに可変配置された仮想視点が、当該選択オブジェクトOBの移動方向を眺望方向から眺めた様子を表わす視点変換画像のデータを生成する。
詳細には、視点変換画像加工部74は、移動方向算出部71により算出された移動方向や移動速度算出部72により算出された移動速度に基づいて、元画像選択部73により選択された元画像のデータを画像変換して、視点変換画像のデータを生成する。
視点変換画像加工部74は、画像変換に関しては、本実施形態においては、元画像選択部73により選択された1つの撮像画像のデータを上述したアフィン変換することで、選択オブジェクトOBに可変配置された仮想視点が、選択オブジェクトOBに可変配置された仮想視点が、当該選択オブジェクトOBの移動方向を眺望方向から眺めた様子を表わす点変換画像のデータを生成する。
The viewpoint conversion image processing unit 74 processes the viewpoint conversion by converting the original image data, and the virtual viewpoint variably arranged on the selected object OB changes the moving direction of the selected object OB from the viewing direction. Data of a viewpoint conversion image representing a state of viewing is generated.
Specifically, the viewpoint conversion image processing unit 74 is configured to select the original image selected by the original image selection unit 73 based on the movement direction calculated by the movement direction calculation unit 71 and the movement speed calculated by the movement speed calculation unit 72. The image data is converted to generate viewpoint-converted image data.
In the present embodiment, the viewpoint conversion image processing unit 74 variably arranges the data of one captured image selected by the original image selection unit 73 in the selected object OB by the above-described affine transformation. The virtual viewpoint in which the virtual viewpoint is variably arranged on the selected object OB generates point-converted image data representing a state in which the moving direction of the selected object OB is viewed from the viewing direction.

以上、本実施形態の画像処理装置12の機能的構成について説明した。続いて、図6を参照して、このような機能的構成を有する画像処理装置12が実行する視点変換画像生成処理について説明する。
図6は、図5の機能的構成を有する画像処理装置12が実行する視点変換画像生成処理の流れを説明するフローチャートである。
Heretofore, the functional configuration of the image processing apparatus 12 according to the present embodiment has been described. Subsequently, a viewpoint converted image generation process executed by the image processing apparatus 12 having such a functional configuration will be described with reference to FIG.
FIG. 6 is a flowchart for explaining the flow of viewpoint-converted image generation processing executed by the image processing apparatus 12 having the functional configuration of FIG.

画像処理装置12の入力部37を操作するユーザは、視点変換画像生成処理の開始を指示する所定の操作をすることができる。
視点変換画像生成処理は、このようなユーザによる入力部37への所定の操作を契機として開始され、次のような処理が実行される。
A user who operates the input unit 37 of the image processing apparatus 12 can perform a predetermined operation instructing the start of the viewpoint conversion image generation process.
The viewpoint-converted image generation process is started when such a user performs a predetermined operation on the input unit 37, and the following process is executed.

ステップS11において、主制御部61は、オブジェクトの設定(初期設定)を行う。即ち、主制御部61は、ユーザによる入力部37への所定の操作により、選択オブジェクトの初期設定として、図1に示すボールのオブジェクトOB1及び選手のオブジェクトOB2〜OB7のうち、ボールのオブジェクトOB1を、選択オブジェクトOBとして設定する。   In step S11, the main control unit 61 performs object setting (initial setting). That is, the main control unit 61 performs a predetermined operation on the input unit 37 by the user, and sets the ball object OB1 among the ball object OB1 and the player objects OB2 to OB7 shown in FIG. And set as the selected object OB.

ステップS12において、撮像画像取得部62は、複数のカメラから出力された複数の撮像画像のデータを取得する。即ち、撮像画像取得部62は、図1に示すように、ボールのオブジェクトOB1及び選手のオブジェクトOB2〜OB7を含む競技場Fを周囲から撮影している複数のカメラ11a〜11hによって撮像された撮像画像のデータを、通信部41を介して取得する。撮像画像取得部62は、例えば、複数のカメラ11a〜11hにより競技場Fを異なる方向から撮像した図2(a)〜(h)に示すような撮像画像のデータを取得する。その後、撮像画像取得部62は、取得した撮像画像のデータを、計時部39から取得した時刻のデータを付帯情報として付加して元画像候補データ記憶部81に記憶させる。   In step S12, the captured image acquisition unit 62 acquires data of a plurality of captured images output from a plurality of cameras. That is, as shown in FIG. 1, the captured image acquisition unit 62 captures images captured by a plurality of cameras 11 a to 11 h that are capturing the stadium F including the ball object OB1 and the player objects OB2 to OB7 from the surroundings. Image data is acquired via the communication unit 41. The captured image acquisition unit 62 acquires captured image data as illustrated in FIGS. 2A to 2H in which the stadium F is captured from different directions by a plurality of cameras 11a to 11h, for example. Thereafter, the captured image acquisition unit 62 stores the acquired captured image data in the original image candidate data storage unit 81 by adding the time data acquired from the time measuring unit 39 as supplementary information.

ステップS13において、位置情報取得部63は、選択オブジェクトOBの位置情報のデータを取得する。即ち、位置情報取得部63は、選択オブジェクトOBのセンサ部111により計測された位置情報のデータを、通信部41を介して取得する。   In step S <b> 13, the position information acquisition unit 63 acquires position information data of the selected object OB. That is, the position information acquisition unit 63 acquires data of position information measured by the sensor unit 111 of the selected object OB via the communication unit 41.

ステップS14において、記憶制御部64は、選択オブジェクトOBの位置情報と時刻とを対応付けて記憶させる。即ち、記憶制御部64は、位置情報取得部63により取得された位置情報に、計時部39で計時された現在の時刻を対応付けて、オブジェクトデータ記憶部82に記憶させる。   In step S14, the storage control unit 64 stores the position information of the selected object OB and the time in association with each other. That is, the storage control unit 64 associates the current time measured by the time measuring unit 39 with the position information acquired by the position information acquisition unit 63 and causes the object data storage unit 82 to store it.

ステップS15において、移動方向算出部71は、選択オブジェクトOBの位置情報のデータの履歴から選択オブジェクトOBの移動方向を算出する。即ち、移動方向算出部71は、オブジェクトデータ記憶部82に記憶される選択オブジェクトOBの位置情報のデータの履歴を取得して、各位置の推移に基づいて移動方向を算出する。   In step S15, the moving direction calculation unit 71 calculates the moving direction of the selected object OB from the history of the position information data of the selected object OB. That is, the movement direction calculation unit 71 acquires the history of the position information data of the selected object OB stored in the object data storage unit 82, and calculates the movement direction based on the transition of each position.

ステップS16において、移動速度算出部72は、選択オブジェクトOBの位置情報のデータの履歴から選択オブジェクトOBの移動速度を算出する。即ち、移動速度算出部72は、オブジェクトデータ記憶部82に記憶される選択オブジェクトOBの位置情報のデータの履歴を取得して、単位時間当たりの移動距離を移動速度として算出する。   In step S16, the moving speed calculation unit 72 calculates the moving speed of the selected object OB from the history of the position information data of the selected object OB. That is, the moving speed calculation unit 72 acquires the history of the position information data of the selected object OB stored in the object data storage unit 82, and calculates the moving distance per unit time as the moving speed.

ステップS17において、元画像選択部73は、選択オブジェクトOBについての、位置、移動方向、及び移動速度に基づいて、元画像のデータを複数の撮像画像のデータから選択する。即ち、元画像選択部73は、視点変換画像のデータを生成するのに最適な撮像画像のデータを元画像のデータとして選択する。   In step S <b> 17, the original image selection unit 73 selects original image data from a plurality of captured image data based on the position, moving direction, and moving speed of the selected object OB. That is, the original image selection unit 73 selects captured image data optimal for generating viewpoint-converted image data as original image data.

ステップS18において、視点変換画像加工部74は、選択された元画像のデータに基づいて、視点変換画像のデータを生成する。即ち、視点変換画像加工部74は、元画像選択部73により選択された元画像のデータを画像変換(本実施形態においてはアフィン変換)することで、選択オブジェクトに可変配置された仮想視点が、選択オブジェクトの移動方向に移動しながら、当該移動方向を眺望方向として眺めた様子を表わす視点変換画像のデータを生成する。なお、視点変換画像のデータは、記憶制御部64の制御により、表示データ記憶部83に記憶される。   In step S <b> 18, the viewpoint conversion image processing unit 74 generates viewpoint conversion image data based on the selected original image data. That is, the viewpoint conversion image processing unit 74 performs image conversion (affine transformation in this embodiment) on the data of the original image selected by the original image selection unit 73, so that the virtual viewpoint variably arranged on the selected object becomes While moving in the moving direction of the selected object, data of a viewpoint conversion image representing a state in which the moving direction is viewed as the viewing direction is generated. The data of the viewpoint conversion image is stored in the display data storage unit 83 under the control of the storage control unit 64.

ステップS19において、表示制御部65は、ステップS18の処理で生成された視点変換画像のデータを表示部38に表示出力させる制御を実行する。即ち視点変換画像が表示部38に表示される。   In step S19, the display control unit 65 executes control for causing the display unit 38 to display and output the viewpoint-converted image data generated in the process of step S18. That is, the viewpoint conversion image is displayed on the display unit 38.

ステップS20において、通信制御部66は、外部端末14に視点変換画像のデータを、通信部41を介して送信する。   In step S <b> 20, the communication control unit 66 transmits the viewpoint conversion image data to the external terminal 14 via the communication unit 41.

ステップS21において、主制御部61は、選択オブジェクトを変更する指示をするための操作(以下、「選択オブジェクト変更指示操作」と呼ぶ)を受け付けたか否かを判定する。
選択オブジェクト変更指示操作が受け付けられた場合には、ステップS21においてYESであると判定されて、処理はステップS22に進む。
In step S21, the main control unit 61 determines whether or not an operation for instructing to change the selected object (hereinafter referred to as “selected object change instruction operation”) has been received.
If the selected object change instruction operation is accepted, it is determined as YES in Step S21, and the process proceeds to Step S22.

ステップS22において、主制御部61は、選択オブジェクトOBとして、複数のオブジェクトOB2〜OB7の中から選択した別のオブジェクトOBに変更する。この処理が終了すると、処理はステップS23に進む。   In step S22, the main control unit 61 changes the selected object OB to another object OB selected from the plurality of objects OB2 to OB7. When this process ends, the process proceeds to step S23.

これに対して、選択オブジェクト変更指示操作が受け付けられていない場合には、ステップS21においてNOであると判定されて、処理はステップS23に進む。   On the other hand, when the selected object change instruction operation is not accepted, it is determined as NO in Step S21, and the process proceeds to Step S23.

ステップS23において、主制御部61は、視点変換画像生成処理の終了指示を受けたか否かを判定する。
終了指示を受けていない場合には、ステップS23においてNOであると判定されて、処理はステップS12に戻される。即ち、視点変換画像生成処理の終了指示が受け付けられるまでの間、ステップS12乃至ステップS23の処理が繰り返し実行される。そして、視点変換画像生成処理の終了指示が受け付けられると、ステップS23においてYESであると判定されて、視点変換画像生成処理は終了となる。
In step S23, the main control unit 61 determines whether or not an instruction to end the viewpoint conversion image generation process has been received.
If the end instruction has not been received, it is determined as NO in Step S23, and the process returns to Step S12. That is, the processing from step S12 to step S23 is repeatedly executed until an instruction to end the viewpoint conversion image generation processing is received. Then, when an instruction to end the viewpoint-converted image generation process is accepted, it is determined as YES in Step S23, and the viewpoint-converted image generation process ends.

[第1実施形態の第1変形例]
上述した第1実施形態では、選択オブジェクトをボールとした場合の例について説明したが、本変形例は、ボールに代えて、選手を選択オブジェクトとした場合の例について図7及び図8を用いて説明する。なお、上述の実施形態と同様の部分は、同一の符号をもって詳細な説明を省略し、異なる箇所のみ説明する。
[First Modification of First Embodiment]
In the first embodiment described above, an example in which the selected object is a ball has been described. However, in this modification, an example in which a player is used as a selected object instead of the ball will be described with reference to FIGS. 7 and 8. explain. Note that the same parts as those in the above-described embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and only different portions are described.

図7は、本発明の第1実施形態の第1変形例に係る画像処理システムの概略的な構成を示す模式図であって、選手のオブジェクトOB2〜OB7が視点として選択された場合の図である。
画像処理装置12は、図7に示すように、各オブジェクトOB1〜OB7のうち、選手の選択オブジェクトOB3を、仮想視点とするためのオブジェクト、即ち仮想視点を用いた処理の対象として選択オブジェクトOBとして選択することができる。
FIG. 7 is a schematic diagram showing a schematic configuration of the image processing system according to the first modified example of the first embodiment of the present invention, and shows a case where the player objects OB2 to OB7 are selected as viewpoints. is there.
As shown in FIG. 7, the image processing apparatus 12 sets the player's selection object OB3 among the objects OB1 to OB7 as a virtual viewpoint, that is, as a processing object using the virtual viewpoint, as a selection object OB. You can choose.

画像処理装置12は、カメラ11a〜11hにより撮像された図2(a)〜(h)に示すような撮像画像のデータのうち少なくとも1つの元画像のデータと、移動方向A2に移動している選択オブジェクトOB3から逐次送信されてくる位置情報とに基づいて、移動方向A2に移動する選択オブジェクトOB3の眺望方向の仮想視点から眺めた様子を示す一連の視点変換画像(動画像、連写画像或いは静止画)のデータを生成する。   The image processing apparatus 12 is moving in the moving direction A2 with at least one original image data of the captured image data as shown in FIGS. 2A to 2H captured by the cameras 11a to 11h. A series of viewpoint conversion images (moving images, continuous shot images, or images) showing a view from the virtual viewpoint in the viewing direction of the selection object OB3 moving in the movement direction A2 based on the position information sequentially transmitted from the selection object OB3. Still image) data.

図8は、画像処理装置12で生成される視点変換画像の他の具体例を示している。
画像処理装置12は、図8に示すように、選択オブジェクトOB3が選手であるために、生成される眺めた一連の視点変換画像を、選手の目線の高さから移動方向A2を眺めた視点の画像のデータを生成する。従って、画像処理装置12は、カメラ11a〜11hの実際の視点から競技場Fを周囲から(外部から)眺めた様子を表わす画像のデータを、競技場Fの内部において移動方向A2に移動していくオブジェクトOB3の眺望方向の仮想視点(選手の目線となる仮想視点)から眺めた様子を表わす画像のデータに変換して視点変換画像のデータを生成する。
FIG. 8 shows another specific example of the viewpoint conversion image generated by the image processing device 12.
As shown in FIG. 8, since the selected object OB3 is a player, the image processing device 12 displays a series of viewpoint conversion images that are generated as viewed from the height of the player's line of sight as viewed in the moving direction A2. Generate image data. Therefore, the image processing apparatus 12 moves the image data representing the state in which the stadium F is viewed from the outside (from the outside) from the actual viewpoint of the cameras 11a to 11h in the moving direction A2 inside the stadium F. The data of the viewpoint conversion image is generated by converting the object OB3 into image data representing a view from the virtual viewpoint in the viewing direction (virtual viewpoint serving as the player's line of sight).

[第1実施形態の第2変形例]
上述した第1実施形態では、選択オブジェクトOBからの位置情報の取得手法として、3軸加速度センサを搭載した移動位置センサユニットから送信される位置情報を画像処理装置12が取得する場合の例を説明したが、本変形例は、移動位置センサユニットから送信される位置情報をカメラ11と同位置又は異なる位置に配置された受信装置により取得する例について説明する。なお、上述の実施形態と同様の部分は、同一の符号をもって詳細な説明を省略し、異なる箇所のみ説明する。
[Second Modification of First Embodiment]
In the first embodiment described above, an example in which the image processing apparatus 12 acquires position information transmitted from a moving position sensor unit equipped with a three-axis acceleration sensor will be described as a method for acquiring position information from the selected object OB. However, this modification demonstrates the example which acquires the positional information transmitted from a movement position sensor unit with the receiver arrange | positioned in the same position as the camera 11, or a different position. Note that the same parts as those in the above-described embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and only different portions are described.

図9は、選択オブジェクトOBの位置情報の取得手法の一例を示す模式図である。
図9に示す例では、カメラ11の近傍に受信装置15が設置されている。受信装置15は、ボールに内蔵された移動位置センサユニットから無線LANやbluetooth(登録商標)等により送信された位置情報のデータを受信し、画像処理装置12に送信する。
また、受信装置15は、競技場Fの全範囲をカバーするために、カメラ11a〜11cに対応して3つの受信装置15−1〜15−3が設けられる。
このように構成される画像処理システムでは、移動位置センサユニットのセンサ部により測定された選択オブジェクトOBの位置情報のデータが移動位置センサユニットの送信部から受信装置15に送信される。その後、受信装置15から受信した位置情報のデータを画像処理装置12は、カメラ11から取得した撮像画像のデータと共に、視点変換画像のデータの生成に用いる。
なお、本変形例では、カメラ11の近傍、即ち、カメラ11a〜11cと同位置に受信装置15−1〜15−3を配置したがこれに限られず、カメラ11の位置に関係のない、カメラ11と異なる位置に受信装置を配置するように構成してもよい。
[第1実施形態の第3変形例]
上述した第1実施形態では、選択オブジェクトOBからの位置情報の取得手法として、3軸加速度センサからの位置情報を用いる場合の例を説明したが、本変形例は、オブジェクトに測位センサを設けずに電磁界を利用して選択オブジェクトOBからの位置情報を取得する。なお、上述の実施形態と同様の部分は、同一の符号をもって詳細な説明を省略し、異なる箇所のみ説明する。
図10は、選択オブジェクトOBの位置情報の取得手法の一例を示す模式図である。
図10に示す例では、磁界発生源16と、受信手段17とを備える。
磁界発生源16は、アンテナコイル等で構成され、電磁界を発生させる。この磁界発生源16は、競技場Fの全範囲をカバーするために、3つの磁界発生源16−1〜16−3がカメラ11a〜11cに対応して設けられる。
受信手段17は、磁界発生源16により発生させられた電磁界を受信検出して、受信した磁気強度の組み合わせから3次元位置を測位する、「ヒポポヒマスセンサ」等で構成される。
また、受信手段17は、磁界発生源16−1〜16−3に対応して3つの受信手段17−1〜17−3がカメラ11d〜11fに設けられる。
このように構成される画像処理システムでは、磁界発生源16−1〜16−3により電磁界を発生させて、受信手段17−1〜17−3により受信される電磁界の受信強度の組み合わせから選択オブジェクトOBの3次元位置を測位する。
FIG. 9 is a schematic diagram illustrating an example of a method for acquiring position information of the selected object OB.
In the example shown in FIG. 9, the receiving device 15 is installed in the vicinity of the camera 11. The receiving device 15 receives position information data transmitted from a movement position sensor unit built in the ball by a wireless LAN, Bluetooth (registered trademark) or the like, and transmits the data to the image processing device 12.
In order to cover the entire range of the stadium F, the receiving device 15 is provided with three receiving devices 15-1 to 15-3 corresponding to the cameras 11a to 11c.
In the image processing system configured as described above, the position information data of the selected object OB measured by the sensor unit of the movement position sensor unit is transmitted from the transmission unit of the movement position sensor unit to the reception device 15. Thereafter, the image processing device 12 uses the position information data received from the receiving device 15 together with the captured image data acquired from the camera 11 to generate viewpoint-converted image data.
In this modification, the receivers 15-1 to 15-3 are arranged in the vicinity of the camera 11, that is, in the same position as the cameras 11a to 11c. However, the present invention is not limited to this, and the camera is not related to the position of the camera 11. 11 may be configured so that the receiving device is arranged at a position different from 11.
[Third Modification of First Embodiment]
In the first embodiment described above, the example in which the position information from the triaxial acceleration sensor is used as the method for acquiring the position information from the selected object OB has been described. However, in the present modification, a positioning sensor is not provided for the object. The position information from the selected object OB is acquired using the electromagnetic field. Note that the same parts as those in the above-described embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and only different portions are described.
FIG. 10 is a schematic diagram illustrating an example of a method for acquiring position information of the selected object OB.
In the example shown in FIG. 10, a magnetic field generation source 16 and a reception unit 17 are provided.
The magnetic field generation source 16 is composed of an antenna coil or the like, and generates an electromagnetic field. In order to cover the entire range of the stadium F, the magnetic field generation source 16 is provided with three magnetic field generation sources 16-1 to 16-3 corresponding to the cameras 11a to 11c.
The receiving unit 17 is configured by a “hippo mass sensor” or the like that receives and detects an electromagnetic field generated by the magnetic field generation source 16 and measures a three-dimensional position from a combination of received magnetic strengths.
The receiving means 17 is provided with three receiving means 17-1 to 17-3 in the cameras 11d to 11f corresponding to the magnetic field generating sources 16-1 to 16-3.
In the image processing system configured as described above, an electromagnetic field is generated by the magnetic field generation sources 16-1 to 16-3, and a combination of reception strengths of the electromagnetic fields received by the receiving units 17-1 to 17-3 is used. The three-dimensional position of the selected object OB is measured.

[第1実施形態の第4変形例]
上述した第1実施形態では、選択オブジェクトOBからの位置情報の取得手法として、3軸加速度センサからの位置情報を用いる場合の例を説明したが、本変形例は、オブジェクトに測位センサを設けずにドップラー効果を利用して選択オブジェクトOBからの位置情報を取得する。
[Fourth Modification of First Embodiment]
In the first embodiment described above, the example in which the position information from the triaxial acceleration sensor is used as the method for acquiring the position information from the selected object OB has been described. However, in the present modification, a positioning sensor is not provided for the object. The position information from the selected object OB is acquired using the Doppler effect.

画像処理システム10は、ビーコン電波アンテナを備える。
ビーコン電波アンテナは、カメラに対応して複数設けられ、それぞれ周波数の異なる無線電波を送信する。
The image processing system 10 includes a beacon radio antenna.
A plurality of beacon radio antennas are provided corresponding to the cameras, and transmit radio radio waves having different frequencies.

このように構成される画像処理システム10では、周波数の異なる複数のビーコン電波アンテナからの無線電波を送信する。画像処理装置12は、ビーコン電波アンテナから受信した周波数の遷移等から選択オブジェクトの3次元位置や相対位置を算出する、いわゆる、「電波ドップラーセンサ」等で構成される。   The image processing system 10 configured as described above transmits radio waves from a plurality of beacon radio antennas having different frequencies. The image processing apparatus 12 includes a so-called “radio wave Doppler sensor” that calculates a three-dimensional position and a relative position of a selected object from a frequency transition received from a beacon radio antenna.

なお、本変形例では、カメラ11の近傍、即ち、カメラ11と同位置に受信装置を配置したがこれに限られず、カメラ11の位置に関係のない、カメラ11と異なる位置に受信装置を配置するように構成してもよい。   In this modification, the receiving device is arranged near the camera 11, that is, at the same position as the camera 11. However, the present invention is not limited to this, and the receiving device is arranged at a position different from the camera 11 regardless of the position of the camera 11. You may comprise.

[第1実施形態の第5変形例]
上述した第1実施形態では、選択オブジェクトOBからの位置情報の取得手法として、3軸加速度センサからの位置情報を用いる場合の例を説明したが、本変形例は、オブジェクトOBに測位のためのセンサを設けずに、カメラ11から取得した撮像画像を画像処理することにより選択オブジェクトを特定して位置情報を取得する。
[Fifth Modification of First Embodiment]
In the first embodiment described above, the example in which the position information from the triaxial acceleration sensor is used as the method for acquiring the position information from the selected object OB has been described. However, in this modification, the object OB is used for positioning. Without providing a sensor, the picked-up image acquired from the camera 11 is subjected to image processing to identify the selected object and acquire position information.

図11は、選択オブジェクトOBの位置情報の取得手法の一例を示す模式図である。
具体的には、選択オブジェクトOBの位置情報は、図11に示すように、ボール等の選択オブジェクトの表面に複数の特定のマークM1〜M4(例えば、星印)を付して、当該マークM1〜M4を撮像画像からボールを検出すると共に、連続して撮像された撮像画像での選択オブジェクトの表面のマークM1〜M4(以下、マークM1〜M4を個々に区別する必要がない場合、これらをまとめて、「マークM」と単に呼ぶ。)の相対位置や撮像画像間の変化を移動位置から、選択オブジェクトの3次元位置や相対位置を算出するように構成してもよい。
なお、本変形例では、識別情報となるマークMにより選択オブジェクトOBを得していたが、これに限られず、オブジェクトの外観を特定することで、位置情報を算出するように構成することができる。即ち、ボールを選択オブジェクトOBとする場合には、ボールの形状を撮像画像から特定して、特定したボールの位置を撮像画像から割り出すようにしてボールの位置情報のデータを取得する。
[第1実施形態の他の変形例]
上述した第1実施形態では、選択オブジェクトOBからの位置情報の取得手法として、3軸加速度センサからの位置情報を用いる場合の例を説明したが、その他にも、選択オブジェクトの位置情報は、例えば、レンズの焦点法、パッシブ又はアクティブの三角測量ステレオ法、光レーザ法、照度差ステレオ法、スリット光投影法その他の電磁界式、ワイヤレス式の3次元測定装置等の種々の3次元測定方法や測定方法を採用してもよい。
FIG. 11 is a schematic diagram illustrating an example of a method for acquiring position information of the selected object OB.
Specifically, as shown in FIG. 11, the position information of the selected object OB is obtained by attaching a plurality of specific marks M1 to M4 (for example, stars) on the surface of the selected object such as a ball, and the mark M1. -M4 detects the ball from the captured image and marks M1 to M4 on the surface of the selected object in the continuously captured images (hereinafter, if there is no need to individually distinguish the marks M1 to M4) Collectively, the relative position of “mark M” and the change between the captured images may be calculated from the movement position to calculate the three-dimensional position and the relative position of the selected object.
In this modification, the selected object OB is obtained from the mark M serving as identification information. However, the present invention is not limited to this, and the position information can be calculated by specifying the appearance of the object. . That is, when the ball is the selected object OB, the shape of the ball is specified from the captured image, and the position information data of the ball is acquired by determining the position of the specified ball from the captured image.
[Other Modifications of First Embodiment]
In the first embodiment described above, the example in which the position information from the three-axis acceleration sensor is used as the method for acquiring the position information from the selected object OB has been described. Various 3D measurement methods such as lens focus method, passive or active triangulation stereo method, optical laser method, illuminance difference stereo method, slit light projection method, other electromagnetic field type, wireless type 3D measurement device, etc. A measurement method may be adopted.

以上説明したように、本実施形態の画像処理装置12は、撮像画像取得部62と、位置情報取得部63と、視点変換画像加工部74と、表示制御部65と、を備える。
撮像画像取得部62は、オブジェクトOBが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数のカメラ11の各々によって撮像された複数の撮像画像のデータを取得する。
位置情報取得部63は、所定の空間を移動するオブジェクトOBの位置を取得する。
視点変換画像加工部74は、位置情報取得部63により取得された位置に基づいて、撮像画像取得部62により取得された複数の撮像画像のデータを視点変換の加工をすることで、オブジェクトOBに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する。
表示制御部65は、視点変換画像加工部74により生成された視点変換画像のデータを表示出力する制御を実行する。
As described above, the image processing apparatus 12 according to this embodiment includes the captured image acquisition unit 62, the position information acquisition unit 63, the viewpoint conversion image processing unit 74, and the display control unit 65.
The captured image acquisition unit 62 acquires data of a plurality of captured images captured by each of the plurality of cameras 11 that capture a predetermined space in which the object OB can move from different positions.
The position information acquisition unit 63 acquires the position of the object OB moving in a predetermined space.
The viewpoint conversion image processing unit 74 processes the data of a plurality of captured images acquired by the captured image acquisition unit 62 based on the position acquired by the position information acquisition unit 63, thereby processing the object OB. Data of an image representing a state in which the arranged virtual viewpoint looks at a predetermined viewing direction is generated as viewpoint converted image data.
The display control unit 65 performs control to display and output the viewpoint converted image data generated by the viewpoint converted image processing unit 74.

画像処理装置12は、位置情報取得部63により取得された位置に基づいて、撮像画像取得部62により取得された撮像画像のデータを視点変換の加工をすることで、オブジェクトOBに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する。
この場合、画像処理装置12は、鑑賞者が所望する視点で撮像されたのと等価な視点変換画像を容易に得ることができる。
また、画像処理装置12は、生成された視点変換画像のデータを表示するようにしたことで、移動する選択オブジェクトOBにカメラ等の撮像装置を設けることなく、移動するオブジェクトOBを視点とした臨場感あふれる画像が得られる。
また、画像処理装置12は、移動するオブジェクトOBに撮像手段を設ける必要がなく撮像の制約を受けないため高画質の画像を得ることができる。
The image processing apparatus 12 performs viewpoint conversion on the captured image data acquired by the captured image acquisition unit 62 based on the position acquired by the position information acquisition unit 63, thereby performing virtual conversion on the object OB. Data of an image representing a state in which the viewpoint looks at a predetermined viewing direction is generated as viewpoint converted image data.
In this case, the image processing device 12 can easily obtain a viewpoint conversion image equivalent to that captured from the viewpoint desired by the viewer.
Further, the image processing apparatus 12 displays the generated viewpoint-converted image data, so that the moving object OB can be used as a viewpoint without providing an imaging device such as a camera to the moving selection object OB. An image full of feeling can be obtained.
The image processing apparatus 12 can obtain a high-quality image because it is not necessary to provide an imaging unit for the moving object OB and is not restricted by imaging.

位置情報取得部63は、所定の空間を移動するオブジェクトOBの位置を任意のタイミングで取得する。
視点変換画像加工部74は、位置情報取得部63により任意のタイミングで取得されたオブジェクトの位置に基づいて、撮像画像取得部62により取得された撮像画像のデータを加工する。
この場合、画像処理装置12は、位置情報取得部63により取得された任意のタイミングの位置に基づいて撮像画像を加工するために、例えば、ユーザの指定した任意のタイミングの位置での視点変換画像のデータを生成することができる。
The position information acquisition unit 63 acquires the position of the object OB moving in a predetermined space at an arbitrary timing.
The viewpoint conversion image processing unit 74 processes the data of the captured image acquired by the captured image acquisition unit 62 based on the position of the object acquired by the position information acquisition unit 63 at an arbitrary timing.
In this case, in order to process the captured image based on the position of the arbitrary timing acquired by the position information acquisition unit 63, for example, the image processing device 12 converts the viewpoint-converted image at the position of the arbitrary timing designated by the user. Data can be generated.

位置情報取得部63は、所定の空間を移動するオブジェクトOBの位置を逐次取得する。
視点変換画像加工部74は、撮像画像取得部62により逐次取得された撮像画像のデータを逐次加工する。
この場合、画像処理装置12は、逐次取得された所定の空間を移動するオブジェクトOBの位置に基づいて、撮像画像のデータを逐次加工するために、予め記憶した画像(録画した画像)ではなく、リアルタイムで取得した撮像画像のデータを処理して視点変換画像のデータを生成することができる。
The position information acquisition unit 63 sequentially acquires the position of the object OB moving in a predetermined space.
The viewpoint conversion image processing unit 74 sequentially processes captured image data sequentially acquired by the captured image acquisition unit 62.
In this case, the image processing device 12 is not an image stored in advance (recorded image) in order to sequentially process the data of the captured image based on the position of the object OB moving in the predetermined space acquired sequentially. The captured image data acquired in real time can be processed to generate viewpoint converted image data.

また、画像処理装置12は、撮像画像取得部62により取得された複数の撮像画像のデータの中から、オブジェクトに配置された仮想視点から眺めた様子を表わす画像の生成の元になる元画像のデータを、位置情報取得部63により取得された前記位置に基づいて選択する元画像選択部73と、を備える。
視点変換画像加工部74は、元画像選択部73により取得された元画像のデータを視点変換の加工をすることで、オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する。
この場合、画像処理装置12は、元画像選択部73により複数の撮像画像のデータの中から選択された元画像のデータに基づいて、視点変換画像のデータの生成を行うために、複数の撮像画像のデータのうちから視点変換画像のデータの生成に好適な撮像画像のデータを選択すれば、加工処理の処理負担の軽減や精度の高い視点変換画像のデータの生成等を行うことができる。
Further, the image processing apparatus 12 is configured to generate an original image that is a source of generation of an image representing a state viewed from a virtual viewpoint arranged on the object from a plurality of captured image data acquired by the captured image acquisition unit 62. An original image selection unit 73 that selects data based on the position acquired by the position information acquisition unit 63.
The viewpoint conversion image processing unit 74 performs viewpoint conversion processing on the data of the original image acquired by the original image selection unit 73, so that the virtual viewpoint arranged on the object looks at a predetermined viewing direction. Are generated as viewpoint-converted image data.
In this case, the image processing apparatus 12 generates a plurality of imaging images in order to generate viewpoint-converted image data based on the original image data selected from the plurality of captured image data by the original image selection unit 73. If picked-up image data suitable for generating viewpoint-converted image data is selected from the image data, it is possible to reduce the processing load of the processing process and to generate highly accurate viewpoint-converted image data.

また、画像処理装置12は、オブジェクトOBの移動方向を算出する移動方向算出部71を備える。
元画像選択部73は、移動方向算出部71により取得されたオブジェクトOBの移動方向に基づいて元画像のデータを選択する。
視点変換画像加工部74は、移動方向算出部71により算出されたオブジェクトOBの移動方向に基づいて元画像のデータを選択し、オブジェクトOBの移動方向に基づいて元画像のデータを加工することで、オブジェクトOBの仮想視点が移動方向を眺望方向として眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する。
Further, the image processing apparatus 12 includes a movement direction calculation unit 71 that calculates the movement direction of the object OB.
The original image selection unit 73 selects original image data based on the movement direction of the object OB acquired by the movement direction calculation unit 71.
The viewpoint conversion image processing unit 74 selects original image data based on the movement direction of the object OB calculated by the movement direction calculation unit 71, and processes the original image data based on the movement direction of the object OB. Then, data of an image representing a state in which the virtual viewpoint of the object OB is viewed with the moving direction as the viewing direction is generated as viewpoint converted image data.

この場合、画像処理装置12は、移動方向算出部71により算出された移動方向に基づいて元画像のデータを加工することで、移動方向に移動するオブジェクトOBに配置された仮想視点が移動方向を眺望方向として眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成するようにしたことで、より臨場感の高い画像が得られる。   In this case, the image processing apparatus 12 processes the data of the original image based on the movement direction calculated by the movement direction calculation unit 71, so that the virtual viewpoint arranged in the object OB moving in the movement direction changes the movement direction. By generating the image data representing the view as the viewing direction as the viewpoint conversion image data, an image with higher presence can be obtained.

また、画像処理装置12は、オブジェクトOBの移動速度を算出する移動速度算出部72を備える。
視点変換画像加工部74は、視点変換画像のデータとして、移動速度算出部72により取得された移動速度に応じた画角の画像のデータを生成する。
Further, the image processing apparatus 12 includes a movement speed calculation unit 72 that calculates the movement speed of the object OB.
The viewpoint conversion image processing unit 74 generates image data of an angle of view corresponding to the movement speed acquired by the movement speed calculation unit 72 as viewpoint conversion image data.

この場合、画像処理装置12は、視点変換画像のデータとして、移動速度算出部72により取得された移動速度に応じた画角の画像のデータを生成することができるために、さらに速度感を追加された臨場感の高い画像が得られる。   In this case, since the image processing device 12 can generate image data of an angle of view corresponding to the moving speed acquired by the moving speed calculation unit 72 as the viewpoint conversion image data, a sense of speed is further added. A highly realistic image can be obtained.

視点変換画像加工部74は、視点変換画像のデータとして、移動速度に反比例して広角となる画像のデータを生成する。このため、画像処理装置12は、自然な速度感となる視点変換画像を得ることができる。   The viewpoint conversion image processing unit 74 generates data of a wide angle image as the viewpoint conversion image data in inverse proportion to the moving speed. For this reason, the image processing device 12 can obtain a viewpoint-converted image with a natural sense of speed.

また、オブジェクトOBは、自己の状態を示すデータを取得して発信する。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、オブジェクトOBから発信されたデータを取得し、当該データに基づいてオブジェクトの位置、移動方向、或いは移動速度を取得或いは算出する。
この場合、画像処理装置12は、移動するオブジェクトOBの位置情報を受信することによりオブジェクトOBの位置、移動方向、或いは移動速度を取得することができ、単純な構成でオブジェクトOBの位置、移動方向、或いは移動速度を取得することができる。
Further, the object OB acquires and transmits data indicating its own state.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 acquires data transmitted from the object OB, and acquires or calculates the position, movement direction, or movement speed of the object based on the data. .
In this case, the image processing apparatus 12 can acquire the position, moving direction, or moving speed of the object OB by receiving the position information of the moving object OB. The position, moving direction of the object OB can be obtained with a simple configuration. Alternatively, the moving speed can be acquired.

また、画像処理装置12は、オブジェクトOBから発信された、オブジェクトOBの位置、移動方向、或いは移動速度を示すデータを受信する受信装置が、外部に設けられている。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、オブジェクトOBの位置、移動方向、或いは移動速度を示すデータを、受信装置を介して取得する。
この場合、画像処理装置12は、オブジェクトOBの位置、移動方向、或いは移動速度を示すデータを、受信装置を介して取得できるために、精度の高いオブジェクトOBの位置、移動方向、或いは移動速度を取得することができる。
In addition, the image processing device 12 is provided with a receiving device that receives data indicating the position, moving direction, or moving speed of the object OB transmitted from the object OB.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 acquires data indicating the position, movement direction, or movement speed of the object OB via the reception device.
In this case, since the image processing apparatus 12 can acquire data indicating the position, moving direction, or moving speed of the object OB via the receiving apparatus, the position, moving direction, or moving speed of the object OB with high accuracy can be obtained. Can be acquired.

また、画像処理装置12は、電磁界を発生させる発生源と、電磁界を受信検出する受信手段と、が外部に設けられている。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、受信手段の受信検出の結果に基づいて、オブジェクトOBの位置、移動方向、或いは移動速度を取得する。
また、画像処理装置12は、相異なる周波数の無線電波を送信するビーコン電波アンテナが、外部に設けられている。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、ビーコン電波アンテナから送信された無線電波によるドップラー効果を利用して、オブジェクトOBの位置、移動方向、或いは移動速度を取得する。
従って、画像処理装置12は、上述したようにオブジェクトOBの位置、移動方向、或いは移動速度を取得するようにしたことで、オブジェクトOBに個別に位置情報を取得するための装置等を搭載しない、即ち、オブジェクトOBに位置情報の取得に係る構成を備える必要がない。
Further, the image processing apparatus 12 is provided with a generation source that generates an electromagnetic field and a receiving unit that receives and detects the electromagnetic field.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 acquires the position, movement direction, or movement speed of the object OB based on the reception detection result of the reception unit.
In addition, the image processing apparatus 12 is provided with a beacon radio wave antenna that transmits radio waves having different frequencies.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 acquires the position, movement direction, or movement speed of the object OB by using the Doppler effect by the radio wave transmitted from the beacon radio wave antenna. .
Therefore, the image processing apparatus 12 does not include a device for individually acquiring position information on the object OB by acquiring the position, moving direction, or moving speed of the object OB as described above. That is, it is not necessary to provide the object OB with a configuration related to acquisition of position information.

位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、撮像画像取得部62により取得された複数の撮像画像のデータのうちオブジェクトOBが写った撮像画像のデータに対して画像処理を施し、当該画像処理の結果に基づいて、オブジェクトOBの位置、移動方向、或いは移動速度を取得する。
この場合、画像処理装置12は、画像処理した撮像画像をからオブジェクトOBの位置、移動方向、或いは移動速度を取得することができるために、オブジェクトOBに別途装置等を搭載せずに、オブジェクトOBの位置、移動方向、或いは移動速度を取得することができる。
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 performs image processing on the captured image data in which the object OB is captured among the plurality of captured image data acquired by the captured image acquisition unit 62. And the position, moving direction, or moving speed of the object OB is acquired based on the result of the image processing.
In this case, since the image processing apparatus 12 can acquire the position, moving direction, or moving speed of the object OB from the captured image that has been subjected to image processing, the object OB is not mounted on the object OB without mounting a separate device or the like. Position, moving direction, or moving speed can be acquired.

また、オブジェクトOBには識別情報(マークM)が付されている。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、画像処理により識別情報(マークM)を認識し、当該識別情報(マークM)を利用してオブジェクトOBの位置、移動方向、或いは移動速度を取得する。
この場合、画像処理装置12は、オブジェクトOBに記された識別情報となるマークMからオブジェクトOBの位置、移動方向、或いは移動速度を取得することができるために、オブジェクトOBに別途装置等を搭載せず、かつ、軽い画像処理により、オブジェクトOBの位置、移動方向、或いは移動速度を取得することができる。
Further, identification information (mark M) is attached to the object OB.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 recognizes the identification information (mark M) by image processing, and uses the identification information (mark M) to detect the position and movement direction of the object OB. Alternatively, the moving speed is acquired.
In this case, since the image processing apparatus 12 can acquire the position, moving direction, or moving speed of the object OB from the mark M serving as identification information written on the object OB, a separate device or the like is mounted on the object OB. In addition, the position, moving direction, or moving speed of the object OB can be acquired by light image processing.

また、位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、画像処理によりオブジェクトOBの外観を認識し、当該外観に基づいてオブジェクトOBの状態(位置、移動方向、或いは移動速度)を取得する。
この場合、画像処理装置12は、オブジェクトOBの外観を認識し、検出することによりオブジェクトOBの位置、移動方向、或いは移動速度を取得することができるため、オブジェクトOBに別途装置等を搭載せず、かつ軽い画像処理によりオブジェクトOBの位置、移動方向、或いは移動速度を取得することができる。
In addition, the position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 recognizes the appearance of the object OB through image processing, and based on the appearance, the state (position, movement direction, or movement speed) of the object OB. ) To get.
In this case, the image processing apparatus 12 can acquire the position, moving direction, or moving speed of the object OB by recognizing and detecting the appearance of the object OB. In addition, the position, moving direction, or moving speed of the object OB can be acquired by light image processing.

また、画像処理装置12においては、複数のカメラ11が撮像する空間には、複数のオブジェクトが存在する。
位置情報取得部63、移動方向算出部71或いは移動速度算出部72は、複数のオブジェクトの各々の位置、移動方向、或いは移動速度を取得する。
視点変換画像加工部74は、位置情報取得部63、移動方向算出部71或いは移動速度算出部72により取得された複数のオブジェクトの位置、移動方向、或いは移動速度のうち、選択したオブジェクトの位置、移動方向、或いは移動速度に基づいて、視点変換画像のデータを生成する。
この場合、画像処理装置12は、複数のオブジェクトOBの位置、移動方向、或いは移動速度のうち、選択したオブジェクトの位置、移動方向、或いは移動速度に基づいて、視点変換画像のデータを生成するようにしたことで、好みに合わせた画像を得ることができる。
In the image processing device 12, a plurality of objects exist in a space captured by the plurality of cameras 11.
The position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72 acquires the position, movement direction, or movement speed of each of the plurality of objects.
The viewpoint conversion image processing unit 74 includes a position of a selected object among the positions, movement directions, or movement speeds of the plurality of objects acquired by the position information acquisition unit 63, the movement direction calculation unit 71, or the movement speed calculation unit 72, Based on the moving direction or moving speed, data of the viewpoint conversion image is generated.
In this case, the image processing apparatus 12 generates viewpoint-converted image data based on the position, moving direction, or moving speed of the selected object among the positions, moving directions, or moving speeds of the plurality of objects OB. By doing so, it is possible to obtain an image that suits the taste.

また、表示制御部65は、視点変換画像のデータを表示出力する制御を実行する。
この場合、画像処理装置12は、視点変換画像のデータを表示出力する制御を実行するようにしたことで、画像処理装置で生成された視点変換画像を確認することができる。
In addition, the display control unit 65 performs control to display and output viewpoint conversion image data.
In this case, the image processing apparatus 12 can confirm the viewpoint conversion image generated by the image processing apparatus by executing the control to display and output the data of the viewpoint conversion image.

また、表示制御部65は、視点変換画像加工部74により生成された視点変換画像のデータを外部機器に送信する送信手段として機能する。
この場合、画像処理装置以外の外部端末14で生成された視点変換画像を確認することができ、離れた場所でも視点変換画像を楽しむことができる。
In addition, the display control unit 65 functions as a transmission unit that transmits the viewpoint converted image data generated by the viewpoint converted image processing unit 74 to an external device.
In this case, the viewpoint conversion image generated by the external terminal 14 other than the image processing apparatus can be confirmed, and the viewpoint conversion image can be enjoyed even at a distant place.

また、画像処理装置12は、外部端末14からの制御信号を受信する制御受信手段をさらに備える。
視点変換画像加工部74は、視点変換画像のデータとして、制御受信手段により受信された制御信号により指示された仮想視点から眺めた様子を表わす画像のデータを生成する。
この場合、画像処理装置12は、制御受信手段により受信された制御信号により指示された仮想視点から眺めた様子を表わす画像のデータを生成するために、外部端末14の使用者が要求する視点での視点変換画像のデータを生成することができる。
The image processing apparatus 12 further includes a control receiving unit that receives a control signal from the external terminal 14.
The viewpoint conversion image processing unit 74 generates, as viewpoint conversion image data, image data representing a state viewed from the virtual viewpoint indicated by the control signal received by the control reception unit.
In this case, the image processing apparatus 12 uses a viewpoint requested by the user of the external terminal 14 in order to generate image data representing a state viewed from the virtual viewpoint indicated by the control signal received by the control receiving unit. The viewpoint conversion image data can be generated.

また、撮像画像取得部62は、複数の撮像画像のデータの各々として、動画像のデータを夫々取得する。
視点変換画像加工部74は、撮像画像取得部62により取得された動画像のデータに基づいて、視点変換画像のデータとして動画像のデータを生成する。
この場合、画像処理装置12は、動きのある動画像を提供することができるために、さらに臨場感のある映像を提供することができる。
なお、視点変換画像加工部74は、視点変換画像のデータとして動画像のデータを生成するように構成したが、連写画像のデータ或いは静止画のデータも生成するように構成してもよい。
The captured image acquisition unit 62 acquires moving image data as each of the plurality of captured image data.
The viewpoint conversion image processing unit 74 generates moving image data as viewpoint conversion image data based on the moving image data acquired by the captured image acquisition unit 62.
In this case, since the image processing apparatus 12 can provide a moving image with movement, it can provide a video with a more realistic feeling.
The viewpoint conversion image processing unit 74 is configured to generate moving image data as viewpoint conversion image data, but may be configured to generate continuous shot image data or still image data.

以上、本発明の第1実施形態に係る画像処理装置12について説明した。
次に、本発明の第2実施形態に係る画像処理装置12について説明する。
The image processing apparatus 12 according to the first embodiment of the present invention has been described above.
Next, an image processing apparatus 12 according to the second embodiment of the present invention will be described.

[第2実施形態]
上述した第1実施形態では、視点変換画像のデータの生成に際して、複数の撮像画像のデータうち、1つの撮像画像のデータを用いる場合の例を説明したが、本実施形態では、複数の撮像画像のデータを用いて視点変換画像のデータを生成する例について説明する。
本発明の第2実施形態に係る画像処理装置12は、第1実施形態に係る画像処理装置12と基本的に同様のハードウェア構成及び機能的構成を取ることができる。
従って、図4は、第2実施形態に係る画像処理装置12のハードウェアの構成を示すブロック図でもある。
また、図5は、第2実施形態に係る画像処理装置12の機能的構成を示す機能ブロック図でもあるが、第2実施形態では、元画像選択部73及び視点変換画像加工部74が異なる。
即ち、第2実施形態では、複数の撮像画像のデータから視点変換画像のデータが生成されるために、元画像選択部73は、複数の撮像画像のデータのうち、最適な撮像画像のデータを選択せず、複数の撮像画像のデータのうち、選択オブジェクトが映り込んだ撮像画像のデータや、視点変換画像のデータの生成に好適な撮像画像のデータを選択する。
また、視点変換画像加工部74は、複数の撮像画像のデータの差分から変換したり、複数の撮像画像のデータを変換して合成したりすることで、視点変換画像を生成する。この場合の視点変換画像の生成は、公知の任意の手法を採用することができる。公知の任意の手法とは、例えば特開2011−77982公報等に開示されている。
[Second Embodiment]
In the first embodiment described above, an example in which data of one captured image among the data of a plurality of captured images is used when generating viewpoint-converted image data. However, in the present embodiment, a plurality of captured images is used. An example of generating viewpoint-converted image data using this data will be described.
The image processing apparatus 12 according to the second embodiment of the present invention can have basically the same hardware configuration and functional configuration as the image processing apparatus 12 according to the first embodiment.
Therefore, FIG. 4 is also a block diagram showing a hardware configuration of the image processing apparatus 12 according to the second embodiment.
FIG. 5 is also a functional block diagram showing a functional configuration of the image processing apparatus 12 according to the second embodiment, but the original image selection unit 73 and the viewpoint conversion image processing unit 74 are different in the second embodiment.
That is, in the second embodiment, since viewpoint conversion image data is generated from data of a plurality of captured images, the original image selection unit 73 selects optimal captured image data from among the plurality of captured image data. Without selection, captured image data in which the selected object is reflected or captured image data suitable for generating viewpoint-converted image data is selected from the plurality of captured image data.
Further, the viewpoint conversion image processing unit 74 generates a viewpoint conversion image by converting from the difference between the data of the plurality of captured images or by converting and combining the data of the plurality of captured images. In this case, any known method can be adopted for generating the viewpoint conversion image. A known arbitrary technique is disclosed in, for example, Japanese Patent Application Laid-Open No. 2011-77982.

図12は、図5の機能的構成を有する図4の画像処理装置12が実行する、第2実施形態に係る視点変換画像生成処理の流れを説明するフローチャートである。   FIG. 12 is a flowchart for explaining the flow of viewpoint-converted image generation processing according to the second embodiment, which is executed by the image processing device 12 of FIG. 4 having the functional configuration of FIG.

上述した第1実施形態における図6の視点変換画像生成処理では、複数の撮像画像データのうち、元画像のデータとなる1つの撮像画像データを選択し、元画像のデータを変換することで視点変換画像のデータを生成しているのに対して、第2実施形態における図12の視点変換画像生成処理では、複数の撮像画像データを用いて、それぞれの撮像画像のデータを変換して合成することで、視点変換画像のデータを生成している点が差異点である。詳細には、第2実施形態では、第1実施形態に係るステップS15乃至S18の処理に代えて、ステップS45の処理が実行される点が差異点である。
そこで、以下、このような差異点について主に説明し、一致点の説明は適宜省略する。
In the viewpoint-converted image generation process of FIG. 6 in the first embodiment described above, one captured image data serving as the original image data is selected from the plurality of captured image data, and the viewpoint is obtained by converting the original image data. In contrast to the generation of converted image data, the viewpoint-converted image generation processing of FIG. 12 in the second embodiment uses a plurality of captured image data to convert and synthesize each captured image data. Thus, the difference is that the data of the viewpoint conversion image is generated. Specifically, the second embodiment is different in that the process of step S45 is executed instead of the processes of steps S15 to S18 according to the first embodiment.
Thus, hereinafter, such differences will be mainly described, and description of the coincident points will be omitted as appropriate.

ステップS45において、視点変換画像加工部74は、位置情報に基づいて、複数の元画像のデータから視点変換画像を生成する。即ち、視点変換画像加工部74は、複数の撮像画像のデータの差分から変換したり、複数の撮像画像のデータを変換して合成したりすることで、視点変換画像を生成する。
この際、元画像選択部73は、複数の撮像画像のデータのうち、視点変換画像のデータに好適な撮像画像のデータを元画像として事前に選択するように構成してもよい。
In step S45, the viewpoint conversion image processing unit 74 generates a viewpoint conversion image from a plurality of original image data based on the position information. In other words, the viewpoint conversion image processing unit 74 generates a viewpoint conversion image by converting from the difference between the data of the plurality of captured images or by converting and combining the data of the plurality of captured images.
At this time, the original image selection unit 73 may be configured to select in advance the captured image data suitable for the viewpoint-converted image data from among the plurality of captured image data as the original image.

なお、上述の第2実施形態においては、第1実施形態の選択オブジェクトOBからの位置情報の取得手法を採用することもできるが、第1実施形態の第2変形例乃至第5変形例の手法も適宜採用することができる。   In the second embodiment described above, the position information acquisition method from the selected object OB of the first embodiment can be adopted, but the methods of the second to fifth modifications of the first embodiment are also possible. Can also be employed as appropriate.

以上のように構成される画像処理装置12において、元画像選択部73は、複数のカメラ11により撮像された複数の撮像画像のデータの中から、複数の元画像のデータを選択する。
視点変換画像加工部74は、元画像選択部73により選択された複数の元画像のデータ(より具体的には、複数の元画像のデータの差分の画像データ)に基づいて、視点変換画像のデータを生成する。
In the image processing apparatus 12 configured as described above, the original image selection unit 73 selects a plurality of original image data from a plurality of captured image data captured by the plurality of cameras 11.
The viewpoint conversion image processing unit 74 is based on the data of the plurality of original images selected by the original image selection unit 73 (more specifically, the image data of the difference between the data of the plurality of original images). Generate data.

この場合、画像処理装置12は、選択された複数の元画像のデータに基づいて、視点変換画像のデータを生成するようにしたことで、よりリアルな視点変換画像を得ることができる。   In this case, the image processing apparatus 12 can obtain a more realistic viewpoint conversion image by generating the viewpoint conversion image data based on the data of the plurality of selected original images.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、本発明が適用される上述の実施形態では、ボール等の競技用品や選手を選択オブジェクトとして選択する例について説明したがこれに限定されない。例えば、審判員、解説者、お客等の競技会場にいる人物や、競技会場にある物を選択オブジェクトとして選択することができる。   In the above-described embodiment, the above-described embodiment to which the present invention is applied has been described with respect to an example in which a competition equipment such as a ball or a player is selected as a selection object. For example, a person in a competition venue such as a referee, a commentator, or a customer, or an object in a competition venue can be selected as a selection object.

また、上述の実施形態では、撮像部101は、連続撮影した画像の画像データを逐次送信部102を通じて画像処理装置12へ送信しているがこれに限られない。例えば、大容量のメモリ(図示せず)に記憶した後、所定の時間毎、容量毎、又は通信速度に応じて分割して、画像処理装置12へ送信することができる。   In the above-described embodiment, the imaging unit 101 transmits image data of continuously captured images to the image processing apparatus 12 through the sequential transmission unit 102, but is not limited thereto. For example, after being stored in a large-capacity memory (not shown), it can be divided and transmitted to the image processing apparatus 12 at predetermined time intervals, capacity intervals, or communication speeds.

また、上述の実施形態では、カメラ11は、競技場Fの全域を撮像可能に複数台設けたがこれに限られず、例えば、通常の撮像範囲よりも広い範囲を撮像可能な広角カメラ、パノラマカメラ、全天周カメラにより構成してもよい。また、カメラ11は、設置場所や視角の異なる複数の広角カメラ、パノラマカメラ、全天周カメラにより構成してもよい。   In the above-described embodiment, a plurality of cameras 11 are provided so that the entire area of the stadium F can be imaged. However, the present invention is not limited to this. For example, a wide-angle camera or a panoramic camera capable of imaging a wider range than the normal imaging range. It may be configured by an all-sky camera. In addition, the camera 11 may be configured by a plurality of wide-angle cameras, panoramic cameras, and omnidirectional cameras having different installation locations and viewing angles.

また、上述の実施形態では、本発明が適用される画像処理装置12が使用される画像処理システム10は、スポーツが行われる競技場で用いられる例について説明したがこれに限定されない。例えば、舞台中継等に適用可能である。   In the above-described embodiment, the image processing system 10 in which the image processing apparatus 12 to which the present invention is applied has been described as an example used in a stadium where sports are performed. However, the present invention is not limited thereto. For example, the present invention can be applied to stage broadcasts.

また、上述の実施形態では、画像処理装置12での指示により、選択オブジェクトOBの設定を行い視点変換画像のデータを生成するように構成したがこれに限られない。例えば、外部端末からの指示により、選択オブジェクトOBの設定を行い視点変換画像のデータを生成するように構成してもよい。   In the above-described embodiment, the selection object OB is set and the viewpoint-converted image data is generated according to the instruction from the image processing apparatus 12, but the present invention is not limited to this. For example, the selection object OB may be set according to an instruction from an external terminal to generate viewpoint converted image data.

また、上述の実施形態では、画像処理装置12から視点変換画像のデータを外部端末14に送信するように構成したがこれに限られない。例えば、ネットワーク上に接続されたサーバに視点変換画像のデータを保存し、事後的又はリアルタイムに視点変換画像のデータを外部端末で取得するように構成してもよい。   In the above-described embodiment, the viewpoint conversion image data is transmitted from the image processing apparatus 12 to the external terminal 14, but the present invention is not limited thereto. For example, the viewpoint-converted image data may be stored in a server connected to the network, and the viewpoint-converted image data may be acquired by an external terminal afterwards or in real time.

また、上述の実施形態では、取得した位置情報のデータから逐次視点変換画像のデータを生成するように構成したがこれに限られない。例えば、位置情報のデータの履歴から、所定の時間を指定して、当該指定された時間帯の視点変換画像のデータを生成するように構成してもよい。   In the above-described embodiment, the viewpoint conversion image data is sequentially generated from the acquired position information data. However, the present invention is not limited to this. For example, a predetermined time may be specified from the position information data history, and the viewpoint-converted image data in the specified time zone may be generated.

また、上述の実施形態では、画像処理装置12は、例えば、選択オブジェクトの移動速度が速い場合には、通常の視点変換画像のデータとは異なる広角な視点変換画像のデータ等の選択オブジェクトOBの移動速度に対応した大きさとなる視点変換画像のデータを生成するように構成したこれに限られない。画像処理装置12は、選択オブジェクトの移動速度が視覚的に伝わるような効果を施して、選択オブジェクトの移動速度を表現してもよく、例えば、選択オブジェクトの移動速度が速い場合には、眺望方向の中心付近に焦点を合わせて、周囲をぼかすような視点変換画像のデータを生成するように構成してもよい。   In the above-described embodiment, for example, when the moving speed of the selected object is high, the image processing device 12 can change the selection object OB such as wide-angle viewpoint conversion image data different from normal viewpoint conversion image data. However, the present invention is not limited to this, and is configured to generate viewpoint-converted image data having a size corresponding to the moving speed. The image processing apparatus 12 may express the moving speed of the selected object by applying an effect such that the moving speed of the selected object is visually transmitted. For example, when the moving speed of the selected object is fast, the viewing direction It is also possible to generate viewpoint-converted image data that focuses on the vicinity of the center and blurs the surroundings.

また、上述の実施形態では、本発明が適用される画像処理装置12は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、視点変換画像生成処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 12 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a viewpoint conversion image generation processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置12に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図5の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 5 is merely an example, and is not particularly limited. That is, it is sufficient that the image processing apparatus 12 has a function capable of executing the above-described series of processing as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4のリムーバブルメディア51により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア51は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図4のROM32や、図4の記憶部40に含まれるハードディスク等で構成される。   The recording medium including such a program is not only configured by the removable medium 51 of FIG. 4 distributed separately from the apparatus main body in order to provide the user with the program, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in. The removable medium 51 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 32 in FIG. 4 in which a program is recorded, the hard disk included in the storage unit 40 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれる共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are also included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得手段と、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得手段と、
前記位置取得手段により取得された前記位置に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工手段と、
前記画像加工手段により生成された前記視点変換画像のデータを出力する制御を実行する出力制御手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記位置取得手段は、前記所定の空間を移動する前記オブジェクトの位置を任意のタイミングで取得し、
前記画像加工手段は、前記位置取得手段により任意のタイミングで取得された前記オブジェクトの位置に基づいて、前記画像取得手段により取得された前記撮像画像のデータを加工する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記位置取得手段は、前記所定の空間を移動する前記オブジェクトの位置を逐次取得し、
前記画像加工手段は、前記位置取得手段により逐次取得された前記オブジェクトの位置に基づいて、前記画像取得手段により取得された前記撮像画像のデータを逐次加工する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記画像取得手段により取得された前記複数の撮像画像のデータの中から、前記オブジェクトに配置された仮想視点から眺めた様子を表わす画像の生成の元になる元画像のデータを、前記位置取得手段により取得された前記位置に基づいて選択する元画像選択手段を備え、
前記画像加工手段は、前記元画像選択手段により取得された前記元画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する、
ことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
[付記5]
前記位置取得手段は、前記オブジェクトの移動方向をさらに取得し、
前記元画像選択手段は、前記位置取得手段により取得された前記オブジェクトの移動方向に基づいて前記元画像のデータを選択し、
前記画像加工手段は、さらに前記位置取得手段により取得された前記移動方向に基づいて前記元画像のデータを加工することで、前記移動方向に移動する前記オブジェクトに配置された仮想視点が前記移動方向を前記眺望方向として眺めた様子を表わす画像のデータを、前記視点変換画像のデータとして生成する、
ことを特徴とする付記4に記載の画像処理装置。
[付記6]
前記位置取得手段は、オブジェクトの移動速度をさらに取得し、
前記画像加工手段は、前記視点変換画像のデータとして、前記位置取得手段により取得された前記移動速度に応じた画角の画像のデータを生成する、
ことを特徴とする付記4又は5に記載の画像処理装置。
[付記7]
前記画像加工手段は、前記視点変換画像のデータとして、前記移動速度に反比例して広角となる画像のデータを生成する、
ことを特徴とする付記6に記載の画像処理装置。
[付記8]
前記元画像選択手段は、前記複数の撮像手段により撮像された前記複数の撮像画像のデータの中から、複数の元画像のデータを選択し、
前記画像加工手段は、前記元画像選択手段により選択された前記複数の元画像のデータに基づいて、前記視点変換画像のデータを生成する、
ことを特徴とする付記4乃至7の何れか1つに記載の画像処理装置。
[付記9]
前記オブジェクトは、自己の状態を示すデータを取得して発信し、
前記位置取得手段は、前記オブジェクトから発信された前記データを取得し、当該データに基づいて前記オブジェクトの状態を取得する、
ことを特徴とする付記1乃至8の何れか1つに記載の画像処理装置。
[付記10]
前記オブジェクトから発信された、前記オブジェクトの状態を示す前記データを受信する受信装置が、前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記オブジェクトの状態を示す前記データを、前記受信装置を介して取得する、
ことを特徴とする付記9に記載の画像処理装置。
[付記11]
電磁界を発生させる発生源と、前記電磁界を受信検出する受信手段と、が前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記受信手段の受信検出の結果に基づいて、前記オブジェクトの状態を取得する、
ことを特徴とする付記1乃至8の何れか1つに記載の画像処理装置。
[付記12]
相異なる周波数の無線電波を送信するビーコン電波アンテナが、前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記ビーコン電波アンテナから送信された前記無線電波によるドップラー効果を利用して、前記オブジェクトの状態を取得する、
ことを特徴とする付記1乃至8の何れか1つに記載の画像処理装置。
[付記13]
前記位置取得手段は、前記画像取得手段により取得された前記複数の撮像画像のデータのうち前記オブジェクトが写った撮像画像のデータに対して画像処理を施し、当該画像処理の結果に基づいて、前記オブジェクトの状態を取得する、
ことを特徴とする付記1乃至8の何れか1つに記載の画像処理装置。
[付記14]
前記オブジェクトには識別情報が付されており、
前記位置取得手段は、前記画像処理により前記識別情報を認識し、当該識別情報を利用して前記オブジェクトの状態を取得する、
ことを特徴とする付記13に記載の画像処理装置。
[付記15]
前記位置取得手段は、前記画像処理により前記オブジェクトの外観を認識し、当該外観に基づいて前記オブジェクトの状態を取得する、
ことを特徴とする付記13に記載の画像処理装置。
[付記16]
前記複数の撮像装置が撮像する前記空間には、複数のオブジェクトが存在し、
前記位置取得手段は、前記複数のオブジェクトの各々の状態を取得し、
前記画像加工手段は、前記位置取得手段により取得された前記複数のオブジェクトの状態のうち、選択したオブジェクトの状態に基づいて、前記視点変換画像のデータを生成する、
ことを特徴とする付記1乃至15の何れか1つに記載の画像処理装置。
[付記17]
前記出力制御手段は、前記画像加工手段により生成された前記視点変換画像のデータを表示出力する制御を実行する、
ことを特徴とする付記1乃至16の何れか1つに記載の画像処理装置。
[付記18]
前記出力制御手段は、前記画像加工手段により生成された前記視点変換画像のデータを外部機器に送信する送信手段として機能する、
ことを特徴とする付記1乃至17の何れか1つに記載の画像処理装置。
[付記19]
外部機器からの制御信号を受信する制御受信手段をさらに備え、
前記画像加工手段は、前記視点変換画像のデータとして、前記制御受信手段により受信された制御信号により指示された仮想視点から眺めた様子を表わす画像のデータを生成する、
ことを特徴とする付記1乃至18の何れか1つに記載の画像処理装置。
[付記20]
視点変換画像のデータを出力する制御を実行する画像処理装置が実行する画像処理方法であって、
オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得ステップと、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得ステップと、
前記位置取得ステップにより取得された前記位置に基づいて、前記画像取得ステップにより取得された前記撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工ステップと、
前記画像加工ステップにより生成された前記視点変換画像のデータを出力する制御を実行する出力制御ステップと、
を含む画像処理方法。
[付記21]
視点変換画像のデータを出力する制御を実行する画像処理装置を制御するコンピュータに、
オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得機能、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得機能、
前記位置取得機能により取得された前記位置に基づいて、前記画像取得機能により取得された前記撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工機能、
前記画像加工機能により生成された前記視点変換画像のデータを出力する制御を実行する出力制御機能、
を含む機能を実現させるプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
Position acquisition means for acquiring the position of the object moving in the predetermined space;
Based on the position acquired by the position acquisition means, the data of the plurality of captured images acquired by the image acquisition means is processed for viewpoint conversion, so that the virtual viewpoint arranged in the object is a predetermined point. Image processing means for generating image data representing a view of the viewing direction as viewpoint converted image data;
Output control means for executing control for outputting data of the viewpoint conversion image generated by the image processing means;
An image processing apparatus comprising:
[Appendix 2]
The position acquisition means acquires the position of the object moving in the predetermined space at an arbitrary timing,
The image processing means processes the data of the captured image acquired by the image acquisition means based on the position of the object acquired at an arbitrary timing by the position acquisition means.
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The position acquisition means sequentially acquires the position of the object moving in the predetermined space,
The image processing means sequentially processes the data of the captured image acquired by the image acquisition means based on the position of the object sequentially acquired by the position acquisition means.
The image processing apparatus according to Supplementary Note 2, wherein
[Appendix 4]
Among the data of the plurality of captured images acquired by the image acquisition unit, original position data that is a source of generation of an image representing a state viewed from a virtual viewpoint arranged on the object is obtained by the position acquisition unit. An original image selection means for selecting based on the position acquired by
The image processing means processes the original image data acquired by the original image selection means to perform viewpoint conversion, thereby representing an image representing a state in which a virtual viewpoint placed on the object looks at a predetermined viewing direction. Is generated as viewpoint-converted image data.
The image processing apparatus according to any one of supplementary notes 1 to 3, wherein
[Appendix 5]
The position acquisition means further acquires the moving direction of the object,
The original image selection means selects the data of the original image based on the moving direction of the object acquired by the position acquisition means,
The image processing means further processes the data of the original image based on the movement direction acquired by the position acquisition means, so that a virtual viewpoint arranged on the object moving in the movement direction becomes the movement direction. Is generated as data of the viewpoint conversion image, the image data representing the state of viewing as the viewing direction,
The image processing apparatus according to appendix 4, wherein
[Appendix 6]
The position acquisition means further acquires the moving speed of the object,
The image processing means generates image data of an angle of view corresponding to the moving speed acquired by the position acquisition means as the viewpoint converted image data.
The image processing apparatus according to appendix 4 or 5, characterized in that:
[Appendix 7]
The image processing means generates data of an image having a wide angle in inverse proportion to the moving speed, as data of the viewpoint conversion image.
The image processing apparatus according to appendix 6, wherein:
[Appendix 8]
The original image selection unit selects data of a plurality of original images from the data of the plurality of captured images captured by the plurality of imaging units,
The image processing means generates data of the viewpoint conversion image based on the data of the plurality of original images selected by the original image selection means.
The image processing apparatus according to any one of appendices 4 to 7, characterized in that:
[Appendix 9]
The object obtains and transmits data indicating its own state,
The position acquisition means acquires the data transmitted from the object, and acquires the state of the object based on the data;
The image processing apparatus according to any one of appendices 1 to 8, wherein
[Appendix 10]
A receiving device that receives the data indicating the state of the object transmitted from the object is provided outside the image processing device,
The position acquisition means acquires the data indicating the state of the object via the receiving device.
The image processing apparatus according to appendix 9, wherein:
[Appendix 11]
A generation source for generating an electromagnetic field and a receiving means for receiving and detecting the electromagnetic field are provided outside the image processing apparatus,
The position acquisition means acquires the state of the object based on a reception detection result of the reception means;
The image processing apparatus according to any one of appendices 1 to 8, wherein
[Appendix 12]
A beacon radio antenna that transmits radio waves of different frequencies is provided outside the image processing device,
The position acquisition means acquires the state of the object using the Doppler effect by the radio wave transmitted from the beacon radio antenna.
The image processing apparatus according to any one of appendices 1 to 8, wherein
[Appendix 13]
The position acquisition means performs image processing on captured image data in which the object is captured among the plurality of captured image data acquired by the image acquisition means, and based on the result of the image processing, Get object state,
The image processing apparatus according to any one of appendices 1 to 8, wherein
[Appendix 14]
Identification information is attached to the object,
The position acquisition means recognizes the identification information by the image processing, and acquires the state of the object using the identification information.
The image processing apparatus according to attachment 13, wherein the image processing apparatus is characterized in that
[Appendix 15]
The position acquisition means recognizes the appearance of the object by the image processing, and acquires the state of the object based on the appearance.
The image processing apparatus according to attachment 13, wherein the image processing apparatus is characterized in that
[Appendix 16]
There are a plurality of objects in the space captured by the plurality of imaging devices,
The position acquisition means acquires the state of each of the plurality of objects,
The image processing means generates data of the viewpoint conversion image based on the state of the selected object among the states of the plurality of objects acquired by the position acquisition means.
The image processing apparatus according to any one of appendices 1 to 15, characterized in that:
[Appendix 17]
The output control means executes control to display and output the data of the viewpoint conversion image generated by the image processing means.
The image processing apparatus according to any one of supplementary notes 1 to 16, wherein:
[Appendix 18]
The output control unit functions as a transmission unit that transmits data of the viewpoint conversion image generated by the image processing unit to an external device.
18. The image processing apparatus according to any one of appendices 1 to 17, wherein
[Appendix 19]
It further comprises control receiving means for receiving a control signal from an external device,
The image processing means generates data of an image representing a state viewed from a virtual viewpoint instructed by a control signal received by the control receiving means as data of the viewpoint conversion image.
The image processing apparatus according to any one of appendices 1 to 18, wherein
[Appendix 20]
An image processing method executed by an image processing apparatus that executes control to output viewpoint-converted image data,
An image acquisition step of acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
A position acquisition step of acquiring a position of the object moving in the predetermined space;
Based on the position acquired in the position acquisition step, the virtual viewpoint arranged in the object has a predetermined viewing direction by processing the captured image data acquired in the image acquisition step for viewpoint conversion. An image processing step for generating data of an image representing a state of viewing the image as viewpoint conversion image data;
An output control step for executing control to output data of the viewpoint conversion image generated by the image processing step;
An image processing method including:
[Appendix 21]
To a computer that controls an image processing apparatus that executes control to output data of a viewpoint-converted image,
An image acquisition function for acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
A position acquisition function for acquiring the position of the object moving in the predetermined space;
Based on the position acquired by the position acquisition function, the viewpoint of the captured image acquired by the image acquisition function is processed to convert the virtual viewpoint arranged in the object into a predetermined viewing direction. An image processing function for generating image data representing the state of viewing the image as viewpoint converted image data,
An output control function for executing control to output data of the viewpoint conversion image generated by the image processing function;
A program that realizes functions including

10・・・画像処理システム、11a〜11h・・・カメラ、12・・・画像処理装置、13・・・中継装置、14−1〜14−N・・・外部端末、15−1〜15−3・・・受信装置、16−1〜16−3・・・磁界発生源、17−1〜17−3・・・受信手段、31・・・CPU、32・・・ROM、33・・・RAM、34・・・画像処理部、35・・・バス、36・・・入出力インターフェース、37・・・入力部、38・・・表示部、39・・・計時部、40・・・記憶部、41・・・通信部、42・・・ドライブ、51・・・リムーバブルメディア、61・・・主制御部、62・・・撮像画像取得部、63・・・位置情報取得部、64・・・記憶制御部、65・・・表示制御部、66・・・通信制御部、71・・・移動方向算出部、72・・・移動速度算出部、73・・・元画像選択部、74・・・視点変換画像加工部、81・・・元画像候補データ記憶部、82・・・オブジェクトデータ記憶部、83・・・表示データ記憶部、101・・・撮像部、102・・・送信部、111・・・センサ部、112・・・送信部、A1、A2・・・移動方向、F・・・競技場、G1、G2・・・ゴール、M1〜M7・・・マーク、N・・・ネットワーク、OB1〜OB7・・・オブジェクト   DESCRIPTION OF SYMBOLS 10 ... Image processing system, 11a-11h ... Camera, 12 ... Image processing apparatus, 13 ... Relay apparatus, 14-1 to 14-N ... External terminal, 15-1 to 15- DESCRIPTION OF SYMBOLS 3 ... Receiving device, 16-1 to 16-3 ... Magnetic field generation source, 17-1 to 17-3 ... Receiving means, 31 ... CPU, 32 ... ROM, 33 ... RAM, 34 ... image processing unit, 35 ... bus, 36 ... input / output interface, 37 ... input unit, 38 ... display unit, 39 ... timing unit, 40 ... memory 41, communication unit, 42, drive, 51, removable media, 61 ... main control unit, 62 ... captured image acquisition unit, 63 ... position information acquisition unit, 64. ..Storage control unit, 65... Display control unit, 66... Communication control unit, 71. 72 ... Moving speed calculation unit, 73 ... Original image selection unit, 74 ... Viewpoint conversion image processing unit, 81 ... Original image candidate data storage unit, 82 ... Object data storage unit, 83 ... Display data storage unit, 101 ... Imaging unit, 102 ... Transmission unit, 111 ... Sensor unit, 112 ... Transmission unit, A1, A2 ... Moving direction, F ... Competition Field, G1, G2 ... Goal, M1-M7 ... Mark, N ... Network, OB1-OB7 ... Object

Claims (21)

オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得手段と、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得手段と、
前記位置取得手段により取得された前記位置に基づいて、前記画像取得手段により取得された前記複数の撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工手段と、
前記画像加工手段により生成された前記視点変換画像のデータを出力する制御を実行する出力制御手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
Position acquisition means for acquiring the position of the object moving in the predetermined space;
Based on the position acquired by the position acquisition means, the data of the plurality of captured images acquired by the image acquisition means is processed for viewpoint conversion, so that the virtual viewpoint arranged in the object is a predetermined point. Image processing means for generating image data representing a view of the viewing direction as viewpoint converted image data;
Output control means for executing control for outputting data of the viewpoint conversion image generated by the image processing means;
An image processing apparatus comprising:
前記位置取得手段は、前記所定の空間を移動する前記オブジェクトの位置を任意のタイミングで取得し、
前記画像加工手段は、前記位置取得手段により任意のタイミングで取得された前記オブジェクトの位置に基づいて、前記画像取得手段により取得された前記撮像画像のデータを加工する、
ことを特徴とする請求項1に記載の画像処理装置。
The position acquisition means acquires the position of the object moving in the predetermined space at an arbitrary timing,
The image processing means processes the data of the captured image acquired by the image acquisition means based on the position of the object acquired at an arbitrary timing by the position acquisition means.
The image processing apparatus according to claim 1.
前記位置取得手段は、前記所定の空間を移動する前記オブジェクトの位置を逐次取得し、
前記画像加工手段は、前記位置取得手段により逐次取得された前記オブジェクトの位置に基づいて、前記画像取得手段により取得された前記撮像画像のデータを逐次加工する、
ことを特徴とする請求項2に記載の画像処理装置。
The position acquisition means sequentially acquires the position of the object moving in the predetermined space,
The image processing means sequentially processes the data of the captured image acquired by the image acquisition means based on the position of the object sequentially acquired by the position acquisition means.
The image processing apparatus according to claim 2.
前記画像取得手段により取得された前記複数の撮像画像のデータの中から、前記オブジェクトに配置された仮想視点から眺めた様子を表わす画像の生成の元になる元画像のデータを、前記位置取得手段により取得された前記位置に基づいて選択する元画像選択手段を備え、
前記画像加工手段は、前記元画像選択手段により取得された前記元画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
Among the data of the plurality of captured images acquired by the image acquisition unit, original position data that is a source of generation of an image representing a state viewed from a virtual viewpoint arranged on the object is obtained by the position acquisition unit. An original image selection means for selecting based on the position acquired by
The image processing means processes the original image data acquired by the original image selection means to perform viewpoint conversion, thereby representing an image representing a state in which a virtual viewpoint placed on the object looks at a predetermined viewing direction. Is generated as viewpoint-converted image data.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記位置取得手段は、前記オブジェクトの移動方向をさらに取得し、
前記元画像選択手段は、前記位置取得手段により取得された前記オブジェクトの移動方向に基づいて前記元画像のデータを選択し、
前記画像加工手段は、さらに前記位置取得手段により取得された前記移動方向に基づいて前記元画像のデータを加工することで、前記移動方向に移動する前記オブジェクトに配置された仮想視点が前記移動方向を前記眺望方向として眺めた様子を表わす画像のデータを、前記視点変換画像のデータとして生成する、
ことを特徴とする請求項4に記載の画像処理装置。
The position acquisition means further acquires the moving direction of the object,
The original image selection means selects the data of the original image based on the moving direction of the object acquired by the position acquisition means,
The image processing means further processes the data of the original image based on the movement direction acquired by the position acquisition means, so that a virtual viewpoint arranged on the object moving in the movement direction becomes the movement direction. Is generated as data of the viewpoint conversion image, the image data representing the state of viewing as the viewing direction,
The image processing apparatus according to claim 4.
前記位置取得手段は、オブジェクトの移動速度をさらに取得し、
前記画像加工手段は、前記視点変換画像のデータとして、前記位置取得手段により取得された前記移動速度に応じた画角の画像のデータを生成する、
ことを特徴とする請求項4又は5に記載の画像処理装置。
The position acquisition means further acquires the moving speed of the object,
The image processing means generates image data of an angle of view corresponding to the moving speed acquired by the position acquisition means as the viewpoint converted image data.
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記画像加工手段は、前記視点変換画像のデータとして、前記移動速度に反比例して広角となる画像のデータを生成する、
ことを特徴とする請求項6に記載の画像処理装置。
The image processing means generates data of an image having a wide angle in inverse proportion to the moving speed, as data of the viewpoint conversion image.
The image processing apparatus according to claim 6.
前記元画像選択手段は、前記複数の撮像手段により撮像された前記複数の撮像画像のデータの中から、複数の元画像のデータを選択し、
前記画像加工手段は、前記元画像選択手段により選択された前記複数の元画像のデータに基づいて、前記視点変換画像のデータを生成する、
ことを特徴とする請求項4乃至7の何れか1項に記載の画像処理装置。
The original image selection unit selects data of a plurality of original images from the data of the plurality of captured images captured by the plurality of imaging units,
The image processing means generates data of the viewpoint conversion image based on the data of the plurality of original images selected by the original image selection means.
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記オブジェクトは、自己の状態を示すデータを取得して発信し、
前記位置取得手段は、前記オブジェクトから発信された前記データを取得し、当該データに基づいて前記オブジェクトの状態を取得する、
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The object obtains and transmits data indicating its own state,
The position acquisition means acquires the data transmitted from the object, and acquires the state of the object based on the data;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記オブジェクトから発信された、前記オブジェクトの状態を示す前記データを受信する受信装置が、前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記オブジェクトの状態を示す前記データを、前記受信装置を介して取得する、
ことを特徴とする請求項9に記載の画像処理装置。
A receiving device that receives the data indicating the state of the object transmitted from the object is provided outside the image processing device,
The position acquisition means acquires the data indicating the state of the object via the receiving device.
The image processing apparatus according to claim 9.
電磁界を発生させる発生源と、前記電磁界を受信検出する受信手段と、が前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記受信手段の受信検出の結果に基づいて、前記オブジェクトの状態を取得する、
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
A generation source for generating an electromagnetic field and a receiving means for receiving and detecting the electromagnetic field are provided outside the image processing apparatus,
The position acquisition means acquires the state of the object based on a reception detection result of the reception means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
相異なる周波数の無線電波を送信するビーコン電波アンテナが、前記画像処理装置の外部に設けられており、
前記位置取得手段は、前記ビーコン電波アンテナから送信された前記無線電波によるドップラー効果を利用して、前記オブジェクトの状態を取得する、
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
A beacon radio antenna that transmits radio waves of different frequencies is provided outside the image processing device,
The position acquisition means acquires the state of the object using the Doppler effect by the radio wave transmitted from the beacon radio antenna.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記位置取得手段は、前記画像取得手段により取得された前記複数の撮像画像のデータのうち前記オブジェクトが写った撮像画像のデータに対して画像処理を施し、当該画像処理の結果に基づいて、前記オブジェクトの状態を取得する、
ことを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The position acquisition means performs image processing on captured image data in which the object is captured among the plurality of captured image data acquired by the image acquisition means, and based on the result of the image processing, Get object state,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記オブジェクトには識別情報が付されており、
前記位置取得手段は、前記画像処理により前記識別情報を認識し、当該識別情報を利用して前記オブジェクトの状態を取得する、
ことを特徴とする請求項13に記載の画像処理装置。
Identification information is attached to the object,
The position acquisition means recognizes the identification information by the image processing, and acquires the state of the object using the identification information.
The image processing apparatus according to claim 13.
前記位置取得手段は、前記画像処理により前記オブジェクトの外観を認識し、当該外観に基づいて前記オブジェクトの状態を取得する、
ことを特徴とする請求項13に記載の画像処理装置。
The position acquisition means recognizes the appearance of the object by the image processing, and acquires the state of the object based on the appearance.
The image processing apparatus according to claim 13.
前記複数の撮像装置が撮像する前記空間には、複数のオブジェクトが存在し、
前記位置取得手段は、前記複数のオブジェクトの各々の状態を取得し、
前記画像加工手段は、前記位置取得手段により取得された前記複数のオブジェクトの状態のうち、選択したオブジェクトの状態に基づいて、前記視点変換画像のデータを生成する、
ことを特徴とする請求項1乃至15の何れか1項に記載の画像処理装置。
There are a plurality of objects in the space captured by the plurality of imaging devices,
The position acquisition means acquires the state of each of the plurality of objects,
The image processing means generates data of the viewpoint conversion image based on the state of the selected object among the states of the plurality of objects acquired by the position acquisition means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記出力制御手段は、前記画像加工手段により生成された前記視点変換画像のデータを表示出力する制御を実行する、
ことを特徴とする請求項1乃至16の何れか1項に記載の画像処理装置。
The output control means executes control to display and output the data of the viewpoint conversion image generated by the image processing means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記出力制御手段は、前記画像加工手段により生成された前記視点変換画像のデータを外部機器に送信する送信手段として機能する、
ことを特徴とする請求項1乃至17の何れか1項に記載の画像処理装置。
The output control unit functions as a transmission unit that transmits data of the viewpoint conversion image generated by the image processing unit to an external device.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
外部機器からの制御信号を受信する制御受信手段をさらに備え、
前記画像加工手段は、前記視点変換画像のデータとして、前記制御受信手段により受信された制御信号により指示された仮想視点から眺めた様子を表わす画像のデータを生成する、
ことを特徴とする請求項1乃至18の何れか1項に記載の画像処理装置。
It further comprises control receiving means for receiving a control signal from an external device,
The image processing means generates data of an image representing a state viewed from a virtual viewpoint instructed by a control signal received by the control receiving means, as the viewpoint converted image data.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
視点変換画像のデータを出力する制御を実行する画像処理装置が実行する画像処理方法であって、
オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得ステップと、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得ステップと、
前記位置取得ステップにより取得された前記位置に基づいて、前記画像取得ステップにより取得された前記撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工ステップと、
前記画像加工ステップにより生成された前記視点変換画像のデータを出力する制御を実行する出力制御ステップと、
を含む画像処理方法。
An image processing method executed by an image processing apparatus that executes control to output viewpoint-converted image data,
An image acquisition step of acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
A position acquisition step of acquiring a position of the object moving in the predetermined space;
Based on the position acquired in the position acquisition step, the virtual viewpoint arranged in the object has a predetermined viewing direction by processing the captured image data acquired in the image acquisition step for viewpoint conversion. An image processing step for generating data of an image representing a state of viewing the image as viewpoint conversion image data;
An output control step for executing control to output data of the viewpoint conversion image generated by the image processing step;
An image processing method including:
視点変換画像のデータを出力する制御を実行する画像処理装置を制御するコンピュータに、
オブジェクトが移動し得る所定の空間をそれぞれ異なる位置から撮像する複数の撮像装置の各々によって撮像された複数の撮像画像のデータを取得する画像取得機能、
前記所定の空間を移動する前記オブジェクトの位置を取得する位置取得機能、
前記位置取得機能により取得された前記位置に基づいて、前記画像取得機能により取得された前記撮像画像のデータを視点変換の加工をすることで、前記オブジェクトに配置された仮想視点が所定の眺望方向を眺めた様子を表わす画像のデータを、視点変換画像のデータとして生成する画像加工機能、
前記画像加工機能により生成された前記視点変換画像のデータを出力する制御を実行する出力制御機能、
を含む機能を実現させるプログラム。
To a computer that controls an image processing apparatus that executes control to output data of a viewpoint-converted image,
An image acquisition function for acquiring data of a plurality of captured images captured by each of a plurality of imaging devices that capture a predetermined space in which an object can move from different positions;
A position acquisition function for acquiring the position of the object moving in the predetermined space;
Based on the position acquired by the position acquisition function, the viewpoint of the captured image acquired by the image acquisition function is processed to convert the virtual viewpoint arranged in the object into a predetermined viewing direction. An image processing function for generating image data representing the state of viewing the image as viewpoint converted image data,
An output control function for executing control to output data of the viewpoint conversion image generated by the image processing function;
A program that realizes functions including
JP2011251094A 2011-11-16 2011-11-16 Image processing apparatus, image processing method, and program Active JP5927856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011251094A JP5927856B2 (en) 2011-11-16 2011-11-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011251094A JP5927856B2 (en) 2011-11-16 2011-11-16 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2013106324A true JP2013106324A (en) 2013-05-30
JP2013106324A5 JP2013106324A5 (en) 2014-12-18
JP5927856B2 JP5927856B2 (en) 2016-06-01

Family

ID=48625531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011251094A Active JP5927856B2 (en) 2011-11-16 2011-11-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5927856B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055175A (en) * 2015-09-07 2017-03-16 キヤノン株式会社 Image processing system
JP2017112431A (en) * 2015-12-14 2017-06-22 キヤノン株式会社 Information processing apparatus, information processing method, and computer program
WO2018092545A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program
JP2019075740A (en) * 2017-10-18 2019-05-16 キヤノン株式会社 Image processing system, image processing apparatus, image transmission method, and program
WO2019167761A1 (en) * 2018-02-27 2019-09-06 シャープ株式会社 Generating apparatus, playback apparatus, generating method, control program, and recording medium
WO2021220891A1 (en) * 2020-04-27 2021-11-04 富士フイルム株式会社 Image processing device, image processing method, and program
WO2024023982A1 (en) * 2022-07-27 2024-02-01 日本電信電話株式会社 Video processing device, method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180020043A (en) * 2016-08-17 2018-02-27 삼성전자주식회사 Method for multi view image control and electronic device supporting the same
JP6482696B2 (en) 2017-06-23 2019-03-13 キヤノン株式会社 Display control apparatus, display control method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0413983A (en) * 1990-05-07 1992-01-17 Toyota Motor Corp Road beacon position detector
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program
JP2005286377A (en) * 2004-03-26 2005-10-13 Fuji Photo Film Co Ltd Scene extraction system and scene extraction method
JP2006310936A (en) * 2005-04-26 2006-11-09 Sharp Corp System for generating video image viewed at optional viewpoint
US20100026809A1 (en) * 2008-07-29 2010-02-04 Gerald Curry Camera-based tracking and position determination for sporting events
JP2011195032A (en) * 2010-03-19 2011-10-06 Panasonic Corp Device and method for monitoring rear of vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0413983A (en) * 1990-05-07 1992-01-17 Toyota Motor Corp Road beacon position detector
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program
JP2005286377A (en) * 2004-03-26 2005-10-13 Fuji Photo Film Co Ltd Scene extraction system and scene extraction method
JP2006310936A (en) * 2005-04-26 2006-11-09 Sharp Corp System for generating video image viewed at optional viewpoint
US20100026809A1 (en) * 2008-07-29 2010-02-04 Gerald Curry Camera-based tracking and position determination for sporting events
JP2011195032A (en) * 2010-03-19 2011-10-06 Panasonic Corp Device and method for monitoring rear of vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055175A (en) * 2015-09-07 2017-03-16 キヤノン株式会社 Image processing system
JP2017112431A (en) * 2015-12-14 2017-06-22 キヤノン株式会社 Information processing apparatus, information processing method, and computer program
WO2018092545A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program
US11212515B2 (en) 2016-11-21 2021-12-28 Sony Corporation Information processing device and information processing method
JP2019075740A (en) * 2017-10-18 2019-05-16 キヤノン株式会社 Image processing system, image processing apparatus, image transmission method, and program
JP7104504B2 (en) 2017-10-18 2022-07-21 キヤノン株式会社 Image processing system, image processing device, image transmission method, and program
WO2019167761A1 (en) * 2018-02-27 2019-09-06 シャープ株式会社 Generating apparatus, playback apparatus, generating method, control program, and recording medium
WO2021220891A1 (en) * 2020-04-27 2021-11-04 富士フイルム株式会社 Image processing device, image processing method, and program
JP7467612B2 (en) 2020-04-27 2024-04-15 富士フイルム株式会社 Image processing device, image processing method, and program
WO2024023982A1 (en) * 2022-07-27 2024-02-01 日本電信電話株式会社 Video processing device, method, and program

Also Published As

Publication number Publication date
JP5927856B2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
JP5927856B2 (en) Image processing apparatus, image processing method, and program
KR101885778B1 (en) Image stitching for three-dimensional video
CN110139028B (en) Image processing method and head-mounted display device
JP5891131B2 (en) Image generating apparatus and image generating method
US9781341B2 (en) Image processing system, information processing device, information storage device, and image processing method
WO2013069047A1 (en) Image generation device, and image generation method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP2005167517A (en) Image processor, calibration method thereof, and image processing program
JP6218787B2 (en) Imaging apparatus, information processing apparatus, display apparatus, information processing system, image data transmission method, and image display method
CN104365083A (en) Image processing device, image processing method, and program
CN105939497B (en) Media streaming system and media streaming method
JP2020086983A (en) Image processing device, image processing method, and program
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
JP2019114147A (en) Image processing apparatus, control method for image processing apparatus, and program
JP5547356B2 (en) Imaging apparatus, method, storage medium, and program
JP2014126906A (en) Display control apparatus, display control system, display control method, and program
JP2018056889A (en) Display terminal, display method, and program
JP2010198104A (en) Image display system, portable terminal system, portable terminal equipment, server, and image display method thereof
US20190335153A1 (en) Method for multi-camera device
CN111263037B (en) Image processing device, imaging device, video playback system, method, and program
JP2015126402A (en) Robot camera control device, program for the same, and multi-viewpoint robot camera system
JP5957838B2 (en) Image processing apparatus, image processing method, and program
WO2021200184A1 (en) Information processing device, information processing method, and program
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
CN115147492A (en) Image processing method and related equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5927856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150