JP2018129787A - Determination device, image processing device, determination method, and determination program - Google Patents

Determination device, image processing device, determination method, and determination program Download PDF

Info

Publication number
JP2018129787A
JP2018129787A JP2017161554A JP2017161554A JP2018129787A JP 2018129787 A JP2018129787 A JP 2018129787A JP 2017161554 A JP2017161554 A JP 2017161554A JP 2017161554 A JP2017161554 A JP 2017161554A JP 2018129787 A JP2018129787 A JP 2018129787A
Authority
JP
Japan
Prior art keywords
image
camera
background
arrangement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017161554A
Other languages
Japanese (ja)
Inventor
愛 磯貝
Ai Isogai
愛 磯貝
越智 大介
Daisuke Ochi
大介 越智
木全 英明
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2018129787A publication Critical patent/JP2018129787A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image of a background observed when a specific object is temporarily removed in a real space, which is shielded by the specific object and cannot be viewed by a user.SOLUTION: In a determination device, an imaging device whose position and orientation are determined so as to image a specific object placed in a real space is arranged in the real space, the arrangement position of the imaging device that outputs an image including a background image which is a still image or a moving image of a background observed as if a specific object is removed in a space of an image displayed on a screen of a display device and is shielded by the specific object and cannot be viewed from a user, and the determination device includes an arrangement determination unit that determines an arrangement position as a movement destination of the imaging device capable of imaging without losing any background on the basis of position information of the imaging device and information on the background when there is no still image or moving image captured without losing any background in the still image or the moving image captured by the imaging device.SELECTED DRAWING: Figure 1

Description

本発明は、決定装置、画像処理装置、決定方法及び決定プログラムに関する。   The present invention relates to a determination device, an image processing device, a determination method, and a determination program.

従来、画像処理の技術として、拡張現実感(AR:Augmented Reality)及び複合現実感(MR:Mixed Reality)が知られている。拡張現実感とは、実空間に存在する物体に画像処理装置が情報を付与等することで、現実を拡張して表現する技術である。複合現実感とは、実空間に存在する物体の画像を画像処理装置が変化させ、変化した物体の画像と仮想空間に存在する物体の画像とを画像処理装置が複合化して表現する技術である。   Conventionally, augmented reality (AR) and mixed reality (MR) are known as image processing techniques. Augmented reality is a technology that expresses an expanded reality by giving information to an object that exists in a real space. Mixed reality is a technology in which an image processing device changes an image of an object existing in a real space, and the image processing device combines and expresses the changed object image and the image of an object existing in a virtual space. .

上記のような技術分野において、実空間の物体がない状態の画像を生成し、生成した画像を実空間と重ねあわせてユーザに見せることで、実空間から物体が取り除かれたように見せることができる。実空間に物体がない状態の画像を生成する手法として、大きく2つに分類することができる。1つ目の手法として、物体が写っている画像を用いて物体周辺の領域から修復する方法が挙げられる(例えば、非特許文献1参照)。2つ目の手法として、物体の背景を撮影している複数のカメラ画像を用いて物体領域を埋める方法が挙げられる(例えば、非特許文献2参照)。   In the above technical fields, an image without an object in the real space is generated, and the generated image is superimposed on the real space and shown to the user, so that it appears as if the object has been removed from the real space. it can. As a method for generating an image with no object in the real space, it can be roughly classified into two. As a first method, there is a method of restoring from an area around an object using an image in which the object is reflected (for example, see Non-Patent Document 1). As a second method, there is a method of filling an object region using a plurality of camera images capturing the background of the object (see, for example, Non-Patent Document 2).

河合紀彦、外2名、「画像修復を用いた隠消現実感」、第17回画像の認識・理解シンポジウムNorihiko Kawai and two others, “Hidden reality using image restoration”, 17th Image Recognition and Understanding Symposium 榎本暁人、外1名、「複数のハンディカメラを利用したDiminished Reality」、画像の認識・理解シンポジウム、2007年7月Hayato Enomoto, 1 other person, "Diminished Reality using multiple handy cameras", Symposium on Image Recognition and Understanding, July 2007

しかしながら、非特許文献1の手法では、物体周辺の類似した色又はテクスチャで背景が埋められるため、物体の正しい背景を復元することができない場合がある。また、非特許文献2の手法では、物体の背景を取得するために異なる視点から複数の画像を撮影し、背景以外の物体をブレンディングによって見えにくくすることはできるが、物体が部分的に残ってしまう場合がある。このように、従来の手法では、実空間に物体がない状態の画像を生成する際に問題が生じる。   However, in the method of Non-Patent Document 1, since the background is filled with similar colors or textures around the object, the correct background of the object may not be restored. In the method of Non-Patent Document 2, it is possible to take a plurality of images from different viewpoints in order to acquire the background of the object and make it difficult to see objects other than the background by blending, but the object remains partially. May end up. As described above, in the conventional method, there is a problem when generating an image having no object in the real space.

これに対し、実空間で物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を撮像してユーザに提示することが考えられるが、特定の物体が柱等の動かせない物体である場合には背景の画像を撮影することができない。そのため、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することができる技術が要求されている。   On the other hand, a background image that is observed when an object is temporarily removed in real space and that is blocked by a specific object and cannot be seen by the user is captured and presented to the user. However, if the specific object is a non-movable object such as a pillar, a background image cannot be taken. Therefore, there is a technology that can acquire a background image that is observed when a specific object is temporarily removed in real space and that cannot be seen by the user because it is blocked by the specific object. It is requested.

上記事情に鑑み、本発明は、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することができる技術の提供を目的としている。   In view of the above circumstances, the present invention is an image of a background that is observed when a specific object is temporarily removed in real space, and is a background image that is blocked by the specific object and cannot be seen by the user. The purpose is to provide technology that can be acquired.

本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置であって、撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定部、を備える決定装置である。   According to one aspect of the present invention, an imaging device whose position and orientation are determined so as to capture a specific object placed in a real space is placed in the real space, and the image is displayed in the space of the image displayed on the screen of the display device. A background image that is a still image or a moving image of a background that is observed as if a specific object is removed, and that includes the background image that is blocked by the specific object and cannot be seen by the user. A determination device for determining an arrangement position of the imaging device, wherein the imaging is performed when a still image or a moving image captured by the imaging device does not include a still image or a moving image that is captured without the background missing. An arrangement determination unit including an arrangement determination unit that determines an arrangement position as a movement destination of an imaging apparatus capable of imaging without losing the background based on position information of the apparatus.

本発明の一態様は、上記の決定装置であって、前記配置決定部は、前記撮像装置で撮像された静止画像又は動画像を前記ユーザの視線の方向から見た静止画像又は動画像に変換する際の影響が小さくなるように前記撮像装置の移動先の配置位置を決定する。   One aspect of the present invention is the above-described determination device, wherein the arrangement determination unit converts a still image or a moving image captured by the imaging device into a still image or a moving image viewed from the direction of the user's line of sight. The arrangement position of the movement destination of the image pickup apparatus is determined so that the influence at the time of doing is reduced.

本発明の一態様は、上記の決定装置であって、前記配置決定部は、前記背景を欠けずに撮像可能な位置であって、前記背景を被写界深度の範囲内に含む位置を、前記撮像装置の移動先の配置位置に決定する。   One aspect of the present invention is the above-described determination device, in which the arrangement determination unit is a position that can be imaged without losing the background and includes the background within the range of the depth of field. The arrangement position of the movement destination of the imaging device is determined.

本発明の一態様は、上記の決定装置であって、前記配置決定部は、前記背景が欠けずに撮像されている静止画像又は動画像があり、かつ、前記撮像装置の位置が前記背景を被写界深度の範囲内に含む位置ではない場合に、前記背景を被写界深度の範囲内に含む位置を前記撮像装置の移動先の配置位置に決定する。   One aspect of the present invention is the above-described determination device, wherein the arrangement determination unit includes a still image or a moving image that is captured without the background being missing, and the position of the imaging device is the background. When the position is not within the depth of field range, the position where the background is included within the depth of field is determined as the arrangement position of the movement destination of the imaging device.

本発明の一態様は、上記の決定装置であって、撮像装置が複数ある場合、ユーザの視線方向と前記撮像装置の光軸とのなす角度に基づいて、複数の撮像装置から撮像装置を選択する選択部をさらに備え、前記配置決定部は、選択された撮像装置の配置位置を決定する。   One embodiment of the present invention is the determination device described above, and when there are a plurality of imaging devices, the imaging device is selected from the plurality of imaging devices based on an angle formed by the user's line-of-sight direction and the optical axis of the imaging device. And a selection unit that determines the arrangement position of the selected imaging device.

本発明の一態様は、上記の決定装置であって、前記選択部は、前記ユーザの視線方向と前記撮像装置の光軸とのなす角度が所定の角度以下であり、かつ、前記ユーザの位置から背景の特定の位置までの距離と前記撮像装置の位置から背景の特定の位置までの距離との差が所定の値以下である撮像装置を選択する。   One aspect of the present invention is the above-described determination device, wherein the selection unit includes an angle formed by the user's line-of-sight direction and the optical axis of the imaging device that is equal to or less than a predetermined angle, and the position of the user The imaging device is selected such that the difference between the distance from the specific position of the background to the specific position of the background and the distance from the position of the imaging device to the specific position of the background is equal to or less than a predetermined value.

本発明の一態様は、上記の決定装置であって、撮像装置が複数ある場合、画像における複数のパラメータに対する評価値を前記撮像装置毎に算出し、前記評価値に対して優先度に応じた重み付けを行うことによって前記撮像装置毎の合計評価値を算出し、算出した前記合計評価値が閾値以上の撮像装置を選択する選択部をさらに備え、前記配置決定部は、選択された撮像装置の配置位置を決定する。   One aspect of the present invention is the above-described determination device, and when there are a plurality of imaging devices, evaluation values for a plurality of parameters in an image are calculated for each of the imaging devices, and the evaluation values are set according to priority. The image processing apparatus further includes a selection unit that calculates a total evaluation value for each of the imaging devices by performing weighting, and selects an imaging device having the calculated total evaluation value equal to or greater than a threshold, and the placement determination unit includes the selected imaging device. Determine the placement position.

本発明の一態様は、上記の決定装置と、前記撮像装置によって撮像された静止画像又は動画像を取得する画像取得部と、取得された前記静止画像又は動画像から、前記背景画像を切り出す切出部と、切り出された前記背景画像を前記表示装置に出力する出力部と、を備える画像処理装置である。   One aspect of the present invention includes the determination device, an image acquisition unit that acquires a still image or a moving image captured by the imaging device, and a clip that cuts out the background image from the acquired still image or moving image. An image processing apparatus comprising: an output unit; and an output unit that outputs the cut-out background image to the display device.

本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置が行う決定方法であって、撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定ステップ、を有する決定方法である。   According to one aspect of the present invention, an imaging device whose position and orientation are determined so as to capture a specific object placed in a real space is placed in the real space, and the image is displayed in the space of the image displayed on the screen of the display device. A background image that is a still image or a moving image of a background that is observed as if a specific object is removed, and that includes the background image that is blocked by the specific object and cannot be seen by the user. A determination method performed by a determination device that determines an arrangement position of the image pickup device, wherein a still image or a moving image picked up by the image pickup device does not have a still image or a moving image picked up without missing the background And an arrangement determining step of determining an arrangement position that is a movement destination of the imaging apparatus capable of imaging without losing the background based on position information of the imaging apparatus.

本発明の一態様は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置としてコンピュータに、撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定ステップ、を実行させるための決定プログラムである。   According to one aspect of the present invention, an imaging device whose position and orientation are determined so as to capture a specific object placed in a real space is placed in the real space, and the image is displayed in the space of the image displayed on the screen of the display device. A background image that is a still image or a moving image of a background that is observed as if a specific object is removed, and that includes the background image that is blocked by the specific object and cannot be seen by the user. As a determining device for determining the arrangement position of the imaging device, the imaging is performed when there is no still image or moving image that is captured without missing the background in the still image or moving image captured by the imaging device. A determination program for executing an arrangement determination step for determining an arrangement position as a movement destination of an imaging apparatus capable of imaging without losing the background based on position information of the apparatus .

本発明により、実空間で特定の物体が仮に取り除かれたとした場合に観察される背景の画像であって、特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能となる。   According to the present invention, it is possible to acquire a background image that is observed when a specific object is temporarily removed in real space, and that cannot be seen by the user because it is blocked by the specific object. It becomes.

第1の実施形態における画像処理システム1aの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1a in 1st Embodiment. 第1の実施形態における物体及びカメラ2の配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of the object and camera 2 in 1st Embodiment. カメラ2の配置に関する変数の例を示す図である。It is a figure which shows the example of the variable regarding arrangement | positioning of the camera. 表示画像の表示例を示す図である。It is a figure which shows the example of a display of a display image. カメラ2によって撮像された画像の具体例を示す図である。It is a figure which shows the specific example of the image imaged with the camera. 切出部36の処理を説明するための図である。It is a figure for demonstrating the process of the cutting part. 表示後の表示画像の表示例を示す図である。It is a figure which shows the example of a display of the display image after a display. 第1の実施形態における画像処理装置3aの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3a in 1st Embodiment. 第2の実施形態における画像処理システム1bの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1b in 2nd Embodiment. 第2の実施形態における物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of the object and camera 2-1 to 2-N in 2nd Embodiment. カメラ2−1〜2−3によって撮像された画像の具体例を示す図である。It is a figure which shows the specific example of the image imaged with the cameras 2-1 to 2-3. 第2の実施形態における画像処理装置3bの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3b in 2nd Embodiment. 第3の実施形態における画像処理システム1cの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1c in 3rd Embodiment. 回転情報テーブルの具体例を示す図である。It is a figure which shows the specific example of a rotation information table. 第3の実施形態における画像処理装置3cの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3c in 3rd Embodiment. 第4の実施形態における画像処理システム1dの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1d in 4th Embodiment. 第4の実施形態における画像処理装置3dの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3d in 4th Embodiment. 第5の実施形態における画像処理システム1eの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1e in 5th Embodiment. 第5の実施形態における物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of the object and camera 2-1 to 2-N in 5th Embodiment. 第5の実施形態における画像処理装置3eの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3e in 5th Embodiment. 第6の実施形態における画像処理システム1fの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1f in 6th Embodiment. 第6の実施形態における画像処理装置3fの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3f in 6th Embodiment. 第7の実施形態における画像処理システム1gの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1g in 7th Embodiment. 第7の実施形態における画像処理装置3gの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3g in 7th Embodiment. 第8の実施形態における画像処理システム1hの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system 1h in 8th Embodiment. 第8の実施形態における画像処理装置3hの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image processing apparatus 3h in 8th Embodiment.

以下、本発明の一実施形態を、図面を参照しながら説明する。
(第1の実施形態)
図1は、第1の実施形態における画像処理システム1aの構成の例を示す図である。画像処理システム1aは、画像に画像処理を施すシステムである。画像は、静止画像又は動画像のいずれでもよい。画像処理システム1aは、カメラ2と、画像処理装置3aと、表示装置4とを備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of an image processing system 1a according to the first embodiment. The image processing system 1a is a system that performs image processing on an image. The image may be either a still image or a moving image. The image processing system 1a includes a camera 2, an image processing device 3a, and a display device 4.

カメラ2は、物体が配置されている実空間において、予め定められた向きで予め定められた位置に配置されている。カメラ2は、画像処理装置3aの制御に応じて移動される。カメラ2は、レンズである光学系を介して実空間を撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。カメラ2は、撮像した静止画像又は動画像である画像を、画像処理装置3aに出力する。   The camera 2 is arranged at a predetermined position in a predetermined direction in the real space where the object is arranged. The camera 2 is moved according to the control of the image processing device 3a. The camera 2 images a real space through an optical system that is a lens. The optical system may be a wide-angle lens, a fish-eye lens, or an omnidirectional lens. The camera 2 outputs an image that is a captured still image or moving image to the image processing device 3a.

画像処理装置3aは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3aと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3aは、カメラ2を所定位置まで移動させる。例えば、画像処理装置3aは、移動させる前の位置におけるカメラ2の光軸方向を維持したまま、カメラ2を所定位置まで移動させる。画像処理装置3aは、カメラ2が出力した画像に対して画像処理を施す。画像処理装置3aは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3aは、画像処理が施された画像を表示装置4に出力する。画像処理装置3aは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3aは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。   The image processing device 3a is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3a and the display device 4 may be separate or integrated. The image processing device 3a moves the camera 2 to a predetermined position. For example, the image processing apparatus 3a moves the camera 2 to a predetermined position while maintaining the optical axis direction of the camera 2 at the position before the movement. The image processing device 3a performs image processing on the image output from the camera 2. For example, the image processing device 3a may execute image processing at an image acquisition period (frame rate) of the camera. The image processing device 3a outputs an image on which image processing has been performed to the display device 4. The image processing device 3a may execute image output processing at, for example, the display cycle (refresh rate) of the display device. That is, the image processing device 3a may perform moving image processing on a moving image including a plurality of frame images.

表示装置4は、ヘッドマウントディスプレイ等の表示装置である。表示装置4の画面は、表示装置4の外から表示装置4の画面に届いた光を透過させる。例えば、表示装置4の画面は、光透過性を備えた液晶ディスプレイである。以下、表示装置4の画面を透過した光による物体の光学画像を、「物体光学像」という。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理装置3aが出力した画像を表示する。これによって、表示装置4は、画像処理装置3aが出力した画像を表示することができる。以下、表示装置4の画面に表示される画像を「表示画像」という。   The display device 4 is a display device such as a head mounted display. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from the outside of the display device 4. For example, the screen of the display device 4 is a liquid crystal display having light transparency. Hereinafter, an optical image of an object by light transmitted through the screen of the display device 4 is referred to as an “object optical image”. The screen of the display device 4 displays the image output by the image processing device 3a so as to hide the object optical image on the screen. Accordingly, the display device 4 can display the image output from the image processing device 3a. Hereinafter, an image displayed on the screen of the display device 4 is referred to as a “display image”.

画像処理システム1aにおける物体及びカメラ2の配置例を図2に示す。図2は、第1の実施形態における物体及びカメラ2の配置の例を示す俯瞰図である。図2に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2と、物体6とが配置されている。図2において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。   An arrangement example of the object and the camera 2 in the image processing system 1a is shown in FIG. FIG. 2 is an overhead view showing an example of the arrangement of the object and the camera 2 in the first embodiment. As shown in FIG. 2, a camera 2 and an object 6 are arranged in a room 100 having a real space where an observer 5 wearing the display device 4 is located. In FIG. 2, the observer 5 is facing the line of sight 51. That is, the observer 5 faces the direction of the object 6 arranged in the room 100. Thereby, the observer 5 observes the object optical image of the object 6 arranged in the room 100 through the display device 4 with the light transmitted through the screen of the display device 4. It is assumed that the observer 5 is viewing the range from the position a to the position d in the room 100 via the display device 4. That is, a line 52-1 connecting the position a and the position of the observer 5, a line 52-2 connecting the position d and the position of the observer 5, and a line connecting the position a and the position d. Is the range of the visual field of the observer 5.

カメラ2は、予め定められた向きで、部屋100の予め定められた位置に配置される。第1の実施形態において、カメラ2は、観察者5の視線51の方向と、カメラ2の光軸20の方向とが水平になるように配置される。そして、カメラ2は、画像処理装置3aの制御に応じて移動する。例えば、カメラ2は、画像処理装置3aの制御に応じて、矢印7で示される方向に移動する。なお、カメラ2の移動方向は予め設定されていてもよいし、画像処理装置3aによって指示されてもよい。   The camera 2 is arranged at a predetermined position in the room 100 in a predetermined direction. In the first embodiment, the camera 2 is arranged so that the direction of the line of sight 51 of the observer 5 and the direction of the optical axis 20 of the camera 2 are horizontal. The camera 2 moves in accordance with the control of the image processing device 3a. For example, the camera 2 moves in the direction indicated by the arrow 7 in accordance with the control of the image processing device 3a. The moving direction of the camera 2 may be set in advance or may be instructed by the image processing device 3a.

物体6は、例えば、箱、柱等である。以下の説明では、物体6が円柱である場合を例に説明する。物体6が観察者5の視野の範囲内に位置していることにより、観察者5は部屋100のbの位置からcの位置までの壁Cを見ることができない。すなわち、観察者5は、物体6により、物体6の後方の背景を見ることができない。ここで、背景とは、特定の物体(例えば、物体6)で遮蔽されて観察者5から見えないものを表す。背景は、例えば、物体であってもよいし、実空間における壁であってもよいし、実空間上の仮想的な位置に設定された仮想的な壁であってもよい。物体6は、部屋100の予め定められた物体実位置に配置されている。物体実位置とは、実空間における物体の実際の位置を表す。物体6は、実空間では静止していてもよい。以下の説明では、物体6を取り除いて、物体6の背景である壁Cを表示装置4に表示する場合を例に説明する。   The object 6 is, for example, a box or a pillar. In the following description, a case where the object 6 is a cylinder will be described as an example. Since the object 6 is positioned within the field of view of the observer 5, the observer 5 cannot see the wall C from the position b in the room 100 to the position c. That is, the observer 5 cannot see the background behind the object 6 by the object 6. Here, the background represents an object that is shielded by a specific object (for example, the object 6) and cannot be seen by the observer 5. The background may be, for example, an object, a wall in real space, or a virtual wall set at a virtual position in real space. The object 6 is disposed at a predetermined actual object position in the room 100. The actual object position represents the actual position of the object in the real space. The object 6 may be stationary in real space. In the following description, the case where the object 6 is removed and the wall C as the background of the object 6 is displayed on the display device 4 will be described as an example.

次に、図1に戻り、画像処理装置3aの構成の例を説明する。画像処理装置3aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3aは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34、移動部35、切出部36、出力部37を備える装置として機能する。なお、画像処理装置3aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   Next, returning to FIG. 1, an example of the configuration of the image processing apparatus 3a will be described. The image processing device 3a includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3 a includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34, a movement unit 35, a cutout unit 36, and an output unit 37. Functions as a device. Note that all or part of the functions of the image processing apparatus 3a may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像取得部30は、カメラ2によって撮像された画像を取得する。画像取得部30は、取得した画像を記憶部33に記録する。操作部31は、操作キー等を有する操作デバイスである。例えば、操作部31は、キーボード、マウス、タッチパネルである。操作部31は、操作部31に対する操作を受け付けることによって、実空間におけるカメラ2の配置情報、実空間における物体の配置情報、観察者5の位置情報、背景の位置情報、貼り付け位置情報及び背景情報を取得する。   The image acquisition unit 30 acquires an image captured by the camera 2. The image acquisition unit 30 records the acquired image in the storage unit 33. The operation unit 31 is an operation device having operation keys and the like. For example, the operation unit 31 is a keyboard, a mouse, or a touch panel. The operation unit 31 accepts an operation on the operation unit 31 to thereby arrange the arrangement information of the camera 2 in the real space, the arrangement information of the object in the real space, the position information of the observer 5, the position information of the background, the pasting position information, and the background. Get information.

実空間におけるカメラ2の配置情報は、例えば、カメラ2の実空間における座標及び光軸方向等の情報である。光軸方向は、例えば、図2のように実空間中で定義される座標のx軸を基準とする角度で表現される。実空間における物体の配置情報は、例えば、実空間に配置されている物体(例えば、図2では物体6)の座標の情報である。観察者5の位置情報は、観察者5の座標の情報である。背景の位置情報は、背景の座標の情報である。   The arrangement information of the camera 2 in the real space is, for example, information such as coordinates and an optical axis direction of the camera 2 in the real space. The optical axis direction is expressed by an angle based on the x-axis of coordinates defined in the real space as shown in FIG. The arrangement information of the object in the real space is, for example, information on the coordinates of the object (for example, the object 6 in FIG. 2) arranged in the real space. The position information of the observer 5 is information on the coordinates of the observer 5. The background position information is information on background coordinates.

貼り付け位置情報は、例えば、表示画像における左上座標、幅及び高さの情報で表されてもよい。また、例えば、貼り付け位置情報は、表示画像の座標と対応付けてあらかじめ定義されている領域である、「中央」、「右」、「左」といった情報であってもよい。観察者5の位置情報は、例えば、実空間における観察者の立ち位置の座標の情報と観察者5の視線方向である。背景情報は、背景に関する情報であり、例えば背景の特徴量である。
操作部31は、取得したカメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とを変数決定部32に出力し、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とを配置決定部34に出力する。また、操作部31は、取得した貼り付け位置情報及び背景情報を切出部36に出力する。
The pasting position information may be represented by, for example, information on the upper left coordinates, width, and height in the display image. Further, for example, the pasting position information may be information such as “center”, “right”, and “left”, which are areas defined in advance in association with the coordinates of the display image. The position information of the observer 5 is, for example, information on the coordinates of the observer's standing position in the real space and the line of sight of the observer 5. The background information is information related to the background, for example, a feature amount of the background.
The operation unit 31 outputs the acquired arrangement information of the camera 2, the position information of the observer 5, and the position information of the background to the variable determination unit 32, and the arrangement information of the camera 2, the position information of the observer 5, and The object arrangement information is output to the arrangement determining unit 34. In addition, the operation unit 31 outputs the acquired pasting position information and background information to the cutout unit 36.

変数決定部32は、カメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とを操作部31から取得する。変数決定部32は、取得したカメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とに基づいて、カメラ2の配置に関する変数を決定する。   The variable determination unit 32 acquires the arrangement information of the camera 2, the position information of the observer 5, and the background position information from the operation unit 31. The variable determination unit 32 determines a variable related to the arrangement of the camera 2 based on the acquired arrangement information of the camera 2, the position information of the observer 5, and the position information of the background.

カメラ2の配置に関する変数は、例えば、カメラ2の現在位置と、観察者5の視線方向とカメラ2の光軸との成す角度(以下「カメラ角度」という。)と、観察者5の位置から背景の特定の位置までの距離とカメラ2の位置から背景の特定の位置までの距離との差(以下「距離差」という。)とである。背景の特定の位置とは、予め設定されていてもよい。例えば、背景が図2における壁Cである場合、壁Cの中点を背景の特定の位置としてもよい。また、例えば、背景が物体である場合、物体の位置を背景の特定の位置としてもよい。変数決定部32は、カメラ2の配置に関する変数情報を記憶部33に記録する。   The variables relating to the arrangement of the camera 2 are, for example, the current position of the camera 2, the angle formed by the observer's 5 line-of-sight direction and the optical axis of the camera 2 (hereinafter referred to as “camera angle”), and the position of the observer 5. The difference between the distance to the specific position of the background and the distance from the position of the camera 2 to the specific position of the background (hereinafter referred to as “distance difference”). The specific position of the background may be set in advance. For example, when the background is the wall C in FIG. 2, the midpoint of the wall C may be a specific position of the background. For example, when the background is an object, the position of the object may be set as a specific position of the background. The variable determination unit 32 records variable information related to the arrangement of the camera 2 in the storage unit 33.

図3は、カメラ2の配置に関する変数の例を示す図である。変数決定部32は、カメラ2の配置に関する変数情報を記憶部33に記録する。例えば、変数決定部32は、カメラ2の現在位置を記憶部33に記録する。例えば、変数決定部32は、カメラ角度を記憶部33に記録する。例えば、変数決定部32は、距離差を記憶部33に記録する。   FIG. 3 is a diagram illustrating an example of variables related to the arrangement of the camera 2. The variable determination unit 32 records variable information related to the arrangement of the camera 2 in the storage unit 33. For example, the variable determination unit 32 records the current position of the camera 2 in the storage unit 33. For example, the variable determination unit 32 records the camera angle in the storage unit 33. For example, the variable determination unit 32 records the distance difference in the storage unit 33.

図1に戻り、画像処理装置3aの構成の例の説明を続ける。記憶部33は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部33は、画像取得部30によって取得された画像と、カメラ2の配置に関する変数情報とを記憶する。記憶部33は、カメラ2の配置情報(座標、光軸方向)を記憶してもよい。記憶部33は、物体の配置情報と、観察者5の位置情報と、背景情報とを記憶してもよい。   Returning to FIG. 1, the description of the configuration example of the image processing apparatus 3a will be continued. The storage unit 33 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 stores the image acquired by the image acquisition unit 30 and variable information related to the arrangement of the camera 2. The storage unit 33 may store arrangement information (coordinates, optical axis direction) of the camera 2. The storage unit 33 may store the object arrangement information, the position information of the observer 5, and the background information.

配置決定部34は、カメラ2の配置位置を決定する決定装置として機能する。配置決定部34は、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とを入力する。配置決定部34は、入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2の配置位置を決定する。具体的には、まず配置決定部34は、入力した画像に背景が欠けずに撮像されているか否か判定する。ここで、背景が欠けるとは、カメラで、物体がない空間を撮影した場合に映し出される背景の一部または全部が、物体の存在によって遮蔽されて映し出されていない状態、即ち、画像中に背景の一部または全部に物体が映り込んだ状態のことをいう。   The arrangement determining unit 34 functions as a determining device that determines the arrangement position of the camera 2. The arrangement determination unit 34 stores the image and variable information stored in the storage unit 33, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2. input. The arrangement determining unit 34 determines the arrangement position of the camera 2 based on the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, and the arrangement information of the object. Specifically, the arrangement determining unit 34 first determines whether or not the input image is captured without any background. Here, the lack of background means that a part or all of the background that is projected when a camera captures a space without an object is shielded by the presence of the object and is not projected, that is, the background in the image. The state in which an object is reflected in part or all of.

入力した画像に背景が欠けずに撮像されている場合、配置決定部34はカメラ2の現在位置をカメラ2の配置位置として決定する。配置決定部34は、決定した配置位置に関する情報(以下「決定配置位置情報」という。)を切出部36に出力する。決定配置位置情報は、例えば、配置決定部34が決定したカメラ2の配置位置の座標を表す。   When the input image is captured without any background missing, the arrangement determining unit 34 determines the current position of the camera 2 as the arrangement position of the camera 2. The arrangement determining unit 34 outputs information on the determined arrangement position (hereinafter referred to as “determined arrangement position information”) to the cutting unit 36. The determined arrangement position information represents, for example, the coordinates of the arrangement position of the camera 2 determined by the arrangement determining unit 34.

一方、入力した画像に背景が欠けずに撮像されていない場合、配置決定部34はカメラ2の現在位置からカメラ2を所定の距離移動した位置をカメラ2の配置位置として決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。その後、配置決定部34は、決定配置位置情報を移動部35に出力する。   On the other hand, when the input image is not captured without a background, the arrangement determining unit 34 determines the position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 as the arrangement position of the camera 2. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). Thereafter, the arrangement determining unit 34 outputs the determined arrangement position information to the moving unit 35.

移動部35は、配置決定部34から出力された決定配置位置情報を入力する。移動部35は、入力した決定配置位置情報に基づいてカメラ2を決定配置位置情報で示される位置に移動させる。例えば、移動部35は、移動させる前の位置におけるカメラ2の光軸方向を維持したまま、カメラ2を決定配置位置情報で示される位置に移動させる。移動部35は、モータ等のアクチュエータを駆動することによって、カメラ2を移動させる。なお、移動部35は、位置センサの検出結果に基づいて、移動後のカメラ2の位置情報を検出してもよい。   The moving unit 35 receives the determined arrangement position information output from the arrangement determining unit 34. The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the input determined arrangement position information. For example, the moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information while maintaining the optical axis direction of the camera 2 at the position before the movement. The moving unit 35 moves the camera 2 by driving an actuator such as a motor. In addition, the movement part 35 may detect the positional information on the camera 2 after a movement based on the detection result of a position sensor.

切出部36は、配置決定部34から出力された決定配置位置情報と、操作部31から出力された貼り付け位置情報及び背景情報とを入力する。切出部36は、カメラ2によって撮像された画像を、記憶部33から取得する。切出部36は、記憶部33から取得した画像を用いて、決定配置位置情報で示されるカメラ2の配置情報と、背景情報から算出される背景領域の画像(以下「背景部分画像」という。)を切り出す。切出部36は、操作部31から出力された貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、貼り付け位置情報が表示画像の座標と対応付けてあらかじめ定義されている領域「中央」を表している場合、切出部36は、表示画面における背景部分画像の表示位置を、表示画像の座標と対応付けてあらかじめ定義されている、表示装置4の画面の中央に決定する。切出部36は、背景部分画像と、表示位置の情報である表示位置情報とを出力部37に出力する。
出力部37は、切出部36から出力された背景部分画像と、表示位置情報とを入力する。出力部37は、入力した表示位置情報に基づいて、背景部分画像に対して画像処理を施す。出力部37は、画像処理が施された背景部分画像と表示位置情報とを表示装置4に出力する。
The cutout unit 36 inputs the determined arrangement position information output from the arrangement determination unit 34 and the pasting position information and background information output from the operation unit 31. The cutout unit 36 acquires an image captured by the camera 2 from the storage unit 33. Using the image acquired from the storage unit 33, the cutout unit 36 uses the image of the camera 2 indicated by the determined arrangement position information and the background region image calculated from the background information (hereinafter referred to as “background partial image”). ). The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information output from the operation unit 31. For example, when the pasting position information represents a region “center” defined in advance in association with the coordinates of the display image, the cutout unit 36 displays the display position of the background partial image on the display screen as the display image. It is determined at the center of the screen of the display device 4 defined in advance in association with the coordinates. The cutout unit 36 outputs the background partial image and the display position information that is display position information to the output unit 37.
The output unit 37 inputs the background partial image output from the cutout unit 36 and the display position information. The output unit 37 performs image processing on the background partial image based on the input display position information. The output unit 37 outputs the background partial image subjected to the image processing and the display position information to the display device 4.

図4は、表示画像の表示例を示す図である。表示装置4は、物体6から表示装置4の画面に届いた光を透過させる。表示装置4は、物体6の物体光学像を含む表示画像40を表示する。図4に示すように、観察者5は、物体6の物体光学像を、表示画像40の中央に見ることができる。また、図4に示すように、観察者5は、物体6の後方の背景の物体光学像を、表示画像40上で見ることができない。   FIG. 4 is a diagram illustrating a display example of a display image. The display device 4 transmits light that reaches the screen of the display device 4 from the object 6. The display device 4 displays a display image 40 including an object optical image of the object 6. As shown in FIG. 4, the observer 5 can see the object optical image of the object 6 at the center of the display image 40. In addition, as shown in FIG. 4, the observer 5 cannot view the object optical image of the background behind the object 6 on the display image 40.

図5は、カメラ2によって撮像された画像の具体例を示す図である。図5において、図5(a)は移動前のカメラ2(図2の場合、実線のカメラ2)が画像処理装置3aに出力したカメラ画像21であり、図5(b)は移動後のカメラ2(図2の場合、点線のカメラ2)が画像処理装置3aに出力したカメラ画像21aである。   FIG. 5 is a diagram illustrating a specific example of an image captured by the camera 2. 5A is a camera image 21 output to the image processing apparatus 3a by the camera 2 before movement (in the case of FIG. 2, the solid-line camera 2), and FIG. 5B is the camera after movement. 2 (in the case of FIG. 2, the dotted line camera 2) is the camera image 21 a output to the image processing device 3 a.

図5(a)に示すように、カメラ画像21では、壁Cの範囲(背景b−c間)の一部が物体6に遮蔽されていて壁Cの全てが撮像されていない。それに対して、カメラ画像21aでは、壁Cが欠けずに撮像されている。このように、画像処理装置3aは、観察者5から見た特定の物体6の背景が欠けずに撮像できる位置にカメラ2を移動させる。   As shown in FIG. 5A, in the camera image 21, a part of the range of the wall C (between the backgrounds bc) is shielded by the object 6, and the entire wall C is not imaged. On the other hand, in the camera image 21a, the wall C is captured without being missing. In this way, the image processing apparatus 3a moves the camera 2 to a position where the background of the specific object 6 viewed from the observer 5 can be captured without being lost.

図6は、切出部36の処理を説明するための図である。切出部36は、カメラ2が出力したカメラ画像23から、背景部分画像50を切り出す。また、切出部36は、表示画面における、切り出した背景部分画像50の表示位置を、物体6に対応する位置に決定する。出力部37は、画像処理が施された背景部分画像50と、表示位置情報とを表示装置4に出力する。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理が施された背景部分画像50を、表示位置情報で示される位置で物体光学像に重畳して表示する。表示後の表示画像の表示例を図7に示す。   FIG. 6 is a diagram for explaining the processing of the cutout unit 36. The cutout unit 36 cuts out the background partial image 50 from the camera image 23 output by the camera 2. Further, the cutout unit 36 determines the display position of the cut out background partial image 50 on the display screen as a position corresponding to the object 6. The output unit 37 outputs the background partial image 50 subjected to the image processing and the display position information to the display device 4. The screen of the display device 4 displays the background partial image 50 subjected to the image processing so as to be superimposed on the object optical image at the position indicated by the display position information so as to hide the object optical image on the screen. A display example of the display image after display is shown in FIG.

図7は、表示後の表示画像の表示例を示す図である。図7に示すように、表示装置4は、物体光学像を含む表示画像40上に、画像処理が施された背景部分画像50を表示する。これにより、図4で表示画像40上に表示されていた物体6が取り除かれたような画像を観察者5に提示することができる。   FIG. 7 is a diagram illustrating a display example of a display image after display. As shown in FIG. 7, the display device 4 displays a background partial image 50 on which image processing has been performed on a display image 40 including an object optical image. As a result, an image in which the object 6 displayed on the display image 40 in FIG. 4 is removed can be presented to the observer 5.

図8は、第1の実施形態における画像処理装置3aの処理の流れを示すフローチャートである。なお、図8の説明では、既に変数決定部32による処理は行われているものとする。また、図8では、カメラ2から静止画像を取得した場合の処理について説明する。
画像取得部30は、カメラ2から画像を取得する(ステップS101)。画像取得部30は、取得した画像を記憶部33に記録する。配置決定部34は、記憶部33に記憶されている画像を取得する。配置決定部34は、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS102)。
FIG. 8 is a flowchart showing the flow of processing of the image processing apparatus 3a in the first embodiment. In the description of FIG. 8, it is assumed that the process by the variable determination unit 32 has already been performed. In addition, FIG. 8 illustrates processing when a still image is acquired from the camera 2.
The image acquisition unit 30 acquires an image from the camera 2 (step S101). The image acquisition unit 30 records the acquired image in the storage unit 33. The arrangement determining unit 34 acquires an image stored in the storage unit 33. Based on the acquired image, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2, the arrangement determining unit 34 captures an image without missing a background. It is determined whether or not there is an image being processed (step S102).

具体的には、まず配置決定部34は、観察者5の位置情報と物体の配置情報とに基づいて、観察者5の視野範囲のうち物体6の遮蔽により観察者5から見えない背景の範囲を算出する。そして、配置決定部34は、カメラ2の配置情報と、カメラ2の視野範囲と、物体の配置情報とに基づいて、観察者5が見えない背景の範囲を欠けることなく撮像できている画像があるか否か判定する。   Specifically, the arrangement determination unit 34 first determines the range of the background invisible to the observer 5 due to the shielding of the object 6 in the visual field range of the observer 5 based on the position information of the observer 5 and the arrangement information of the object. Is calculated. And the arrangement | positioning determination part 34 is based on the arrangement | positioning information of the camera 2, the visual field range of the camera 2, and the arrangement | positioning information of an object, and the image currently imaged without missing the range of the background which the observer 5 cannot see is missing. Judge whether there is.

背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34は入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2の配置位置を決定する(ステップS103)。配置決定部34は、決定配置位置情報を移動部35に出力する。移動部35は、配置決定部34から出力された決定配置位置情報に基づいて、カメラ2を、決定配置位置情報で示される位置に移動させる(ステップS104)。画像取得部30は、移動後のカメラ2によって撮像された画像を取得する(ステップS105)。例えば、画像取得部30は、移動部35からカメラ2の移動が完了した旨の通知を受けた後に、カメラ2によって撮像された画像を移動後のカメラ2によって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33に記録する。   When there is no image captured without a background missing (step S102-NO), the arrangement determining unit 34, the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, and the object Based on the placement information, the placement position of the camera 2 is determined (step S103). The arrangement determining unit 34 outputs the determined arrangement position information to the moving unit 35. The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the determined arrangement position information output from the arrangement determining unit 34 (step S104). The image acquisition unit 30 acquires an image captured by the camera 2 after movement (step S105). For example, the image acquisition unit 30 may acquire an image captured by the camera 2 as an image captured by the camera 2 after movement after receiving a notification that the movement of the camera 2 is completed from the movement unit 35. Good. The image acquisition unit 30 records the acquired image in the storage unit 33.

配置決定部34は、記憶部33に記憶されている、移動後のカメラ2によって撮像された画像を取得する。配置決定部34は、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS106)。背景が欠けずに撮像されている画像がいない場合(ステップS106−NO)、画像処理装置3aはステップS103以降の処理を繰り返し実行する。   The arrangement determination unit 34 acquires an image captured by the camera 2 after movement, which is stored in the storage unit 33. Based on the acquired image, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2, the arrangement determining unit 34 captures an image without missing a background. It is determined whether there is an image that has been displayed (step S106). When there is no image captured without a missing background (step S106—NO), the image processing device 3a repeatedly executes the processing after step S103.

一方、背景が欠けずに撮像されている画像がある場合(ステップS106−YES)、配置決定部34は、決定配置位置情報を切出部36に出力する。配置決定部34は、背景が欠けずに撮像されていると判定された時点におけるカメラ2の決定配置位置情報を切出部36に出力する。切出部36は、配置決定部34から決定配置位置情報が取得されると、カメラ2によって撮像された画像を記憶部33から取得する。切出部36は、取得した画像から背景部分画像を切り出す。また、切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、切出部36は、貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
切出部36は、背景部分画像と、表示位置情報とを出力部37に出力する。
On the other hand, when there is an image that has been imaged with no background missing (step S <b> 106 -YES), the arrangement determining unit 34 outputs the determined arrangement position information to the cutting unit 36. The arrangement determining unit 34 outputs the determined arrangement position information of the camera 2 to the cutout unit 36 at the time when it is determined that the image is captured without missing the background. When the determined arrangement position information is acquired from the arrangement determining unit 34, the cutting unit 36 acquires the image captured by the camera 2 from the storage unit 33. The cutout unit 36 cuts out the background partial image from the acquired image. Further, the cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the cutout unit 36 determines the area specified by the pasting position information as the display position of the background partial image on the display screen.
The cutout unit 36 outputs the background partial image and the display position information to the output unit 37.

出力部37は、切出部36から出力された背景部分画像と表示位置情報とを入力する。出力部37は、入力した背景部分画像に対して画像処理を行う。具体的には、出力部37は、背景部分画像を、観察者5の視線51の方向から見た画像に変換する。例えば、出力部37は、アフィン変換行列を用いたアフィン変換処理を背景部分画像に対して施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。その後、出力部37は、変換後の背景部分画像と表示位置情報とを表示装置4に出力する(ステップS107)。
また、ステップS102の処理において、画像に背景が欠けずに撮像されている場合(ステップS102−YES)、配置決定部34は、カメラ2の現在位置をカメラ2の配置位置として決定する。その後、配置決定部34は、決定配置位置情報を切出部36に出力する。その後、画像処理装置3aは、ステップS107の処理を実行する。
The output unit 37 inputs the background partial image and the display position information output from the cutout unit 36. The output unit 37 performs image processing on the input background partial image. Specifically, the output unit 37 converts the background partial image into an image viewed from the direction of the line of sight 51 of the observer 5. For example, the output unit 37 performs affine transformation processing using an affine transformation matrix on the background partial image. The affine transformation matrix may include information indicating a region to be subjected to processing such as rotation, enlargement, or reduction. Thereafter, the output unit 37 outputs the converted background partial image and display position information to the display device 4 (step S107).
Further, in the process of step S102, when the image is captured with no background (step S102-YES), the arrangement determining unit 34 determines the current position of the camera 2 as the arrangement position of the camera 2. Thereafter, the arrangement determining unit 34 outputs the determined arrangement position information to the cutout unit 36. Thereafter, the image processing device 3a executes the process of step S107.

画像取得部30が動画像を取得する場合について、図8に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34は、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   Differences from the processing shown in FIG. 8 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2 and acquires each frame image from the acquired moving image. In step S <b> 102, the arrangement determining unit 34 determines whether there is an image that has been captured without missing a background, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS105において、画像取得部30は、移動後のカメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS106において、配置決定部34は、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動後のカメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS106において、背景が欠けずに撮像されている画像がない場合、画像処理装置3aはステップS103以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S105, the image acquisition unit 30 acquires a moving image from the camera 2 after movement, and each frame image from the acquired moving image. To get. In step S <b> 106, the arrangement determining unit 34 determines whether there is an image that has been captured without missing the background, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2 after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S106, when there is no image captured without a missing background, the image processing device 3a executes the processing from step S103 onward.

以上のように、第1の実施形態の画像処理装置3aは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第1の実施形態の決定装置は、配置決定部34を備える。配置決定部34は、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2の移動先であるカメラ2の配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3aは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3a of the first embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus according to the first embodiment includes an arrangement determining unit 34. The arrangement determination unit 34 is a camera 2 that is a movement destination of the camera 2 that can capture an image without missing a background that is not visible to the observer 5 with a specific object in an area that the observer 5 is looking through the display device 4. Determine the placement position. As a result, by acquiring an image captured from the determined arrangement position, the image processing device 3a can acquire a background image that is blocked by a specific object and cannot be seen by the user.

<変形例>
画像処理装置3aは、特定の物体が移動又は特定の物体が変更された場合に図8の処理を実行してもよいし、観察者5が移動した場合に図8の処理を実行してもよい。
画像取得部30は、移動後のカメラ2から取得した画像を切出部36に出力してもよい。このように構成される場合、移動部35は、カメラ2の移動が完了した旨を示す通知を画像取得部30に出力する。画像取得部30は、移動部35から通知を取得した後にカメラ2から画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
<Modification>
The image processing device 3a may execute the process of FIG. 8 when the specific object moves or the specific object is changed, or may execute the process of FIG. 8 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the moved camera 2 to the cutout unit 36. When configured in this way, the moving unit 35 outputs a notification indicating that the movement of the camera 2 is completed to the image acquisition unit 30. When the image acquisition unit 30 acquires the notification from the moving unit 35 and then acquires the image from the camera 2, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen.

(第2の実施形態)
第1の実施形態では、画像処理システムに一台のカメラが備えられ、カメラを背景が全て撮像できる位置に移動させる構成を示した。これに対し、第2の実施形態では、画像処理システムに複数のカメラが備えられ、画像処理装置が、複数のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できる位置に移動させる点で第1の実施形態と相違する。第2の実施形態では、第1の実施形態との相違点についてのみ説明する。
(Second Embodiment)
In the first embodiment, the configuration in which one camera is provided in the image processing system and the camera is moved to a position where the entire background can be imaged is shown. On the other hand, in the second embodiment, the image processing system includes a plurality of cameras, and the image processing apparatus selects one camera from the plurality of cameras, and the selected camera is located at a position where all the backgrounds can be captured. It is different from the first embodiment in that it is moved. In the second embodiment, only differences from the first embodiment will be described.

図9は、第2の実施形態における画像処理システム1bの構成の例を示す図である。画像処理システム1bは、カメラ2−1〜2−N(Nは2以上の整数)と、画像処理装置3bと、表示装置4とを備える。画像処理装置3bは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3bと表示装置4とは、別体でもよいし一体でもよい。以下では、Nは一例として3である。   FIG. 9 is a diagram illustrating an example of the configuration of the image processing system 1b according to the second embodiment. The image processing system 1b includes cameras 2-1 to 2-N (N is an integer equal to or greater than 2), an image processing device 3b, and a display device 4. The image processing device 3b is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3b and the display device 4 may be separate or integrated. In the following, N is 3 as an example.

画像処理装置3bは、カメラ2−1〜2−Nのうち選択されたカメラ2−n(1≦n≦N)が出力した画像に画像処理を施す。画像処理装置3bは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3bは、画像処理が施された画像を表示装置4に出力する。画像処理装置3bは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3bは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。   The image processing device 3b performs image processing on an image output from the camera 2-n (1 ≦ n ≦ N) selected from the cameras 2-1 to 2-N. The image processing device 3b may execute image processing at, for example, a camera image acquisition period (frame rate). The image processing device 3b outputs the image subjected to the image processing to the display device 4. For example, the image processing device 3b may execute an image output process at a display cycle (refresh rate) of the display device. That is, the image processing device 3b may perform moving image processing on a moving image including a plurality of frame images.

画像処理装置3bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3bは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34b、移動部35、切出部36、出力部37、選択部38を備える装置として機能する。なお、画像処理装置3bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3b includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3b has an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34b, a movement unit 35, a cutout unit 36, an output unit 37, and a selection unit. It functions as a device including the unit 38. Note that all or part of the functions of the image processing apparatus 3b may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3bは、配置決定部34に代えて配置決定部34bを備える点、選択部38を新たに備える点で画像処理装置3aと構成が異なる。画像処理装置3bは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3b全体の説明は省略し、配置決定部34b及び選択部38について説明する。   The image processing device 3b is different in configuration from the image processing device 3a in that it includes a placement determination unit 34b instead of the placement determination unit 34 and a selection unit 38. The image processing device 3b is the same as the image processing device 3a in other configurations. Therefore, the description of the entire image processing apparatus 3b is omitted, and the arrangement determination unit 34b and the selection unit 38 will be described.

配置決定部34bは、カメラ2−nの配置位置を決定する決定装置として機能する。配置決定部34bは、選択部38が選択したカメラ2−nの識別情報と、記憶部33に記憶されているカメラ2−1〜2−Nのそれぞれによって撮像された画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報とを入力する。配置決定部34は、入力した複数の画像及び変数情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2−nの配置位置を決定する。   The arrangement determining unit 34b functions as a determining device that determines the arrangement position of the camera 2-n. The arrangement determination unit 34b includes the identification information of the camera 2-n selected by the selection unit 38, images and variable information captured by the cameras 2-1 to 2-N stored in the storage unit 33, and operations. The position information of the observer 5 input via the unit 31, the arrangement information of the object in the real space, and the arrangement information of the cameras 2-1 to 2-N in the real space are input. Based on the input plurality of images and variable information, the placement information of each of the cameras 2-1 to 2 -N, the position information of the observer 5, and the placement information of the object, the placement determination unit 34 Determine the placement position of -n.

具体的には、まず配置決定部34bは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、配置決定部34bはカメラ2−1〜2−Nの現在位置をカメラ2−1〜2−Nの配置位置として決定する。この場合、配置決定部34bは、背景を欠けずに撮像しているカメラ2−nがある旨を示す通知(以下「カメラ有通知」という。)を選択部38に出力する。カメラ有通知には、背景を欠けずに撮像しているカメラ2−nの識別情報と、カメラ2−nのそれぞれの決定配置位置情報とが含まれる。   Specifically, the arrangement determining unit 34b first determines whether or not there is an image that is captured without missing the background among the plurality of input images. When there is an image that is captured without a background missing, the arrangement determining unit 34b determines the current positions of the cameras 2-1 to 2-N as the arrangement positions of the cameras 2-1 to 2-N. In this case, the arrangement determining unit 34b outputs a notification (hereinafter referred to as “camera presence notification”) indicating that there is a camera 2-n that captures an image without missing a background to the selection unit 38. The camera presence notification includes the identification information of the camera 2-n that captures an image without missing the background and the determined arrangement position information of each camera 2-n.

一方、背景が欠けずに撮像されている画像がない場合、配置決定部34bは、背景を欠けずに撮像しているカメラ2−nがない旨を示す通知(以下「カメラ無通知」という。)を選択部38に出力する。また、配置決定部34bは、選択部38によって選択されたカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34bは選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。   On the other hand, when there is no image captured without missing the background, the arrangement determining unit 34b notifies that there is no camera 2-n that is imaged without missing the background (hereinafter referred to as “no camera notification”). ) Is output to the selection unit 38. Further, the arrangement determining unit 34b determines a position moved by a predetermined distance from the current position of the camera 2-n selected by the selection unit 38 as the arrangement position of the selected camera 2-n. When there is no image captured without a background missing, the arrangement determining unit 34b outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.

選択部38は、選択されるカメラ2−nを決定する決定装置として機能する。選択部38は、配置決定部34bから出力されたカメラ有通知又はカメラ無通知と、記憶部33に記憶されている変数情報とを入力とする。選択部38は、配置決定部34bからカメラ無通知が取得された場合、入力した変数情報に基づいて、カメラ2−1〜2−Nのうちカメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度とは、例えば30度とする。なお、選択部38は、カメラ角度が所定の角度以下のカメラ2−nが複数ある場合、距離差に基づいてカメラ2−nを選択する。具体的には、選択部38は、距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38は、選択したカメラ2−nの識別情報を配置決定部34bに出力する。   The selection unit 38 functions as a determination device that determines the camera 2-n to be selected. The selection unit 38 receives the camera presence notification or the camera non-notification output from the arrangement determination unit 34 b and the variable information stored in the storage unit 33. When the camera non-notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects a camera 2-n having a camera angle equal to or smaller than a predetermined angle from the cameras 2-1 to 2-N based on the input variable information. select. The predetermined angle is, for example, 30 degrees. Note that when there are a plurality of cameras 2-n having a camera angle equal to or smaller than a predetermined angle, the selection unit 38 selects the camera 2-n based on the distance difference. Specifically, the selection unit 38 selects a camera 2-n whose distance difference is a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n to the arrangement determination unit 34b.

また、選択部38は、配置決定部34bからカメラ有通知が取得された場合、入力した変数情報に基づいて、カメラ2−1〜2−Nのうちカメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度とは、例えば30度である。なお、選択部38は、カメラ角度が所定の角度以下のカメラ2−nが複数ある場合、距離差に基づいてカメラ2−nを選択する。具体的には、選択部38は、距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。選択部38は、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38は、選択したカメラ2−nの識別情報と、選択したカメラ2−nの決定配置位置情報とを切出部36に出力する。   In addition, when the camera presence notification is acquired from the arrangement determination unit 34b, the selection unit 38, based on the input variable information, the camera 2 having a camera angle equal to or smaller than a predetermined angle among the cameras 2-1 to 2-N. Select n. The predetermined angle is, for example, 30 degrees. Note that when there are a plurality of cameras 2-n having a camera angle equal to or smaller than a predetermined angle, the selection unit 38 selects the camera 2-n based on the distance difference. Specifically, the selection unit 38 selects a camera 2-n whose distance difference is a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. The selection unit 38 selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n and the determined arrangement position information of the selected camera 2-n to the cutting unit 36.

画像処理システム1bにおける物体及びカメラ2−1〜2−Nの配置例を図10に示す。図10は、第2の実施形態における物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。図10に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2−1〜2−3と、物体6とが配置されている。図10において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。   An arrangement example of objects and cameras 2-1 to 2-N in the image processing system 1b is shown in FIG. FIG. 10 is an overhead view showing an example of the arrangement of objects and cameras 2-1 to 2-N in the second embodiment. As shown in FIG. 10, cameras 2-1 to 2-3 and an object 6 are arranged in a room 100 having a real space where an observer 5 wearing the display device 4 is located. In FIG. 10, the observer 5 is facing the direction of the line of sight 51. That is, the observer 5 faces the direction of the object 6 arranged in the room 100. Thereby, the observer 5 observes the object optical image of the object 6 arranged in the room 100 through the display device 4 with the light transmitted through the screen of the display device 4. It is assumed that the observer 5 is viewing the range from the position a to the position d in the room 100 via the display device 4. That is, a line 52-1 connecting the position a and the position of the observer 5, a line 52-2 connecting the position d and the position of the observer 5, and a line connecting the position a and the position d. Is the range of the visual field of the observer 5.

カメラ2−1〜2−3は、予め定められた向きで、部屋100の予め定められた位置に配置される。第2の実施形態において、カメラ2−1は観察者5の視線51の方向と、カメラ2−1の光軸20−1の方向とが水平になるように配置され、カメラ2−2及び2−3は観察者5の視線51の方向と、カメラ2−2の光軸20−2の方向及びカメラ2−3の光軸20−3の方向とが異なるように配置されている。   The cameras 2-1 to 2-3 are arranged at predetermined positions in the room 100 in a predetermined direction. In the second embodiment, the camera 2-1 is arranged so that the direction of the line of sight 51 of the observer 5 and the direction of the optical axis 20-1 of the camera 2-1 are horizontal, and the cameras 2-2 and 2. -3 is arranged so that the direction of the line of sight 51 of the observer 5 is different from the direction of the optical axis 20-2 of the camera 2-2 and the direction of the optical axis 20-3 of the camera 2-3.

図11は、カメラ2−1〜2−3によって撮像された画像の具体例を示す図である。図11において、図11(a)はカメラ2−1が画像処理装置3bに出力したカメラ画像22であり、図11(b)はカメラ2−2が画像処理装置3bに出力したカメラ画像23であり、図11(c)はカメラ2−3が画像処理装置3bに出力したカメラ画像24である。図11(a)〜(c)に示すように、カメラ画像22〜24では、壁Cの範囲(背景b−c間)の一部が物体6に遮蔽されていて壁Cの全てが撮像されていない。このような場合、第2の実施形態における画像処理装置3bは、複数のカメラ2−1〜2−Nのうち選択したカメラ2−nを、背景が欠けずに撮像できる位置に移動させる。   FIG. 11 is a diagram illustrating a specific example of images captured by the cameras 2-1 to 2-3. 11A shows a camera image 22 output from the camera 2-1 to the image processing apparatus 3b, and FIG. 11B shows a camera image 23 output from the camera 2-2 to the image processing apparatus 3b. FIG. 11C shows a camera image 24 output from the camera 2-3 to the image processing apparatus 3b. As shown in FIGS. 11A to 11C, in the camera images 22 to 24, a part of the range of the wall C (between the backgrounds b and c) is shielded by the object 6, and the entire wall C is imaged. Not. In such a case, the image processing device 3b according to the second embodiment moves the camera 2-n selected from the plurality of cameras 2-1 to 2-N to a position where the image can be captured without missing the background.

図12は、第2の実施形態における画像処理装置3bの処理の流れを示すフローチャートである。なお、図12の説明では、既に変数決定部32による処理は行われているものとする。また、図12では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから画像を取得する(ステップS201)。画像取得部30は、取得した複数の画像をそれぞれ、カメラ2−1〜2−Nのそれぞれの識別情報に対応付けて記憶部33に記録する。配置決定部34bは、記憶部33に記憶されている、カメラ2−1〜2−Nによって撮像された画像をそれぞれ取得する。配置決定部34bは、取得した複数の画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2−1〜2−Nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS202)。
FIG. 12 is a flowchart illustrating a processing flow of the image processing apparatus 3b according to the second embodiment. In the description of FIG. 12, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 12 illustrates processing when still images are acquired from a plurality of cameras 2-1 to 2-N.
The image acquisition unit 30 acquires images from each of the plurality of cameras 2-1 to 2-N (step S201). The image acquisition unit 30 records the acquired images in the storage unit 33 in association with the identification information of each of the cameras 2-1 to 2 -N. The arrangement determination unit 34 b acquires images captured by the cameras 2-1 to 2 -N and stored in the storage unit 33. The arrangement determining unit 34b is based on the acquired images, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the cameras 2-1 to 2-N. Then, it is determined whether or not there is an image that has been imaged with no background missing (step S202).

例えば、配置決定部34bは、取得したカメラ2−1〜2−Nのそれぞれの画像全て又は一部に背景が欠けずに撮像されているか、カメラ2−1〜2−Nのそれぞれの画像全てに背景が欠けて撮像されているかを判定する。取得したカメラ2−1〜2−Nのそれぞれの画像全て又は一部に背景が欠けずに撮像されている場合、配置決定部34bは背景が欠けずに撮像されている画像があると判定する。一方、取得したカメラ2−1〜2−Nのそれぞれの画像全てに背景が欠けて撮像されている場合、配置決定部34bは背景が欠けずに撮像されている画像がないと判定する。   For example, the arrangement determination unit 34b captures all the images of the acquired cameras 2-1 to 2-N or a part thereof without any background, or the entire images of the cameras 2-1 to 2-N. It is determined whether or not the background is missing. When all or some of the acquired images of the cameras 2-1 to 2-N are captured without any background, the arrangement determining unit 34b determines that there is an image that is captured without any background missing. . On the other hand, when all of the acquired images of the cameras 2-1 to 2-N are captured with the background missing, the arrangement determining unit 34b determines that there is no image captured without the background missing.

背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、配置決定部34bはカメラ無通知を選択部38に出力する。選択部38は、配置決定部34bからカメラ無通知が取得されると、記憶部33に記憶されている変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する(ステップS203)。その後、選択部38は、選択したカメラ2−nの識別情報を配置決定部34bに出力する。配置決定部34bは、選択部38から出力されたカメラ2−nの識別情報で識別されるカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する(ステップS204)。その後、配置決定部34bは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。   When there is no image captured without a background missing (step S202—NO), the arrangement determining unit 34b outputs a camera non-notification to the selecting unit 38. When the camera non-notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects a camera 2-n whose camera angle is equal to or smaller than a predetermined angle based on the variable information stored in the storage unit 33 (step S40). S203). Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n to the arrangement determination unit 34b. The arrangement determining unit 34b moves the position moved by a predetermined distance from the current position of the camera 2-n identified by the identification information of the camera 2-n output from the selection unit 38 to the arrangement position of the selected camera 2-n. (Step S204). Thereafter, the arrangement determining unit 34b outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.

移動部35は、配置決定部34から出力されたカメラ2−nの識別情報と、決定配置位置情報とに基づいて、識別情報で識別されるカメラ2−nを、決定配置位置情報で示される位置に移動させる(ステップS205)。画像取得部30は、移動後のカメラ2−nによって撮像された画像を取得する(ステップS206)。画像取得部30は、取得した画像を記憶部33に記録する。   The moving unit 35 indicates the camera 2-n identified by the identification information based on the identification information of the camera 2-n output from the arrangement determining unit 34 and the determined arrangement position information, by the determined arrangement position information. The position is moved (step S205). The image acquisition unit 30 acquires an image captured by the camera 2-n after movement (step S206). The image acquisition unit 30 records the acquired image in the storage unit 33.

配置決定部34bは、記憶部33に記憶されている、移動後のカメラ2−nによって撮像された画像を取得する。配置決定部34bは、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2−nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS207)。背景が欠けずに撮像されている画像がない場合(ステップS207−NO)、画像処理装置3bはステップS204以降の処理を繰り返し実行する。   The arrangement determining unit 34b acquires an image captured by the moved camera 2-n stored in the storage unit 33. Based on the acquired image, the positional information of the observer 5 input via the operation unit 31, the positional information of the object, and the positional information of the camera 2-n, the layout determining unit 34b has no background. It is determined whether there is a captured image (step S207). If there is no image captured without a missing background (step S207—NO), the image processing device 3b repeatedly executes the processing after step S204.

一方、背景が欠けずに撮像されている画像がある場合(ステップS207−YES)、配置決定部34bはカメラ有通知を選択部38に出力する。選択部38は、配置決定部34bからカメラ有通知が取得されると、背景を欠けずに撮像しているカメラ2−nの中からカメラ2−nを選択する。その後、選択部38は、選択したカメラ2−nの識別情報と、選択したカメラ2−nの決定配置位置情報とを切出部36に出力する。切出部36は、選択部38から出力された識別情報で識別されるカメラ2−nによって撮像された画像を記憶部33から取得する。切出部36は、取得した画像から背景部分画像を切り出す。また、切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、切出部36は、貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。切出部36は、背景部分画像と、表示位置情報とを出力部37に出力する。   On the other hand, when there is an image that has been captured without any background missing (step S207—YES), the arrangement determination unit 34b outputs a camera presence notification to the selection unit 38. When the camera presence notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects the camera 2-n from the cameras 2-n that capture images without missing the background. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n and the determined arrangement position information of the selected camera 2-n to the cutting unit 36. The cutout unit 36 acquires an image captured by the camera 2-n identified by the identification information output from the selection unit 38 from the storage unit 33. The cutout unit 36 cuts out the background partial image from the acquired image. Further, the cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the cutout unit 36 determines the area specified by the pasting position information as the display position of the background partial image on the display screen. The cutout unit 36 outputs the background partial image and the display position information to the output unit 37.

出力部37は、切出部36から出力された背景部分画像と表示位置情報とを入力する。出力部37は、入力した背景部分画像に対して画像処理を行う。具体的には、出力部37は、背景部分画像を、観察者5の視線51の方向から見た画像に変換する。例えば、出力部37は、アフィン変換行列を用いたアフィン変換処理を背景部分画像に対して施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。その後、出力部37は、変換後の背景部分画像と表示位置情報とを表示装置4に出力する(ステップS208)。   The output unit 37 inputs the background partial image and the display position information output from the cutout unit 36. The output unit 37 performs image processing on the input background partial image. Specifically, the output unit 37 converts the background partial image into an image viewed from the direction of the line of sight 51 of the observer 5. For example, the output unit 37 performs affine transformation processing using an affine transformation matrix on the background partial image. The affine transformation matrix may include information indicating a region to be subjected to processing such as rotation, enlargement, or reduction. Thereafter, the output unit 37 outputs the converted background partial image and display position information to the display device 4 (step S208).

また、ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、画像処理装置3bはステップS208の処理を実行する。   Further, in the process of step S202, when there is an image that is captured with no background missing (step S202—YES), the image processing device 3b executes the process of step S208.

画像取得部30が動画像を取得する場合について、図12に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34bは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 12 will be described. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2-1 to 2-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34b determines whether there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS206において、画像取得部30は、移動後の複数のカメラ2−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS207において、配置決定部34bは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動後のカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS207において、背景が欠けずに撮像されている画像がない場合、画像処理装置3bはステップS204以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S206, the image acquisition unit 30 acquires a moving image from the plurality of cameras 2-n after movement, and acquires the acquired moving image. Each frame image is acquired from. In step S207, the arrangement determining unit 34b determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2-n after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S207, when there is no image captured without a missing background, the image processing device 3b executes the processing after step S204.

以上のように、第2の実施形態の画像処理装置3bは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第2の実施形態の決定装置は、配置決定部34bと、選択部38とを備える。選択部38は、複数のカメラ2−1〜2−Nのうちカメラ角度に基づいてカメラ2−nを選択する。配置決定部34bは、選択されたカメラ2−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2−nの移動先であるカメラ2−nの配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3bは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3b of the second embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination apparatus according to the second embodiment includes an arrangement determination unit 34b and a selection unit 38. The selection unit 38 selects the camera 2-n based on the camera angle among the plurality of cameras 2-1 to 2-N. The arrangement determination unit 34b can capture an image of the selected camera 2-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The arrangement position of the camera 2-n which is the movement destination of the camera 2-n is determined. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3b can acquire a background image that is blocked by a specific object and cannot be seen by the user.

<変形例>
画像処理装置3bは、特定の物体が移動又は特定の物体が変更された場合に図12の処理を実行してもよいし、観察者5が移動した場合に図12の処理を実行してもよい。
画像取得部30は、移動後のカメラ2−nから取得した画像を切出部36に出力してもよい。このように構成される場合、移動部35は、カメラ2−nの移動が完了した旨を示す通知を画像取得部30に出力する。移動部35が出力する通知には、例えば、カメラ2−nの識別情報が含まれる。画像取得部30は、移動部35から通知を取得した後に、識別情報で識別されるカメラ2−nから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。この場合、配置決定部34bは配置位置を決定したカメラ2−nの識別情報を切出部36に出力しなくてよい。
<Modification>
The image processing apparatus 3b may execute the process of FIG. 12 when the specific object moves or the specific object is changed, or may execute the process of FIG. 12 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the moved camera 2-n to the cutout unit 36. When configured in this way, the moving unit 35 outputs a notification indicating that the movement of the camera 2-n is completed to the image acquiring unit 30. The notification output by the moving unit 35 includes, for example, identification information of the camera 2-n. When the image acquisition unit 30 acquires the notification from the moving unit 35 and then acquires an image from the camera 2-n identified by the identification information, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen. In this case, the arrangement determining unit 34b may not output the identification information of the camera 2-n that has determined the arrangement position to the cutting unit 36.

(第3の実施形態)
第1の実施形態及び第2の実施形態では、カメラを背景が全て撮像できる位置に移動させる構成を示した。これに対し、第3の実施形態では、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する点で第1の実施形態及び第2の実施形態と相違する。第3の実施形態では、第1の実施形態及び第2の実施形態との相違点についてのみ説明する。
(Third embodiment)
In 1st Embodiment and 2nd Embodiment, the structure which moves a camera to the position which can image all the backgrounds was shown. On the other hand, in the third embodiment, the position and orientation of the destination of the camera so that the entire background can be imaged and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. This is different from the first and second embodiments in that it is controlled. In the third embodiment, only differences from the first embodiment and the second embodiment will be described.

図13は、第3の実施形態における画像処理システム1cの構成の例を示す図である。画像処理システム1cは、カメラ2cと、画像処理装置3cと、表示装置4とを備える。
カメラ2cは、物体が配置されている実空間において、予め定められた向きで予め定められた位置に配置されている。カメラ2cは、画像処理装置3cの制御に応じて移動及び向きが変更される。カメラ2cは、レンズである光学系を介して実空間を撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。カメラ2cは、撮像した静止画像又は動画像である画像を、画像処理装置3cに出力する。
FIG. 13 is a diagram illustrating an example of a configuration of an image processing system 1c according to the third embodiment. The image processing system 1c includes a camera 2c, an image processing device 3c, and a display device 4.
The camera 2c is arranged at a predetermined position in a predetermined direction in the real space where the object is arranged. The movement and orientation of the camera 2c are changed according to the control of the image processing device 3c. The camera 2c images real space through an optical system that is a lens. The optical system may be a wide-angle lens, a fish-eye lens, or an omnidirectional lens. The camera 2c outputs an image that is a captured still image or moving image to the image processing device 3c.

画像処理装置3cは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3cと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3cは、カメラ2cが出力した画像に画像処理を施す。画像処理装置3cは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3cは、画像処理が施された画像を表示装置4に出力する。画像処理装置3cは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3cは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。   The image processing device 3c is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3c and the display device 4 may be separate or integrated. The image processing device 3c performs image processing on the image output from the camera 2c. For example, the image processing device 3c may execute image processing at an image acquisition period (frame rate) of the camera. The image processing device 3c outputs the image subjected to the image processing to the display device 4. For example, the image processing device 3c may execute an image output process at a display cycle (refresh rate) of the display device. That is, the image processing device 3c may perform moving image processing on a moving image including a plurality of frame images.

画像処理装置3cは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34c、切出部36、出力部37、配置部39を備える装置として機能する。なお、画像処理装置3cの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3c includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34c, a cutout unit 36, an output unit 37, and an arrangement unit 39. Functions as a device. Note that all or part of the functions of the image processing apparatus 3c may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3cは、記憶部33及び配置決定部34に代えて記憶部33c及び配置決定部34cを備える点、配置部39を新たに備える点、移動部35を備えない点で画像処理装置3aと構成が異なる。画像処理装置3cは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3c全体の説明は省略し、記憶部33c、配置決定部34c及び配置部39について説明する。   The image processing device 3c is different from the image processing device 3a in that the storage unit 33c and the arrangement determination unit 34c are provided in place of the storage unit 33 and the arrangement determination unit 34, the arrangement unit 39 is newly provided, and the movement unit 35 is not provided. And the configuration is different. The image processing device 3c is the same as the image processing device 3a in other configurations. Therefore, description of the entire image processing apparatus 3c is omitted, and the storage unit 33c, the arrangement determination unit 34c, and the arrangement unit 39 will be described.

記憶部33cは、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部33cは、画像取得部30によって取得された画像と、カメラ2cの配置に関する変数情報とを記憶する。記憶部33cは、カメラ2cの配置情報(座標、光軸方向)を記憶してもよい。また、記憶部33cは、カメラ2cの回転に関する情報を表すテーブル(以下「回転情報テーブル」という。)を記憶する。   The storage unit 33c is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The memory | storage part 33c memorize | stores the image acquired by the image acquisition part 30, and the variable information regarding arrangement | positioning of the camera 2c. The storage unit 33c may store arrangement information (coordinates, optical axis direction) of the camera 2c. Further, the storage unit 33c stores a table (hereinafter referred to as “rotation information table”) representing information related to the rotation of the camera 2c.

図14は、回転情報テーブルの具体例を示す図である。回転情報テーブルは、カメラ2cの位置とカメラ角度毎に、カメラ2cの回転角度が予め設定されたテーブルである。回転情報テーブルにおいて、位置は、カメラ2cが移動していない場合にはカメラ2cが現在配置されている位置を表し、カメラ2cが移動している場合には移動後のカメラ2cが配置されている位置を表す。カメラ角度は、観察者5の視線方向とカメラ2cの光軸との成す角度を表す。回転角度は、カメラ2cの回転角度を表す。例えば、回転角度は、カメラ2cの現在の角度からどのくらい回転させるかを表す。   FIG. 14 is a diagram illustrating a specific example of the rotation information table. The rotation information table is a table in which the rotation angle of the camera 2c is set in advance for each position and camera angle of the camera 2c. In the rotation information table, the position represents the position where the camera 2c is currently arranged when the camera 2c is not moving, and the moved camera 2c is arranged when the camera 2c is moving. Represents the position. The camera angle represents an angle formed between the viewing direction of the observer 5 and the optical axis of the camera 2c. The rotation angle represents the rotation angle of the camera 2c. For example, the rotation angle represents how much the camera 2c is rotated from the current angle.

配置決定部34cは、カメラ2cの配置位置及び向きを決定する決定装置として機能する。配置決定部34cは、記憶部33cに記憶されている画像、変数情報及び回転情報テーブルと、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、カメラ2cの配置情報とを入力する。配置決定部34cは、入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2cの配置位置及び向きを決定する。具体的には、まず配置決定部34cは、入力した画像に背景が欠けずに撮像されているか否か判定する。入力した画像に背景が欠けずに撮像されている場合、配置決定部34cはカメラ2cの現在位置をカメラ2cの配置位置として決定する。配置決定部34cは、決定配置位置情報を切出部36に出力する。   The arrangement determining unit 34c functions as a determining device that determines the arrangement position and orientation of the camera 2c. The arrangement determining unit 34c includes an image, variable information and rotation information table stored in the storage unit 33c, position information of the observer 5 input via the operation unit 31, and object arrangement information in real space. The arrangement information of the camera 2c is input. The arrangement determination unit 34c determines the arrangement position and orientation of the camera 2c based on the input image, variable information and rotation information table, the arrangement information of the camera 2c, the position information of the observer 5, and the arrangement information of the object. decide. Specifically, the arrangement determining unit 34c first determines whether or not the input image is captured without a background. When the input image is captured without any background missing, the arrangement determining unit 34c determines the current position of the camera 2c as the arrangement position of the camera 2c. The arrangement determining unit 34 c outputs the determined arrangement position information to the cutting unit 36.

一方、入力した画像に背景が欠けずに撮像されていない場合、配置決定部34cはカメラ2cの現在位置からカメラ2cを所定の距離移動した位置をカメラ2cの配置位置として決定する。ここで、カメラ2cを所定の距離移動した位置とは、カメラ2cの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2cを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度に設定しておく)移動した位置である。   On the other hand, if the input image is not captured without a background, the arrangement determining unit 34c determines the position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c as the arrangement position of the camera 2c. Here, the position where the camera 2c is moved by a predetermined distance refers to the area where the camera 2c is imaged on the same plane as the background from the arrangement information of the camera 2c, and the camera 2c is determined in a direction closer to the calculated background area. (For example, set to about 10% of the distance from the initial position of the camera to the background).

また、配置決定部34cは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34cは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34cは、カメラ移動先配置情報を配置部39に出力する。カメラ移動先配置情報とは、配置決定部34cが決定した配置位置の座標及び回転角度を表す情報である。   Further, the arrangement determining unit 34c refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34c determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determination unit 34 c outputs camera movement destination arrangement information to the arrangement unit 39. The camera movement destination arrangement information is information representing the coordinates and rotation angle of the arrangement position determined by the arrangement determination unit 34c.

配置部39は、配置決定部34cから出力されたカメラ移動先配置情報を入力する。まず配置部39は、入力したカメラ移動先配置情報に基づいて、カメラ2cをカメラ移動先配置情報で示される位置に移動させる。例えば、配置部39は、移動させる前の位置におけるカメラ2cの光軸方向を維持したまま、カメラ2cを所定位置まで移動させる。その後、配置部39は、カメラ移動先配置情報に含まれる回転角度分カメラ2cを回転させることによって、決定された向きにカメラ2cを配置する。例えば、配置部39は、モータ等のアクチュエータを駆動することによって、カメラ2cを移動及び配置する。なお、配置部39は、位置センサの検出結果に基づいて、移動後のカメラ2cの位置情報を検出してもよい。配置部39は、加速度センサや方位センサの検出結果に基づいて、カメラ2cの向き(姿勢情報)を検出してもよい。   The placement unit 39 receives the camera movement destination placement information output from the placement determination unit 34c. First, the arrangement unit 39 moves the camera 2c to a position indicated by the camera movement destination arrangement information based on the input camera movement destination arrangement information. For example, the placement unit 39 moves the camera 2c to a predetermined position while maintaining the optical axis direction of the camera 2c at the position before the movement. Thereafter, the arrangement unit 39 arranges the camera 2c in the determined direction by rotating the camera 2c by the rotation angle included in the camera movement destination arrangement information. For example, the placement unit 39 moves and places the camera 2c by driving an actuator such as a motor. In addition, the arrangement | positioning part 39 may detect the positional information on the camera 2c after a movement based on the detection result of a position sensor. The placement unit 39 may detect the orientation (posture information) of the camera 2c based on the detection results of the acceleration sensor and the orientation sensor.

図15は、第3の実施形態における画像処理装置3cの処理の流れを示すフローチャートである。なお、図15の説明では、既に変数決定部32による処理は行われているものとする。図15において、図8と同様の処理については図8と同様の符号を付して説明を省略する。また、図15では、カメラ2cから静止画像を取得した場合の処理について説明する。
ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34cは入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2cの配置位置及び向きを決定する(ステップS301)。配置決定部34cは、カメラ移動先配置情報を配置部39に出力する。配置部39は、配置決定部34cから出力されたカメラ移動先配置情報に含まれる配置位置の座標に基づいて、カメラ2cを、カメラ移動先位置に移動させる(ステップS302)。
FIG. 15 is a flowchart illustrating a processing flow of the image processing apparatus 3c according to the third embodiment. In the description of FIG. 15, it is assumed that the processing by the variable determination unit 32 has already been performed. 15, processes similar to those in FIG. 8 are denoted by the same reference numerals as those in FIG. 8, and description thereof is omitted. In addition, FIG. 15 illustrates processing when a still image is acquired from the camera 2c.
In the process of step S102, when there is no image captured without a missing background (step S102-NO), the arrangement determining unit 34c inputs the input image, variable information and rotation information table, arrangement information of the camera 2c, Based on the position information of the observer 5 and the arrangement information of the object, the arrangement position and orientation of the camera 2c are determined (step S301). The arrangement determination unit 34 c outputs camera movement destination arrangement information to the arrangement unit 39. The arrangement unit 39 moves the camera 2c to the camera movement destination position based on the coordinates of the arrangement position included in the camera movement destination arrangement information output from the arrangement determination unit 34c (step S302).

その後、配置部39は、カメラ移動先配置情報に含まれる回転角度に基づいて、カメラ2cを、回転角度で示される角度分回転させる(ステップS303)。画像取得部30は、移動及び回転後のカメラ2cによって撮像された画像を取得する(ステップS304)。例えば、画像取得部30は、配置部39からカメラ2cの移動及び回転が完了した旨の通知を受けた後に、カメラ2cによって撮像された画像を移動及び回転後のカメラ2cによって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33cに記録する。   Thereafter, the arrangement unit 39 rotates the camera 2c by an angle indicated by the rotation angle based on the rotation angle included in the camera movement destination arrangement information (step S303). The image acquisition unit 30 acquires an image captured by the camera 2c after movement and rotation (step S304). For example, the image acquisition unit 30 receives the notification that the movement and rotation of the camera 2c has been completed from the placement unit 39, and then converts the image captured by the camera 2c as an image captured by the camera 2c after movement and rotation. You may get it. The image acquisition unit 30 records the acquired image in the storage unit 33c.

配置決定部34cは、記憶部33cに記憶されている、移動及び回転後のカメラ2cによって撮像された画像を取得する。配置決定部34cは、取得した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS305)。背景が欠けずに撮像されている画像がない場合(ステップS305−NO)、画像処理装置3cはステップS301以降の処理を繰り返し実行する。
一方、背景が欠けずに撮像されている画像がある場合(ステップS305−YES)、画像処理装置3cはステップS107の処理を実行する。
The arrangement determination unit 34c acquires an image captured by the camera 2c after movement and rotation, which is stored in the storage unit 33c. Based on the acquired image, variable information and rotation information table, the placement information of the camera 2c, the position information of the observer 5, and the placement information of the object, the placement determination unit 34c is imaged without missing a background. It is determined whether there is an image (step S305). When there is no image captured without a missing background (step S305—NO), the image processing device 3c repeatedly executes the processing after step S301.
On the other hand, when there is an image that has been imaged with no background missing (step S305—YES), the image processing device 3c executes the process of step S107.

画像取得部30が動画像を取得する場合について、図15に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34cは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   Differences from the process shown in FIG. 15 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2c, and acquires each frame image from the acquired moving image. In step S102, the arrangement determining unit 34c determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured with no background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS304において、画像取得部30は、移動及び回転後のカメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS305において、配置決定部34cは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動及び回転後のカメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS305において、背景が欠けずに撮像されている画像がない場合、画像処理装置3cはステップS301以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S304, the image acquisition unit 30 acquires a moving image from the camera 2c after movement and rotation, and each image is acquired from the acquired moving image. Get a frame image. In step S <b> 305, the arrangement determining unit 34 c determines whether there is an image that has been captured without any background missing, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S305, when there is no image captured without a missing background, the image processing device 3c executes the processing after step S301.

以上のように、第3の実施形態の画像処理装置3cは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第3の実施形態の決定装置は、配置決定部34cを備える。配置決定部34cは、カメラ2cで撮像された画像を観察者5の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラ2cの移動先の位置及び向きを決定する。これによって、決定された配置位置に配置され、決定された向きに配置された撮像装置によって撮像された画像を取得することによって、画像処理装置3cは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3c according to the third embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus according to the third embodiment includes an arrangement determining unit 34c. The arrangement determination unit 34c determines the position and orientation of the movement destination of the camera 2c so that the influence when converting the image captured by the camera 2c into an image viewed from the direction of the line of sight of the observer 5 is reduced. As a result, the image processing device 3c is shielded by a specific object and can be viewed from the user by acquiring an image captured by the imaging device arranged at the determined arrangement position and arranged in the determined orientation. It becomes possible to obtain a background image that cannot be obtained.

<変形例>
画像処理装置3cは、特定の物体が移動又は特定の物体が変更された場合に図15の処理を実行してもよいし、観察者5が移動した場合に図15の処理を実行してもよい。
画像取得部30は、移動及び向きが調節された後のカメラ2cから取得した画像を切出部36に出力してもよい。このように構成される場合、配置部39は、カメラ2cの移動及び向きの調節が完了した旨を示す通知を画像取得部30に出力する。画像取得部30は、配置部39から通知を取得した後にカメラ2cから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
<Modification>
The image processing apparatus 3c may execute the process of FIG. 15 when the specific object moves or the specific object is changed, or may execute the process of FIG. 15 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the camera 2c after the movement and orientation are adjusted to the cutout unit 36. When configured in this way, the arrangement unit 39 outputs a notification indicating that the movement and orientation adjustment of the camera 2c has been completed to the image acquisition unit 30. When the image acquisition unit 30 acquires an image from the camera 2 c after acquiring the notification from the arrangement unit 39, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen.

(第4の実施形態)
第3の実施形態では、画像処理システムに一台のカメラが備えられ、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。これに対し、第4の実施形態では、画像処理システムに複数のカメラが備えられ、画像処理装置が、複数のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する点で第3の実施形態と相違する。第4の実施形態では、第3の実施形態との相違点についてのみ説明する。
(Fourth embodiment)
In the third embodiment, a single camera is provided in the image processing system so that the entire background can be imaged, and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. A configuration for controlling the position and orientation of the camera destination is shown. On the other hand, in the fourth embodiment, the image processing system is provided with a plurality of cameras, and the image processing apparatus selects one camera from the plurality of cameras so that the background of the selected camera can be captured. In addition, the third embodiment is different from the third embodiment in that the position and orientation of the movement destination of the camera are controlled so as to reduce the influence upon conversion to an image viewed from the direction of the line of sight of the observer. In the fourth embodiment, only differences from the third embodiment will be described.

図16は、第4の実施形態における画像処理システム1dの構成の例を示す図である。画像処理システム1dは、カメラ2c−1〜2c−Nと、画像処理装置3dと、表示装置4とを備える。画像処理装置3dは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3dと表示装置4とは、別体でもよいし一体でもよい。以下では、Nは一例として3である。   FIG. 16 is a diagram illustrating an example of a configuration of an image processing system 1d according to the fourth embodiment. The image processing system 1d includes cameras 2c-1 to 2c-N, an image processing device 3d, and a display device 4. The image processing device 3d is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3d and the display device 4 may be separate or integrated. In the following, N is 3 as an example.

画像処理装置3dは、カメラ2c−1〜2c−Nのうち選択されたカメラ2c−nが出力した画像に画像処理を施す。画像処理装置3dは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3dは、画像処理が施された画像を表示装置4に出力する。画像処理装置3dは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3dは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。   The image processing device 3d performs image processing on an image output from the camera 2c-n selected from the cameras 2c-1 to 2c-N. The image processing device 3d may execute image processing at, for example, a camera image acquisition period (frame rate). The image processing device 3d outputs the image subjected to the image processing to the display device 4. The image processing device 3d may execute image output processing at, for example, the display cycle (refresh rate) of the display device. That is, the image processing device 3d may perform moving image processing on a moving image including a plurality of frame images.

画像処理装置3dは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3dは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34d、配置部39、切出部36、出力部37、選択部38dを備える装置として機能する。なお、画像処理装置3dの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3d includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3d causes the image acquisition unit 30, the operation unit 31, the variable determination unit 32, the storage unit 33c, the arrangement determination unit 34d, the arrangement unit 39, the cutout unit 36, the output unit 37, and the selection. It functions as a device including the unit 38d. Note that all or part of the functions of the image processing device 3d may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3dは、配置決定部34cに代えて配置決定部34dを備える点、選択部38dを新たに備える点で画像処理装置3cと構成が異なる。画像処理装置3dは、他の構成については画像処理装置3cと同様である。そのため、画像処理装置3d全体の説明は省略し、配置決定部34d及び選択部38dについて説明する。   The image processing apparatus 3d is different in configuration from the image processing apparatus 3c in that it includes an arrangement determination unit 34d instead of the arrangement determination unit 34c and a selection unit 38d. The other configuration of the image processing device 3d is the same as that of the image processing device 3c. Therefore, the description of the entire image processing apparatus 3d is omitted, and the arrangement determination unit 34d and the selection unit 38d will be described.

配置決定部34dは、カメラ2c−nの配置位置及び向きを決定する決定装置として機能する。配置決定部34dは、選択部38dが選択したカメラ2c−nの識別情報と、記憶部33cに記憶されているカメラ2c−1〜2c−Nのそれぞれによって撮像された画像、変数情報及び回転情報テーブルと、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2c−1〜2c−Nのそれぞれの配置情報とを入力する。配置決定部34dは、入力した複数の画像、変数情報及び回転情報テーブルと、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2c−nの配置位置及び向きを決定する。   The arrangement determining unit 34d functions as a determining device that determines the arrangement position and orientation of the cameras 2c-n. The arrangement determination unit 34d includes the identification information of the camera 2c-n selected by the selection unit 38d, and the images, variable information, and rotation information captured by the cameras 2c-1 to 2c-N stored in the storage unit 33c. The table, the position information of the observer 5 input via the operation unit 31, the object arrangement information in the real space, and the arrangement information of the cameras 2c-1 to 2c-N in the real space are input. The arrangement determination unit 34d is based on the plurality of input images, variable information and rotation information tables, the arrangement information of the cameras 2c-1 to 2c-N, the position information of the observer 5, and the arrangement information of the object. Thus, the arrangement position and orientation of the camera 2c-n are determined.

具体的には、まず配置決定部34dは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、配置決定部34dはカメラ2c−1〜2c−Nの現在位置をカメラ2c−1〜2c−Nの配置位置として決定する。この場合、配置決定部34dは、カメラ有通知を選択部38dに出力する。   Specifically, the arrangement determining unit 34d first determines whether or not there is an image that has been captured without any background loss among the plurality of input images. When there is an image that is captured without a background missing, the arrangement determining unit 34d determines the current positions of the cameras 2c-1 to 2c-N as the arrangement positions of the cameras 2c-1 to 2c-N. In this case, the arrangement determination unit 34d outputs a camera presence notification to the selection unit 38d.

一方、背景が欠けずに撮像されている画像がない場合、配置決定部34dは、カメラ無通知を選択部38dに出力する。また、配置決定部34dは、選択部38dによって選択されたカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34dは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34dは、取得した回転角度の値をカメラ2c−nの向きとして決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34dは選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。   On the other hand, when there is no image captured without a missing background, the arrangement determination unit 34d outputs a camera non-notification to the selection unit 38d. Further, the arrangement determining unit 34d determines a position moved by a predetermined distance from the current position of the camera 2c-n selected by the selection unit 38d as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34d refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34d determines the acquired rotation angle value as the direction of the camera 2c-n. When there is no image captured without a background missing, the arrangement determining unit 34 d outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39.

選択部38dは、選択されるカメラ2c−nを決定する決定装置として機能する。選択部38dは、配置決定部34dから出力されたカメラ有通知又はカメラ無通知と、記憶部33cに記憶されている変数情報とを入力とする。選択部38dは、配置決定部34dからカメラ無通知が取得された場合、入力した変数情報に基づいて、射影変換量が小さくなるようにカメラ2c−nを選択する。例えば、選択部38dは、カメラ2c−1〜2c−Nのうちカメラ角度が所定の角度以下のカメラ2c−nを選択する。所定の角度とは、例えば30度とする。なお、選択部38dは、カメラ角度が所定の角度以下のカメラ2c−nが複数ある場合、距離差に基づいてカメラ2c−nを選択する。具体的には、選択部38dは、距離差が所定の値以下のカメラ2c−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。選択部38dは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38dは、選択したカメラ2c−nの識別情報を配置決定部34dに出力する。   The selection unit 38d functions as a determination device that determines the camera 2c-n to be selected. The selection unit 38d receives the camera presence notification or the camera non-notification output from the arrangement determination unit 34d and the variable information stored in the storage unit 33c. When the camera non-notification is acquired from the arrangement determination unit 34d, the selection unit 38d selects the camera 2c-n based on the input variable information so that the projection conversion amount is reduced. For example, the selection unit 38d selects the camera 2c-n whose camera angle is equal to or smaller than a predetermined angle among the cameras 2c-1 to 2c-N. The predetermined angle is, for example, 30 degrees. The selection unit 38d selects the camera 2c-n based on the distance difference when there are a plurality of cameras 2c-n having a camera angle equal to or smaller than a predetermined angle. Specifically, the selection unit 38d selects the camera 2c-n whose distance difference is equal to or smaller than a predetermined value. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. The selection unit 38d selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34d.

また、選択部38dは、配置決定部34dからカメラ有通知が取得された場合、入力した変数情報に基づいて、カメラ2c−1〜2c−Nのうちカメラ角度が所定の角度以下のカメラ2c−nを選択する。なお、選択部38dは、カメラ角度が所定の角度以下のカメラ2c−nが複数ある場合、距離差に基づいてカメラ2c−nを選択する。具体的には、選択部38dは、距離差が所定の値以下のカメラ2c−nを選択する。選択部38dは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38dは、選択したカメラ2c−nの識別情報と、選択したカメラ2c−nの決定配置位置情報とを切出部36に出力する。   In addition, when the camera presence notification is acquired from the arrangement determination unit 34d, the selection unit 38d, based on the input variable information, the camera 2c- whose camera angle is equal to or less than a predetermined angle among the cameras 2c-1 to 2c-N Select n. The selection unit 38d selects the camera 2c-n based on the distance difference when there are a plurality of cameras 2c-n having a camera angle equal to or smaller than a predetermined angle. Specifically, the selection unit 38d selects the camera 2c-n whose distance difference is equal to or smaller than a predetermined value. The selection unit 38d selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n and the determined arrangement position information of the selected camera 2c-n to the cutting unit 36.

図17は、第4の実施形態における画像処理装置3dの処理の流れを示すフローチャートである。なお、図17の説明では、既に変数決定部32による処理は行われているものとする。図17において、図12と同様の処理については図12と同様の符号を付して説明を省略する。また、図17では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。   FIG. 17 is a flowchart illustrating a process flow of the image processing apparatus 3d according to the fourth embodiment. In the description of FIG. 17, it is assumed that the process by the variable determination unit 32 has already been performed. In FIG. 17, the same processes as those in FIG. 12 are denoted by the same reference numerals as those in FIG. In FIG. 17, processing when still images are acquired from a plurality of cameras 2c-1 to 2c-N will be described.

ステップS202の処理において、背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、配置決定部34dはカメラ無通知を選択部38dに出力する。選択部38dは、配置決定部34dからカメラ無通知が取得されると、記憶部33cに記憶されている変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2c−nを選択する。所定の角度以下のカメラ2c−nが複数ある場合、選択部38dは距離差が所定の値以下であるカメラ2c−nを選択する(ステップS401)。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38dは、選択したカメラ2c−nの識別情報を配置決定部34dに出力する。ステップS401において、選択部38dは、カメラ角度が所定の角度より小さいカメラ2c−nが複数ある場合や距離差が所定の値以下のカメラ2c−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。   In the process of step S202, when there is no image captured without a missing background (step S202—NO), the arrangement determination unit 34d outputs a camera non-notification to the selection unit 38d. When the camera non-notification is acquired from the arrangement determination unit 34d, the selection unit 38d selects a camera 2c-n having a camera angle equal to or less than a predetermined angle based on the variable information stored in the storage unit 33c. When there are a plurality of cameras 2c-n having a predetermined angle or less, the selection unit 38d selects the cameras 2c-n having a distance difference of a predetermined value or less (step S401). The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34d. In step S401, the selection unit 38d determines that the camera having the smallest distance difference is present when there are a plurality of cameras 2c-n whose camera angle is smaller than the predetermined angle or when there are a plurality of cameras 2c-n whose distance difference is equal to or smaller than the predetermined value. 2-n may be selected.

配置決定部34dは、選択部38dから出力された識別情報で識別されるカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34dは、回転情報テーブルを参照し、決定した配置位置と、選択されたカメラ2c−nのカメラ角度とからカメラ2c−nの向きを決定する(ステップS402)。配置決定部34dは、選択されたカメラ2c−nの識別情報と、カメラ移動先配置情報とを配置部39に出力する。   The arrangement determination unit 34d determines a position moved by a predetermined distance from the current position of the camera 2c-n identified by the identification information output from the selection unit 38d as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34d refers to the rotation information table and determines the orientation of the camera 2c-n from the determined arrangement position and the camera angle of the selected camera 2c-n (step S402). The arrangement determining unit 34d outputs the identification information of the selected camera 2c-n and the camera movement destination arrangement information to the arrangement unit 39.

配置部39は、配置決定部34dから出力されたカメラ2c−nの識別情報と、カメラ移動先配置情報とに基づいて、識別情報で識別されるカメラ2c−nを、カメラ移動先位置に移動させる(ステップS403)。その後、配置部39は、配置決定部34dから出力されたカメラ2c−nの識別情報と、カメラ移動先配置情報に含まれる回転角度とに基づいて、識別情報で識別されるカメラ2c−nを、回転角度で示される角度分回転させる(ステップS404)。画像取得部30は、移動及び回転後のカメラ2c−nによって撮像された画像を取得する(ステップS405)。画像取得部30は、取得した画像を記憶部33cに記録する。   The placement unit 39 moves the camera 2c-n identified by the identification information to the camera destination position based on the identification information of the camera 2c-n output from the placement determination unit 34d and the camera destination location information. (Step S403). Thereafter, the placement unit 39 selects the camera 2c-n identified by the identification information based on the identification information of the camera 2c-n output from the placement determination unit 34d and the rotation angle included in the camera movement destination placement information. Then, it is rotated by the angle indicated by the rotation angle (step S404). The image acquisition unit 30 acquires an image captured by the camera 2c-n after movement and rotation (step S405). The image acquisition unit 30 records the acquired image in the storage unit 33c.

配置決定部34dは、記憶部33cに記憶されている、移動及び回転後のカメラ2c−nによって撮像された画像を取得する。配置決定部34dは、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2c−nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS406)。背景が欠けずに撮像されている画像がない場合(ステップS406−NO)、画像処理装置3dはステップS402以降の処理を繰り返し実行する。
一方、背景が欠けずに撮像されている画像がある場合(ステップS406−YES)、画像処理装置3dはステップS208の処理を実行する。
The arrangement determining unit 34d acquires an image captured by the camera 2c-n after movement and rotation, which is stored in the storage unit 33c. The arrangement determination unit 34d has no background based on the acquired image, the position information of the observer 5 input via the operation unit 31, the arrangement information of the object, and the arrangement information of the camera 2c-n. It is determined whether or not there is an image captured in step S406. If there is no image captured without a missing background (step S406—NO), the image processing device 3d repeatedly executes the processing after step S402.
On the other hand, when there is an image that has been imaged with no background missing (step S406—YES), the image processing device 3d executes the process of step S208.

画像取得部30が動画像を取得する場合について、図17に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2c−1〜2c−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34dは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 17 will be described. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2c-1 to 2c-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34d determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS406において、画像取得部30は、移動及び回転後の複数のカメラ2c−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS406において、配置決定部34dは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動及び回転後のカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS406において、背景が欠けずに撮像されている画像がない場合、画像処理装置3dはステップS402以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S406, the image acquisition unit 30 acquires and acquires moving images from the plurality of cameras 2c-n after movement and rotation. Each frame image is acquired from the moving image. In step S406, the arrangement determining unit 34d determines whether or not there is an image that is captured without missing a background, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S406, when there is no image captured without a missing background, the image processing device 3d executes the processing from step S402 onward.

以上のように、第4の実施形態の画像処理装置3dは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第4の実施形態の決定装置は、配置決定部34dと、選択部38dとを備える。選択部38dは、複数のカメラ2c−1〜2c−Nのうちカメラ角度及びカメラ2c−1〜2c−Nの位置とユーザの位置と距離に基づいてカメラ2c−nを選択する。配置決定部34dは、選択されたカメラ2c−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2c−nの移動先であるカメラ2c−nの配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3dは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3d of the fourth embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination apparatus according to the fourth embodiment includes an arrangement determination unit 34d and a selection unit 38d. The selection unit 38d selects the camera 2c-n based on the camera angle, the positions of the cameras 2c-1 to 2c-N, the position of the user, and the distance among the plurality of cameras 2c-1 to 2c-N. The arrangement determination unit 34d can capture an image of the selected camera 2c-n without missing a background that is not visible to the observer 5 with a specific object in the region that the observer 5 is viewing via the display device 4. The arrangement position of the camera 2c-n which is the movement destination of the camera 2c-n is determined. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3d can acquire a background image that is blocked by a specific object and cannot be seen by the user.

<変形例>
画像処理装置3dは、特定の物体が移動又は特定の物体が変更された場合に図17の処理を実行してもよいし、観察者5が移動した場合に図17の処理を実行してもよい。
画像取得部30は、移動及び向きが調節された後のカメラ2c−nから取得した画像を切出部36に出力してもよい。このように構成される場合、配置部39は、カメラ2c−nの移動及び向きの調節が完了した旨を示す通知を画像取得部30に出力する。配置部39が出力する通知には、例えば、カメラ2c−nの識別情報が含まれる。画像取得部30は、配置部39から通知を取得した後に、識別情報で識別されるカメラ2c−nから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。この場合、配置決定部34dは配置位置を決定したカメラ2c−nの識別情報を切出部36に出力しなくてよい。
<Modification>
The image processing apparatus 3d may execute the process of FIG. 17 when the specific object moves or the specific object is changed, or may execute the process of FIG. 17 when the observer 5 moves. Good.
The image acquisition unit 30 may output the image acquired from the camera 2c-n after the movement and orientation are adjusted to the cutout unit 36. When configured in this way, the arrangement unit 39 outputs a notification indicating that the movement and orientation adjustment of the camera 2c-n has been completed to the image acquisition unit 30. The notification output by the placement unit 39 includes, for example, identification information of the camera 2c-n. When the image acquisition unit 30 acquires a notification from the placement unit 39 and then acquires an image from the camera 2c-n identified by the identification information, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen. In this case, the arrangement determining unit 34d may not output the identification information of the camera 2c-n whose arrangement position has been determined to the cutting unit 36.

(第5の実施形態)
第1の実施形態では、画像処理システムに一台のカメラが備えられ、カメラを背景が全て撮像できる位置に移動させる構成を示した。しかしながら、第1の実施形態において、カメラを背景が全て撮像できる位置に移動させたとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第5の実施形態では、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラの配置位置に決定する点で第1の実施形態と相違する。第5の実施形態では、第1の実施形態との相違点についてのみ説明する。
(Fifth embodiment)
In the first embodiment, the configuration in which one camera is provided in the image processing system and the camera is moved to a position where the entire background can be imaged is shown. However, in the first embodiment, even if the camera is moved to a position where the entire background can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred (the background is in focus). The quality of the entire image displayed on the display device 4 deteriorates. Therefore, the fifth embodiment is different from the first embodiment in that the position where the entire background can be imaged and the position where the background is not blurred is determined as the camera arrangement position. In the fifth embodiment, only differences from the first embodiment will be described.

図18は、第5の実施形態における画像処理システム1eの構成の例を示す図である。画像処理システム1eは、カメラ2と、画像処理装置3eと、表示装置4とを備える。画像処理装置3eは、カメラ2の配置位置を決定する方法が画像処理装置3aと異なる。具体的には、画像処理装置3eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。ここで、背景がぼけない位置とは、カメラ2の被写界深度の範囲内に背景を含む位置である。   FIG. 18 is a diagram illustrating an example of a configuration of an image processing system 1e according to the fifth embodiment. The image processing system 1e includes a camera 2, an image processing device 3e, and a display device 4. The image processing device 3e differs from the image processing device 3a in the method of determining the arrangement position of the camera 2. Specifically, the image processing device 3 e determines a position where the background can be captured entirely and a position where the background is not blurred as the arrangement position of the camera 2. Here, the position where the background is not blurred is a position including the background within the range of the depth of field of the camera 2.

画像処理装置3eは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3eは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34e、移動部35、切出部36、出力部37を備える装置として機能する。なお、画像処理装置3eの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3e includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3e includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34e, a movement unit 35, a cutout unit 36, and an output unit 37. Functions as a device. Note that all or part of each function of the image processing device 3e may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3eは、配置決定部34に代えて配置決定部34eを備える点で画像処理装置3aと構成が異なる。画像処理装置3eは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3e全体の説明は省略し、配置決定部34eについて説明する。   The image processing device 3e is different in configuration from the image processing device 3a in that an arrangement determining unit 34e is provided instead of the arrangement determining unit 34. The image processing device 3e is the same as the image processing device 3a in other configurations. Therefore, description of the entire image processing apparatus 3e is omitted, and the arrangement determining unit 34e will be described.

配置決定部34eは、カメラ2の配置位置を決定する決定装置として機能する。配置決定部34eは、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力された実空間におけるカメラ2の配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、カメラ2に関するパラメータの情報(以下「カメラパラメータ情報」という。)を入力する。カメラパラメータ情報は、前方被写界深度及び後方被写界深度の算出に用いるパラメータの情報であり、例えば許容錯乱円径、絞り値、及び焦点距離である。配置決定部34eは、入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2の配置位置を決定する。具体的には、配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。   The arrangement determining unit 34 e functions as a determining device that determines the arrangement position of the camera 2. The arrangement determination unit 34e includes the image and variable information stored in the storage unit 33, the arrangement information of the camera 2 in the real space input via the operation unit 31, the position information of the observer 5, and the real space. Object arrangement information and parameter information about the camera 2 (hereinafter referred to as “camera parameter information”) are input. The camera parameter information is information on parameters used for calculating the front depth of field and the rear depth of field, and is, for example, an allowable confusion circle diameter, an aperture value, and a focal length. The arrangement determining unit 34e determines the arrangement position of the camera 2 based on the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, the arrangement information of the object, and the camera parameter information. To do. Specifically, the arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2.

画像処理システム1eにおける物体及びカメラ2の配置例を図19に示す。図19は、物体及びカメラ2の配置の例を示す俯瞰図である。図19において、カメラ2から背景までの距離をL1、カメラ2から物体6までの距離をD1、カメラ2における後方被写界深度をd11、カメラ2における前方被写界深度をd21とする。
前方被写界深度及び後方被写界深度は、既存の方法で算出される。例えば、前方被写界深度及び後方被写界深度は式1、式2に基づいて算出されてもよい。
An arrangement example of the object and the camera 2 in the image processing system 1e is shown in FIG. FIG. 19 is an overhead view showing an example of the arrangement of the object and the camera 2. In FIG. 19, the distance from the camera 2 to the background is L1, the distance from the camera 2 to the object 6 is D1, the rear depth of field in the camera 2 is d11, and the front depth of field in the camera 2 is d21.
The forward depth of field and the backward depth of field are calculated by existing methods. For example, the front depth of field and the rear depth of field may be calculated based on Equations 1 and 2.

Figure 2018129787
Figure 2018129787
Figure 2018129787
Figure 2018129787

上記式1及び式2における被写体距離はカメラ2から物体6までの距離であり、許容錯乱円径はカメラ2全てで一定である。また、焦点距離と絞り値は、各カメラ2で設定される値であり、カメラ2ごとに異なる。配置決定部34eは、背景が全て撮像できる位置であり、かつ、以下の式3を満たす位置をカメラ2の配置位置に決定する。なお、式3において、Di(iは1以上の整数)はカメラ2から物体6までの距離を表し、d1iはカメラ2における後方被写界深度を表し、d2iはカメラ2における前方被写界深度を表し、Liはカメラ2から背景までの距離を表す。   The subject distance in the above formulas 1 and 2 is the distance from the camera 2 to the object 6, and the permissible circle of confusion is constant for all the cameras 2. The focal length and the aperture value are values set for each camera 2 and are different for each camera 2. The arrangement determining unit 34e determines the position where the background can be imaged and satisfies the following Expression 3 as the arrangement position of the camera 2. In Expression 3, Di (i is an integer of 1 or more) represents the distance from the camera 2 to the object 6, d1i represents the rear depth of field in the camera 2, and d2i represents the forward depth of field in the camera 2. Li represents the distance from the camera 2 to the background.

Figure 2018129787
Figure 2018129787

図19に示す例では、カメラ2の位置は、背景がぼけない位置ではない。すなわち、カメラ2の位置は、被写界深度の範囲内に背景を含む位置ではない。そうすると、カメラ2において背景が欠けずに撮像されている場合であっても、背景がぼけて撮像されてしまう。そこで、配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。   In the example shown in FIG. 19, the position of the camera 2 is not a position where the background is not blurred. That is, the position of the camera 2 is not a position that includes the background within the range of the depth of field. As a result, even if the camera 2 captures an image with no background, the background is blurred and the image is captured. Therefore, the arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2.

図20は、第5の実施形態における画像処理装置3eの処理の流れを示すフローチャートである。図8と同様の処理については、図20において図8と同様の符号を付して説明を省略する。なお、図20の説明では、既に変数決定部32による処理は行われているものとする。また、図20では、カメラ2から静止画像を取得した場合の処理について説明する。   FIG. 20 is a flowchart illustrating a process flow of the image processing apparatus 3e according to the fifth embodiment. The processes similar to those in FIG. 8 are denoted by the same reference numerals as those in FIG. In the description of FIG. 20, it is assumed that the processing by the variable determination unit 32 has already been performed. In FIG. 20, processing when a still image is acquired from the camera 2 will be described.

ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34eは入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2の配置位置を決定する(ステップS501)。具体的には、配置決定部34eは、背景がぼけない位置、かつ、カメラ2の現在位置からカメラ2を所定の距離移動した位置をカメラ2の配置位置として決定する。   In the process of step S102, when there is no image captured without a lack of background (step S102-NO), the arrangement determination unit 34e inputs the input image and variable information, the arrangement information of the camera 2, and the observer 5's information. Based on the position information, the object arrangement information, and the camera parameter information, the arrangement position of the camera 2 is determined (step S501). Specifically, the arrangement determining unit 34e determines a position where the background is not blurred and a position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 as the arrangement position of the camera 2.

具体的には、まず、配置決定部34eは、カメラ2から取得したカメラパラメータ情報と、カメラ2の配置情報と、実空間における物体の配置情報とを用いて、上記式1及び2に基づいてカメラ2の前方被写界深度及び後方被写界深度を算出する。次に、配置決定部34eは、算出した前方被写界深度(d2i)及び後方被写界深度(d1i)と、カメラ2の配置情報及び物体の配置情報から得られるカメラ2から物体6までの距離Dと、カメラ2から背景までの距離Lとを用いて、上記式3の条件を満たすカメラ2の配置位置の候補を複数決定する。次に、配置決定部34eは、カメラ2の配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とを比較して、配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とが一致する位置をカメラ2の配置位置として決定する。なお、カメラ2の現在位置からカメラ2を所定の距離移動した位置と一致する位置が複数ある場合、配置決定部34eは観察者5の位置に最も近く、かつ、配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とが一致する位置をカメラ2の配置位置として決定する。   Specifically, first, the arrangement determination unit 34e uses the camera parameter information acquired from the camera 2, the arrangement information of the camera 2, and the arrangement information of the object in the real space, based on the above formulas 1 and 2. The front depth of field and the rear depth of field of the camera 2 are calculated. Next, the arrangement determining unit 34e determines whether the camera 2 to the object 6 are obtained from the calculated front depth of field (d2i) and rear depth of field (d1i), the arrangement information of the camera 2, and the arrangement information of the object. Using the distance D and the distance L from the camera 2 to the background, a plurality of placement position candidates for the camera 2 that satisfy the above-described expression 3 are determined. Next, the arrangement determining unit 34e compares the position of the candidate for the arrangement position of the camera 2 with the position obtained by moving the camera 2 from the current position of the camera 2 by a predetermined distance. The position where the camera 2 is moved by a predetermined distance from the current position 2 is determined as the arrangement position of the camera 2. If there are a plurality of positions that coincide with the position where the camera 2 is moved by a predetermined distance from the current position of the camera 2, the arrangement determining unit 34 e is closest to the position of the observer 5 and the position of the arrangement position candidate, The position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 is determined as the position where the camera 2 is arranged.

ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。すなわち、配置決定部34eは、背景の領域に近づける方向にカメラ2を所定の距離移動した位置であって、上記式3を満たす背景がぼけない位置をカメラ2の移動先の配置位置として決定する。その後、配置決定部34eは、決定配置位置情報を移動部35に出力する。その後、画像処理装置3eは、ステップS104以降の処理を実行する。   Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). That is, the arrangement determining unit 34e determines a position where the camera 2 is moved by a predetermined distance in a direction approaching the background area and the background satisfying the above expression 3 is not blurred as the arrangement position of the movement destination of the camera 2. . Thereafter, the arrangement determining unit 34 e outputs the determined arrangement position information to the moving unit 35. Thereafter, the image processing device 3e executes the processing after step S104.

一方、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、配置決定部34eは背景がぼけない位置にカメラ2が設置されているか否かを判定する(ステップS502)。背景がぼけない位置にカメラ2が設置されているか否かの判定は、上記式3に基づいて行われる。具体的には、まず、配置決定部34eは、カメラ2から取得したカメラパラメータ情報と、カメラ2の配置情報と、実空間における物体の配置情報とを用いて、上記式1及び2に基づいてカメラ2の前方被写界深度及び後方被写界深度を算出する。次に、配置決定部34eは、算出した前方被写界深度(d2i)及び後方被写界深度(d1i)と、カメラ2の配置情報及び物体の配置情報から得られるカメラ2から物体6までの距離Dと、カメラ2から背景までの距離Lとを用いて、上記式3の条件を満たすか否かを判定する。そして、配置決定部34eは、カメラ2の配置位置が、上記式3の条件を満たす場合、背景がぼけない位置にカメラ2が設置されていると判定する。一方、配置決定部34eは、カメラ2の配置位置が、上記式3の条件を満たさない場合、背景がぼけない位置にカメラ2が設置されていないと判定する。   On the other hand, when there is an image that is imaged without a missing background (YES in step S102), the arrangement determining unit 34e determines whether the camera 2 is installed at a position where the background is not blurred (step S502). The determination as to whether or not the camera 2 is installed at a position where the background is not blurred is performed based on Equation 3 above. Specifically, first, the arrangement determination unit 34e uses the camera parameter information acquired from the camera 2, the arrangement information of the camera 2, and the arrangement information of the object in the real space, based on the above formulas 1 and 2. The front depth of field and the rear depth of field of the camera 2 are calculated. Next, the arrangement determining unit 34e determines whether the camera 2 to the object 6 are obtained from the calculated front depth of field (d2i) and rear depth of field (d1i), the arrangement information of the camera 2, and the arrangement information of the object. Using the distance D and the distance L from the camera 2 to the background, it is determined whether or not the condition of Equation 3 is satisfied. And the arrangement | positioning determination part 34e determines with the camera 2 being installed in the position where a background is not blurred, when the arrangement position of the camera 2 satisfy | fills the conditions of said Formula 3. FIG. On the other hand, the arrangement determination unit 34e determines that the camera 2 is not installed at a position where the background is not blurred when the arrangement position of the camera 2 does not satisfy the condition of the above expression 3.

背景がぼけない位置にカメラ2が設置されている場合(ステップS502−YES)、画像処理装置3eはステップS107の処理を実行する。
一方、背景がぼけない位置にカメラ2が設置されていない場合(ステップS502−NO)、配置決定部34eはカメラ2の配置位置を決定する(ステップS503)。具体的には、配置決定部34eは、カメラ2の現在位置からカメラ2を所定の距離移動した位置、かつ、上記式3を満たす背景がぼけない位置をカメラ2の配置位置として決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。配置決定部34eは、決定配置位置情報を移動部35に出力する。
When the camera 2 is installed at a position where the background is not blurred (step S502—YES), the image processing device 3e executes the process of step S107.
On the other hand, when the camera 2 is not installed at a position where the background is not blurred (step S502-NO), the arrangement determining unit 34e determines the arrangement position of the camera 2 (step S503). Specifically, the arrangement determining unit 34e determines, as the arrangement position of the camera 2, a position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 and a position that does not blur the background satisfying the above Expression 3. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). The arrangement determining unit 34 e outputs the determined arrangement position information to the moving unit 35.

移動部35は、配置決定部34eから出力された決定配置位置情報に基づいて、カメラ2を、決定配置位置情報で示される位置に移動させる(ステップS504)。画像取得部30は、移動後のカメラ2によって撮像された画像を取得する(ステップS505)。例えば、画像取得部30は、移動部35からカメラ2の移動が完了した旨の通知を受けた後に、カメラ2によって撮像された画像を移動後のカメラ2によって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33に記録する。その後、画像処理装置3eはステップS102以降の処理を実行する。   The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the determined arrangement position information output from the arrangement determining unit 34e (step S504). The image acquisition unit 30 acquires an image captured by the camera 2 after movement (step S505). For example, the image acquisition unit 30 may acquire an image captured by the camera 2 as an image captured by the camera 2 after movement after receiving a notification that the movement of the camera 2 is completed from the movement unit 35. Good. The image acquisition unit 30 records the acquired image in the storage unit 33. Thereafter, the image processing device 3e executes the processing after step S102.

画像取得部30が動画像を取得する場合について、図20に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34eは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 20 will be described. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2 and acquires each frame image from the acquired moving image. In step S <b> 102, the arrangement determining unit 34 e determines whether there is an image that has been captured without any background missing based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS105において、画像取得部30は、移動後のカメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS106において、配置決定部34eは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動後のカメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS106において、背景が欠けずに撮像されている画像がない場合、画像処理装置3eはステップS501以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S105, the image acquisition unit 30 acquires a moving image from the camera 2 after movement, and each frame image from the acquired moving image. To get. In step S <b> 106, the arrangement determining unit 34 e determines whether there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2 after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S106, when there is no image captured without a missing background, the image processing device 3e executes the processing after step S501.

以上のように、第5の実施形態の画像処理装置3eは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第5の実施形態の決定装置は、配置決定部34eを備える。配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3eは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3e of the fifth embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus of the fifth embodiment includes an arrangement determining unit 34e. The arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3e can acquire a background image that is blocked by a specific object and cannot be seen by the user.

<変形例>
第5の実施形態の画像処理装置3eは、第1の実施形態の画像処理装置3aと同様に変形されてもよい。
<Modification>
The image processing device 3e according to the fifth embodiment may be modified in the same manner as the image processing device 3a according to the first embodiment.

(第6の実施形態)
第2の実施形態では、画像処理システムに備えられる複数台のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できる位置に移動させる構成を示した。しかしながら、第2の実施形態において、カメラを背景が全て撮像できる位置に移動させたとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第6の実施形態では、複数台のカメラから選択されたカメラの配置位置を、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する点で第2の実施形態と相違する。第6の実施形態では、第2の実施形態との相違点についてのみ説明する。
(Sixth embodiment)
In the second embodiment, a configuration is shown in which one camera is selected from a plurality of cameras provided in the image processing system, and the selected camera is moved to a position where the entire background can be imaged. However, in the second embodiment, even if the camera is moved to a position where the entire background can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred (focus on the background). The quality of the entire image displayed on the display device 4 deteriorates. Therefore, the sixth embodiment is different from the second embodiment in that the camera arrangement position selected from a plurality of cameras is determined to be a position where all the backgrounds can be captured and the background is not blurred. Is different. In the sixth embodiment, only differences from the second embodiment will be described.

図21は、第6の実施形態における画像処理システム1fの構成の例を示す図である。画像処理システム1fは、カメラ2−1〜2−Nと、画像処理装置3fと、表示装置4とを備える。画像処理装置3eは、カメラ2を選択する方法及びカメラ2の配置位置を決定する方法が画像処理装置3bと異なる。具体的には、画像処理装置3fは、複数台のカメラ2−1〜2−Nの中から評価値の高いカメラ2−nを選択し、選択したカメラ2−nの配置位置を、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する。   FIG. 21 is a diagram illustrating an example of a configuration of an image processing system 1f according to the sixth embodiment. The image processing system 1f includes cameras 2-1 to 2-N, an image processing device 3f, and a display device 4. The image processing device 3e differs from the image processing device 3b in the method of selecting the camera 2 and the method of determining the arrangement position of the camera 2. Specifically, the image processing device 3f selects the camera 2-n having a high evaluation value from the plurality of cameras 2-1 to 2-N, and determines the arrangement position of the selected camera 2-n based on the background. The position is determined so that all the images can be captured and the background is not blurred.

画像処理装置3fは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31f、変数決定部32、記憶部33、配置決定部34f、移動部35、切出部36、出力部37、選択部38fを備える装置として機能する。なお、画像処理装置3fの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3f includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c causes the image acquisition unit 30, the operation unit 31f, the variable determination unit 32, the storage unit 33, the arrangement determination unit 34f, the movement unit 35, the cutout unit 36, the output unit 37, and the selection. It functions as a device including the unit 38f. Note that all or part of the functions of the image processing device 3f may be realized by using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3fは、操作部31、配置決定部34b及び選択部38に代えて操作部31f、配置決定部34f及び選択部38fを備える点で画像処理装置3bと構成が異なる。画像処理装置3fは、他の構成については画像処理装置3bと同様である。そのため、画像処理装置3f全体の説明は省略し、操作部31f、配置決定部34f及び選択部38fについて説明する。   The image processing device 3f is different in configuration from the image processing device 3b in that an operation unit 31f, an arrangement determination unit 34f, and a selection unit 38f are provided instead of the operation unit 31, the arrangement determination unit 34b, and the selection unit 38. The image processing device 3f is the same as the image processing device 3b in other configurations. Therefore, description of the entire image processing apparatus 3f is omitted, and the operation unit 31f, the arrangement determination unit 34f, and the selection unit 38f will be described.

操作部31fは、操作部31と同様の処理を行う。また、操作部31fは、優先情報を取得する。優先情報は、カメラ選択に用いるパラメータ(以下「選択パラメータ」という。)の重み付けの係数に関する情報である。カメラ選択に用いるパラメータは、画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量である。カメラから物体までの距離をL、カメラの焦点距離をf、画像上の物体の大きさをyとすると、画像上の物体の大きさyは以下の式4で表される。   The operation unit 31 f performs the same processing as the operation unit 31. The operation unit 31f acquires priority information. The priority information is information relating to a weighting coefficient of a parameter used for camera selection (hereinafter referred to as “selection parameter”). The parameters used for camera selection are the distortion (camera angle) of the object on the image, the size of the object on the image, and the amount of blur. When the distance from the camera to the object is L, the focal length of the camera is f, and the size of the object on the image is y, the size y of the object on the image is expressed by the following Expression 4.

Figure 2018129787
Figure 2018129787

また、操作部31fは、予め設定されている優先情報を取得してもよいし、入力装置を介して入力されることによって優先情報を取得してもよい。操作部31fは、取得した優先情報を選択部38fに出力する。   In addition, the operation unit 31f may acquire preset priority information, or may acquire priority information by inputting via an input device. The operation unit 31f outputs the acquired priority information to the selection unit 38f.

配置決定部34fは、カメラ2−nの配置位置を決定する決定装置として機能する。配置決定部34fは、選択部38fが選択したカメラ2−nの識別情報と、記憶部33に記憶されているカメラ2−1〜2−Nのそれぞれによって撮像された画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報と、カメラパラメータ情報とを入力する。配置決定部34fは、入力した画像及び変数情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2−nの配置位置を決定する。具体的には、配置決定部34fは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2−nの配置位置に決定する。   The arrangement determining unit 34f functions as a determining apparatus that determines the arrangement position of the camera 2-n. The arrangement determination unit 34f includes identification information of the camera 2-n selected by the selection unit 38f, images and variable information captured by the cameras 2-1 to 2-N stored in the storage unit 33, and operations. The position information of the observer 5 input via the unit 31, the object arrangement information in the real space, the arrangement information of the cameras 2-1 to 2-N in the real space, and the camera parameter information are input. . The arrangement determining unit 34f is based on the input image and variable information, the arrangement information of each of the cameras 2-1 to 2-N, the position information of the observer 5, the arrangement information of the object, and the camera parameter information. The arrangement position of the camera 2-n is determined. Specifically, the arrangement determining unit 34f determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2-n.

また、配置決定部34fは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、背景を欠けずに撮像しているカメラ2がある旨の通知を選択部38fに出力する。この場合、配置決定部34fは、通知とともに、背景を欠けずに撮像しているカメラ2の識別情報を選択部38fに出力する。一方、背景が欠けずに撮像されている画像がない場合、背景を欠けずに撮像しているカメラ2がない旨の通知を選択部38fに出力する。   In addition, the arrangement determining unit 34f determines whether there is an image that has been captured without missing the background among the plurality of input images. When there is an image that is captured without a background missing, a notification that there is a camera 2 that is imaged without a background missing is output to the selection unit 38f. In this case, the arrangement determination unit 34f outputs, together with the notification, identification information of the camera 2 that is imaging without missing the background to the selection unit 38f. On the other hand, when there is no image captured without missing the background, a notification that there is no camera 2 that is imaged without missing the background is output to the selection unit 38f.

また、配置決定部34fは、選択部38fによって選択されたカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する。配置決定部34fは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。   In addition, the arrangement determination unit 34f determines a position moved by a predetermined distance from the current position of the camera 2-n selected by the selection unit 38f as the arrangement position of the selected camera 2-n. The arrangement determining unit 34f outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.

選択部38fは、選択されるカメラ2−nを決定する決定装置として機能する。選択部38fは、配置決定部34fから出力された通知と、記憶部33に記憶されている画像及び変数情報と、操作部31fを介して入力されたカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、優先情報と、カメラパラメータ情報を入力する。選択部38fは、カメラパラメータ情報を各カメラ2から取得する。選択部38fは、入力した画像と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2−nを複数のカメラ2−1〜2−Nの中から選択する。選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。   The selection unit 38f functions as a determination device that determines the camera 2-n to be selected. The selection unit 38f receives the notification output from the arrangement determination unit 34f, the image and variable information stored in the storage unit 33, and the cameras 2-1 to 2-N input via the operation unit 31f. Arrangement information, position information of the observer 5, object arrangement information in real space, priority information, and camera parameter information are input. The selection unit 38f acquires camera parameter information from each camera 2. The selection unit 38f picks up an image without missing a background based on the input image, the arrangement information of each of the cameras 2-1 to 2-N, the position information of the observer 5, and the arrangement information of the object. A camera 2-n is selected from a plurality of cameras 2-1 to 2-N. The selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f.

図22は、第6の実施形態における画像処理装置3fの処理の流れを示すフローチャートである。図12と同様の処理については、図22において図12と同様の符号を付して説明を省略する。なお、図22の説明では、既に変数決定部32による処理は行われているものとする。また、図22では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。   FIG. 22 is a flowchart illustrating a processing flow of the image processing device 3f according to the sixth embodiment. The processes similar to those in FIG. 12 are denoted by the same reference numerals as those in FIG. In the description of FIG. 22, it is assumed that the process by the variable determination unit 32 has already been performed. In addition, FIG. 22 illustrates processing when still images are acquired from the plurality of cameras 2-1 to 2-N.

ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、選択部38fは配置決定部34fから出力された識別情報で識別されるカメラ2−1〜2−Nの中に背景がぼけない位置に設置されているカメラ2があるか否かを判定する(ステップS601)。背景がぼけない位置に設置されているカメラ2がある場合(ステップS601−YES)、選択部38fは配置決定部34fから出力された識別情報で識別されるカメラ2の中から背景を欠けずに撮像しているカメラ2−nであって、かつ、背景がぼけない位置に設置されているカメラ2−nを選択する(ステップS602)。   In the process of step S202, if there is an image that has been captured without any background missing (step S202—YES), the selection unit 38f is identified by the identification information output from the placement determination unit 34f. It is determined whether or not there is a camera 2 installed at a position where the background is not blurred in -N (step S601). When there is a camera 2 installed at a position where the background is not blurred (step S601-YES), the selection unit 38f does not lose the background from the cameras 2 identified by the identification information output from the arrangement determination unit 34f. A camera 2-n that is imaged and is installed at a position where the background is not blurred is selected (step S602).

具体的には、選択部38fは、背景がぼけない位置に設置されているカメラ2が一台ある場合、背景がぼけない位置に設置されているカメラ2−nを選択する。また、選択部38fは、背景がぼけない位置に設置されているカメラ2が複数台ある場合、背景がぼけない位置に設置されているカメラ2それぞれに対してカメラ評価値を算出する。ここでカメラ評価値とは、各カメラ2の評価に用いる値であり、例えば選択パラメータにおける各パラメータ(画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量)の評価値に重み付けした値の合計値で表される。   Specifically, when there is one camera 2 installed at a position where the background is not blurred, the selection unit 38f selects the camera 2-n installed at a position where the background is not blurred. In addition, when there are a plurality of cameras 2 installed at positions where the background is not blurred, the selection unit 38f calculates a camera evaluation value for each of the cameras 2 installed at positions where the background is not blurred. Here, the camera evaluation value is a value used for evaluation of each camera 2, for example, each parameter (distortion of the object on the image (camera angle), the size of the object on the image, and the amount of blur) in the selection parameter. It is represented by the total value of the values weighted on the evaluation value.

まず、選択部38fは、操作部31fを介して入力された優先情報から各パラメータの重み付けの係数を取得する。例えば、優先情報として、予め各パラメータの重み付けの係数が決定されていてもよい。次に、選択部38fは、カメラ2毎に各パラメータの評価を行う。例えば、選択部38fは、画像上の物体の歪みの評価として、カメラ角度が小さいカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fはカメラ角度が小さいカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。   First, the selection unit 38f acquires a weighting coefficient for each parameter from the priority information input via the operation unit 31f. For example, a weighting coefficient for each parameter may be determined in advance as priority information. Next, the selection unit 38 f evaluates each parameter for each camera 2. For example, the selection unit 38f assigns a higher value to each camera 2 in order from the camera 2 with the smallest camera angle as an evaluation of the distortion of the object on the image. As a specific example, when there are five cameras 2, the selection unit 38 f sets values “5”, “4”, “3”, “2”, “1” in order from the camera 2 with the smallest camera angle. Attach to camera 2.

また、例えば、選択部38fは、画像上の物体の大きさの評価として、観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fは観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2とは、すなわち画角が近いカメラ2である。   Further, for example, the selection unit 38f evaluates the size of the object on the image by determining the size of the background region in the region viewed by the observer 5 and the background region on the image captured by each camera 2. A high value is assigned to each camera 2 in order from the camera 2 having the closest size. As a specific example, when there are five cameras 2, the selection unit 38 f determines the size of the background region in the region viewed by the observer 5 and the size of the background region on the image captured by each camera 2. The values “5”, “4”, “3”, “2”, and “1” are assigned to each camera 2 in order from the camera 2 that is close to the camera. The camera 2 in which the size of the background region in the region viewed by the observer 5 and the size of the background region on the image captured by each camera 2 are close, that is, the camera 2 having a close angle of view.

また、例えば、選択部38fは、ボケ量の評価として、被写界深度の長さが長いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fは被写界深度の長さが長いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。   For example, the selection unit 38f assigns a higher value to each camera 2 in order from the camera 2 with the longer depth of field as the evaluation of the blur amount. As a specific example, when there are five cameras 2, the selection unit 38 f selects “5”, “4”, “3”, “2”, “1” in order from the camera 2 with the long depth of field. The value “” is assigned to each camera 2.

カメラ評価値の算出方法について一具体例を挙げて説明する。
(重み付けの係数)
・画像上の物体の歪み :0.5
・画像上の物体の大きさ:0.3
・ボケ量 :0.2
A method for calculating the camera evaluation value will be described with a specific example.
(Weighting factor)
-Distortion of the object on the image: 0.5
-The size of the object on the image: 0.3
・ Bokeh amount: 0.2

(各パラメータの評価)
・画像上の物体の歪み :5台中2番目 評価“4”
・画像上の物体の大きさ:5台中1番目 評価“5”
・ボケ量 :5台中3番目 評価“3”
(Evaluation of each parameter)
・ Distortion of the object on the image: 2nd out of 5 units "4"
-The size of the object on the image: 1st out of 5 units "5"
・ Bokeh amount: 3rd out of 5 units "3"

上記(重み付けの係数)及び(各パラメータの評価)とすると、選択部38fは以下のようにあるカメラ2−nのカメラ評価値を算出する。
0.5×4+0.3×3+3×0.2=3.5
Assuming the above (weighting coefficient) and (evaluation of each parameter), the selection unit 38f calculates the camera evaluation value of the camera 2-n as follows.
0.5 × 4 + 0.3 × 3 + 3 × 0.2 = 3.5

選択部38fは、配置決定部34fから出力された識別情報で識別されるカメラ2全てにおいてカメラ評価値を算出する。その後、選択部38fは、背景を欠けずに撮像しているカメラ2であって、背景がぼけない位置に設置されているカメラ2のうち、カメラ評価値が所定の閾値以上のカメラ2−nを選択する。カメラ評価値が所定の閾値以上のカメラ2−nが複数台ある場合、選択部38fはカメラ評価値が最も高いカメラ2−nを選択してもよい。選択部38fは、選択したカメラ2−nの識別情報を切出部36に出力する。その後、画像処理装置3fはステップS208の処理を実行する。   The selection unit 38f calculates camera evaluation values in all the cameras 2 identified by the identification information output from the arrangement determination unit 34f. Thereafter, the selection unit 38f is a camera 2-n that captures an image without losing the background, and is a camera 2-n having a camera evaluation value equal to or greater than a predetermined threshold among the cameras 2 installed at a position where the background is not blurred. Select. When there are a plurality of cameras 2-n having camera evaluation values equal to or greater than a predetermined threshold, the selection unit 38f may select the camera 2-n having the highest camera evaluation value. The selection unit 38f outputs the identification information of the selected camera 2-n to the cutout unit 36. Thereafter, the image processing device 3f executes the process of step S208.

また、ステップS202の処理において背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、又は、背景がぼけない位置に設置されているカメラ2がない場合(ステップS601−NO)、選択部38fは複数のカメラ2−1〜2−Nの中からカメラ2−nを選択する(ステップS603)。具体的には、以下の通りである。   Further, in the process of step S202, when there is no image captured without a missing background (step S202-NO), or when there is no camera 2 installed at a position where the background is not blurred (step S601-NO). The selection unit 38f selects the camera 2-n from the plurality of cameras 2-1 to 2-N (step S603). Specifically, it is as follows.

(背景が欠けずに撮像されている画像がない場合)
選択部38fは、カメラ2に対する変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが一台ある場合、選択部38fは所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが複数ある場合、選択部38fは距離差が所定の値以下であるカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。また、選択部38fは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
(When there is no image captured without a missing background)
Based on the variable information for the camera 2, the selection unit 38 f selects the camera 2-n whose camera angle is equal to or smaller than a predetermined angle. When there is one camera 2-n having a predetermined angle or less, the selection unit 38f selects the camera 2-n having a predetermined angle or less. When there are a plurality of cameras 2-n having a predetermined angle or less, the selection unit 38f selects a camera 2-n having a distance difference of a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f. The selection unit 38f also includes the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than a predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. n may be selected.

(背景が欠けずに撮像されている画像があって、かつ、背景がぼけない位置に設置されているカメラ2がない場合)
選択部38fは、記憶部33に記憶されている変数情報のうち、配置決定部34fから出力された識別情報で識別されるカメラ2に対する変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが一台ある場合、選択部38fは所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが複数ある場合、選択部38fは距離差が所定の値以下であるカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。また、選択部38fは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。
(When there is an image captured with no background missing and there is no camera 2 installed at a position where the background is not blurred)
The selection unit 38f is a camera whose camera angle is equal to or smaller than a predetermined angle based on the variable information for the camera 2 identified by the identification information output from the arrangement determination unit 34f among the variable information stored in the storage unit 33. Select 2-n. When there is one camera 2-n having a predetermined angle or less, the selection unit 38f selects the camera 2-n having a predetermined angle or less. When there are a plurality of cameras 2-n having a predetermined angle or less, the selection unit 38f selects a camera 2-n having a distance difference of a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f. The selection unit 38f also includes the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than a predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. n may be selected. The selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f.

配置決定部34fは、選択部38fから出力された識別情報で識別されるカメラ2−nの配置位置を決定する(ステップS604)。具体的には、配置決定部34fは、上記式3を満たす背景がぼけない位置、かつ、選択部38fから出力された識別情報で識別されるカメラ2−nの現在位置からカメラ2−nを所定の距離移動した位置をカメラ2−nの配置位置として決定する。より具体的には、配置決定部34fは、配置決定部34eが行う処理と同様に、上記式1〜式3に基づいてカメラ2−nの配置位置を決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。その後、配置決定部34fは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。その後、画像処理装置3fは、ステップS205以降の処理を実行する。   The placement determination unit 34f determines the placement position of the camera 2-n identified by the identification information output from the selection unit 38f (step S604). Specifically, the arrangement determining unit 34f selects the camera 2-n from the current position of the camera 2-n identified by the position where the background satisfying Equation 3 is not blurred and the identification information output from the selection unit 38f. A position moved by a predetermined distance is determined as an arrangement position of the camera 2-n. More specifically, the arrangement determining unit 34f determines the arrangement position of the camera 2-n based on the above Equations 1 to 3, similarly to the processing performed by the arrangement determining unit 34e. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). Thereafter, the arrangement determining unit 34f outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35. Thereafter, the image processing device 3f executes the processes in and after step S205.

画像取得部30が動画像を取得する場合について、図22に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34fは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   Differences from the processing shown in FIG. 22 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2-1 to 2-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34f determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS206において、画像取得部30は、移動後の複数のカメラ2−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS207において、配置決定部34fは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動後のカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS207において、背景が欠けずに撮像されている画像がない場合、画像処理装置3fはステップS603以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S206, the image acquisition unit 30 acquires a moving image from the plurality of cameras 2-n after movement, and acquires the acquired moving image. Each frame image is acquired from. In step S207, the arrangement determining unit 34f determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2-n after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S207, if there is no image captured without a missing background, the image processing device 3f executes the processing from step S603 onward.

以上のように、第6の実施形態の画像処理装置3fは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第6の実施形態の決定装置は、配置決定部34fと、選択部38fとを備える。選択部38fは、複数のカメラ2−1〜2−Nのうちカメラ評価値に基づいてカメラ2−nを選択する。配置決定部34fは、選択されたカメラ2−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能な位置であって、背景がぼけない位置をカメラ2−nの移動先であるカメラ2−nの配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3fは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3f of the sixth embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination device according to the sixth embodiment includes an arrangement determination unit 34f and a selection unit 38f. The selection unit 38f selects the camera 2-n based on the camera evaluation value among the plurality of cameras 2-1 to 2-N. The arrangement determining unit 34f can capture an image of the selected camera 2-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The position where the background is not blurred is determined as the arrangement position of the camera 2-n to which the camera 2-n is moved. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3f can acquire a background image that is blocked by a specific object and cannot be seen by the user.

<変形例>
第6の実施形態の画像処理装置3fは、第2の実施形態の画像処理装置3bと同様に変形されてもよい。
本実施形態では、配置決定部34fが、選択部38fがカメラ評価値に基づいて選択したカメラ2−nの配置位置を決定する構成を示したが、これに限定される必要はない。例えば、配置決定部34fは、第2の実施形態における選択部38が選択したカメラ2−nの配置位置を決定するように構成されてもよい。このように構成される場合、画像処理装置3fは、選択部38fに代えて選択部38を備える。
<Modification>
The image processing device 3f according to the sixth embodiment may be modified in the same manner as the image processing device 3b according to the second embodiment.
In the present embodiment, the arrangement determining unit 34f is configured to determine the arrangement position of the camera 2-n selected by the selection unit 38f based on the camera evaluation value. However, the present invention is not limited to this. For example, the arrangement determination unit 34f may be configured to determine the arrangement position of the camera 2-n selected by the selection unit 38 in the second embodiment. When configured in this manner, the image processing device 3f includes a selection unit 38 instead of the selection unit 38f.

(第7の実施形態)
第3の実施形態では、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。しかしながら、第3の実施形態において、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御したとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化しまう。そこで、第7の実施形態では、背景が全て撮像できる位置及び向き、かつ、背景がぼけない位置をカメラの配置位置及び向きに決定する点で第3の実施形態と相違する。第7の実施形態では、第3の実施形態との相違点についてのみ説明する。
(Seventh embodiment)
In the third embodiment, a configuration for controlling the position and orientation of the camera movement destination so that the entire background can be imaged and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. showed that. However, in the third embodiment, the position and orientation of the camera destination are controlled so that the entire background can be imaged and the influence when converting to an image viewed from the observer's line of sight is reduced. Even if the background image that is blocked by a specific object and cannot be seen by the user is blurred (the background is not in focus), the quality of the entire image displayed on the display device 4 Will deteriorate. Therefore, the seventh embodiment is different from the third embodiment in that the position and orientation in which the entire background can be imaged and the position where the background is not blurred are determined as the arrangement position and orientation of the camera. In the seventh embodiment, only differences from the third embodiment will be described.

図23は、第7の実施形態における画像処理システム1gの構成の例を示す図である。画像処理システム1gは、カメラ2cと、画像処理装置3gと、表示装置4とを備える。画像処理装置3gは、カメラ2cの配置位置及び向きを決定する方法が画像処理装置3cと異なる。具体的には、画像処理装置3cは、背景が全て撮像できる位置及び向きであり、かつ、背景がぼけない位置をカメラ2cの配置位置及び向きに決定する。   FIG. 23 is a diagram illustrating an example of a configuration of an image processing system 1g according to the seventh embodiment. The image processing system 1g includes a camera 2c, an image processing device 3g, and a display device 4. The image processing device 3g differs from the image processing device 3c in the method of determining the arrangement position and orientation of the camera 2c. Specifically, the image processing device 3c determines the position and orientation in which the entire background can be imaged and the position where the background is not blurred as the arrangement position and orientation of the camera 2c.

画像処理装置3gは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34g、切出部36、出力部37、配置部39を備える装置として機能する。なお、画像処理装置3gの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3g includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34g, a cutout unit 36, an output unit 37, and an arrangement unit 39. Functions as a device. Note that all or some of the functions of the image processing apparatus 3g may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3gは、配置決定部34に代えて配置決定部34gを備える点で画像処理装置3cと構成が異なる。画像処理装置3gは、他の構成については画像処理装置3cと同様である。そのため、画像処理装置3g全体の説明は省略し、配置決定部34gについて説明する。   The image processing device 3g is different from the image processing device 3c in that it includes a placement determination unit 34g instead of the placement determination unit 34. The image processing device 3g is the same as the image processing device 3c in other configurations. Therefore, the description of the entire image processing device 3g is omitted, and the arrangement determining unit 34g will be described.

配置決定部34gは、カメラ2cの配置位置及び向きを決定する決定装置として機能する。配置決定部34gは、記憶部33cに記憶されている画像、変数情報及び回転情報テーブルと、操作部31を介して入力された実空間におけるカメラ2cの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、カメラパラメータ情報とを入力する。配置決定部34gは、入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2cの配置位置及び向きを決定する。具体的には、配置決定部34gは、背景が全て撮像できる位置及び向きであり、かつ、背景がぼけない位置をカメラ2の配置位置及び向きに決定する。   The arrangement determining unit 34g functions as a determining device that determines the arrangement position and orientation of the camera 2c. The arrangement determining unit 34g includes an image, variable information and rotation information table stored in the storage unit 33c, arrangement information of the camera 2c in the real space input via the operation unit 31, and position information of the observer 5. The arrangement information of the object in the real space and the camera parameter information are input. Based on the input image, variable information and rotation information table, the placement information of the camera 2c, the position information of the observer 5, the placement information of the object, and the camera parameter information, the placement determination unit 34g Determine the placement position and orientation. Specifically, the arrangement determining unit 34g determines the position and orientation in which the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2.

図24は、第7の実施形態における画像処理装置3gの処理の流れを示すフローチャートである。図15と同様の処理については、図24において図15と同様の符号を付して説明を省略する。なお、図24の説明では、既に変数決定部32による処理は行われているものとする。また、図24では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。   FIG. 24 is a flowchart showing the flow of processing of the image processing apparatus 3g in the seventh embodiment. The processing similar to that in FIG. 15 is denoted by the same reference numerals as those in FIG. In the description of FIG. 24, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 24 will describe processing when still images are acquired from a plurality of cameras 2c-1 to 2c-N.

ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34gは入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2cの配置位置及び向きを決定する(ステップS701)。具体的には、配置決定部34gは、背景がぼけない位置、かつ、カメラ2cの現在位置からカメラ2cを所定の距離移動した位置をカメラ2cの配置位置として決定する。例えば、配置決定部34gは、配置決定部34eが行う処理と同様に、上記式1〜式3に基づいてカメラ2cの配置位置を決定する。ここで、カメラ2cを所定の距離移動した位置とは、カメラ2cの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2cを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。   In the process of step S102, when there is no image captured without a missing background (step S102-NO), the arrangement determination unit 34g inputs the input image, variable information and rotation information table, arrangement information of the camera 2c, Based on the position information of the observer 5, the object arrangement information, and the camera parameter information, the arrangement position and orientation of the camera 2c are determined (step S701). Specifically, the arrangement determining unit 34g determines the position where the background is not blurred and the position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c as the arrangement position of the camera 2c. For example, the arrangement determining unit 34g determines the arrangement position of the camera 2c based on the above formulas 1 to 3, similarly to the processing performed by the arrangement determining unit 34e. Here, the position where the camera 2c is moved by a predetermined distance refers to the area where the camera 2c is imaged on the same plane as the background from the arrangement information of the camera 2c, and the camera 2c is determined in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background).

また、配置決定部34gは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34gは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34gは、カメラ移動先配置情報を配置部39に出力する。その後、画像処理装置3gは、ステップS302以降の処理を実行する。   Further, the arrangement determining unit 34g refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34g determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determining unit 34g outputs the camera movement destination arrangement information to the arrangement unit 39. Thereafter, the image processing device 3g executes the processing after step S302.

一方、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、配置決定部34gは背景がぼけない位置にカメラ2cが設置されているか否かを判定する(ステップS702)。配置決定部34gは、配置決定部34eが行う処理と同様に、上記式3に基づいて背景がぼけない位置にカメラ2cが設置されているか否かを判定する。
背景がぼけない位置にカメラ2cが設置されている場合(ステップS702−YES)、画像処理装置3gはステップS107の処理を実行する。
On the other hand, if there is an image that has been imaged with no background missing (step S102—YES), the arrangement determining unit 34g determines whether the camera 2c is installed at a position where the background is not blurred (step S702). The placement determination unit 34g determines whether or not the camera 2c is installed at a position where the background is not blurred based on Equation 3 above, similarly to the processing performed by the placement determination unit 34e.
When the camera 2c is installed at a position where the background is not blurred (step S702-YES), the image processing device 3g executes the process of step S107.

一方、背景がぼけない位置にカメラ2cが設置されていない場合(ステップS702−NO)、配置決定部34gはカメラ2cの配置位置及び向きを決定する(ステップS703)。具体的には、配置決定部34gは、カメラ2cの現在位置からカメラ2cを所定の距離移動した位置、かつ、上記式3を満たす背景がぼけない位置をカメラ2cの配置位置として決定する。また、配置決定部34gは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34gは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34gは、カメラ移動先配置情報を配置部39に出力する。   On the other hand, when the camera 2c is not installed at a position where the background is not blurred (step S702-NO), the arrangement determining unit 34g determines the arrangement position and orientation of the camera 2c (step S703). Specifically, the arrangement determining unit 34g determines, as the arrangement position of the camera 2c, a position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c and a position where the background satisfying Equation 3 is not blurred. Further, the arrangement determining unit 34g refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34g determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determining unit 34g outputs the camera movement destination arrangement information to the arrangement unit 39.

配置部39は、配置決定部34fから出力されたカメラ移動先配置情報に含まれる配置位置の座標に基づいて、カメラ2cを、カメラ移動先位置に移動させる(ステップS704)。その後、配置部39は、カメラ移動先配置情報に含まれる回転角度に基づいて、カメラ2cを、回転角度で示される角度分回転させる(ステップS705)。画像取得部30は、移動及び回転後のカメラ2cによって撮像された画像を取得する(ステップS706)。例えば、画像取得部30は、配置部39からカメラ2cの移動及び回転が完了した旨の通知を受けた後に、カメラ2cによって撮像された画像を移動及び回転後のカメラ2cによって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33cに記録する。その後、画像処理装置30gはステップS102以降の処理を実行する。   The arrangement unit 39 moves the camera 2c to the camera movement destination position based on the coordinates of the arrangement position included in the camera movement destination arrangement information output from the arrangement determination unit 34f (step S704). Thereafter, the arrangement unit 39 rotates the camera 2c by an angle indicated by the rotation angle based on the rotation angle included in the camera movement destination arrangement information (step S705). The image acquisition unit 30 acquires an image captured by the camera 2c after movement and rotation (step S706). For example, the image acquisition unit 30 receives the notification that the movement and rotation of the camera 2c has been completed from the placement unit 39, and then converts the image captured by the camera 2c as an image captured by the camera 2c after movement and rotation. You may get it. The image acquisition unit 30 records the acquired image in the storage unit 33c. Thereafter, the image processing device 30g executes the processing after step S102.

画像取得部30が動画像を取得する場合について、図24に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34gは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 24 will be described. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2c, and acquires each frame image from the acquired moving image. In step S102, the arrangement determining unit 34g determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured with no background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS304において、画像取得部30は、移動及び回転後のカメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS305において、配置決定部34gは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動及び回転後のカメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS305において、背景が欠けずに撮像されている画像がない場合、画像処理装置3gはステップS701以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S304, the image acquisition unit 30 acquires a moving image from the camera 2c after movement and rotation, and each image is acquired from the acquired moving image. Get a frame image. In step S305, the arrangement determining unit 34g determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S305, when there is no image captured without a missing background, the image processing device 3g executes the processing from step S701 onward.

以上のように、第7の実施形態の画像処理装置3gは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第7の実施形態の決定装置は、配置決定部34gを備える。配置決定部34gは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2cの配置位置及び向きに決定する。これによって、決定された配置位置に配置され、決定された向きに配置された撮像装置によって撮像された画像を取得することによって、画像処理装置3gは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3g according to the seventh embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining device of the seventh embodiment includes an arrangement determining unit 34g. The arrangement determination unit 34g determines the position where the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2c. As a result, the image processing apparatus 3g is shielded by a specific object and can be viewed from the user by acquiring an image captured by the imaging apparatus arranged at the determined arrangement position and arranged in the determined orientation. It becomes possible to obtain a background image that cannot be obtained.

第7の実施形態の画像処理装置3gは、第3の実施形態の画像処理装置3cと同様に変形されてもよい。   The image processing device 3g according to the seventh embodiment may be modified in the same manner as the image processing device 3c according to the third embodiment.

(第8の実施形態)
第4の実施形態では、画像処理システムに備えられる複数台のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。しかしながら、第4の実施形態において、カメラを背景が全て撮像できるようにカメラの移動先の位置及び向きを制御したとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第8の実施形態では、複数台のカメラから選択されたカメラの配置位置及び向きを、背景が全て撮像できる位置であり、かつ、背景がぼけない位置及び向きに決定する点で第4の実施形態と相違する。第8の実施形態では、第4の実施形態との相違点についてのみ説明する。
(Eighth embodiment)
In the fourth embodiment, an image obtained by selecting one camera from a plurality of cameras provided in the image processing system and capturing the entire background of the selected camera as viewed from the observer's line of sight. A configuration is shown in which the position and orientation of the destination of the camera are controlled so that the influence of the conversion into the camera is reduced. However, in the fourth embodiment, even if the position and orientation of the destination of the camera are controlled so that the entire background of the camera can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred. If the image is displayed (the background is not in focus), the quality of the entire image displayed on the display device 4 deteriorates. Therefore, in the eighth embodiment, the fourth is that the arrangement position and orientation of a camera selected from a plurality of cameras are determined to be positions where the background can be captured and the background is not blurred. This is different from the embodiment. In the eighth embodiment, only differences from the fourth embodiment will be described.

図25は、第8の実施形態における画像処理システム1hの構成の例を示す図である。画像処理システム1hは、カメラ2c−1〜2c−Nと、画像処理装置3hと、表示装置4とを備える。画像処理装置3hは、カメラ2cを選択する方法及びカメラ2cの配置位置及び向きを決定する方法が画像処理装置3dと異なる。具体的には、画像処理装置3hは、複数台のカメラ2c−1〜2c−Nの中から評価値の高いカメラ2c−nを選択し、選択したカメラ2c−nの配置位置及び向きを、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する。   FIG. 25 is a diagram illustrating an example of a configuration of an image processing system 1h according to the eighth embodiment. The image processing system 1h includes cameras 2c-1 to 2c-N, an image processing device 3h, and a display device 4. The image processing device 3h differs from the image processing device 3d in the method of selecting the camera 2c and the method of determining the arrangement position and orientation of the camera 2c. Specifically, the image processing device 3h selects the camera 2c-n having a high evaluation value from the plurality of cameras 2c-1 to 2c-N, and determines the arrangement position and orientation of the selected camera 2c-n. The background is determined as a position where all the images can be captured and the background is not blurred.

画像処理装置3hは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3hは、画像取得部30、操作部31h、変数決定部32、記憶部33c、配置決定部34h、切出部36、出力部37、選択部38h、配置部39を備える装置として機能する。なお、画像処理装置3hの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。   The image processing device 3h includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3h has an image acquisition unit 30, an operation unit 31h, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34h, a cutout unit 36, an output unit 37, a selection unit 38h, an arrangement. It functions as a device including the unit 39. Note that all or part of the functions of the image processing device 3h may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.

画像処理装置3hは、操作部31、配置決定部34d及び選択部38dに代えて操作部31h、配置決定部34h及び選択部38hを備える点で画像処理装置3dと構成が異なる。画像処理装置3hは、他の構成については画像処理装置3dと同様である。そのため、画像処理装置3h全体の説明は省略し、操作部31h、配置決定部34h及び選択部38hについて説明する。   The image processing device 3h is different from the image processing device 3d in that an operation unit 31h, an arrangement determination unit 34h, and a selection unit 38h are provided instead of the operation unit 31, the arrangement determination unit 34d, and the selection unit 38d. The other configuration of the image processing device 3h is the same as that of the image processing device 3d. Therefore, description of the entire image processing device 3h is omitted, and the operation unit 31h, the arrangement determination unit 34h, and the selection unit 38h will be described.

操作部31hは、操作部31と同様の処理を行う。また、操作部31hは、優先情報を取得する。また、操作部31hは、予め設定されている優先情報を取得してもよいし、入力装置を介して入力されることによって優先情報を取得してもよい。操作部31hは、取得した優先情報を選択部38hに出力する。   The operation unit 31 h performs the same processing as the operation unit 31. The operation unit 31h acquires priority information. The operation unit 31h may acquire preset priority information, or may acquire priority information by being input via an input device. The operation unit 31h outputs the acquired priority information to the selection unit 38h.

配置決定部34hは、カメラ2c−nの配置位置を決定する決定装置として機能する。配置決定部34hは、選択部38hが選択したカメラ2c−nの識別情報と、記憶部33に記憶されているカメラ2c−1〜2c−Nのそれぞれによって撮像された画像、変数情報及び回転情報テーブルと、操作部31hを介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2c−1〜2c−Nのそれぞれの配置情報と、カメラパラメータ情報とを入力する。配置決定部34hは、入力した複数の画像、変数情報及び回転情報テーブルと、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2c−nの配置位置及び向きを決定する。具体的には、配置決定部34hは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2c−nの配置位置及び向きに決定する。   The arrangement determination unit 34h functions as a determination device that determines the arrangement position of the cameras 2c-n. The arrangement determination unit 34h includes the identification information of the camera 2c-n selected by the selection unit 38h, and the images, variable information, and rotation information captured by each of the cameras 2c-1 to 2c-N stored in the storage unit 33. Table, position information of the observer 5 input via the operation unit 31h, object arrangement information in real space, arrangement information of each of the cameras 2c-1 to 2c-N in real space, and camera parameter information Enter. The arrangement determination unit 34h includes a plurality of input images, variable information and rotation information tables, arrangement information of the cameras 2c-1 to 2c-N, position information of the observer 5, arrangement information of the object, and camera Based on the parameter information, the arrangement position and orientation of the camera 2c-n are determined. Specifically, the arrangement determining unit 34h determines the position where the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2c-n.

また、配置決定部34hは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、背景を欠けずに撮像しているカメラ2cがある旨の通知を選択部38hに出力する。この場合、配置決定部34hは、通知とともに、背景を欠けずに撮像しているカメラ2cの識別情報を選択部38hに出力する。一方、背景が欠けずに撮像されている画像がない場合、背景を欠けずに撮像しているカメラ2cがない旨の通知を選択部38hに出力する。   In addition, the arrangement determining unit 34h determines whether there is an image that is captured without any background loss among the plurality of input images. When there is an image captured without a background missing, a notification that there is a camera 2c capturing an image without a background is output to the selection unit 38h. In this case, the arrangement determination unit 34h outputs, together with the notification, identification information of the camera 2c that is imaging without missing the background to the selection unit 38h. On the other hand, when there is no image captured without missing the background, a notification that there is no camera 2c that is imaged without missing the background is output to the selection unit 38h.

また、配置決定部34hは、選択部38hによって選択されたカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34hは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34hは、取得した回転角度の値をカメラ2c−nの向きとして決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34fは選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。   Further, the arrangement determining unit 34h determines a position moved by a predetermined distance from the current position of the camera 2c-n selected by the selecting unit 38h as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34h refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34h determines the acquired rotation angle value as the orientation of the camera 2c-n. If there is no image captured without a background missing, the arrangement determining unit 34 f outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39.

選択部38hは、選択されるカメラ2c−nを決定する決定装置として機能する。選択部38hは、配置決定部34hから出力された通知と、記憶部33cに記憶されている画像及び変数情報と、操作部31hを介して入力されたカメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、優先情報と、カメラパラメータ情報を入力する。選択部38hは、カメラパラメータ情報を各カメラ2cから取得する。選択部38hは、入力した画像と、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2c−nを複数のカメラ2c−1〜2c−Nの中から選択する。選択部38hは、選択したカメラ2c−nの識別情報を配置決定部34hに出力する。   The selection unit 38h functions as a determination device that determines the selected camera 2c-n. The selection unit 38h includes the notification output from the placement determination unit 34h, the image and variable information stored in the storage unit 33c, and the cameras 2c-1 to 2c-N input via the operation unit 31h. Arrangement information, position information of the observer 5, object arrangement information in real space, priority information, and camera parameter information are input. The selection unit 38h acquires camera parameter information from each camera 2c. The selection unit 38h captures an image without missing a background based on the input image, the respective arrangement information of the cameras 2c-1 to 2c-N, the position information of the observer 5, and the arrangement information of the object. The selected camera 2c-n is selected from a plurality of cameras 2c-1 to 2c-N. The selection unit 38h outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34h.

図26は、第8の実施形態における画像処理装置3hの処理の流れを示すフローチャートである。図17と同様の処理については、図26において図17と同様の符号を付して説明を省略する。なお、図26の説明では、既に変数決定部32による処理は行われているものとする。また、図26では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。   FIG. 26 is a flowchart showing the flow of processing of the image processing apparatus 3h in the eighth embodiment. The processes similar to those in FIG. 17 are denoted by the same reference numerals as those in FIG. In the description of FIG. 26, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 26 describes processing when still images are acquired from the plurality of cameras 2c-1 to 2c-N.

ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、選択部38hは配置決定部34hから出力された識別情報で識別されるカメラ2c−1〜2c−Nの中に背景がぼけない位置に設置されているカメラ2cがあるか否かを判定する(ステップS801)。選択部38hは、選択部38fが行う方法と同様の方法で背景がぼけない位置に設置されているカメラ2cがあるか否かを判定する。背景がぼけない位置に設置されているカメラ2cがある場合(ステップS801−YES)、選択部38hは配置決定部34hから出力された識別情報で識別されるカメラ2cの中から背景を欠けずに撮像しているカメラ2c−nであって、かつ、背景がぼけない位置に設置されているカメラ2c−nを選択する(ステップS802)。   In the process of step S202, if there is an image that has been captured without any background missing (step S202-YES), the selection unit 38h is identified by the cameras 2c-1 to 2c identified by the identification information output from the arrangement determination unit 34h. It is determined whether or not there is a camera 2c installed in a position where the background is not blurred in -N (step S801). The selection unit 38h determines whether there is a camera 2c installed at a position where the background is not blurred by a method similar to the method performed by the selection unit 38f. When there is a camera 2c installed at a position where the background is not blurred (step S801-YES), the selection unit 38h does not lose the background from the cameras 2c identified by the identification information output from the arrangement determination unit 34h. The camera 2c-n that is taking an image and is installed at a position where the background is not blurred is selected (step S802).

具体的には、選択部38hは、背景がぼけない位置に設置されているカメラ2cが一台ある場合、背景がぼけない位置に設置されているカメラ2c−nを選択する。また、選択部38hは、背景がぼけない位置に設置されているカメラ2cが複数台ある場合、背景がぼけない位置に設置されているカメラ2cそれぞれに対してカメラ評価値を算出する。   Specifically, when there is one camera 2c installed at a position where the background is not blurred, the selection unit 38h selects the camera 2c-n installed at a position where the background is not blurred. Further, when there are a plurality of cameras 2c installed at a position where the background is not blurred, the selection unit 38h calculates a camera evaluation value for each of the cameras 2c installed at a position where the background is not blurred.

選択部38hは、配置決定部34fから出力された識別情報で識別されるカメラ2c全てにおいてカメラ評価値を算出する。その後、選択部38hは、背景を欠けずに撮像しているカメラ2cであって、背景がぼけない位置に設置されているカメラ2cのうち、カメラ評価値が所定の閾値以上のカメラ2c−nを選択する。カメラ評価値が所定の閾値以上のカメラ2c−nが複数台ある場合、選択部38hはカメラ評価値が最も高いカメラ2c−nを選択してもよい。選択部38hは、選択したカメラ2c−nの識別情報を切出部36に出力する。その後、画像処理装置3fはステップS208の処理を実行する。   The selection unit 38h calculates camera evaluation values in all the cameras 2c identified by the identification information output from the arrangement determination unit 34f. Thereafter, the selection unit 38h is a camera 2c that captures an image without losing the background, and among the cameras 2c that are installed at positions where the background is not blurred, the camera 2c-n having a camera evaluation value equal to or greater than a predetermined threshold value. Select. When there are a plurality of cameras 2c-n having camera evaluation values equal to or greater than a predetermined threshold, the selection unit 38h may select the camera 2c-n having the highest camera evaluation value. The selection unit 38h outputs the identification information of the selected camera 2c-n to the cutout unit 36. Thereafter, the image processing device 3f executes the process of step S208.

また、ステップS202の処理において背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、又は、背景がぼけない位置に設置されているカメラ2cがない場合(ステップS801−NO)、選択部38hは複数のカメラ2c−1〜2c−Nの中からカメラ2c−nを選択する(ステップS803)。具体的には、選択部38hは、変数情報に基づいて、選択部38fが行う方法と同様の方法でカメラ2c−nを選択する。選択部38hは、選択したカメラ2c−nの識別情報を配置決定部34hに出力する。   Also, in the process of step S202, when there is no image captured without a missing background (step S202-NO), or when there is no camera 2c installed at a position where the background is not blurred (step S801-NO). The selection unit 38h selects the camera 2c-n from the plurality of cameras 2c-1 to 2c-N (step S803). Specifically, the selection unit 38h selects the camera 2c-n by a method similar to the method performed by the selection unit 38f based on the variable information. The selection unit 38h outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34h.

配置決定部34hは、選択部38hから出力された識別情報で識別されるカメラ2c−nの配置位置及び向きを決定する(ステップS804)。具体的には、配置決定部34hは、背景がぼけない位置、かつ、選択部38hから出力された識別情報で識別されるカメラ2c−nの現在位置からカメラ2c−nを所定の距離移動した位置をカメラ2c−nの配置位置として決定する。ここで、カメラ2c−nを所定の距離移動した位置とは、選択されたカメラc−nの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2c−nを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。また、配置決定部34hは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34hは、取得した回転角度の値をカメラ2c−nの向きとして決定する。その後、配置決定部34fは、選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。その後、画像処理装置3fは、ステップS403以降の処理を実行する。   The arrangement determination unit 34h determines the arrangement position and orientation of the camera 2c-n identified by the identification information output from the selection unit 38h (step S804). Specifically, the arrangement determination unit 34h moves the camera 2c-n by a predetermined distance from the current position of the camera 2c-n identified by the identification information output from the selection unit 38h and the position where the background is not blurred. The position is determined as the arrangement position of the cameras 2c-n. Here, the position where the camera 2c-n is moved by a predetermined distance is calculated from an area captured on the same plane as the background from the arrangement information of the selected camera c-n. This is a position where the camera 2c-n is moved by a predetermined distance (for example, about 10% of the distance from the initial position of the camera to the background) in the approaching direction. Further, the arrangement determining unit 34h refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34h determines the acquired rotation angle value as the orientation of the camera 2c-n. Thereafter, the arrangement determining unit 34 f outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39. Thereafter, the image processing device 3f executes the processing after step S403.

画像取得部30が動画像を取得する場合について、図26に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2c−1〜2c−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34hは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   Differences from the processing shown in FIG. 26 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2c-1 to 2c-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34h determines whether or not there is an image that is captured without missing the background, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.

一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS406において、画像取得部30は、移動及び回転後の複数のカメラ2c−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS406において、配置決定部34hは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動及び回転後のカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS406において、背景が欠けずに撮像されている画像がない場合、画像処理装置3hはステップS803以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S406, the image acquisition unit 30 acquires and acquires moving images from the plurality of cameras 2c-n after movement and rotation. Each frame image is acquired from the moving image. In step S406, the arrangement determining unit 34h determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S406, if there is no image captured without a missing background, the image processing device 3h executes the processing from step S803 onward.

以上のように、第8の実施形態の画像処理装置3hは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第8の実施形態の決定装置は、配置決定部34hと、選択部38hとを備える。選択部38hは、複数のカメラ2c−1〜2c−Nのうちカメラ評価値に基づいてカメラ2c−nを選択する。配置決定部34hは、選択されたカメラ2c−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能な位置及び向きであって、背景がぼけない位置をカメラ2c−nの移動先であるカメラ2c−nの配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3hは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。   As described above, in the image processing device 3h according to the eighth embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination device according to the eighth embodiment includes an arrangement determination unit 34h and a selection unit 38h. The selection unit 38h selects the camera 2c-n based on the camera evaluation value among the plurality of cameras 2c-1 to 2c-N. The arrangement determination unit 34h can capture an image of the selected camera 2c-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The position where the background is not blurred is determined as the arrangement position of the camera 2c-n which is the movement destination of the camera 2c-n. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3h can acquire a background image that is blocked by a specific object and cannot be seen by the user.

第8の実施形態の画像処理装置3hは、第4の実施形態の画像処理装置3dと同様に変形されてもよい。
本実施形態では、配置決定部34hが、選択部38hがカメラ評価値に基づいて選択したカメラ2−nの配置位置を決定する構成を示したが、これに限定される必要はない。例えば、配置決定部34hは、第4の実施形態における選択部38dが選択したカメラ2c−nの配置位置を決定するように構成されてもよい。このように構成される場合、画像処理装置3hは、選択部38hに代えて選択部38dを備える。
The image processing device 3h according to the eighth embodiment may be modified in the same manner as the image processing device 3d according to the fourth embodiment.
In the present embodiment, the arrangement determining unit 34h determines the arrangement position of the camera 2-n selected by the selection unit 38h based on the camera evaluation value. However, the present invention is not limited to this. For example, the arrangement determination unit 34h may be configured to determine the arrangement position of the camera 2c-n selected by the selection unit 38d in the fourth embodiment. When configured in this way, the image processing device 3h includes a selection unit 38d instead of the selection unit 38h.

上記の各実施形態における画像処理装置が備える決定装置は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、特定の物体で遮蔽されてユーザから見ることができない背景画像を含む画像を出力する撮像装置の配置位置を決定するために用いられる。   The determination device included in the image processing device in each of the above embodiments includes an imaging device whose position and orientation are determined so as to capture an image of a specific object placed in the real space, and is displayed on the screen of the display device. A background image that is a background still image or a moving image that is observed as if a specific object has been removed in the space of the displayed image, and is a background image that is blocked by the specific object and cannot be seen by the user This is used to determine the arrangement position of an imaging device that outputs an image including the image.

上述した実施形態における画像処理システム及び画像処理装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   You may make it implement | achieve at least one part of the image processing system and image processing apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明は、ヘッドマウントディスプレイ等の表示装置に表示される拡張現実画像を出力する画像処理装置に適用可能である。   The present invention can be applied to an image processing apparatus that outputs an augmented reality image displayed on a display device such as a head-mounted display.

1a、1b、1c、1d、1e、1f、1g、1h…画像処理システム、 2(2−1〜2−N)、2c(2c−1〜2c−N)…カメラ、 3a、3b、3c、3d、3e、3f、3g、3h…画像処理装置、 4…表示装置、 5…観察者、 6…物体、 20、20−1〜20−3…光軸、 21〜24…カメラ画像、 30…画像取得部、 31,31f,31h…操作部、 32…変数決定部、 33、33c…記憶部、 34、34b、34c、34d、34e、34f、34g、34h…配置決定部、 35…移動部、 36…切出部、 37…出力部、 38、38d、38f、38h…選択部、 39…配置部 1a, 1b, 1c, 1d, 1e, 1f, 1g, 1h ... image processing system, 2 (2-1 to 2-N), 2c (2c-1 to 2c-N) ... camera, 3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h ... image processing device, 4 ... display device, 5 ... observer, 6 ... object, 20, 20-1 to 20-3 ... optical axis, 21-24 ... camera image, 30 ... Image acquisition unit 31, 31f, 31h ... operation unit, 32 ... variable determination unit, 33, 33c ... storage unit, 34, 34b, 34c, 34d, 34e, 34f, 34g, 34h ... arrangement determination unit, 35 ... movement unit 36: Cutout section 37: Output section 38, 38d, 38f, 38h ... Selection section 39 ... Arrangement section

Claims (10)

実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置であって、
撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定部、
を備える決定装置。
An imaging device whose position and orientation are determined so as to capture a specific object arranged in the real space is arranged in the real space, and the specific object is removed in the space of the image displayed on the screen of the display device The arrangement position of the imaging device that outputs a background image that is a still image or a moving image of the observed background and that includes the background image that is blocked by the specific object and cannot be seen by the user A determination device for determining,
In the still image or moving image captured by the imaging device, when there is no still image or moving image captured without the background missing, the image is captured without missing the background based on the positional information of the imaging device. An arrangement determining unit that determines an arrangement position that is a destination of a possible imaging device;
A determination device comprising:
前記配置決定部は、前記撮像装置で撮像された静止画像又は動画像を前記ユーザの視線の方向から見た静止画像又は動画像に変換する際の影響が小さくなるように前記撮像装置の移動先の配置位置を決定する、請求項1に記載の決定装置。   The arrangement determining unit is configured to move the imaging device so that an influence when the still image or the moving image captured by the imaging device is converted into the still image or the moving image viewed from the direction of the user's line of sight is reduced. The determining apparatus according to claim 1, wherein the determining position is determined. 前記配置決定部は、前記背景を欠けずに撮像可能な位置であって、前記背景を被写界深度の範囲内に含む位置を、前記撮像装置の移動先の配置位置に決定する、請求項1に記載の決定装置。   The position determination unit determines a position where the image can be captured without losing the background and includes the background within the depth of field as a position where the image capturing apparatus is to be moved. 2. The determination device according to 1. 前記配置決定部は、前記背景が欠けずに撮像されている静止画像又は動画像があり、かつ、前記撮像装置の位置が前記背景を被写界深度の範囲内に含む位置ではない場合に、前記背景を被写界深度の範囲内に含む位置を前記撮像装置の移動先の配置位置に決定する、請求項1に記載の決定装置。   In the case where there is a still image or a moving image that is captured without missing the background, and the position of the imaging device is not a position that includes the background within the range of the depth of field, The determination device according to claim 1, wherein a position including the background within a range of depth of field is determined as an arrangement position of a moving destination of the imaging device. 撮像装置が複数ある場合、ユーザの視線方向と前記撮像装置の光軸とのなす角度に基づいて、複数の撮像装置から撮像装置を選択する選択部をさらに備え、
前記配置決定部は、選択された撮像装置の配置位置を決定する、請求項1から4のいずれか一項に記載の決定装置。
When there are a plurality of imaging devices, the image processing device further includes a selection unit that selects an imaging device from the plurality of imaging devices based on an angle formed by the user's line-of-sight direction and the optical axis of the imaging device,
The determination device according to claim 1, wherein the arrangement determination unit determines an arrangement position of the selected imaging device.
前記選択部は、前記ユーザの視線方向と前記撮像装置の光軸とのなす角度が所定の角度以下であり、かつ、前記ユーザの位置から背景の特定の位置までの距離と前記撮像装置の位置から背景の特定の位置までの距離との差が所定の値以下である撮像装置を選択する、請求項5に記載の決定装置。   The selection unit is configured such that an angle formed by the user's line-of-sight direction and the optical axis of the imaging apparatus is equal to or smaller than a predetermined angle, and a distance from the user position to a specific position on the background and the position of the imaging apparatus The determination apparatus according to claim 5, wherein an image pickup apparatus having a difference from a distance from a specific position of the background to a specific position of the background is equal to or less than a predetermined value is selected. 撮像装置が複数ある場合、画像における複数のパラメータに対する評価値を前記撮像装置毎に算出し、前記評価値に対して優先度に応じた重み付けを行うことによって前記撮像装置毎の合計評価値を算出し、算出した前記合計評価値が閾値以上の撮像装置を選択する選択部をさらに備え、
前記配置決定部は、選択された撮像装置の配置位置を決定する、請求項1から4のいずれか一項に記載の決定装置。
When there are a plurality of imaging devices, an evaluation value for a plurality of parameters in the image is calculated for each imaging device, and a total evaluation value for each imaging device is calculated by weighting the evaluation value according to priority. And a selection unit that selects an imaging device having the calculated total evaluation value equal to or greater than a threshold,
The determination device according to claim 1, wherein the arrangement determination unit determines an arrangement position of the selected imaging device.
請求項1から請求項7のいずれか一項に記載の決定装置と、
前記撮像装置によって撮像された静止画像又は動画像を取得する画像取得部と、
取得された前記静止画像又は動画像から、前記背景画像を切り出す切出部と、
切り出された前記背景画像を前記表示装置に出力する出力部と、
を備える画像処理装置。
A determination device according to any one of claims 1 to 7,
An image acquisition unit that acquires a still image or a moving image captured by the imaging device;
A cutout unit that cuts out the background image from the acquired still image or moving image;
An output unit for outputting the clipped background image to the display device;
An image processing apparatus comprising:
実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置が行う決定方法であって、
撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定ステップ、
を有する決定方法。
An imaging device whose position and orientation are determined so as to capture a specific object arranged in the real space is arranged in the real space, and the specific object is removed in the space of the image displayed on the screen of the display device The arrangement position of the imaging device that outputs a background image that is a still image or a moving image of the observed background and that includes the background image that is blocked by the specific object and cannot be seen by the user A determination method performed by a determination device that determines,
In the still image or moving image captured by the imaging device, when there is no still image or moving image captured without the background missing, the image is captured without missing the background based on the positional information of the imaging device. An arrangement determining step for determining an arrangement position that is a destination to which the imaging device can be moved;
Determining method.
実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で前記特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、前記特定の物体で遮蔽されてユーザから見ることができない前記背景画像を含む画像を出力する前記撮像装置の配置位置を決定する決定装置としてコンピュータに、
撮像装置によって撮像された静止画像又は動画像において、前記背景が欠けずに撮像されている静止画像又は動画像がない場合に、前記撮像装置の位置情報に基づいて、前記背景を欠けずに撮像可能な撮像装置の移動先である配置位置を決定する配置決定ステップ、
を実行させるための決定プログラム。
An imaging device whose position and orientation are determined so as to capture a specific object arranged in the real space is arranged in the real space, and the specific object is removed in the space of the image displayed on the screen of the display device The arrangement position of the imaging device that outputs a background image that is a still image or a moving image of the observed background and that includes the background image that is blocked by the specific object and cannot be seen by the user To the computer as a decision device to decide,
In the still image or moving image captured by the imaging device, when there is no still image or moving image captured without the background missing, the image is captured without missing the background based on the positional information of the imaging device. An arrangement determining step for determining an arrangement position that is a destination to which the imaging device can be moved;
Decision program to execute.
JP2017161554A 2017-02-07 2017-08-24 Determination device, image processing device, determination method, and determination program Pending JP2018129787A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017020587 2017-02-07
JP2017020587 2017-02-07

Publications (1)

Publication Number Publication Date
JP2018129787A true JP2018129787A (en) 2018-08-16

Family

ID=63174537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161554A Pending JP2018129787A (en) 2017-02-07 2017-08-24 Determination device, image processing device, determination method, and determination program

Country Status (1)

Country Link
JP (1) JP2018129787A (en)

Similar Documents

Publication Publication Date Title
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
KR102342668B1 (en) Image processing apparatus, image processing method and storage medium
JP6525617B2 (en) Image processing apparatus and control method thereof
CN114245905A (en) Depth aware photo editing
JP2018106496A (en) Image processing apparatus, image processing method, and program
JP2015522959A (en) Systems, methods, and media for providing interactive refocusing in images
JP2019152980A (en) Image processing system, image processing method and program
JP2015135661A (en) Image processing device, imaging device, image processing method, and program
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018113683A (en) Image processing apparatus, image processing method, and program
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
WO2016034709A1 (en) Depth map based perspective correction in digital photos
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP6756679B2 (en) Decision device, image processing device, decision method and decision program
JP2018129025A (en) Determination device, image processing apparatus, determination method, and determination program
JP2018129787A (en) Determination device, image processing device, determination method, and determination program
CN113014806B (en) Blurred image shooting method and device
JP2020009099A (en) Image processing device, image processing method, and program
JP2019144958A (en) Image processing device, image processing method, and program
JP5970387B2 (en) Image generating apparatus, image generating method, and program
JP4983757B2 (en) Image generating apparatus, method and program
JP2011232983A (en) Shielding object removal display unit
WO2023199583A1 (en) Viewer control method and information processing device
WO2024166171A1 (en) Portable information terminal and display control method for portable information terminal
JP2017182843A (en) Program, display control device, and display control method