以下、本発明の一実施形態を、図面を参照しながら説明する。
(第1の実施形態)
図1は、第1の実施形態における画像処理システム1aの構成の例を示す図である。画像処理システム1aは、画像に画像処理を施すシステムである。画像は、静止画像又は動画像のいずれでもよい。画像処理システム1aは、カメラ2と、画像処理装置3aと、表示装置4とを備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of an image processing system 1a according to the first embodiment. The image processing system 1a is a system that performs image processing on an image. The image may be either a still image or a moving image. The image processing system 1a includes a camera 2, an image processing device 3a, and a display device 4.
カメラ2は、物体が配置されている実空間において、予め定められた向きで予め定められた位置に配置されている。カメラ2は、画像処理装置3aの制御に応じて移動される。カメラ2は、レンズである光学系を介して実空間を撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。カメラ2は、撮像した静止画像又は動画像である画像を、画像処理装置3aに出力する。
The camera 2 is arranged at a predetermined position in a predetermined direction in the real space where the object is arranged. The camera 2 is moved according to the control of the image processing device 3a. The camera 2 images a real space through an optical system that is a lens. The optical system may be a wide-angle lens, a fish-eye lens, or an omnidirectional lens. The camera 2 outputs an image that is a captured still image or moving image to the image processing device 3a.
画像処理装置3aは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3aと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3aは、カメラ2を所定位置まで移動させる。例えば、画像処理装置3aは、移動させる前の位置におけるカメラ2の光軸方向を維持したまま、カメラ2を所定位置まで移動させる。画像処理装置3aは、カメラ2が出力した画像に対して画像処理を施す。画像処理装置3aは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3aは、画像処理が施された画像を表示装置4に出力する。画像処理装置3aは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3aは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
The image processing device 3a is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3a and the display device 4 may be separate or integrated. The image processing device 3a moves the camera 2 to a predetermined position. For example, the image processing apparatus 3a moves the camera 2 to a predetermined position while maintaining the optical axis direction of the camera 2 at the position before the movement. The image processing device 3a performs image processing on the image output from the camera 2. For example, the image processing device 3a may execute image processing at an image acquisition period (frame rate) of the camera. The image processing device 3a outputs an image on which image processing has been performed to the display device 4. The image processing device 3a may execute image output processing at, for example, the display cycle (refresh rate) of the display device. That is, the image processing device 3a may perform moving image processing on a moving image including a plurality of frame images.
表示装置4は、ヘッドマウントディスプレイ等の表示装置である。表示装置4の画面は、表示装置4の外から表示装置4の画面に届いた光を透過させる。例えば、表示装置4の画面は、光透過性を備えた液晶ディスプレイである。以下、表示装置4の画面を透過した光による物体の光学画像を、「物体光学像」という。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理装置3aが出力した画像を表示する。これによって、表示装置4は、画像処理装置3aが出力した画像を表示することができる。以下、表示装置4の画面に表示される画像を「表示画像」という。
The display device 4 is a display device such as a head mounted display. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from the outside of the display device 4. For example, the screen of the display device 4 is a liquid crystal display having light transparency. Hereinafter, an optical image of an object by light transmitted through the screen of the display device 4 is referred to as an “object optical image”. The screen of the display device 4 displays the image output by the image processing device 3a so as to hide the object optical image on the screen. Accordingly, the display device 4 can display the image output from the image processing device 3a. Hereinafter, an image displayed on the screen of the display device 4 is referred to as a “display image”.
画像処理システム1aにおける物体及びカメラ2の配置例を図2に示す。図2は、第1の実施形態における物体及びカメラ2の配置の例を示す俯瞰図である。図2に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2と、物体6とが配置されている。図2において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。
An arrangement example of the object and the camera 2 in the image processing system 1a is shown in FIG. FIG. 2 is an overhead view showing an example of the arrangement of the object and the camera 2 in the first embodiment. As shown in FIG. 2, a camera 2 and an object 6 are arranged in a room 100 having a real space where an observer 5 wearing the display device 4 is located. In FIG. 2, the observer 5 is facing the line of sight 51. That is, the observer 5 faces the direction of the object 6 arranged in the room 100. Thereby, the observer 5 observes the object optical image of the object 6 arranged in the room 100 through the display device 4 with the light transmitted through the screen of the display device 4. It is assumed that the observer 5 is viewing the range from the position a to the position d in the room 100 via the display device 4. That is, a line 52-1 connecting the position a and the position of the observer 5, a line 52-2 connecting the position d and the position of the observer 5, and a line connecting the position a and the position d. Is the range of the visual field of the observer 5.
カメラ2は、予め定められた向きで、部屋100の予め定められた位置に配置される。第1の実施形態において、カメラ2は、観察者5の視線51の方向と、カメラ2の光軸20の方向とが水平になるように配置される。そして、カメラ2は、画像処理装置3aの制御に応じて移動する。例えば、カメラ2は、画像処理装置3aの制御に応じて、矢印7で示される方向に移動する。なお、カメラ2の移動方向は予め設定されていてもよいし、画像処理装置3aによって指示されてもよい。
The camera 2 is arranged at a predetermined position in the room 100 in a predetermined direction. In the first embodiment, the camera 2 is arranged so that the direction of the line of sight 51 of the observer 5 and the direction of the optical axis 20 of the camera 2 are horizontal. The camera 2 moves in accordance with the control of the image processing device 3a. For example, the camera 2 moves in the direction indicated by the arrow 7 in accordance with the control of the image processing device 3a. The moving direction of the camera 2 may be set in advance or may be instructed by the image processing device 3a.
物体6は、例えば、箱、柱等である。以下の説明では、物体6が円柱である場合を例に説明する。物体6が観察者5の視野の範囲内に位置していることにより、観察者5は部屋100のbの位置からcの位置までの壁Cを見ることができない。すなわち、観察者5は、物体6により、物体6の後方の背景を見ることができない。ここで、背景とは、特定の物体(例えば、物体6)で遮蔽されて観察者5から見えないものを表す。背景は、例えば、物体であってもよいし、実空間における壁であってもよいし、実空間上の仮想的な位置に設定された仮想的な壁であってもよい。物体6は、部屋100の予め定められた物体実位置に配置されている。物体実位置とは、実空間における物体の実際の位置を表す。物体6は、実空間では静止していてもよい。以下の説明では、物体6を取り除いて、物体6の背景である壁Cを表示装置4に表示する場合を例に説明する。
The object 6 is, for example, a box or a pillar. In the following description, a case where the object 6 is a cylinder will be described as an example. Since the object 6 is positioned within the field of view of the observer 5, the observer 5 cannot see the wall C from the position b in the room 100 to the position c. That is, the observer 5 cannot see the background behind the object 6 by the object 6. Here, the background represents an object that is shielded by a specific object (for example, the object 6) and cannot be seen by the observer 5. The background may be, for example, an object, a wall in real space, or a virtual wall set at a virtual position in real space. The object 6 is disposed at a predetermined actual object position in the room 100. The actual object position represents the actual position of the object in the real space. The object 6 may be stationary in real space. In the following description, the case where the object 6 is removed and the wall C as the background of the object 6 is displayed on the display device 4 will be described as an example.
次に、図1に戻り、画像処理装置3aの構成の例を説明する。画像処理装置3aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3aは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34、移動部35、切出部36、出力部37を備える装置として機能する。なお、画像処理装置3aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
Next, returning to FIG. 1, an example of the configuration of the image processing apparatus 3a will be described. The image processing device 3a includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3 a includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34, a movement unit 35, a cutout unit 36, and an output unit 37. Functions as a device. Note that all or part of the functions of the image processing apparatus 3a may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像取得部30は、カメラ2によって撮像された画像を取得する。画像取得部30は、取得した画像を記憶部33に記録する。操作部31は、操作キー等を有する操作デバイスである。例えば、操作部31は、キーボード、マウス、タッチパネルである。操作部31は、操作部31に対する操作を受け付けることによって、実空間におけるカメラ2の配置情報、実空間における物体の配置情報、観察者5の位置情報、背景の位置情報、貼り付け位置情報及び背景情報を取得する。
The image acquisition unit 30 acquires an image captured by the camera 2. The image acquisition unit 30 records the acquired image in the storage unit 33. The operation unit 31 is an operation device having operation keys and the like. For example, the operation unit 31 is a keyboard, a mouse, or a touch panel. The operation unit 31 accepts an operation on the operation unit 31 to thereby arrange the arrangement information of the camera 2 in the real space, the arrangement information of the object in the real space, the position information of the observer 5, the position information of the background, the pasting position information, and the background. Get information.
実空間におけるカメラ2の配置情報は、例えば、カメラ2の実空間における座標及び光軸方向等の情報である。光軸方向は、例えば、図2のように実空間中で定義される座標のx軸を基準とする角度で表現される。実空間における物体の配置情報は、例えば、実空間に配置されている物体(例えば、図2では物体6)の座標の情報である。観察者5の位置情報は、観察者5の座標の情報である。背景の位置情報は、背景の座標の情報である。
The arrangement information of the camera 2 in the real space is, for example, information such as coordinates and an optical axis direction of the camera 2 in the real space. The optical axis direction is expressed by an angle based on the x-axis of coordinates defined in the real space as shown in FIG. The arrangement information of the object in the real space is, for example, information on the coordinates of the object (for example, the object 6 in FIG. 2) arranged in the real space. The position information of the observer 5 is information on the coordinates of the observer 5. The background position information is information on background coordinates.
貼り付け位置情報は、例えば、表示画像における左上座標、幅及び高さの情報で表されてもよい。また、例えば、貼り付け位置情報は、表示画像の座標と対応付けてあらかじめ定義されている領域である、「中央」、「右」、「左」といった情報であってもよい。観察者5の位置情報は、例えば、実空間における観察者の立ち位置の座標の情報と観察者5の視線方向である。背景情報は、背景に関する情報であり、例えば背景の特徴量である。
操作部31は、取得したカメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とを変数決定部32に出力し、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とを配置決定部34に出力する。また、操作部31は、取得した貼り付け位置情報及び背景情報を切出部36に出力する。
The pasting position information may be represented by, for example, information on the upper left coordinates, width, and height in the display image. Further, for example, the pasting position information may be information such as “center”, “right”, and “left”, which are areas defined in advance in association with the coordinates of the display image. The position information of the observer 5 is, for example, information on the coordinates of the observer's standing position in the real space and the line of sight of the observer 5. The background information is information related to the background, for example, a feature amount of the background.
The operation unit 31 outputs the acquired arrangement information of the camera 2, the position information of the observer 5, and the position information of the background to the variable determination unit 32, and the arrangement information of the camera 2, the position information of the observer 5, and The object arrangement information is output to the arrangement determining unit 34. In addition, the operation unit 31 outputs the acquired pasting position information and background information to the cutout unit 36.
変数決定部32は、カメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とを操作部31から取得する。変数決定部32は、取得したカメラ2の配置情報と、観察者5の位置情報と、背景の位置情報とに基づいて、カメラ2の配置に関する変数を決定する。
The variable determination unit 32 acquires the arrangement information of the camera 2, the position information of the observer 5, and the background position information from the operation unit 31. The variable determination unit 32 determines a variable related to the arrangement of the camera 2 based on the acquired arrangement information of the camera 2, the position information of the observer 5, and the position information of the background.
カメラ2の配置に関する変数は、例えば、カメラ2の現在位置と、観察者5の視線方向とカメラ2の光軸との成す角度(以下「カメラ角度」という。)と、観察者5の位置から背景の特定の位置までの距離とカメラ2の位置から背景の特定の位置までの距離との差(以下「距離差」という。)とである。背景の特定の位置とは、予め設定されていてもよい。例えば、背景が図2における壁Cである場合、壁Cの中点を背景の特定の位置としてもよい。また、例えば、背景が物体である場合、物体の位置を背景の特定の位置としてもよい。変数決定部32は、カメラ2の配置に関する変数情報を記憶部33に記録する。
The variables relating to the arrangement of the camera 2 are, for example, the current position of the camera 2, the angle formed by the observer's 5 line-of-sight direction and the optical axis of the camera 2 (hereinafter referred to as “camera angle”), and the position of the observer 5. The difference between the distance to the specific position of the background and the distance from the position of the camera 2 to the specific position of the background (hereinafter referred to as “distance difference”). The specific position of the background may be set in advance. For example, when the background is the wall C in FIG. 2, the midpoint of the wall C may be a specific position of the background. For example, when the background is an object, the position of the object may be set as a specific position of the background. The variable determination unit 32 records variable information related to the arrangement of the camera 2 in the storage unit 33.
図3は、カメラ2の配置に関する変数の例を示す図である。変数決定部32は、カメラ2の配置に関する変数情報を記憶部33に記録する。例えば、変数決定部32は、カメラ2の現在位置を記憶部33に記録する。例えば、変数決定部32は、カメラ角度を記憶部33に記録する。例えば、変数決定部32は、距離差を記憶部33に記録する。
FIG. 3 is a diagram illustrating an example of variables related to the arrangement of the camera 2. The variable determination unit 32 records variable information related to the arrangement of the camera 2 in the storage unit 33. For example, the variable determination unit 32 records the current position of the camera 2 in the storage unit 33. For example, the variable determination unit 32 records the camera angle in the storage unit 33. For example, the variable determination unit 32 records the distance difference in the storage unit 33.
図1に戻り、画像処理装置3aの構成の例の説明を続ける。記憶部33は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部33は、画像取得部30によって取得された画像と、カメラ2の配置に関する変数情報とを記憶する。記憶部33は、カメラ2の配置情報(座標、光軸方向)を記憶してもよい。記憶部33は、物体の配置情報と、観察者5の位置情報と、背景情報とを記憶してもよい。
Returning to FIG. 1, the description of the configuration example of the image processing apparatus 3a will be continued. The storage unit 33 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 stores the image acquired by the image acquisition unit 30 and variable information related to the arrangement of the camera 2. The storage unit 33 may store arrangement information (coordinates, optical axis direction) of the camera 2. The storage unit 33 may store the object arrangement information, the position information of the observer 5, and the background information.
配置決定部34は、カメラ2の配置位置を決定する決定装置として機能する。配置決定部34は、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とを入力する。配置決定部34は、入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2の配置位置を決定する。具体的には、まず配置決定部34は、入力した画像に背景が欠けずに撮像されているか否か判定する。ここで、背景が欠けるとは、カメラで、物体がない空間を撮影した場合に映し出される背景の一部または全部が、物体の存在によって遮蔽されて映し出されていない状態、即ち、画像中に背景の一部または全部に物体が映り込んだ状態のことをいう。
The arrangement determining unit 34 functions as a determining device that determines the arrangement position of the camera 2. The arrangement determination unit 34 stores the image and variable information stored in the storage unit 33, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2. input. The arrangement determining unit 34 determines the arrangement position of the camera 2 based on the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, and the arrangement information of the object. Specifically, the arrangement determining unit 34 first determines whether or not the input image is captured without any background. Here, the lack of background means that a part or all of the background that is projected when a camera captures a space without an object is shielded by the presence of the object and is not projected, that is, the background in the image. The state in which an object is reflected in part or all of.
入力した画像に背景が欠けずに撮像されている場合、配置決定部34はカメラ2の現在位置をカメラ2の配置位置として決定する。配置決定部34は、決定した配置位置に関する情報(以下「決定配置位置情報」という。)を切出部36に出力する。決定配置位置情報は、例えば、配置決定部34が決定したカメラ2の配置位置の座標を表す。
When the input image is captured without any background missing, the arrangement determining unit 34 determines the current position of the camera 2 as the arrangement position of the camera 2. The arrangement determining unit 34 outputs information on the determined arrangement position (hereinafter referred to as “determined arrangement position information”) to the cutting unit 36. The determined arrangement position information represents, for example, the coordinates of the arrangement position of the camera 2 determined by the arrangement determining unit 34.
一方、入力した画像に背景が欠けずに撮像されていない場合、配置決定部34はカメラ2の現在位置からカメラ2を所定の距離移動した位置をカメラ2の配置位置として決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。その後、配置決定部34は、決定配置位置情報を移動部35に出力する。
On the other hand, when the input image is not captured without a background, the arrangement determining unit 34 determines the position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 as the arrangement position of the camera 2. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). Thereafter, the arrangement determining unit 34 outputs the determined arrangement position information to the moving unit 35.
移動部35は、配置決定部34から出力された決定配置位置情報を入力する。移動部35は、入力した決定配置位置情報に基づいてカメラ2を決定配置位置情報で示される位置に移動させる。例えば、移動部35は、移動させる前の位置におけるカメラ2の光軸方向を維持したまま、カメラ2を決定配置位置情報で示される位置に移動させる。移動部35は、モータ等のアクチュエータを駆動することによって、カメラ2を移動させる。なお、移動部35は、位置センサの検出結果に基づいて、移動後のカメラ2の位置情報を検出してもよい。
The moving unit 35 receives the determined arrangement position information output from the arrangement determining unit 34. The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the input determined arrangement position information. For example, the moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information while maintaining the optical axis direction of the camera 2 at the position before the movement. The moving unit 35 moves the camera 2 by driving an actuator such as a motor. In addition, the movement part 35 may detect the positional information on the camera 2 after a movement based on the detection result of a position sensor.
切出部36は、配置決定部34から出力された決定配置位置情報と、操作部31から出力された貼り付け位置情報及び背景情報とを入力する。切出部36は、カメラ2によって撮像された画像を、記憶部33から取得する。切出部36は、記憶部33から取得した画像を用いて、決定配置位置情報で示されるカメラ2の配置情報と、背景情報から算出される背景領域の画像(以下「背景部分画像」という。)を切り出す。切出部36は、操作部31から出力された貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、貼り付け位置情報が表示画像の座標と対応付けてあらかじめ定義されている領域「中央」を表している場合、切出部36は、表示画面における背景部分画像の表示位置を、表示画像の座標と対応付けてあらかじめ定義されている、表示装置4の画面の中央に決定する。切出部36は、背景部分画像と、表示位置の情報である表示位置情報とを出力部37に出力する。
出力部37は、切出部36から出力された背景部分画像と、表示位置情報とを入力する。出力部37は、入力した表示位置情報に基づいて、背景部分画像に対して画像処理を施す。出力部37は、画像処理が施された背景部分画像と表示位置情報とを表示装置4に出力する。
The cutout unit 36 inputs the determined arrangement position information output from the arrangement determination unit 34 and the pasting position information and background information output from the operation unit 31. The cutout unit 36 acquires an image captured by the camera 2 from the storage unit 33. Using the image acquired from the storage unit 33, the cutout unit 36 uses the image of the camera 2 indicated by the determined arrangement position information and the background region image calculated from the background information (hereinafter referred to as “background partial image”). ). The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information output from the operation unit 31. For example, when the pasting position information represents a region “center” defined in advance in association with the coordinates of the display image, the cutout unit 36 displays the display position of the background partial image on the display screen as the display image. It is determined at the center of the screen of the display device 4 defined in advance in association with the coordinates. The cutout unit 36 outputs the background partial image and the display position information that is display position information to the output unit 37.
The output unit 37 inputs the background partial image output from the cutout unit 36 and the display position information. The output unit 37 performs image processing on the background partial image based on the input display position information. The output unit 37 outputs the background partial image subjected to the image processing and the display position information to the display device 4.
図4は、表示画像の表示例を示す図である。表示装置4は、物体6から表示装置4の画面に届いた光を透過させる。表示装置4は、物体6の物体光学像を含む表示画像40を表示する。図4に示すように、観察者5は、物体6の物体光学像を、表示画像40の中央に見ることができる。また、図4に示すように、観察者5は、物体6の後方の背景の物体光学像を、表示画像40上で見ることができない。
FIG. 4 is a diagram illustrating a display example of a display image. The display device 4 transmits light that reaches the screen of the display device 4 from the object 6. The display device 4 displays a display image 40 including an object optical image of the object 6. As shown in FIG. 4, the observer 5 can see the object optical image of the object 6 at the center of the display image 40. In addition, as shown in FIG. 4, the observer 5 cannot view the object optical image of the background behind the object 6 on the display image 40.
図5は、カメラ2によって撮像された画像の具体例を示す図である。図5において、図5(a)は移動前のカメラ2(図2の場合、実線のカメラ2)が画像処理装置3aに出力したカメラ画像21であり、図5(b)は移動後のカメラ2(図2の場合、点線のカメラ2)が画像処理装置3aに出力したカメラ画像21aである。
FIG. 5 is a diagram illustrating a specific example of an image captured by the camera 2. 5A is a camera image 21 output to the image processing apparatus 3a by the camera 2 before movement (in the case of FIG. 2, the solid-line camera 2), and FIG. 5B is the camera after movement. 2 (in the case of FIG. 2, the dotted line camera 2) is the camera image 21 a output to the image processing device 3 a.
図5(a)に示すように、カメラ画像21では、壁Cの範囲(背景b−c間)の一部が物体6に遮蔽されていて壁Cの全てが撮像されていない。それに対して、カメラ画像21aでは、壁Cが欠けずに撮像されている。このように、画像処理装置3aは、観察者5から見た特定の物体6の背景が欠けずに撮像できる位置にカメラ2を移動させる。
As shown in FIG. 5A, in the camera image 21, a part of the range of the wall C (between the backgrounds bc) is shielded by the object 6, and the entire wall C is not imaged. On the other hand, in the camera image 21a, the wall C is captured without being missing. In this way, the image processing apparatus 3a moves the camera 2 to a position where the background of the specific object 6 viewed from the observer 5 can be captured without being lost.
図6は、切出部36の処理を説明するための図である。切出部36は、カメラ2が出力したカメラ画像23から、背景部分画像50を切り出す。また、切出部36は、表示画面における、切り出した背景部分画像50の表示位置を、物体6に対応する位置に決定する。出力部37は、画像処理が施された背景部分画像50と、表示位置情報とを表示装置4に出力する。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理が施された背景部分画像50を、表示位置情報で示される位置で物体光学像に重畳して表示する。表示後の表示画像の表示例を図7に示す。
FIG. 6 is a diagram for explaining the processing of the cutout unit 36. The cutout unit 36 cuts out the background partial image 50 from the camera image 23 output by the camera 2. Further, the cutout unit 36 determines the display position of the cut out background partial image 50 on the display screen as a position corresponding to the object 6. The output unit 37 outputs the background partial image 50 subjected to the image processing and the display position information to the display device 4. The screen of the display device 4 displays the background partial image 50 subjected to the image processing so as to be superimposed on the object optical image at the position indicated by the display position information so as to hide the object optical image on the screen. A display example of the display image after display is shown in FIG.
図7は、表示後の表示画像の表示例を示す図である。図7に示すように、表示装置4は、物体光学像を含む表示画像40上に、画像処理が施された背景部分画像50を表示する。これにより、図4で表示画像40上に表示されていた物体6が取り除かれたような画像を観察者5に提示することができる。
FIG. 7 is a diagram illustrating a display example of a display image after display. As shown in FIG. 7, the display device 4 displays a background partial image 50 on which image processing has been performed on a display image 40 including an object optical image. As a result, an image in which the object 6 displayed on the display image 40 in FIG. 4 is removed can be presented to the observer 5.
図8は、第1の実施形態における画像処理装置3aの処理の流れを示すフローチャートである。なお、図8の説明では、既に変数決定部32による処理は行われているものとする。また、図8では、カメラ2から静止画像を取得した場合の処理について説明する。
画像取得部30は、カメラ2から画像を取得する(ステップS101)。画像取得部30は、取得した画像を記憶部33に記録する。配置決定部34は、記憶部33に記憶されている画像を取得する。配置決定部34は、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS102)。
FIG. 8 is a flowchart showing the flow of processing of the image processing apparatus 3a in the first embodiment. In the description of FIG. 8, it is assumed that the process by the variable determination unit 32 has already been performed. In addition, FIG. 8 illustrates processing when a still image is acquired from the camera 2.
The image acquisition unit 30 acquires an image from the camera 2 (step S101). The image acquisition unit 30 records the acquired image in the storage unit 33. The arrangement determining unit 34 acquires an image stored in the storage unit 33. Based on the acquired image, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2, the arrangement determining unit 34 captures an image without missing a background. It is determined whether or not there is an image being processed (step S102).
具体的には、まず配置決定部34は、観察者5の位置情報と物体の配置情報とに基づいて、観察者5の視野範囲のうち物体6の遮蔽により観察者5から見えない背景の範囲を算出する。そして、配置決定部34は、カメラ2の配置情報と、カメラ2の視野範囲と、物体の配置情報とに基づいて、観察者5が見えない背景の範囲を欠けることなく撮像できている画像があるか否か判定する。
Specifically, the arrangement determination unit 34 first determines the range of the background invisible to the observer 5 due to the shielding of the object 6 in the visual field range of the observer 5 based on the position information of the observer 5 and the arrangement information of the object. Is calculated. And the arrangement | positioning determination part 34 is based on the arrangement | positioning information of the camera 2, the visual field range of the camera 2, and the arrangement | positioning information of an object, and the image currently imaged without missing the range of the background which the observer 5 cannot see is missing. Judge whether there is.
背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34は入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2の配置位置を決定する(ステップS103)。配置決定部34は、決定配置位置情報を移動部35に出力する。移動部35は、配置決定部34から出力された決定配置位置情報に基づいて、カメラ2を、決定配置位置情報で示される位置に移動させる(ステップS104)。画像取得部30は、移動後のカメラ2によって撮像された画像を取得する(ステップS105)。例えば、画像取得部30は、移動部35からカメラ2の移動が完了した旨の通知を受けた後に、カメラ2によって撮像された画像を移動後のカメラ2によって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33に記録する。
When there is no image captured without a background missing (step S102-NO), the arrangement determining unit 34, the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, and the object Based on the placement information, the placement position of the camera 2 is determined (step S103). The arrangement determining unit 34 outputs the determined arrangement position information to the moving unit 35. The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the determined arrangement position information output from the arrangement determining unit 34 (step S104). The image acquisition unit 30 acquires an image captured by the camera 2 after movement (step S105). For example, the image acquisition unit 30 may acquire an image captured by the camera 2 as an image captured by the camera 2 after movement after receiving a notification that the movement of the camera 2 is completed from the movement unit 35. Good. The image acquisition unit 30 records the acquired image in the storage unit 33.
配置決定部34は、記憶部33に記憶されている、移動後のカメラ2によって撮像された画像を取得する。配置決定部34は、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS106)。背景が欠けずに撮像されている画像がいない場合(ステップS106−NO)、画像処理装置3aはステップS103以降の処理を繰り返し実行する。
The arrangement determination unit 34 acquires an image captured by the camera 2 after movement, which is stored in the storage unit 33. Based on the acquired image, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the camera 2, the arrangement determining unit 34 captures an image without missing a background. It is determined whether there is an image that has been displayed (step S106). When there is no image captured without a missing background (step S106—NO), the image processing device 3a repeatedly executes the processing after step S103.
一方、背景が欠けずに撮像されている画像がある場合(ステップS106−YES)、配置決定部34は、決定配置位置情報を切出部36に出力する。配置決定部34は、背景が欠けずに撮像されていると判定された時点におけるカメラ2の決定配置位置情報を切出部36に出力する。切出部36は、配置決定部34から決定配置位置情報が取得されると、カメラ2によって撮像された画像を記憶部33から取得する。切出部36は、取得した画像から背景部分画像を切り出す。また、切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、切出部36は、貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
切出部36は、背景部分画像と、表示位置情報とを出力部37に出力する。
On the other hand, when there is an image that has been imaged with no background missing (step S <b> 106 -YES), the arrangement determining unit 34 outputs the determined arrangement position information to the cutting unit 36. The arrangement determining unit 34 outputs the determined arrangement position information of the camera 2 to the cutout unit 36 at the time when it is determined that the image is captured without missing the background. When the determined arrangement position information is acquired from the arrangement determining unit 34, the cutting unit 36 acquires the image captured by the camera 2 from the storage unit 33. The cutout unit 36 cuts out the background partial image from the acquired image. Further, the cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the cutout unit 36 determines the area specified by the pasting position information as the display position of the background partial image on the display screen.
The cutout unit 36 outputs the background partial image and the display position information to the output unit 37.
出力部37は、切出部36から出力された背景部分画像と表示位置情報とを入力する。出力部37は、入力した背景部分画像に対して画像処理を行う。具体的には、出力部37は、背景部分画像を、観察者5の視線51の方向から見た画像に変換する。例えば、出力部37は、アフィン変換行列を用いたアフィン変換処理を背景部分画像に対して施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。その後、出力部37は、変換後の背景部分画像と表示位置情報とを表示装置4に出力する(ステップS107)。
また、ステップS102の処理において、画像に背景が欠けずに撮像されている場合(ステップS102−YES)、配置決定部34は、カメラ2の現在位置をカメラ2の配置位置として決定する。その後、配置決定部34は、決定配置位置情報を切出部36に出力する。その後、画像処理装置3aは、ステップS107の処理を実行する。
The output unit 37 inputs the background partial image and the display position information output from the cutout unit 36. The output unit 37 performs image processing on the input background partial image. Specifically, the output unit 37 converts the background partial image into an image viewed from the direction of the line of sight 51 of the observer 5. For example, the output unit 37 performs affine transformation processing using an affine transformation matrix on the background partial image. The affine transformation matrix may include information indicating a region to be subjected to processing such as rotation, enlargement, or reduction. Thereafter, the output unit 37 outputs the converted background partial image and display position information to the display device 4 (step S107).
Further, in the process of step S102, when the image is captured with no background (step S102-YES), the arrangement determining unit 34 determines the current position of the camera 2 as the arrangement position of the camera 2. Thereafter, the arrangement determining unit 34 outputs the determined arrangement position information to the cutout unit 36. Thereafter, the image processing device 3a executes the process of step S107.
画像取得部30が動画像を取得する場合について、図8に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34は、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
Differences from the processing shown in FIG. 8 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2 and acquires each frame image from the acquired moving image. In step S <b> 102, the arrangement determining unit 34 determines whether there is an image that has been captured without missing a background, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS105において、画像取得部30は、移動後のカメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS106において、配置決定部34は、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動後のカメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS106において、背景が欠けずに撮像されている画像がない場合、画像処理装置3aはステップS103以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S105, the image acquisition unit 30 acquires a moving image from the camera 2 after movement, and each frame image from the acquired moving image. To get. In step S <b> 106, the arrangement determining unit 34 determines whether there is an image that has been captured without missing the background, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2 after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S106, when there is no image captured without a missing background, the image processing device 3a executes the processing from step S103 onward.
以上のように、第1の実施形態の画像処理装置3aは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第1の実施形態の決定装置は、配置決定部34を備える。配置決定部34は、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2の移動先であるカメラ2の配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3aは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3a of the first embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus according to the first embodiment includes an arrangement determining unit 34. The arrangement determination unit 34 is a camera 2 that is a movement destination of the camera 2 that can capture an image without missing a background that is not visible to the observer 5 with a specific object in an area that the observer 5 is looking through the display device 4. Determine the placement position. As a result, by acquiring an image captured from the determined arrangement position, the image processing device 3a can acquire a background image that is blocked by a specific object and cannot be seen by the user.
<変形例>
画像処理装置3aは、特定の物体が移動又は特定の物体が変更された場合に図8の処理を実行してもよいし、観察者5が移動した場合に図8の処理を実行してもよい。
画像取得部30は、移動後のカメラ2から取得した画像を切出部36に出力してもよい。このように構成される場合、移動部35は、カメラ2の移動が完了した旨を示す通知を画像取得部30に出力する。画像取得部30は、移動部35から通知を取得した後にカメラ2から画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
<Modification>
The image processing device 3a may execute the process of FIG. 8 when the specific object moves or the specific object is changed, or may execute the process of FIG. 8 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the moved camera 2 to the cutout unit 36. When configured in this way, the moving unit 35 outputs a notification indicating that the movement of the camera 2 is completed to the image acquisition unit 30. When the image acquisition unit 30 acquires the notification from the moving unit 35 and then acquires the image from the camera 2, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen.
(第2の実施形態)
第1の実施形態では、画像処理システムに一台のカメラが備えられ、カメラを背景が全て撮像できる位置に移動させる構成を示した。これに対し、第2の実施形態では、画像処理システムに複数のカメラが備えられ、画像処理装置が、複数のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できる位置に移動させる点で第1の実施形態と相違する。第2の実施形態では、第1の実施形態との相違点についてのみ説明する。
(Second Embodiment)
In the first embodiment, the configuration in which one camera is provided in the image processing system and the camera is moved to a position where the entire background can be imaged is shown. On the other hand, in the second embodiment, the image processing system includes a plurality of cameras, and the image processing apparatus selects one camera from the plurality of cameras, and the selected camera is located at a position where all the backgrounds can be captured. It is different from the first embodiment in that it is moved. In the second embodiment, only differences from the first embodiment will be described.
図9は、第2の実施形態における画像処理システム1bの構成の例を示す図である。画像処理システム1bは、カメラ2−1〜2−N(Nは2以上の整数)と、画像処理装置3bと、表示装置4とを備える。画像処理装置3bは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3bと表示装置4とは、別体でもよいし一体でもよい。以下では、Nは一例として3である。
FIG. 9 is a diagram illustrating an example of the configuration of the image processing system 1b according to the second embodiment. The image processing system 1b includes cameras 2-1 to 2-N (N is an integer equal to or greater than 2), an image processing device 3b, and a display device 4. The image processing device 3b is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3b and the display device 4 may be separate or integrated. In the following, N is 3 as an example.
画像処理装置3bは、カメラ2−1〜2−Nのうち選択されたカメラ2−n(1≦n≦N)が出力した画像に画像処理を施す。画像処理装置3bは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3bは、画像処理が施された画像を表示装置4に出力する。画像処理装置3bは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3bは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
The image processing device 3b performs image processing on an image output from the camera 2-n (1 ≦ n ≦ N) selected from the cameras 2-1 to 2-N. The image processing device 3b may execute image processing at, for example, a camera image acquisition period (frame rate). The image processing device 3b outputs the image subjected to the image processing to the display device 4. For example, the image processing device 3b may execute an image output process at a display cycle (refresh rate) of the display device. That is, the image processing device 3b may perform moving image processing on a moving image including a plurality of frame images.
画像処理装置3bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3bは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34b、移動部35、切出部36、出力部37、選択部38を備える装置として機能する。なお、画像処理装置3bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3b includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3b has an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34b, a movement unit 35, a cutout unit 36, an output unit 37, and a selection unit. It functions as a device including the unit 38. Note that all or part of the functions of the image processing apparatus 3b may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3bは、配置決定部34に代えて配置決定部34bを備える点、選択部38を新たに備える点で画像処理装置3aと構成が異なる。画像処理装置3bは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3b全体の説明は省略し、配置決定部34b及び選択部38について説明する。
The image processing device 3b is different in configuration from the image processing device 3a in that it includes a placement determination unit 34b instead of the placement determination unit 34 and a selection unit 38. The image processing device 3b is the same as the image processing device 3a in other configurations. Therefore, the description of the entire image processing apparatus 3b is omitted, and the arrangement determination unit 34b and the selection unit 38 will be described.
配置決定部34bは、カメラ2−nの配置位置を決定する決定装置として機能する。配置決定部34bは、選択部38が選択したカメラ2−nの識別情報と、記憶部33に記憶されているカメラ2−1〜2−Nのそれぞれによって撮像された画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報とを入力する。配置決定部34は、入力した複数の画像及び変数情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2−nの配置位置を決定する。
The arrangement determining unit 34b functions as a determining device that determines the arrangement position of the camera 2-n. The arrangement determination unit 34b includes the identification information of the camera 2-n selected by the selection unit 38, images and variable information captured by the cameras 2-1 to 2-N stored in the storage unit 33, and operations. The position information of the observer 5 input via the unit 31, the arrangement information of the object in the real space, and the arrangement information of the cameras 2-1 to 2-N in the real space are input. Based on the input plurality of images and variable information, the placement information of each of the cameras 2-1 to 2 -N, the position information of the observer 5, and the placement information of the object, the placement determination unit 34 Determine the placement position of -n.
具体的には、まず配置決定部34bは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、配置決定部34bはカメラ2−1〜2−Nの現在位置をカメラ2−1〜2−Nの配置位置として決定する。この場合、配置決定部34bは、背景を欠けずに撮像しているカメラ2−nがある旨を示す通知(以下「カメラ有通知」という。)を選択部38に出力する。カメラ有通知には、背景を欠けずに撮像しているカメラ2−nの識別情報と、カメラ2−nのそれぞれの決定配置位置情報とが含まれる。
Specifically, the arrangement determining unit 34b first determines whether or not there is an image that is captured without missing the background among the plurality of input images. When there is an image that is captured without a background missing, the arrangement determining unit 34b determines the current positions of the cameras 2-1 to 2-N as the arrangement positions of the cameras 2-1 to 2-N. In this case, the arrangement determining unit 34b outputs a notification (hereinafter referred to as “camera presence notification”) indicating that there is a camera 2-n that captures an image without missing a background to the selection unit 38. The camera presence notification includes the identification information of the camera 2-n that captures an image without missing the background and the determined arrangement position information of each camera 2-n.
一方、背景が欠けずに撮像されている画像がない場合、配置決定部34bは、背景を欠けずに撮像しているカメラ2−nがない旨を示す通知(以下「カメラ無通知」という。)を選択部38に出力する。また、配置決定部34bは、選択部38によって選択されたカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34bは選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。
On the other hand, when there is no image captured without missing the background, the arrangement determining unit 34b notifies that there is no camera 2-n that is imaged without missing the background (hereinafter referred to as “no camera notification”). ) Is output to the selection unit 38. Further, the arrangement determining unit 34b determines a position moved by a predetermined distance from the current position of the camera 2-n selected by the selection unit 38 as the arrangement position of the selected camera 2-n. When there is no image captured without a background missing, the arrangement determining unit 34b outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.
選択部38は、選択されるカメラ2−nを決定する決定装置として機能する。選択部38は、配置決定部34bから出力されたカメラ有通知又はカメラ無通知と、記憶部33に記憶されている変数情報とを入力とする。選択部38は、配置決定部34bからカメラ無通知が取得された場合、入力した変数情報に基づいて、カメラ2−1〜2−Nのうちカメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度とは、例えば30度とする。なお、選択部38は、カメラ角度が所定の角度以下のカメラ2−nが複数ある場合、距離差に基づいてカメラ2−nを選択する。具体的には、選択部38は、距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38は、選択したカメラ2−nの識別情報を配置決定部34bに出力する。
The selection unit 38 functions as a determination device that determines the camera 2-n to be selected. The selection unit 38 receives the camera presence notification or the camera non-notification output from the arrangement determination unit 34 b and the variable information stored in the storage unit 33. When the camera non-notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects a camera 2-n having a camera angle equal to or smaller than a predetermined angle from the cameras 2-1 to 2-N based on the input variable information. select. The predetermined angle is, for example, 30 degrees. Note that when there are a plurality of cameras 2-n having a camera angle equal to or smaller than a predetermined angle, the selection unit 38 selects the camera 2-n based on the distance difference. Specifically, the selection unit 38 selects a camera 2-n whose distance difference is a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n to the arrangement determination unit 34b.
また、選択部38は、配置決定部34bからカメラ有通知が取得された場合、入力した変数情報に基づいて、カメラ2−1〜2−Nのうちカメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度とは、例えば30度である。なお、選択部38は、カメラ角度が所定の角度以下のカメラ2−nが複数ある場合、距離差に基づいてカメラ2−nを選択する。具体的には、選択部38は、距離差が所定の値以下のカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。選択部38は、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38は、選択したカメラ2−nの識別情報と、選択したカメラ2−nの決定配置位置情報とを切出部36に出力する。
In addition, when the camera presence notification is acquired from the arrangement determination unit 34b, the selection unit 38, based on the input variable information, the camera 2 having a camera angle equal to or smaller than a predetermined angle among the cameras 2-1 to 2-N. Select n. The predetermined angle is, for example, 30 degrees. Note that when there are a plurality of cameras 2-n having a camera angle equal to or smaller than a predetermined angle, the selection unit 38 selects the camera 2-n based on the distance difference. Specifically, the selection unit 38 selects a camera 2-n whose distance difference is a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. The selection unit 38 selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n and the determined arrangement position information of the selected camera 2-n to the cutting unit 36.
画像処理システム1bにおける物体及びカメラ2−1〜2−Nの配置例を図10に示す。図10は、第2の実施形態における物体及びカメラ2−1〜2−Nの配置の例を示す俯瞰図である。図10に示すように、表示装置4を装着している観察者5が位置する実空間のある部屋100には、カメラ2−1〜2−3と、物体6とが配置されている。図10において、観察者5は、視線51の方向を向いている。すなわち、観察者5は、部屋100に配置されている物体6の方向を向いている。これにより、観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって表示装置4を介して観察する。観察者5は、部屋100のaの位置からdの位置までの範囲を、表示装置4を介して見ているものとする。すなわち、aの位置と観察者5の位置とを結ぶ線52−1と、dの位置と観察者5の位置とを結ぶ線52−2と、aの位置とdの位置とを結ぶ線とで得られる範囲が観察者5の視野の範囲である。
An arrangement example of objects and cameras 2-1 to 2-N in the image processing system 1b is shown in FIG. FIG. 10 is an overhead view showing an example of the arrangement of objects and cameras 2-1 to 2-N in the second embodiment. As shown in FIG. 10, cameras 2-1 to 2-3 and an object 6 are arranged in a room 100 having a real space where an observer 5 wearing the display device 4 is located. In FIG. 10, the observer 5 is facing the direction of the line of sight 51. That is, the observer 5 faces the direction of the object 6 arranged in the room 100. Thereby, the observer 5 observes the object optical image of the object 6 arranged in the room 100 through the display device 4 with the light transmitted through the screen of the display device 4. It is assumed that the observer 5 is viewing the range from the position a to the position d in the room 100 via the display device 4. That is, a line 52-1 connecting the position a and the position of the observer 5, a line 52-2 connecting the position d and the position of the observer 5, and a line connecting the position a and the position d. Is the range of the visual field of the observer 5.
カメラ2−1〜2−3は、予め定められた向きで、部屋100の予め定められた位置に配置される。第2の実施形態において、カメラ2−1は観察者5の視線51の方向と、カメラ2−1の光軸20−1の方向とが水平になるように配置され、カメラ2−2及び2−3は観察者5の視線51の方向と、カメラ2−2の光軸20−2の方向及びカメラ2−3の光軸20−3の方向とが異なるように配置されている。
The cameras 2-1 to 2-3 are arranged at predetermined positions in the room 100 in a predetermined direction. In the second embodiment, the camera 2-1 is arranged so that the direction of the line of sight 51 of the observer 5 and the direction of the optical axis 20-1 of the camera 2-1 are horizontal, and the cameras 2-2 and 2. -3 is arranged so that the direction of the line of sight 51 of the observer 5 is different from the direction of the optical axis 20-2 of the camera 2-2 and the direction of the optical axis 20-3 of the camera 2-3.
図11は、カメラ2−1〜2−3によって撮像された画像の具体例を示す図である。図11において、図11(a)はカメラ2−1が画像処理装置3bに出力したカメラ画像22であり、図11(b)はカメラ2−2が画像処理装置3bに出力したカメラ画像23であり、図11(c)はカメラ2−3が画像処理装置3bに出力したカメラ画像24である。図11(a)〜(c)に示すように、カメラ画像22〜24では、壁Cの範囲(背景b−c間)の一部が物体6に遮蔽されていて壁Cの全てが撮像されていない。このような場合、第2の実施形態における画像処理装置3bは、複数のカメラ2−1〜2−Nのうち選択したカメラ2−nを、背景が欠けずに撮像できる位置に移動させる。
FIG. 11 is a diagram illustrating a specific example of images captured by the cameras 2-1 to 2-3. 11A shows a camera image 22 output from the camera 2-1 to the image processing apparatus 3b, and FIG. 11B shows a camera image 23 output from the camera 2-2 to the image processing apparatus 3b. FIG. 11C shows a camera image 24 output from the camera 2-3 to the image processing apparatus 3b. As shown in FIGS. 11A to 11C, in the camera images 22 to 24, a part of the range of the wall C (between the backgrounds b and c) is shielded by the object 6, and the entire wall C is imaged. Not. In such a case, the image processing device 3b according to the second embodiment moves the camera 2-n selected from the plurality of cameras 2-1 to 2-N to a position where the image can be captured without missing the background.
図12は、第2の実施形態における画像処理装置3bの処理の流れを示すフローチャートである。なお、図12の説明では、既に変数決定部32による処理は行われているものとする。また、図12では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから画像を取得する(ステップS201)。画像取得部30は、取得した複数の画像をそれぞれ、カメラ2−1〜2−Nのそれぞれの識別情報に対応付けて記憶部33に記録する。配置決定部34bは、記憶部33に記憶されている、カメラ2−1〜2−Nによって撮像された画像をそれぞれ取得する。配置決定部34bは、取得した複数の画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2−1〜2−Nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS202)。
FIG. 12 is a flowchart illustrating a processing flow of the image processing apparatus 3b according to the second embodiment. In the description of FIG. 12, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 12 illustrates processing when still images are acquired from a plurality of cameras 2-1 to 2-N.
The image acquisition unit 30 acquires images from each of the plurality of cameras 2-1 to 2-N (step S201). The image acquisition unit 30 records the acquired images in the storage unit 33 in association with the identification information of each of the cameras 2-1 to 2 -N. The arrangement determination unit 34 b acquires images captured by the cameras 2-1 to 2 -N and stored in the storage unit 33. The arrangement determining unit 34b is based on the acquired images, the position information of the observer 5 input via the operation unit 31, the object arrangement information, and the arrangement information of the cameras 2-1 to 2-N. Then, it is determined whether or not there is an image that has been imaged with no background missing (step S202).
例えば、配置決定部34bは、取得したカメラ2−1〜2−Nのそれぞれの画像全て又は一部に背景が欠けずに撮像されているか、カメラ2−1〜2−Nのそれぞれの画像全てに背景が欠けて撮像されているかを判定する。取得したカメラ2−1〜2−Nのそれぞれの画像全て又は一部に背景が欠けずに撮像されている場合、配置決定部34bは背景が欠けずに撮像されている画像があると判定する。一方、取得したカメラ2−1〜2−Nのそれぞれの画像全てに背景が欠けて撮像されている場合、配置決定部34bは背景が欠けずに撮像されている画像がないと判定する。
For example, the arrangement determination unit 34b captures all the images of the acquired cameras 2-1 to 2-N or a part thereof without any background, or the entire images of the cameras 2-1 to 2-N. It is determined whether or not the background is missing. When all or some of the acquired images of the cameras 2-1 to 2-N are captured without any background, the arrangement determining unit 34b determines that there is an image that is captured without any background missing. . On the other hand, when all of the acquired images of the cameras 2-1 to 2-N are captured with the background missing, the arrangement determining unit 34b determines that there is no image captured without the background missing.
背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、配置決定部34bはカメラ無通知を選択部38に出力する。選択部38は、配置決定部34bからカメラ無通知が取得されると、記憶部33に記憶されている変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する(ステップS203)。その後、選択部38は、選択したカメラ2−nの識別情報を配置決定部34bに出力する。配置決定部34bは、選択部38から出力されたカメラ2−nの識別情報で識別されるカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する(ステップS204)。その後、配置決定部34bは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。
When there is no image captured without a background missing (step S202—NO), the arrangement determining unit 34b outputs a camera non-notification to the selecting unit 38. When the camera non-notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects a camera 2-n whose camera angle is equal to or smaller than a predetermined angle based on the variable information stored in the storage unit 33 (step S40). S203). Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n to the arrangement determination unit 34b. The arrangement determining unit 34b moves the position moved by a predetermined distance from the current position of the camera 2-n identified by the identification information of the camera 2-n output from the selection unit 38 to the arrangement position of the selected camera 2-n. (Step S204). Thereafter, the arrangement determining unit 34b outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.
移動部35は、配置決定部34から出力されたカメラ2−nの識別情報と、決定配置位置情報とに基づいて、識別情報で識別されるカメラ2−nを、決定配置位置情報で示される位置に移動させる(ステップS205)。画像取得部30は、移動後のカメラ2−nによって撮像された画像を取得する(ステップS206)。画像取得部30は、取得した画像を記憶部33に記録する。
The moving unit 35 indicates the camera 2-n identified by the identification information based on the identification information of the camera 2-n output from the arrangement determining unit 34 and the determined arrangement position information, by the determined arrangement position information. The position is moved (step S205). The image acquisition unit 30 acquires an image captured by the camera 2-n after movement (step S206). The image acquisition unit 30 records the acquired image in the storage unit 33.
配置決定部34bは、記憶部33に記憶されている、移動後のカメラ2−nによって撮像された画像を取得する。配置決定部34bは、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2−nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS207)。背景が欠けずに撮像されている画像がない場合(ステップS207−NO)、画像処理装置3bはステップS204以降の処理を繰り返し実行する。
The arrangement determining unit 34b acquires an image captured by the moved camera 2-n stored in the storage unit 33. Based on the acquired image, the positional information of the observer 5 input via the operation unit 31, the positional information of the object, and the positional information of the camera 2-n, the layout determining unit 34b has no background. It is determined whether there is a captured image (step S207). If there is no image captured without a missing background (step S207—NO), the image processing device 3b repeatedly executes the processing after step S204.
一方、背景が欠けずに撮像されている画像がある場合(ステップS207−YES)、配置決定部34bはカメラ有通知を選択部38に出力する。選択部38は、配置決定部34bからカメラ有通知が取得されると、背景を欠けずに撮像しているカメラ2−nの中からカメラ2−nを選択する。その後、選択部38は、選択したカメラ2−nの識別情報と、選択したカメラ2−nの決定配置位置情報とを切出部36に出力する。切出部36は、選択部38から出力された識別情報で識別されるカメラ2−nによって撮像された画像を記憶部33から取得する。切出部36は、取得した画像から背景部分画像を切り出す。また、切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、切出部36は、貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。切出部36は、背景部分画像と、表示位置情報とを出力部37に出力する。
On the other hand, when there is an image that has been captured without any background missing (step S207—YES), the arrangement determination unit 34b outputs a camera presence notification to the selection unit 38. When the camera presence notification is acquired from the arrangement determination unit 34b, the selection unit 38 selects the camera 2-n from the cameras 2-n that capture images without missing the background. Thereafter, the selection unit 38 outputs the identification information of the selected camera 2-n and the determined arrangement position information of the selected camera 2-n to the cutting unit 36. The cutout unit 36 acquires an image captured by the camera 2-n identified by the identification information output from the selection unit 38 from the storage unit 33. The cutout unit 36 cuts out the background partial image from the acquired image. Further, the cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the cutout unit 36 determines the area specified by the pasting position information as the display position of the background partial image on the display screen. The cutout unit 36 outputs the background partial image and the display position information to the output unit 37.
出力部37は、切出部36から出力された背景部分画像と表示位置情報とを入力する。出力部37は、入力した背景部分画像に対して画像処理を行う。具体的には、出力部37は、背景部分画像を、観察者5の視線51の方向から見た画像に変換する。例えば、出力部37は、アフィン変換行列を用いたアフィン変換処理を背景部分画像に対して施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。その後、出力部37は、変換後の背景部分画像と表示位置情報とを表示装置4に出力する(ステップS208)。
The output unit 37 inputs the background partial image and the display position information output from the cutout unit 36. The output unit 37 performs image processing on the input background partial image. Specifically, the output unit 37 converts the background partial image into an image viewed from the direction of the line of sight 51 of the observer 5. For example, the output unit 37 performs affine transformation processing using an affine transformation matrix on the background partial image. The affine transformation matrix may include information indicating a region to be subjected to processing such as rotation, enlargement, or reduction. Thereafter, the output unit 37 outputs the converted background partial image and display position information to the display device 4 (step S208).
また、ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、画像処理装置3bはステップS208の処理を実行する。
Further, in the process of step S202, when there is an image that is captured with no background missing (step S202—YES), the image processing device 3b executes the process of step S208.
画像取得部30が動画像を取得する場合について、図12に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34bは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 12 will be described. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2-1 to 2-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34b determines whether there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS206において、画像取得部30は、移動後の複数のカメラ2−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS207において、配置決定部34bは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動後のカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS207において、背景が欠けずに撮像されている画像がない場合、画像処理装置3bはステップS204以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S206, the image acquisition unit 30 acquires a moving image from the plurality of cameras 2-n after movement, and acquires the acquired moving image. Each frame image is acquired from. In step S207, the arrangement determining unit 34b determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2-n after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S207, when there is no image captured without a missing background, the image processing device 3b executes the processing after step S204.
以上のように、第2の実施形態の画像処理装置3bは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第2の実施形態の決定装置は、配置決定部34bと、選択部38とを備える。選択部38は、複数のカメラ2−1〜2−Nのうちカメラ角度に基づいてカメラ2−nを選択する。配置決定部34bは、選択されたカメラ2−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2−nの移動先であるカメラ2−nの配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3bは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3b of the second embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination apparatus according to the second embodiment includes an arrangement determination unit 34b and a selection unit 38. The selection unit 38 selects the camera 2-n based on the camera angle among the plurality of cameras 2-1 to 2-N. The arrangement determination unit 34b can capture an image of the selected camera 2-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The arrangement position of the camera 2-n which is the movement destination of the camera 2-n is determined. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3b can acquire a background image that is blocked by a specific object and cannot be seen by the user.
<変形例>
画像処理装置3bは、特定の物体が移動又は特定の物体が変更された場合に図12の処理を実行してもよいし、観察者5が移動した場合に図12の処理を実行してもよい。
画像取得部30は、移動後のカメラ2−nから取得した画像を切出部36に出力してもよい。このように構成される場合、移動部35は、カメラ2−nの移動が完了した旨を示す通知を画像取得部30に出力する。移動部35が出力する通知には、例えば、カメラ2−nの識別情報が含まれる。画像取得部30は、移動部35から通知を取得した後に、識別情報で識別されるカメラ2−nから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。この場合、配置決定部34bは配置位置を決定したカメラ2−nの識別情報を切出部36に出力しなくてよい。
<Modification>
The image processing apparatus 3b may execute the process of FIG. 12 when the specific object moves or the specific object is changed, or may execute the process of FIG. 12 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the moved camera 2-n to the cutout unit 36. When configured in this way, the moving unit 35 outputs a notification indicating that the movement of the camera 2-n is completed to the image acquiring unit 30. The notification output by the moving unit 35 includes, for example, identification information of the camera 2-n. When the image acquisition unit 30 acquires the notification from the moving unit 35 and then acquires an image from the camera 2-n identified by the identification information, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen. In this case, the arrangement determining unit 34b may not output the identification information of the camera 2-n that has determined the arrangement position to the cutting unit 36.
(第3の実施形態)
第1の実施形態及び第2の実施形態では、カメラを背景が全て撮像できる位置に移動させる構成を示した。これに対し、第3の実施形態では、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する点で第1の実施形態及び第2の実施形態と相違する。第3の実施形態では、第1の実施形態及び第2の実施形態との相違点についてのみ説明する。
(Third embodiment)
In 1st Embodiment and 2nd Embodiment, the structure which moves a camera to the position which can image all the backgrounds was shown. On the other hand, in the third embodiment, the position and orientation of the destination of the camera so that the entire background can be imaged and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. This is different from the first and second embodiments in that it is controlled. In the third embodiment, only differences from the first embodiment and the second embodiment will be described.
図13は、第3の実施形態における画像処理システム1cの構成の例を示す図である。画像処理システム1cは、カメラ2cと、画像処理装置3cと、表示装置4とを備える。
カメラ2cは、物体が配置されている実空間において、予め定められた向きで予め定められた位置に配置されている。カメラ2cは、画像処理装置3cの制御に応じて移動及び向きが変更される。カメラ2cは、レンズである光学系を介して実空間を撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。カメラ2cは、撮像した静止画像又は動画像である画像を、画像処理装置3cに出力する。
FIG. 13 is a diagram illustrating an example of a configuration of an image processing system 1c according to the third embodiment. The image processing system 1c includes a camera 2c, an image processing device 3c, and a display device 4.
The camera 2c is arranged at a predetermined position in a predetermined direction in the real space where the object is arranged. The movement and orientation of the camera 2c are changed according to the control of the image processing device 3c. The camera 2c images real space through an optical system that is a lens. The optical system may be a wide-angle lens, a fish-eye lens, or an omnidirectional lens. The camera 2c outputs an image that is a captured still image or moving image to the image processing device 3c.
画像処理装置3cは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3cと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3cは、カメラ2cが出力した画像に画像処理を施す。画像処理装置3cは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3cは、画像処理が施された画像を表示装置4に出力する。画像処理装置3cは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3cは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
The image processing device 3c is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3c and the display device 4 may be separate or integrated. The image processing device 3c performs image processing on the image output from the camera 2c. For example, the image processing device 3c may execute image processing at an image acquisition period (frame rate) of the camera. The image processing device 3c outputs the image subjected to the image processing to the display device 4. For example, the image processing device 3c may execute an image output process at a display cycle (refresh rate) of the display device. That is, the image processing device 3c may perform moving image processing on a moving image including a plurality of frame images.
画像処理装置3cは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34c、切出部36、出力部37、配置部39を備える装置として機能する。なお、画像処理装置3cの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3c includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34c, a cutout unit 36, an output unit 37, and an arrangement unit 39. Functions as a device. Note that all or part of the functions of the image processing apparatus 3c may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3cは、記憶部33及び配置決定部34に代えて記憶部33c及び配置決定部34cを備える点、配置部39を新たに備える点、移動部35を備えない点で画像処理装置3aと構成が異なる。画像処理装置3cは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3c全体の説明は省略し、記憶部33c、配置決定部34c及び配置部39について説明する。
The image processing device 3c is different from the image processing device 3a in that the storage unit 33c and the arrangement determination unit 34c are provided in place of the storage unit 33 and the arrangement determination unit 34, the arrangement unit 39 is newly provided, and the movement unit 35 is not provided. And the configuration is different. The image processing device 3c is the same as the image processing device 3a in other configurations. Therefore, description of the entire image processing apparatus 3c is omitted, and the storage unit 33c, the arrangement determination unit 34c, and the arrangement unit 39 will be described.
記憶部33cは、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部33cは、画像取得部30によって取得された画像と、カメラ2cの配置に関する変数情報とを記憶する。記憶部33cは、カメラ2cの配置情報(座標、光軸方向)を記憶してもよい。また、記憶部33cは、カメラ2cの回転に関する情報を表すテーブル(以下「回転情報テーブル」という。)を記憶する。
The storage unit 33c is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The memory | storage part 33c memorize | stores the image acquired by the image acquisition part 30, and the variable information regarding arrangement | positioning of the camera 2c. The storage unit 33c may store arrangement information (coordinates, optical axis direction) of the camera 2c. Further, the storage unit 33c stores a table (hereinafter referred to as “rotation information table”) representing information related to the rotation of the camera 2c.
図14は、回転情報テーブルの具体例を示す図である。回転情報テーブルは、カメラ2cの位置とカメラ角度毎に、カメラ2cの回転角度が予め設定されたテーブルである。回転情報テーブルにおいて、位置は、カメラ2cが移動していない場合にはカメラ2cが現在配置されている位置を表し、カメラ2cが移動している場合には移動後のカメラ2cが配置されている位置を表す。カメラ角度は、観察者5の視線方向とカメラ2cの光軸との成す角度を表す。回転角度は、カメラ2cの回転角度を表す。例えば、回転角度は、カメラ2cの現在の角度からどのくらい回転させるかを表す。
FIG. 14 is a diagram illustrating a specific example of the rotation information table. The rotation information table is a table in which the rotation angle of the camera 2c is set in advance for each position and camera angle of the camera 2c. In the rotation information table, the position represents the position where the camera 2c is currently arranged when the camera 2c is not moving, and the moved camera 2c is arranged when the camera 2c is moving. Represents the position. The camera angle represents an angle formed between the viewing direction of the observer 5 and the optical axis of the camera 2c. The rotation angle represents the rotation angle of the camera 2c. For example, the rotation angle represents how much the camera 2c is rotated from the current angle.
配置決定部34cは、カメラ2cの配置位置及び向きを決定する決定装置として機能する。配置決定部34cは、記憶部33cに記憶されている画像、変数情報及び回転情報テーブルと、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、カメラ2cの配置情報とを入力する。配置決定部34cは、入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2cの配置位置及び向きを決定する。具体的には、まず配置決定部34cは、入力した画像に背景が欠けずに撮像されているか否か判定する。入力した画像に背景が欠けずに撮像されている場合、配置決定部34cはカメラ2cの現在位置をカメラ2cの配置位置として決定する。配置決定部34cは、決定配置位置情報を切出部36に出力する。
The arrangement determining unit 34c functions as a determining device that determines the arrangement position and orientation of the camera 2c. The arrangement determining unit 34c includes an image, variable information and rotation information table stored in the storage unit 33c, position information of the observer 5 input via the operation unit 31, and object arrangement information in real space. The arrangement information of the camera 2c is input. The arrangement determination unit 34c determines the arrangement position and orientation of the camera 2c based on the input image, variable information and rotation information table, the arrangement information of the camera 2c, the position information of the observer 5, and the arrangement information of the object. decide. Specifically, the arrangement determining unit 34c first determines whether or not the input image is captured without a background. When the input image is captured without any background missing, the arrangement determining unit 34c determines the current position of the camera 2c as the arrangement position of the camera 2c. The arrangement determining unit 34 c outputs the determined arrangement position information to the cutting unit 36.
一方、入力した画像に背景が欠けずに撮像されていない場合、配置決定部34cはカメラ2cの現在位置からカメラ2cを所定の距離移動した位置をカメラ2cの配置位置として決定する。ここで、カメラ2cを所定の距離移動した位置とは、カメラ2cの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2cを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度に設定しておく)移動した位置である。
On the other hand, if the input image is not captured without a background, the arrangement determining unit 34c determines the position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c as the arrangement position of the camera 2c. Here, the position where the camera 2c is moved by a predetermined distance refers to the area where the camera 2c is imaged on the same plane as the background from the arrangement information of the camera 2c, and the camera 2c is determined in a direction closer to the calculated background area. (For example, set to about 10% of the distance from the initial position of the camera to the background).
また、配置決定部34cは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34cは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34cは、カメラ移動先配置情報を配置部39に出力する。カメラ移動先配置情報とは、配置決定部34cが決定した配置位置の座標及び回転角度を表す情報である。
Further, the arrangement determining unit 34c refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34c determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determination unit 34 c outputs camera movement destination arrangement information to the arrangement unit 39. The camera movement destination arrangement information is information representing the coordinates and rotation angle of the arrangement position determined by the arrangement determination unit 34c.
配置部39は、配置決定部34cから出力されたカメラ移動先配置情報を入力する。まず配置部39は、入力したカメラ移動先配置情報に基づいて、カメラ2cをカメラ移動先配置情報で示される位置に移動させる。例えば、配置部39は、移動させる前の位置におけるカメラ2cの光軸方向を維持したまま、カメラ2cを所定位置まで移動させる。その後、配置部39は、カメラ移動先配置情報に含まれる回転角度分カメラ2cを回転させることによって、決定された向きにカメラ2cを配置する。例えば、配置部39は、モータ等のアクチュエータを駆動することによって、カメラ2cを移動及び配置する。なお、配置部39は、位置センサの検出結果に基づいて、移動後のカメラ2cの位置情報を検出してもよい。配置部39は、加速度センサや方位センサの検出結果に基づいて、カメラ2cの向き(姿勢情報)を検出してもよい。
The placement unit 39 receives the camera movement destination placement information output from the placement determination unit 34c. First, the arrangement unit 39 moves the camera 2c to a position indicated by the camera movement destination arrangement information based on the input camera movement destination arrangement information. For example, the placement unit 39 moves the camera 2c to a predetermined position while maintaining the optical axis direction of the camera 2c at the position before the movement. Thereafter, the arrangement unit 39 arranges the camera 2c in the determined direction by rotating the camera 2c by the rotation angle included in the camera movement destination arrangement information. For example, the placement unit 39 moves and places the camera 2c by driving an actuator such as a motor. In addition, the arrangement | positioning part 39 may detect the positional information on the camera 2c after a movement based on the detection result of a position sensor. The placement unit 39 may detect the orientation (posture information) of the camera 2c based on the detection results of the acceleration sensor and the orientation sensor.
図15は、第3の実施形態における画像処理装置3cの処理の流れを示すフローチャートである。なお、図15の説明では、既に変数決定部32による処理は行われているものとする。図15において、図8と同様の処理については図8と同様の符号を付して説明を省略する。また、図15では、カメラ2cから静止画像を取得した場合の処理について説明する。
ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34cは入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2cの配置位置及び向きを決定する(ステップS301)。配置決定部34cは、カメラ移動先配置情報を配置部39に出力する。配置部39は、配置決定部34cから出力されたカメラ移動先配置情報に含まれる配置位置の座標に基づいて、カメラ2cを、カメラ移動先位置に移動させる(ステップS302)。
FIG. 15 is a flowchart illustrating a processing flow of the image processing apparatus 3c according to the third embodiment. In the description of FIG. 15, it is assumed that the processing by the variable determination unit 32 has already been performed. 15, processes similar to those in FIG. 8 are denoted by the same reference numerals as those in FIG. 8, and description thereof is omitted. In addition, FIG. 15 illustrates processing when a still image is acquired from the camera 2c.
In the process of step S102, when there is no image captured without a missing background (step S102-NO), the arrangement determining unit 34c inputs the input image, variable information and rotation information table, arrangement information of the camera 2c, Based on the position information of the observer 5 and the arrangement information of the object, the arrangement position and orientation of the camera 2c are determined (step S301). The arrangement determination unit 34 c outputs camera movement destination arrangement information to the arrangement unit 39. The arrangement unit 39 moves the camera 2c to the camera movement destination position based on the coordinates of the arrangement position included in the camera movement destination arrangement information output from the arrangement determination unit 34c (step S302).
その後、配置部39は、カメラ移動先配置情報に含まれる回転角度に基づいて、カメラ2cを、回転角度で示される角度分回転させる(ステップS303)。画像取得部30は、移動及び回転後のカメラ2cによって撮像された画像を取得する(ステップS304)。例えば、画像取得部30は、配置部39からカメラ2cの移動及び回転が完了した旨の通知を受けた後に、カメラ2cによって撮像された画像を移動及び回転後のカメラ2cによって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33cに記録する。
Thereafter, the arrangement unit 39 rotates the camera 2c by an angle indicated by the rotation angle based on the rotation angle included in the camera movement destination arrangement information (step S303). The image acquisition unit 30 acquires an image captured by the camera 2c after movement and rotation (step S304). For example, the image acquisition unit 30 receives the notification that the movement and rotation of the camera 2c has been completed from the placement unit 39, and then converts the image captured by the camera 2c as an image captured by the camera 2c after movement and rotation. You may get it. The image acquisition unit 30 records the acquired image in the storage unit 33c.
配置決定部34cは、記憶部33cに記憶されている、移動及び回転後のカメラ2cによって撮像された画像を取得する。配置決定部34cは、取得した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS305)。背景が欠けずに撮像されている画像がない場合(ステップS305−NO)、画像処理装置3cはステップS301以降の処理を繰り返し実行する。
一方、背景が欠けずに撮像されている画像がある場合(ステップS305−YES)、画像処理装置3cはステップS107の処理を実行する。
The arrangement determination unit 34c acquires an image captured by the camera 2c after movement and rotation, which is stored in the storage unit 33c. Based on the acquired image, variable information and rotation information table, the placement information of the camera 2c, the position information of the observer 5, and the placement information of the object, the placement determination unit 34c is imaged without missing a background. It is determined whether there is an image (step S305). When there is no image captured without a missing background (step S305—NO), the image processing device 3c repeatedly executes the processing after step S301.
On the other hand, when there is an image that has been imaged with no background missing (step S305—YES), the image processing device 3c executes the process of step S107.
画像取得部30が動画像を取得する場合について、図15に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34cは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
Differences from the process shown in FIG. 15 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2c, and acquires each frame image from the acquired moving image. In step S102, the arrangement determining unit 34c determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured with no background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS304において、画像取得部30は、移動及び回転後のカメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS305において、配置決定部34cは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動及び回転後のカメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS305において、背景が欠けずに撮像されている画像がない場合、画像処理装置3cはステップS301以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S304, the image acquisition unit 30 acquires a moving image from the camera 2c after movement and rotation, and each image is acquired from the acquired moving image. Get a frame image. In step S <b> 305, the arrangement determining unit 34 c determines whether there is an image that has been captured without any background missing, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S305, when there is no image captured without a missing background, the image processing device 3c executes the processing after step S301.
以上のように、第3の実施形態の画像処理装置3cは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第3の実施形態の決定装置は、配置決定部34cを備える。配置決定部34cは、カメラ2cで撮像された画像を観察者5の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラ2cの移動先の位置及び向きを決定する。これによって、決定された配置位置に配置され、決定された向きに配置された撮像装置によって撮像された画像を取得することによって、画像処理装置3cは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3c according to the third embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus according to the third embodiment includes an arrangement determining unit 34c. The arrangement determination unit 34c determines the position and orientation of the movement destination of the camera 2c so that the influence when converting the image captured by the camera 2c into an image viewed from the direction of the line of sight of the observer 5 is reduced. As a result, the image processing device 3c is shielded by a specific object and can be viewed from the user by acquiring an image captured by the imaging device arranged at the determined arrangement position and arranged in the determined orientation. It becomes possible to obtain a background image that cannot be obtained.
<変形例>
画像処理装置3cは、特定の物体が移動又は特定の物体が変更された場合に図15の処理を実行してもよいし、観察者5が移動した場合に図15の処理を実行してもよい。
画像取得部30は、移動及び向きが調節された後のカメラ2cから取得した画像を切出部36に出力してもよい。このように構成される場合、配置部39は、カメラ2cの移動及び向きの調節が完了した旨を示す通知を画像取得部30に出力する。画像取得部30は、配置部39から通知を取得した後にカメラ2cから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。
<Modification>
The image processing apparatus 3c may execute the process of FIG. 15 when the specific object moves or the specific object is changed, or may execute the process of FIG. 15 when the observer 5 moves. Good.
The image acquisition unit 30 may output an image acquired from the camera 2c after the movement and orientation are adjusted to the cutout unit 36. When configured in this way, the arrangement unit 39 outputs a notification indicating that the movement and orientation adjustment of the camera 2c has been completed to the image acquisition unit 30. When the image acquisition unit 30 acquires an image from the camera 2 c after acquiring the notification from the arrangement unit 39, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen.
(第4の実施形態)
第3の実施形態では、画像処理システムに一台のカメラが備えられ、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。これに対し、第4の実施形態では、画像処理システムに複数のカメラが備えられ、画像処理装置が、複数のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する点で第3の実施形態と相違する。第4の実施形態では、第3の実施形態との相違点についてのみ説明する。
(Fourth embodiment)
In the third embodiment, a single camera is provided in the image processing system so that the entire background can be imaged, and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. A configuration for controlling the position and orientation of the camera destination is shown. On the other hand, in the fourth embodiment, the image processing system is provided with a plurality of cameras, and the image processing apparatus selects one camera from the plurality of cameras so that the background of the selected camera can be captured. In addition, the third embodiment is different from the third embodiment in that the position and orientation of the movement destination of the camera are controlled so as to reduce the influence upon conversion to an image viewed from the direction of the line of sight of the observer. In the fourth embodiment, only differences from the third embodiment will be described.
図16は、第4の実施形態における画像処理システム1dの構成の例を示す図である。画像処理システム1dは、カメラ2c−1〜2c−Nと、画像処理装置3dと、表示装置4とを備える。画像処理装置3dは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3dと表示装置4とは、別体でもよいし一体でもよい。以下では、Nは一例として3である。
FIG. 16 is a diagram illustrating an example of a configuration of an image processing system 1d according to the fourth embodiment. The image processing system 1d includes cameras 2c-1 to 2c-N, an image processing device 3d, and a display device 4. The image processing device 3d is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3d and the display device 4 may be separate or integrated. In the following, N is 3 as an example.
画像処理装置3dは、カメラ2c−1〜2c−Nのうち選択されたカメラ2c−nが出力した画像に画像処理を施す。画像処理装置3dは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3dは、画像処理が施された画像を表示装置4に出力する。画像処理装置3dは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3dは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
The image processing device 3d performs image processing on an image output from the camera 2c-n selected from the cameras 2c-1 to 2c-N. The image processing device 3d may execute image processing at, for example, a camera image acquisition period (frame rate). The image processing device 3d outputs the image subjected to the image processing to the display device 4. The image processing device 3d may execute image output processing at, for example, the display cycle (refresh rate) of the display device. That is, the image processing device 3d may perform moving image processing on a moving image including a plurality of frame images.
画像処理装置3dは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3dは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34d、配置部39、切出部36、出力部37、選択部38dを備える装置として機能する。なお、画像処理装置3dの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3d includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3d causes the image acquisition unit 30, the operation unit 31, the variable determination unit 32, the storage unit 33c, the arrangement determination unit 34d, the arrangement unit 39, the cutout unit 36, the output unit 37, and the selection. It functions as a device including the unit 38d. Note that all or part of the functions of the image processing device 3d may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3dは、配置決定部34cに代えて配置決定部34dを備える点、選択部38dを新たに備える点で画像処理装置3cと構成が異なる。画像処理装置3dは、他の構成については画像処理装置3cと同様である。そのため、画像処理装置3d全体の説明は省略し、配置決定部34d及び選択部38dについて説明する。
The image processing apparatus 3d is different in configuration from the image processing apparatus 3c in that it includes an arrangement determination unit 34d instead of the arrangement determination unit 34c and a selection unit 38d. The other configuration of the image processing device 3d is the same as that of the image processing device 3c. Therefore, the description of the entire image processing apparatus 3d is omitted, and the arrangement determination unit 34d and the selection unit 38d will be described.
配置決定部34dは、カメラ2c−nの配置位置及び向きを決定する決定装置として機能する。配置決定部34dは、選択部38dが選択したカメラ2c−nの識別情報と、記憶部33cに記憶されているカメラ2c−1〜2c−Nのそれぞれによって撮像された画像、変数情報及び回転情報テーブルと、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2c−1〜2c−Nのそれぞれの配置情報とを入力する。配置決定部34dは、入力した複数の画像、変数情報及び回転情報テーブルと、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、カメラ2c−nの配置位置及び向きを決定する。
The arrangement determining unit 34d functions as a determining device that determines the arrangement position and orientation of the cameras 2c-n. The arrangement determination unit 34d includes the identification information of the camera 2c-n selected by the selection unit 38d, and the images, variable information, and rotation information captured by the cameras 2c-1 to 2c-N stored in the storage unit 33c. The table, the position information of the observer 5 input via the operation unit 31, the object arrangement information in the real space, and the arrangement information of the cameras 2c-1 to 2c-N in the real space are input. The arrangement determination unit 34d is based on the plurality of input images, variable information and rotation information tables, the arrangement information of the cameras 2c-1 to 2c-N, the position information of the observer 5, and the arrangement information of the object. Thus, the arrangement position and orientation of the camera 2c-n are determined.
具体的には、まず配置決定部34dは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、配置決定部34dはカメラ2c−1〜2c−Nの現在位置をカメラ2c−1〜2c−Nの配置位置として決定する。この場合、配置決定部34dは、カメラ有通知を選択部38dに出力する。
Specifically, the arrangement determining unit 34d first determines whether or not there is an image that has been captured without any background loss among the plurality of input images. When there is an image that is captured without a background missing, the arrangement determining unit 34d determines the current positions of the cameras 2c-1 to 2c-N as the arrangement positions of the cameras 2c-1 to 2c-N. In this case, the arrangement determination unit 34d outputs a camera presence notification to the selection unit 38d.
一方、背景が欠けずに撮像されている画像がない場合、配置決定部34dは、カメラ無通知を選択部38dに出力する。また、配置決定部34dは、選択部38dによって選択されたカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34dは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34dは、取得した回転角度の値をカメラ2c−nの向きとして決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34dは選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。
On the other hand, when there is no image captured without a missing background, the arrangement determination unit 34d outputs a camera non-notification to the selection unit 38d. Further, the arrangement determining unit 34d determines a position moved by a predetermined distance from the current position of the camera 2c-n selected by the selection unit 38d as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34d refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34d determines the acquired rotation angle value as the direction of the camera 2c-n. When there is no image captured without a background missing, the arrangement determining unit 34 d outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39.
選択部38dは、選択されるカメラ2c−nを決定する決定装置として機能する。選択部38dは、配置決定部34dから出力されたカメラ有通知又はカメラ無通知と、記憶部33cに記憶されている変数情報とを入力とする。選択部38dは、配置決定部34dからカメラ無通知が取得された場合、入力した変数情報に基づいて、射影変換量が小さくなるようにカメラ2c−nを選択する。例えば、選択部38dは、カメラ2c−1〜2c−Nのうちカメラ角度が所定の角度以下のカメラ2c−nを選択する。所定の角度とは、例えば30度とする。なお、選択部38dは、カメラ角度が所定の角度以下のカメラ2c−nが複数ある場合、距離差に基づいてカメラ2c−nを選択する。具体的には、選択部38dは、距離差が所定の値以下のカメラ2c−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。選択部38dは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38dは、選択したカメラ2c−nの識別情報を配置決定部34dに出力する。
The selection unit 38d functions as a determination device that determines the camera 2c-n to be selected. The selection unit 38d receives the camera presence notification or the camera non-notification output from the arrangement determination unit 34d and the variable information stored in the storage unit 33c. When the camera non-notification is acquired from the arrangement determination unit 34d, the selection unit 38d selects the camera 2c-n based on the input variable information so that the projection conversion amount is reduced. For example, the selection unit 38d selects the camera 2c-n whose camera angle is equal to or smaller than a predetermined angle among the cameras 2c-1 to 2c-N. The predetermined angle is, for example, 30 degrees. The selection unit 38d selects the camera 2c-n based on the distance difference when there are a plurality of cameras 2c-n having a camera angle equal to or smaller than a predetermined angle. Specifically, the selection unit 38d selects the camera 2c-n whose distance difference is equal to or smaller than a predetermined value. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. The selection unit 38d selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34d.
また、選択部38dは、配置決定部34dからカメラ有通知が取得された場合、入力した変数情報に基づいて、カメラ2c−1〜2c−Nのうちカメラ角度が所定の角度以下のカメラ2c−nを選択する。なお、選択部38dは、カメラ角度が所定の角度以下のカメラ2c−nが複数ある場合、距離差に基づいてカメラ2c−nを選択する。具体的には、選択部38dは、距離差が所定の値以下のカメラ2c−nを選択する。選択部38dは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。その後、選択部38dは、選択したカメラ2c−nの識別情報と、選択したカメラ2c−nの決定配置位置情報とを切出部36に出力する。
In addition, when the camera presence notification is acquired from the arrangement determination unit 34d, the selection unit 38d, based on the input variable information, the camera 2c- whose camera angle is equal to or less than a predetermined angle among the cameras 2c-1 to 2c-N Select n. The selection unit 38d selects the camera 2c-n based on the distance difference when there are a plurality of cameras 2c-n having a camera angle equal to or smaller than a predetermined angle. Specifically, the selection unit 38d selects the camera 2c-n whose distance difference is equal to or smaller than a predetermined value. The selection unit 38d selects the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than the predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. You may choose. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n and the determined arrangement position information of the selected camera 2c-n to the cutting unit 36.
図17は、第4の実施形態における画像処理装置3dの処理の流れを示すフローチャートである。なお、図17の説明では、既に変数決定部32による処理は行われているものとする。図17において、図12と同様の処理については図12と同様の符号を付して説明を省略する。また、図17では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。
FIG. 17 is a flowchart illustrating a process flow of the image processing apparatus 3d according to the fourth embodiment. In the description of FIG. 17, it is assumed that the process by the variable determination unit 32 has already been performed. In FIG. 17, the same processes as those in FIG. 12 are denoted by the same reference numerals as those in FIG. In FIG. 17, processing when still images are acquired from a plurality of cameras 2c-1 to 2c-N will be described.
ステップS202の処理において、背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、配置決定部34dはカメラ無通知を選択部38dに出力する。選択部38dは、配置決定部34dからカメラ無通知が取得されると、記憶部33cに記憶されている変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2c−nを選択する。所定の角度以下のカメラ2c−nが複数ある場合、選択部38dは距離差が所定の値以下であるカメラ2c−nを選択する(ステップS401)。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38dは、選択したカメラ2c−nの識別情報を配置決定部34dに出力する。ステップS401において、選択部38dは、カメラ角度が所定の角度より小さいカメラ2c−nが複数ある場合や距離差が所定の値以下のカメラ2c−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
In the process of step S202, when there is no image captured without a missing background (step S202—NO), the arrangement determination unit 34d outputs a camera non-notification to the selection unit 38d. When the camera non-notification is acquired from the arrangement determination unit 34d, the selection unit 38d selects a camera 2c-n having a camera angle equal to or less than a predetermined angle based on the variable information stored in the storage unit 33c. When there are a plurality of cameras 2c-n having a predetermined angle or less, the selection unit 38d selects the cameras 2c-n having a distance difference of a predetermined value or less (step S401). The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38d outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34d. In step S401, the selection unit 38d determines that the camera having the smallest distance difference is present when there are a plurality of cameras 2c-n whose camera angle is smaller than the predetermined angle or when there are a plurality of cameras 2c-n whose distance difference is equal to or smaller than the predetermined value. 2-n may be selected.
配置決定部34dは、選択部38dから出力された識別情報で識別されるカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34dは、回転情報テーブルを参照し、決定した配置位置と、選択されたカメラ2c−nのカメラ角度とからカメラ2c−nの向きを決定する(ステップS402)。配置決定部34dは、選択されたカメラ2c−nの識別情報と、カメラ移動先配置情報とを配置部39に出力する。
The arrangement determination unit 34d determines a position moved by a predetermined distance from the current position of the camera 2c-n identified by the identification information output from the selection unit 38d as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34d refers to the rotation information table and determines the orientation of the camera 2c-n from the determined arrangement position and the camera angle of the selected camera 2c-n (step S402). The arrangement determining unit 34d outputs the identification information of the selected camera 2c-n and the camera movement destination arrangement information to the arrangement unit 39.
配置部39は、配置決定部34dから出力されたカメラ2c−nの識別情報と、カメラ移動先配置情報とに基づいて、識別情報で識別されるカメラ2c−nを、カメラ移動先位置に移動させる(ステップS403)。その後、配置部39は、配置決定部34dから出力されたカメラ2c−nの識別情報と、カメラ移動先配置情報に含まれる回転角度とに基づいて、識別情報で識別されるカメラ2c−nを、回転角度で示される角度分回転させる(ステップS404)。画像取得部30は、移動及び回転後のカメラ2c−nによって撮像された画像を取得する(ステップS405)。画像取得部30は、取得した画像を記憶部33cに記録する。
The placement unit 39 moves the camera 2c-n identified by the identification information to the camera destination position based on the identification information of the camera 2c-n output from the placement determination unit 34d and the camera destination location information. (Step S403). Thereafter, the placement unit 39 selects the camera 2c-n identified by the identification information based on the identification information of the camera 2c-n output from the placement determination unit 34d and the rotation angle included in the camera movement destination placement information. Then, it is rotated by the angle indicated by the rotation angle (step S404). The image acquisition unit 30 acquires an image captured by the camera 2c-n after movement and rotation (step S405). The image acquisition unit 30 records the acquired image in the storage unit 33c.
配置決定部34dは、記憶部33cに記憶されている、移動及び回転後のカメラ2c−nによって撮像された画像を取得する。配置決定部34dは、取得した画像と、操作部31を介して入力された観察者5の位置情報と、物体の配置情報と、カメラ2c−nの配置情報とに基づいて、背景が欠けずに撮像されている画像があるか否か判定する(ステップS406)。背景が欠けずに撮像されている画像がない場合(ステップS406−NO)、画像処理装置3dはステップS402以降の処理を繰り返し実行する。
一方、背景が欠けずに撮像されている画像がある場合(ステップS406−YES)、画像処理装置3dはステップS208の処理を実行する。
The arrangement determining unit 34d acquires an image captured by the camera 2c-n after movement and rotation, which is stored in the storage unit 33c. The arrangement determination unit 34d has no background based on the acquired image, the position information of the observer 5 input via the operation unit 31, the arrangement information of the object, and the arrangement information of the camera 2c-n. It is determined whether or not there is an image captured in step S406. If there is no image captured without a missing background (step S406—NO), the image processing device 3d repeatedly executes the processing after step S402.
On the other hand, when there is an image that has been imaged with no background missing (step S406—YES), the image processing device 3d executes the process of step S208.
画像取得部30が動画像を取得する場合について、図17に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2c−1〜2c−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34dは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 17 will be described. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2c-1 to 2c-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34d determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS406において、画像取得部30は、移動及び回転後の複数のカメラ2c−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS406において、配置決定部34dは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動及び回転後のカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS406において、背景が欠けずに撮像されている画像がない場合、画像処理装置3dはステップS402以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S406, the image acquisition unit 30 acquires and acquires moving images from the plurality of cameras 2c-n after movement and rotation. Each frame image is acquired from the moving image. In step S406, the arrangement determining unit 34d determines whether or not there is an image that is captured without missing a background, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S406, when there is no image captured without a missing background, the image processing device 3d executes the processing from step S402 onward.
以上のように、第4の実施形態の画像処理装置3dは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第4の実施形態の決定装置は、配置決定部34dと、選択部38dとを備える。選択部38dは、複数のカメラ2c−1〜2c−Nのうちカメラ角度及びカメラ2c−1〜2c−Nの位置とユーザの位置と距離に基づいてカメラ2c−nを選択する。配置決定部34dは、選択されたカメラ2c−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能なカメラ2c−nの移動先であるカメラ2c−nの配置位置を決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3dは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3d of the fourth embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination apparatus according to the fourth embodiment includes an arrangement determination unit 34d and a selection unit 38d. The selection unit 38d selects the camera 2c-n based on the camera angle, the positions of the cameras 2c-1 to 2c-N, the position of the user, and the distance among the plurality of cameras 2c-1 to 2c-N. The arrangement determination unit 34d can capture an image of the selected camera 2c-n without missing a background that is not visible to the observer 5 with a specific object in the region that the observer 5 is viewing via the display device 4. The arrangement position of the camera 2c-n which is the movement destination of the camera 2c-n is determined. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3d can acquire a background image that is blocked by a specific object and cannot be seen by the user.
<変形例>
画像処理装置3dは、特定の物体が移動又は特定の物体が変更された場合に図17の処理を実行してもよいし、観察者5が移動した場合に図17の処理を実行してもよい。
画像取得部30は、移動及び向きが調節された後のカメラ2c−nから取得した画像を切出部36に出力してもよい。このように構成される場合、配置部39は、カメラ2c−nの移動及び向きの調節が完了した旨を示す通知を画像取得部30に出力する。配置部39が出力する通知には、例えば、カメラ2c−nの識別情報が含まれる。画像取得部30は、配置部39から通知を取得した後に、識別情報で識別されるカメラ2c−nから画像を取得すると、取得した画像を切出部36に出力する。切出部36は、画像取得部30から出力された画像と、操作部31を介して入力された背景情報及び貼り付け位置情報とを入力する。切出部36は、入力した画像から背景部分画像を切り出す。切出部36は、貼り付け位置情報に基づいて、表示画面における背景部分画像の表示位置を決定する。例えば、操作部31で指定された貼り付け位置情報で指定される領域を表示画面における背景部分画像の表示位置として決定する。この場合、配置決定部34dは配置位置を決定したカメラ2c−nの識別情報を切出部36に出力しなくてよい。
<Modification>
The image processing apparatus 3d may execute the process of FIG. 17 when the specific object moves or the specific object is changed, or may execute the process of FIG. 17 when the observer 5 moves. Good.
The image acquisition unit 30 may output the image acquired from the camera 2c-n after the movement and orientation are adjusted to the cutout unit 36. When configured in this way, the arrangement unit 39 outputs a notification indicating that the movement and orientation adjustment of the camera 2c-n has been completed to the image acquisition unit 30. The notification output by the placement unit 39 includes, for example, identification information of the camera 2c-n. When the image acquisition unit 30 acquires a notification from the placement unit 39 and then acquires an image from the camera 2c-n identified by the identification information, the image acquisition unit 30 outputs the acquired image to the cutout unit 36. The cutout unit 36 inputs the image output from the image acquisition unit 30 and the background information and pasting position information input via the operation unit 31. The cutout unit 36 cuts out the background partial image from the input image. The cutout unit 36 determines the display position of the background partial image on the display screen based on the pasting position information. For example, the area specified by the pasting position information specified by the operation unit 31 is determined as the display position of the background partial image on the display screen. In this case, the arrangement determining unit 34d may not output the identification information of the camera 2c-n whose arrangement position has been determined to the cutting unit 36.
(第5の実施形態)
第1の実施形態では、画像処理システムに一台のカメラが備えられ、カメラを背景が全て撮像できる位置に移動させる構成を示した。しかしながら、第1の実施形態において、カメラを背景が全て撮像できる位置に移動させたとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第5の実施形態では、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラの配置位置に決定する点で第1の実施形態と相違する。第5の実施形態では、第1の実施形態との相違点についてのみ説明する。
(Fifth embodiment)
In the first embodiment, the configuration in which one camera is provided in the image processing system and the camera is moved to a position where the entire background can be imaged is shown. However, in the first embodiment, even if the camera is moved to a position where the entire background can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred (the background is in focus). The quality of the entire image displayed on the display device 4 deteriorates. Therefore, the fifth embodiment is different from the first embodiment in that the position where the entire background can be imaged and the position where the background is not blurred is determined as the camera arrangement position. In the fifth embodiment, only differences from the first embodiment will be described.
図18は、第5の実施形態における画像処理システム1eの構成の例を示す図である。画像処理システム1eは、カメラ2と、画像処理装置3eと、表示装置4とを備える。画像処理装置3eは、カメラ2の配置位置を決定する方法が画像処理装置3aと異なる。具体的には、画像処理装置3eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。ここで、背景がぼけない位置とは、カメラ2の被写界深度の範囲内に背景を含む位置である。
FIG. 18 is a diagram illustrating an example of a configuration of an image processing system 1e according to the fifth embodiment. The image processing system 1e includes a camera 2, an image processing device 3e, and a display device 4. The image processing device 3e differs from the image processing device 3a in the method of determining the arrangement position of the camera 2. Specifically, the image processing device 3 e determines a position where the background can be captured entirely and a position where the background is not blurred as the arrangement position of the camera 2. Here, the position where the background is not blurred is a position including the background within the range of the depth of field of the camera 2.
画像処理装置3eは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3eは、画像取得部30、操作部31、変数決定部32、記憶部33、配置決定部34e、移動部35、切出部36、出力部37を備える装置として機能する。なお、画像処理装置3eの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3e includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3e includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, an arrangement determination unit 34e, a movement unit 35, a cutout unit 36, and an output unit 37. Functions as a device. Note that all or part of each function of the image processing device 3e may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3eは、配置決定部34に代えて配置決定部34eを備える点で画像処理装置3aと構成が異なる。画像処理装置3eは、他の構成については画像処理装置3aと同様である。そのため、画像処理装置3e全体の説明は省略し、配置決定部34eについて説明する。
The image processing device 3e is different in configuration from the image processing device 3a in that an arrangement determining unit 34e is provided instead of the arrangement determining unit 34. The image processing device 3e is the same as the image processing device 3a in other configurations. Therefore, description of the entire image processing apparatus 3e is omitted, and the arrangement determining unit 34e will be described.
配置決定部34eは、カメラ2の配置位置を決定する決定装置として機能する。配置決定部34eは、記憶部33に記憶されている画像及び変数情報と、操作部31を介して入力された実空間におけるカメラ2の配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、カメラ2に関するパラメータの情報(以下「カメラパラメータ情報」という。)を入力する。カメラパラメータ情報は、前方被写界深度及び後方被写界深度の算出に用いるパラメータの情報であり、例えば許容錯乱円径、絞り値、及び焦点距離である。配置決定部34eは、入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2の配置位置を決定する。具体的には、配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。
The arrangement determining unit 34 e functions as a determining device that determines the arrangement position of the camera 2. The arrangement determination unit 34e includes the image and variable information stored in the storage unit 33, the arrangement information of the camera 2 in the real space input via the operation unit 31, the position information of the observer 5, and the real space. Object arrangement information and parameter information about the camera 2 (hereinafter referred to as “camera parameter information”) are input. The camera parameter information is information on parameters used for calculating the front depth of field and the rear depth of field, and is, for example, an allowable confusion circle diameter, an aperture value, and a focal length. The arrangement determining unit 34e determines the arrangement position of the camera 2 based on the input image and variable information, the arrangement information of the camera 2, the position information of the observer 5, the arrangement information of the object, and the camera parameter information. To do. Specifically, the arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2.
画像処理システム1eにおける物体及びカメラ2の配置例を図19に示す。図19は、物体及びカメラ2の配置の例を示す俯瞰図である。図19において、カメラ2から背景までの距離をL1、カメラ2から物体6までの距離をD1、カメラ2における後方被写界深度をd11、カメラ2における前方被写界深度をd21とする。
前方被写界深度及び後方被写界深度は、既存の方法で算出される。例えば、前方被写界深度及び後方被写界深度は式1、式2に基づいて算出されてもよい。
An arrangement example of the object and the camera 2 in the image processing system 1e is shown in FIG. FIG. 19 is an overhead view showing an example of the arrangement of the object and the camera 2. In FIG. 19, the distance from the camera 2 to the background is L1, the distance from the camera 2 to the object 6 is D1, the rear depth of field in the camera 2 is d11, and the front depth of field in the camera 2 is d21.
The forward depth of field and the backward depth of field are calculated by existing methods. For example, the front depth of field and the rear depth of field may be calculated based on Equations 1 and 2.
上記式1及び式2における被写体距離はカメラ2から物体6までの距離であり、許容錯乱円径はカメラ2全てで一定である。また、焦点距離と絞り値は、各カメラ2で設定される値であり、カメラ2ごとに異なる。配置決定部34eは、背景が全て撮像できる位置であり、かつ、以下の式3を満たす位置をカメラ2の配置位置に決定する。なお、式3において、Di(iは1以上の整数)はカメラ2から物体6までの距離を表し、d1iはカメラ2における後方被写界深度を表し、d2iはカメラ2における前方被写界深度を表し、Liはカメラ2から背景までの距離を表す。
The subject distance in the above formulas 1 and 2 is the distance from the camera 2 to the object 6, and the permissible circle of confusion is constant for all the cameras 2. The focal length and the aperture value are values set for each camera 2 and are different for each camera 2. The arrangement determining unit 34e determines the position where the background can be imaged and satisfies the following Expression 3 as the arrangement position of the camera 2. In Expression 3, Di (i is an integer of 1 or more) represents the distance from the camera 2 to the object 6, d1i represents the rear depth of field in the camera 2, and d2i represents the forward depth of field in the camera 2. Li represents the distance from the camera 2 to the background.
図19に示す例では、カメラ2の位置は、背景がぼけない位置ではない。すなわち、カメラ2の位置は、被写界深度の範囲内に背景を含む位置ではない。そうすると、カメラ2において背景が欠けずに撮像されている場合であっても、背景がぼけて撮像されてしまう。そこで、配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。
In the example shown in FIG. 19, the position of the camera 2 is not a position where the background is not blurred. That is, the position of the camera 2 is not a position that includes the background within the range of the depth of field. As a result, even if the camera 2 captures an image with no background, the background is blurred and the image is captured. Therefore, the arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2.
図20は、第5の実施形態における画像処理装置3eの処理の流れを示すフローチャートである。図8と同様の処理については、図20において図8と同様の符号を付して説明を省略する。なお、図20の説明では、既に変数決定部32による処理は行われているものとする。また、図20では、カメラ2から静止画像を取得した場合の処理について説明する。
FIG. 20 is a flowchart illustrating a process flow of the image processing apparatus 3e according to the fifth embodiment. The processes similar to those in FIG. 8 are denoted by the same reference numerals as those in FIG. In the description of FIG. 20, it is assumed that the processing by the variable determination unit 32 has already been performed. In FIG. 20, processing when a still image is acquired from the camera 2 will be described.
ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34eは入力した画像及び変数情報と、カメラ2の配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2の配置位置を決定する(ステップS501)。具体的には、配置決定部34eは、背景がぼけない位置、かつ、カメラ2の現在位置からカメラ2を所定の距離移動した位置をカメラ2の配置位置として決定する。
In the process of step S102, when there is no image captured without a lack of background (step S102-NO), the arrangement determination unit 34e inputs the input image and variable information, the arrangement information of the camera 2, and the observer 5's information. Based on the position information, the object arrangement information, and the camera parameter information, the arrangement position of the camera 2 is determined (step S501). Specifically, the arrangement determining unit 34e determines a position where the background is not blurred and a position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 as the arrangement position of the camera 2.
具体的には、まず、配置決定部34eは、カメラ2から取得したカメラパラメータ情報と、カメラ2の配置情報と、実空間における物体の配置情報とを用いて、上記式1及び2に基づいてカメラ2の前方被写界深度及び後方被写界深度を算出する。次に、配置決定部34eは、算出した前方被写界深度(d2i)及び後方被写界深度(d1i)と、カメラ2の配置情報及び物体の配置情報から得られるカメラ2から物体6までの距離Dと、カメラ2から背景までの距離Lとを用いて、上記式3の条件を満たすカメラ2の配置位置の候補を複数決定する。次に、配置決定部34eは、カメラ2の配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とを比較して、配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とが一致する位置をカメラ2の配置位置として決定する。なお、カメラ2の現在位置からカメラ2を所定の距離移動した位置と一致する位置が複数ある場合、配置決定部34eは観察者5の位置に最も近く、かつ、配置位置の候補の位置と、カメラ2の現在位置からカメラ2を所定の距離移動した位置とが一致する位置をカメラ2の配置位置として決定する。
Specifically, first, the arrangement determination unit 34e uses the camera parameter information acquired from the camera 2, the arrangement information of the camera 2, and the arrangement information of the object in the real space, based on the above formulas 1 and 2. The front depth of field and the rear depth of field of the camera 2 are calculated. Next, the arrangement determining unit 34e determines whether the camera 2 to the object 6 are obtained from the calculated front depth of field (d2i) and rear depth of field (d1i), the arrangement information of the camera 2, and the arrangement information of the object. Using the distance D and the distance L from the camera 2 to the background, a plurality of placement position candidates for the camera 2 that satisfy the above-described expression 3 are determined. Next, the arrangement determining unit 34e compares the position of the candidate for the arrangement position of the camera 2 with the position obtained by moving the camera 2 from the current position of the camera 2 by a predetermined distance. The position where the camera 2 is moved by a predetermined distance from the current position 2 is determined as the arrangement position of the camera 2. If there are a plurality of positions that coincide with the position where the camera 2 is moved by a predetermined distance from the current position of the camera 2, the arrangement determining unit 34 e is closest to the position of the observer 5 and the position of the arrangement position candidate, The position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 is determined as the position where the camera 2 is arranged.
ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。すなわち、配置決定部34eは、背景の領域に近づける方向にカメラ2を所定の距離移動した位置であって、上記式3を満たす背景がぼけない位置をカメラ2の移動先の配置位置として決定する。その後、配置決定部34eは、決定配置位置情報を移動部35に出力する。その後、画像処理装置3eは、ステップS104以降の処理を実行する。
Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). That is, the arrangement determining unit 34e determines a position where the camera 2 is moved by a predetermined distance in a direction approaching the background area and the background satisfying the above expression 3 is not blurred as the arrangement position of the movement destination of the camera 2. . Thereafter, the arrangement determining unit 34 e outputs the determined arrangement position information to the moving unit 35. Thereafter, the image processing device 3e executes the processing after step S104.
一方、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、配置決定部34eは背景がぼけない位置にカメラ2が設置されているか否かを判定する(ステップS502)。背景がぼけない位置にカメラ2が設置されているか否かの判定は、上記式3に基づいて行われる。具体的には、まず、配置決定部34eは、カメラ2から取得したカメラパラメータ情報と、カメラ2の配置情報と、実空間における物体の配置情報とを用いて、上記式1及び2に基づいてカメラ2の前方被写界深度及び後方被写界深度を算出する。次に、配置決定部34eは、算出した前方被写界深度(d2i)及び後方被写界深度(d1i)と、カメラ2の配置情報及び物体の配置情報から得られるカメラ2から物体6までの距離Dと、カメラ2から背景までの距離Lとを用いて、上記式3の条件を満たすか否かを判定する。そして、配置決定部34eは、カメラ2の配置位置が、上記式3の条件を満たす場合、背景がぼけない位置にカメラ2が設置されていると判定する。一方、配置決定部34eは、カメラ2の配置位置が、上記式3の条件を満たさない場合、背景がぼけない位置にカメラ2が設置されていないと判定する。
On the other hand, when there is an image that is imaged without a missing background (YES in step S102), the arrangement determining unit 34e determines whether the camera 2 is installed at a position where the background is not blurred (step S502). The determination as to whether or not the camera 2 is installed at a position where the background is not blurred is performed based on Equation 3 above. Specifically, first, the arrangement determination unit 34e uses the camera parameter information acquired from the camera 2, the arrangement information of the camera 2, and the arrangement information of the object in the real space, based on the above formulas 1 and 2. The front depth of field and the rear depth of field of the camera 2 are calculated. Next, the arrangement determining unit 34e determines whether the camera 2 to the object 6 are obtained from the calculated front depth of field (d2i) and rear depth of field (d1i), the arrangement information of the camera 2, and the arrangement information of the object. Using the distance D and the distance L from the camera 2 to the background, it is determined whether or not the condition of Equation 3 is satisfied. And the arrangement | positioning determination part 34e determines with the camera 2 being installed in the position where a background is not blurred, when the arrangement position of the camera 2 satisfy | fills the conditions of said Formula 3. FIG. On the other hand, the arrangement determination unit 34e determines that the camera 2 is not installed at a position where the background is not blurred when the arrangement position of the camera 2 does not satisfy the condition of the above expression 3.
背景がぼけない位置にカメラ2が設置されている場合(ステップS502−YES)、画像処理装置3eはステップS107の処理を実行する。
一方、背景がぼけない位置にカメラ2が設置されていない場合(ステップS502−NO)、配置決定部34eはカメラ2の配置位置を決定する(ステップS503)。具体的には、配置決定部34eは、カメラ2の現在位置からカメラ2を所定の距離移動した位置、かつ、上記式3を満たす背景がぼけない位置をカメラ2の配置位置として決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。配置決定部34eは、決定配置位置情報を移動部35に出力する。
When the camera 2 is installed at a position where the background is not blurred (step S502—YES), the image processing device 3e executes the process of step S107.
On the other hand, when the camera 2 is not installed at a position where the background is not blurred (step S502-NO), the arrangement determining unit 34e determines the arrangement position of the camera 2 (step S503). Specifically, the arrangement determining unit 34e determines, as the arrangement position of the camera 2, a position where the camera 2 is moved by a predetermined distance from the current position of the camera 2 and a position that does not blur the background satisfying the above Expression 3. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). The arrangement determining unit 34 e outputs the determined arrangement position information to the moving unit 35.
移動部35は、配置決定部34eから出力された決定配置位置情報に基づいて、カメラ2を、決定配置位置情報で示される位置に移動させる(ステップS504)。画像取得部30は、移動後のカメラ2によって撮像された画像を取得する(ステップS505)。例えば、画像取得部30は、移動部35からカメラ2の移動が完了した旨の通知を受けた後に、カメラ2によって撮像された画像を移動後のカメラ2によって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33に記録する。その後、画像処理装置3eはステップS102以降の処理を実行する。
The moving unit 35 moves the camera 2 to the position indicated by the determined arrangement position information based on the determined arrangement position information output from the arrangement determining unit 34e (step S504). The image acquisition unit 30 acquires an image captured by the camera 2 after movement (step S505). For example, the image acquisition unit 30 may acquire an image captured by the camera 2 as an image captured by the camera 2 after movement after receiving a notification that the movement of the camera 2 is completed from the movement unit 35. Good. The image acquisition unit 30 records the acquired image in the storage unit 33. Thereafter, the image processing device 3e executes the processing after step S102.
画像取得部30が動画像を取得する場合について、図20に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34eは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 20 will be described. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2 and acquires each frame image from the acquired moving image. In step S <b> 102, the arrangement determining unit 34 e determines whether there is an image that has been captured without any background missing based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS105において、画像取得部30は、移動後のカメラ2から動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS106において、配置決定部34eは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動後のカメラ2から取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS106において、背景が欠けずに撮像されている画像がない場合、画像処理装置3eはステップS501以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S105, the image acquisition unit 30 acquires a moving image from the camera 2 after movement, and each frame image from the acquired moving image. To get. In step S <b> 106, the arrangement determining unit 34 e determines whether there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2 after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S106, when there is no image captured without a missing background, the image processing device 3e executes the processing after step S501.
以上のように、第5の実施形態の画像処理装置3eは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第5の実施形態の決定装置は、配置決定部34eを備える。配置決定部34eは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2の配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3eは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3e of the fifth embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining apparatus of the fifth embodiment includes an arrangement determining unit 34e. The arrangement determining unit 34e determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3e can acquire a background image that is blocked by a specific object and cannot be seen by the user.
<変形例>
第5の実施形態の画像処理装置3eは、第1の実施形態の画像処理装置3aと同様に変形されてもよい。
<Modification>
The image processing device 3e according to the fifth embodiment may be modified in the same manner as the image processing device 3a according to the first embodiment.
(第6の実施形態)
第2の実施形態では、画像処理システムに備えられる複数台のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できる位置に移動させる構成を示した。しかしながら、第2の実施形態において、カメラを背景が全て撮像できる位置に移動させたとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第6の実施形態では、複数台のカメラから選択されたカメラの配置位置を、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する点で第2の実施形態と相違する。第6の実施形態では、第2の実施形態との相違点についてのみ説明する。
(Sixth embodiment)
In the second embodiment, a configuration is shown in which one camera is selected from a plurality of cameras provided in the image processing system, and the selected camera is moved to a position where the entire background can be imaged. However, in the second embodiment, even if the camera is moved to a position where the entire background can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred (focus on the background). The quality of the entire image displayed on the display device 4 deteriorates. Therefore, the sixth embodiment is different from the second embodiment in that the camera arrangement position selected from a plurality of cameras is determined to be a position where all the backgrounds can be captured and the background is not blurred. Is different. In the sixth embodiment, only differences from the second embodiment will be described.
図21は、第6の実施形態における画像処理システム1fの構成の例を示す図である。画像処理システム1fは、カメラ2−1〜2−Nと、画像処理装置3fと、表示装置4とを備える。画像処理装置3eは、カメラ2を選択する方法及びカメラ2の配置位置を決定する方法が画像処理装置3bと異なる。具体的には、画像処理装置3fは、複数台のカメラ2−1〜2−Nの中から評価値の高いカメラ2−nを選択し、選択したカメラ2−nの配置位置を、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する。
FIG. 21 is a diagram illustrating an example of a configuration of an image processing system 1f according to the sixth embodiment. The image processing system 1f includes cameras 2-1 to 2-N, an image processing device 3f, and a display device 4. The image processing device 3e differs from the image processing device 3b in the method of selecting the camera 2 and the method of determining the arrangement position of the camera 2. Specifically, the image processing device 3f selects the camera 2-n having a high evaluation value from the plurality of cameras 2-1 to 2-N, and determines the arrangement position of the selected camera 2-n based on the background. The position is determined so that all the images can be captured and the background is not blurred.
画像処理装置3fは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31f、変数決定部32、記憶部33、配置決定部34f、移動部35、切出部36、出力部37、選択部38fを備える装置として機能する。なお、画像処理装置3fの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3f includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c causes the image acquisition unit 30, the operation unit 31f, the variable determination unit 32, the storage unit 33, the arrangement determination unit 34f, the movement unit 35, the cutout unit 36, the output unit 37, and the selection. It functions as a device including the unit 38f. Note that all or part of the functions of the image processing device 3f may be realized by using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3fは、操作部31、配置決定部34b及び選択部38に代えて操作部31f、配置決定部34f及び選択部38fを備える点で画像処理装置3bと構成が異なる。画像処理装置3fは、他の構成については画像処理装置3bと同様である。そのため、画像処理装置3f全体の説明は省略し、操作部31f、配置決定部34f及び選択部38fについて説明する。
The image processing device 3f is different in configuration from the image processing device 3b in that an operation unit 31f, an arrangement determination unit 34f, and a selection unit 38f are provided instead of the operation unit 31, the arrangement determination unit 34b, and the selection unit 38. The image processing device 3f is the same as the image processing device 3b in other configurations. Therefore, description of the entire image processing apparatus 3f is omitted, and the operation unit 31f, the arrangement determination unit 34f, and the selection unit 38f will be described.
操作部31fは、操作部31と同様の処理を行う。また、操作部31fは、優先情報を取得する。優先情報は、カメラ選択に用いるパラメータ(以下「選択パラメータ」という。)の重み付けの係数に関する情報である。カメラ選択に用いるパラメータは、画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量である。カメラから物体までの距離をL、カメラの焦点距離をf、画像上の物体の大きさをyとすると、画像上の物体の大きさyは以下の式4で表される。
The operation unit 31 f performs the same processing as the operation unit 31. The operation unit 31f acquires priority information. The priority information is information relating to a weighting coefficient of a parameter used for camera selection (hereinafter referred to as “selection parameter”). The parameters used for camera selection are the distortion (camera angle) of the object on the image, the size of the object on the image, and the amount of blur. When the distance from the camera to the object is L, the focal length of the camera is f, and the size of the object on the image is y, the size y of the object on the image is expressed by the following Expression 4.
また、操作部31fは、予め設定されている優先情報を取得してもよいし、入力装置を介して入力されることによって優先情報を取得してもよい。操作部31fは、取得した優先情報を選択部38fに出力する。
In addition, the operation unit 31f may acquire preset priority information, or may acquire priority information by inputting via an input device. The operation unit 31f outputs the acquired priority information to the selection unit 38f.
配置決定部34fは、カメラ2−nの配置位置を決定する決定装置として機能する。配置決定部34fは、選択部38fが選択したカメラ2−nの識別情報と、記憶部33に記憶されているカメラ2−1〜2−Nのそれぞれによって撮像された画像及び変数情報と、操作部31を介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2−1〜2−Nのそれぞれの配置情報と、カメラパラメータ情報とを入力する。配置決定部34fは、入力した画像及び変数情報と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2−nの配置位置を決定する。具体的には、配置決定部34fは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2−nの配置位置に決定する。
The arrangement determining unit 34f functions as a determining apparatus that determines the arrangement position of the camera 2-n. The arrangement determination unit 34f includes identification information of the camera 2-n selected by the selection unit 38f, images and variable information captured by the cameras 2-1 to 2-N stored in the storage unit 33, and operations. The position information of the observer 5 input via the unit 31, the object arrangement information in the real space, the arrangement information of the cameras 2-1 to 2-N in the real space, and the camera parameter information are input. . The arrangement determining unit 34f is based on the input image and variable information, the arrangement information of each of the cameras 2-1 to 2-N, the position information of the observer 5, the arrangement information of the object, and the camera parameter information. The arrangement position of the camera 2-n is determined. Specifically, the arrangement determining unit 34f determines the position where the background can be captured and the position where the background is not blurred as the arrangement position of the camera 2-n.
また、配置決定部34fは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、背景を欠けずに撮像しているカメラ2がある旨の通知を選択部38fに出力する。この場合、配置決定部34fは、通知とともに、背景を欠けずに撮像しているカメラ2の識別情報を選択部38fに出力する。一方、背景が欠けずに撮像されている画像がない場合、背景を欠けずに撮像しているカメラ2がない旨の通知を選択部38fに出力する。
In addition, the arrangement determining unit 34f determines whether there is an image that has been captured without missing the background among the plurality of input images. When there is an image that is captured without a background missing, a notification that there is a camera 2 that is imaged without a background missing is output to the selection unit 38f. In this case, the arrangement determination unit 34f outputs, together with the notification, identification information of the camera 2 that is imaging without missing the background to the selection unit 38f. On the other hand, when there is no image captured without missing the background, a notification that there is no camera 2 that is imaged without missing the background is output to the selection unit 38f.
また、配置決定部34fは、選択部38fによって選択されたカメラ2−nの現在位置から所定の距離移動した位置を、選択されたカメラ2−nの配置位置として決定する。配置決定部34fは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。
In addition, the arrangement determination unit 34f determines a position moved by a predetermined distance from the current position of the camera 2-n selected by the selection unit 38f as the arrangement position of the selected camera 2-n. The arrangement determining unit 34f outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35.
選択部38fは、選択されるカメラ2−nを決定する決定装置として機能する。選択部38fは、配置決定部34fから出力された通知と、記憶部33に記憶されている画像及び変数情報と、操作部31fを介して入力されたカメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、優先情報と、カメラパラメータ情報を入力する。選択部38fは、カメラパラメータ情報を各カメラ2から取得する。選択部38fは、入力した画像と、カメラ2−1〜2−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2−nを複数のカメラ2−1〜2−Nの中から選択する。選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。
The selection unit 38f functions as a determination device that determines the camera 2-n to be selected. The selection unit 38f receives the notification output from the arrangement determination unit 34f, the image and variable information stored in the storage unit 33, and the cameras 2-1 to 2-N input via the operation unit 31f. Arrangement information, position information of the observer 5, object arrangement information in real space, priority information, and camera parameter information are input. The selection unit 38f acquires camera parameter information from each camera 2. The selection unit 38f picks up an image without missing a background based on the input image, the arrangement information of each of the cameras 2-1 to 2-N, the position information of the observer 5, and the arrangement information of the object. A camera 2-n is selected from a plurality of cameras 2-1 to 2-N. The selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f.
図22は、第6の実施形態における画像処理装置3fの処理の流れを示すフローチャートである。図12と同様の処理については、図22において図12と同様の符号を付して説明を省略する。なお、図22の説明では、既に変数決定部32による処理は行われているものとする。また、図22では、複数のカメラ2−1〜2−Nから静止画像を取得した場合の処理について説明する。
FIG. 22 is a flowchart illustrating a processing flow of the image processing device 3f according to the sixth embodiment. The processes similar to those in FIG. 12 are denoted by the same reference numerals as those in FIG. In the description of FIG. 22, it is assumed that the process by the variable determination unit 32 has already been performed. In addition, FIG. 22 illustrates processing when still images are acquired from the plurality of cameras 2-1 to 2-N.
ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、選択部38fは配置決定部34fから出力された識別情報で識別されるカメラ2−1〜2−Nの中に背景がぼけない位置に設置されているカメラ2があるか否かを判定する(ステップS601)。背景がぼけない位置に設置されているカメラ2がある場合(ステップS601−YES)、選択部38fは配置決定部34fから出力された識別情報で識別されるカメラ2の中から背景を欠けずに撮像しているカメラ2−nであって、かつ、背景がぼけない位置に設置されているカメラ2−nを選択する(ステップS602)。
In the process of step S202, if there is an image that has been captured without any background missing (step S202—YES), the selection unit 38f is identified by the identification information output from the placement determination unit 34f. It is determined whether or not there is a camera 2 installed at a position where the background is not blurred in -N (step S601). When there is a camera 2 installed at a position where the background is not blurred (step S601-YES), the selection unit 38f does not lose the background from the cameras 2 identified by the identification information output from the arrangement determination unit 34f. A camera 2-n that is imaged and is installed at a position where the background is not blurred is selected (step S602).
具体的には、選択部38fは、背景がぼけない位置に設置されているカメラ2が一台ある場合、背景がぼけない位置に設置されているカメラ2−nを選択する。また、選択部38fは、背景がぼけない位置に設置されているカメラ2が複数台ある場合、背景がぼけない位置に設置されているカメラ2それぞれに対してカメラ評価値を算出する。ここでカメラ評価値とは、各カメラ2の評価に用いる値であり、例えば選択パラメータにおける各パラメータ(画像上の物体の歪み(カメラ角度)、画像上の物体の大きさ、及びボケ量)の評価値に重み付けした値の合計値で表される。
Specifically, when there is one camera 2 installed at a position where the background is not blurred, the selection unit 38f selects the camera 2-n installed at a position where the background is not blurred. In addition, when there are a plurality of cameras 2 installed at positions where the background is not blurred, the selection unit 38f calculates a camera evaluation value for each of the cameras 2 installed at positions where the background is not blurred. Here, the camera evaluation value is a value used for evaluation of each camera 2, for example, each parameter (distortion of the object on the image (camera angle), the size of the object on the image, and the amount of blur) in the selection parameter. It is represented by the total value of the values weighted on the evaluation value.
まず、選択部38fは、操作部31fを介して入力された優先情報から各パラメータの重み付けの係数を取得する。例えば、優先情報として、予め各パラメータの重み付けの係数が決定されていてもよい。次に、選択部38fは、カメラ2毎に各パラメータの評価を行う。例えば、選択部38fは、画像上の物体の歪みの評価として、カメラ角度が小さいカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fはカメラ角度が小さいカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。
First, the selection unit 38f acquires a weighting coefficient for each parameter from the priority information input via the operation unit 31f. For example, a weighting coefficient for each parameter may be determined in advance as priority information. Next, the selection unit 38 f evaluates each parameter for each camera 2. For example, the selection unit 38f assigns a higher value to each camera 2 in order from the camera 2 with the smallest camera angle as an evaluation of the distortion of the object on the image. As a specific example, when there are five cameras 2, the selection unit 38 f sets values “5”, “4”, “3”, “2”, “1” in order from the camera 2 with the smallest camera angle. Attach to camera 2.
また、例えば、選択部38fは、画像上の物体の大きさの評価として、観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fは観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。観察者5が見ている領域内での背景領域の大きさと、各カメラ2で撮像された画像上の背景領域の大きさとが近いカメラ2とは、すなわち画角が近いカメラ2である。
Further, for example, the selection unit 38f evaluates the size of the object on the image by determining the size of the background region in the region viewed by the observer 5 and the background region on the image captured by each camera 2. A high value is assigned to each camera 2 in order from the camera 2 having the closest size. As a specific example, when there are five cameras 2, the selection unit 38 f determines the size of the background region in the region viewed by the observer 5 and the size of the background region on the image captured by each camera 2. The values “5”, “4”, “3”, “2”, and “1” are assigned to each camera 2 in order from the camera 2 that is close to the camera. The camera 2 in which the size of the background region in the region viewed by the observer 5 and the size of the background region on the image captured by each camera 2 are close, that is, the camera 2 having a close angle of view.
また、例えば、選択部38fは、ボケ量の評価として、被写界深度の長さが長いカメラ2から順に各カメラ2に高い値を付ける。具体例を挙げると、カメラ2が5台である場合、選択部38fは被写界深度の長さが長いカメラ2から順に“5”,“4”,“3”,“2”,“1”の値を各カメラ2に付ける。
For example, the selection unit 38f assigns a higher value to each camera 2 in order from the camera 2 with the longer depth of field as the evaluation of the blur amount. As a specific example, when there are five cameras 2, the selection unit 38 f selects “5”, “4”, “3”, “2”, “1” in order from the camera 2 with the long depth of field. The value “” is assigned to each camera 2.
カメラ評価値の算出方法について一具体例を挙げて説明する。
(重み付けの係数)
・画像上の物体の歪み :0.5
・画像上の物体の大きさ:0.3
・ボケ量 :0.2
A method for calculating the camera evaluation value will be described with a specific example.
(Weighting factor)
-Distortion of the object on the image: 0.5
-The size of the object on the image: 0.3
・ Bokeh amount: 0.2
(各パラメータの評価)
・画像上の物体の歪み :5台中2番目 評価“4”
・画像上の物体の大きさ:5台中1番目 評価“5”
・ボケ量 :5台中3番目 評価“3”
(Evaluation of each parameter)
・ Distortion of the object on the image: 2nd out of 5 units "4"
-The size of the object on the image: 1st out of 5 units "5"
・ Bokeh amount: 3rd out of 5 units "3"
上記(重み付けの係数)及び(各パラメータの評価)とすると、選択部38fは以下のようにあるカメラ2−nのカメラ評価値を算出する。
0.5×4+0.3×3+3×0.2=3.5
Assuming the above (weighting coefficient) and (evaluation of each parameter), the selection unit 38f calculates the camera evaluation value of the camera 2-n as follows.
0.5 × 4 + 0.3 × 3 + 3 × 0.2 = 3.5
選択部38fは、配置決定部34fから出力された識別情報で識別されるカメラ2全てにおいてカメラ評価値を算出する。その後、選択部38fは、背景を欠けずに撮像しているカメラ2であって、背景がぼけない位置に設置されているカメラ2のうち、カメラ評価値が所定の閾値以上のカメラ2−nを選択する。カメラ評価値が所定の閾値以上のカメラ2−nが複数台ある場合、選択部38fはカメラ評価値が最も高いカメラ2−nを選択してもよい。選択部38fは、選択したカメラ2−nの識別情報を切出部36に出力する。その後、画像処理装置3fはステップS208の処理を実行する。
The selection unit 38f calculates camera evaluation values in all the cameras 2 identified by the identification information output from the arrangement determination unit 34f. Thereafter, the selection unit 38f is a camera 2-n that captures an image without losing the background, and is a camera 2-n having a camera evaluation value equal to or greater than a predetermined threshold among the cameras 2 installed at a position where the background is not blurred. Select. When there are a plurality of cameras 2-n having camera evaluation values equal to or greater than a predetermined threshold, the selection unit 38f may select the camera 2-n having the highest camera evaluation value. The selection unit 38f outputs the identification information of the selected camera 2-n to the cutout unit 36. Thereafter, the image processing device 3f executes the process of step S208.
また、ステップS202の処理において背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、又は、背景がぼけない位置に設置されているカメラ2がない場合(ステップS601−NO)、選択部38fは複数のカメラ2−1〜2−Nの中からカメラ2−nを選択する(ステップS603)。具体的には、以下の通りである。
Further, in the process of step S202, when there is no image captured without a missing background (step S202-NO), or when there is no camera 2 installed at a position where the background is not blurred (step S601-NO). The selection unit 38f selects the camera 2-n from the plurality of cameras 2-1 to 2-N (step S603). Specifically, it is as follows.
(背景が欠けずに撮像されている画像がない場合)
選択部38fは、カメラ2に対する変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが一台ある場合、選択部38fは所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが複数ある場合、選択部38fは距離差が所定の値以下であるカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。また、選択部38fは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。
(When there is no image captured without a missing background)
Based on the variable information for the camera 2, the selection unit 38 f selects the camera 2-n whose camera angle is equal to or smaller than a predetermined angle. When there is one camera 2-n having a predetermined angle or less, the selection unit 38f selects the camera 2-n having a predetermined angle or less. When there are a plurality of cameras 2-n having a predetermined angle or less, the selection unit 38f selects a camera 2-n having a distance difference of a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f. The selection unit 38f also includes the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than a predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. n may be selected.
(背景が欠けずに撮像されている画像があって、かつ、背景がぼけない位置に設置されているカメラ2がない場合)
選択部38fは、記憶部33に記憶されている変数情報のうち、配置決定部34fから出力された識別情報で識別されるカメラ2に対する変数情報に基づいて、カメラ角度が所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが一台ある場合、選択部38fは所定の角度以下のカメラ2−nを選択する。所定の角度以下のカメラ2−nが複数ある場合、選択部38fは距離差が所定の値以下であるカメラ2−nを選択する。距離差の所定の値とは、例えばカメラの初期位置から背景までの距離の10%程度である。その後、選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。また、選択部38fは、カメラ角度が所定の角度より小さいカメラ2−nが複数ある場合や距離差が所定の値以下のカメラ2−nが複数ある場合に、距離差が最も小さいカメラ2−nを選択してもよい。選択部38fは、選択したカメラ2−nの識別情報を配置決定部34fに出力する。
(When there is an image captured with no background missing and there is no camera 2 installed at a position where the background is not blurred)
The selection unit 38f is a camera whose camera angle is equal to or smaller than a predetermined angle based on the variable information for the camera 2 identified by the identification information output from the arrangement determination unit 34f among the variable information stored in the storage unit 33. Select 2-n. When there is one camera 2-n having a predetermined angle or less, the selection unit 38f selects the camera 2-n having a predetermined angle or less. When there are a plurality of cameras 2-n having a predetermined angle or less, the selection unit 38f selects a camera 2-n having a distance difference of a predetermined value or less. The predetermined value of the distance difference is, for example, about 10% of the distance from the initial position of the camera to the background. Thereafter, the selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f. The selection unit 38f also includes the camera 2-n having the smallest distance difference when there are a plurality of cameras 2-n having a camera angle smaller than a predetermined angle or when there are a plurality of cameras 2-n having a distance difference equal to or smaller than a predetermined value. n may be selected. The selection unit 38f outputs the identification information of the selected camera 2-n to the arrangement determination unit 34f.
配置決定部34fは、選択部38fから出力された識別情報で識別されるカメラ2−nの配置位置を決定する(ステップS604)。具体的には、配置決定部34fは、上記式3を満たす背景がぼけない位置、かつ、選択部38fから出力された識別情報で識別されるカメラ2−nの現在位置からカメラ2−nを所定の距離移動した位置をカメラ2−nの配置位置として決定する。より具体的には、配置決定部34fは、配置決定部34eが行う処理と同様に、上記式1〜式3に基づいてカメラ2−nの配置位置を決定する。ここで、カメラ2を所定の距離移動した位置とは、カメラ2の配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2を所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。その後、配置決定部34fは、選択されたカメラ2−nの識別情報と、決定配置位置情報とを移動部35に出力する。その後、画像処理装置3fは、ステップS205以降の処理を実行する。
The placement determination unit 34f determines the placement position of the camera 2-n identified by the identification information output from the selection unit 38f (step S604). Specifically, the arrangement determining unit 34f selects the camera 2-n from the current position of the camera 2-n identified by the position where the background satisfying Equation 3 is not blurred and the identification information output from the selection unit 38f. A position moved by a predetermined distance is determined as an arrangement position of the camera 2-n. More specifically, the arrangement determining unit 34f determines the arrangement position of the camera 2-n based on the above Equations 1 to 3, similarly to the processing performed by the arrangement determining unit 34e. Here, the position where the camera 2 is moved by a predetermined distance is calculated based on the arrangement information of the camera 2 by calculating an area that is imaged on the same plane as the background and moving the camera 2 in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background). Thereafter, the arrangement determining unit 34f outputs the identification information of the selected camera 2-n and the determined arrangement position information to the moving unit 35. Thereafter, the image processing device 3f executes the processes in and after step S205.
画像取得部30が動画像を取得する場合について、図22に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2−1〜2−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34fは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
Differences from the processing shown in FIG. 22 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2-1 to 2-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34f determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS206において、画像取得部30は、移動後の複数のカメラ2−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS207において、配置決定部34fは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動後のカメラ2−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS207において、背景が欠けずに撮像されている画像がない場合、画像処理装置3fはステップS603以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S206, the image acquisition unit 30 acquires a moving image from the plurality of cameras 2-n after movement, and acquires the acquired moving image. Each frame image is acquired from. In step S207, the arrangement determining unit 34f determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2-n after movement. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S207, if there is no image captured without a missing background, the image processing device 3f executes the processing from step S603 onward.
以上のように、第6の実施形態の画像処理装置3fは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2が実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2の配置位置を決定する決定装置を備える。第6の実施形態の決定装置は、配置決定部34fと、選択部38fとを備える。選択部38fは、複数のカメラ2−1〜2−Nのうちカメラ評価値に基づいてカメラ2−nを選択する。配置決定部34fは、選択されたカメラ2−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能な位置であって、背景がぼけない位置をカメラ2−nの移動先であるカメラ2−nの配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3fは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3f of the sixth embodiment, the camera 2 whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of the camera 2 that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination device according to the sixth embodiment includes an arrangement determination unit 34f and a selection unit 38f. The selection unit 38f selects the camera 2-n based on the camera evaluation value among the plurality of cameras 2-1 to 2-N. The arrangement determining unit 34f can capture an image of the selected camera 2-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The position where the background is not blurred is determined as the arrangement position of the camera 2-n to which the camera 2-n is moved. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3f can acquire a background image that is blocked by a specific object and cannot be seen by the user.
<変形例>
第6の実施形態の画像処理装置3fは、第2の実施形態の画像処理装置3bと同様に変形されてもよい。
本実施形態では、配置決定部34fが、選択部38fがカメラ評価値に基づいて選択したカメラ2−nの配置位置を決定する構成を示したが、これに限定される必要はない。例えば、配置決定部34fは、第2の実施形態における選択部38が選択したカメラ2−nの配置位置を決定するように構成されてもよい。このように構成される場合、画像処理装置3fは、選択部38fに代えて選択部38を備える。
<Modification>
The image processing device 3f according to the sixth embodiment may be modified in the same manner as the image processing device 3b according to the second embodiment.
In the present embodiment, the arrangement determining unit 34f is configured to determine the arrangement position of the camera 2-n selected by the selection unit 38f based on the camera evaluation value. However, the present invention is not limited to this. For example, the arrangement determination unit 34f may be configured to determine the arrangement position of the camera 2-n selected by the selection unit 38 in the second embodiment. When configured in this manner, the image processing device 3f includes a selection unit 38 instead of the selection unit 38f.
(第7の実施形態)
第3の実施形態では、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。しかしながら、第3の実施形態において、背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御したとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化しまう。そこで、第7の実施形態では、背景が全て撮像できる位置及び向き、かつ、背景がぼけない位置をカメラの配置位置及び向きに決定する点で第3の実施形態と相違する。第7の実施形態では、第3の実施形態との相違点についてのみ説明する。
(Seventh embodiment)
In the third embodiment, a configuration for controlling the position and orientation of the camera movement destination so that the entire background can be imaged and the influence upon conversion to an image viewed from the direction of the observer's line of sight is reduced. showed that. However, in the third embodiment, the position and orientation of the camera destination are controlled so that the entire background can be imaged and the influence when converting to an image viewed from the observer's line of sight is reduced. Even if the background image that is blocked by a specific object and cannot be seen by the user is blurred (the background is not in focus), the quality of the entire image displayed on the display device 4 Will deteriorate. Therefore, the seventh embodiment is different from the third embodiment in that the position and orientation in which the entire background can be imaged and the position where the background is not blurred are determined as the arrangement position and orientation of the camera. In the seventh embodiment, only differences from the third embodiment will be described.
図23は、第7の実施形態における画像処理システム1gの構成の例を示す図である。画像処理システム1gは、カメラ2cと、画像処理装置3gと、表示装置4とを備える。画像処理装置3gは、カメラ2cの配置位置及び向きを決定する方法が画像処理装置3cと異なる。具体的には、画像処理装置3cは、背景が全て撮像できる位置及び向きであり、かつ、背景がぼけない位置をカメラ2cの配置位置及び向きに決定する。
FIG. 23 is a diagram illustrating an example of a configuration of an image processing system 1g according to the seventh embodiment. The image processing system 1g includes a camera 2c, an image processing device 3g, and a display device 4. The image processing device 3g differs from the image processing device 3c in the method of determining the arrangement position and orientation of the camera 2c. Specifically, the image processing device 3c determines the position and orientation in which the entire background can be imaged and the position where the background is not blurred as the arrangement position and orientation of the camera 2c.
画像処理装置3gは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3cは、画像取得部30、操作部31、変数決定部32、記憶部33c、配置決定部34g、切出部36、出力部37、配置部39を備える装置として機能する。なお、画像処理装置3gの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3g includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3c includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34g, a cutout unit 36, an output unit 37, and an arrangement unit 39. Functions as a device. Note that all or some of the functions of the image processing apparatus 3g may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3gは、配置決定部34に代えて配置決定部34gを備える点で画像処理装置3cと構成が異なる。画像処理装置3gは、他の構成については画像処理装置3cと同様である。そのため、画像処理装置3g全体の説明は省略し、配置決定部34gについて説明する。
The image processing device 3g is different from the image processing device 3c in that it includes a placement determination unit 34g instead of the placement determination unit 34. The image processing device 3g is the same as the image processing device 3c in other configurations. Therefore, the description of the entire image processing device 3g is omitted, and the arrangement determining unit 34g will be described.
配置決定部34gは、カメラ2cの配置位置及び向きを決定する決定装置として機能する。配置決定部34gは、記憶部33cに記憶されている画像、変数情報及び回転情報テーブルと、操作部31を介して入力された実空間におけるカメラ2cの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、カメラパラメータ情報とを入力する。配置決定部34gは、入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2cの配置位置及び向きを決定する。具体的には、配置決定部34gは、背景が全て撮像できる位置及び向きであり、かつ、背景がぼけない位置をカメラ2の配置位置及び向きに決定する。
The arrangement determining unit 34g functions as a determining device that determines the arrangement position and orientation of the camera 2c. The arrangement determining unit 34g includes an image, variable information and rotation information table stored in the storage unit 33c, arrangement information of the camera 2c in the real space input via the operation unit 31, and position information of the observer 5. The arrangement information of the object in the real space and the camera parameter information are input. Based on the input image, variable information and rotation information table, the placement information of the camera 2c, the position information of the observer 5, the placement information of the object, and the camera parameter information, the placement determination unit 34g Determine the placement position and orientation. Specifically, the arrangement determining unit 34g determines the position and orientation in which the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2.
図24は、第7の実施形態における画像処理装置3gの処理の流れを示すフローチャートである。図15と同様の処理については、図24において図15と同様の符号を付して説明を省略する。なお、図24の説明では、既に変数決定部32による処理は行われているものとする。また、図24では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。
FIG. 24 is a flowchart showing the flow of processing of the image processing apparatus 3g in the seventh embodiment. The processing similar to that in FIG. 15 is denoted by the same reference numerals as those in FIG. In the description of FIG. 24, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 24 will describe processing when still images are acquired from a plurality of cameras 2c-1 to 2c-N.
ステップS102の処理において、背景が欠けずに撮像されている画像がない場合(ステップS102−NO)、配置決定部34gは入力した画像、変数情報及び回転情報テーブルと、カメラ2cの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2cの配置位置及び向きを決定する(ステップS701)。具体的には、配置決定部34gは、背景がぼけない位置、かつ、カメラ2cの現在位置からカメラ2cを所定の距離移動した位置をカメラ2cの配置位置として決定する。例えば、配置決定部34gは、配置決定部34eが行う処理と同様に、上記式1〜式3に基づいてカメラ2cの配置位置を決定する。ここで、カメラ2cを所定の距離移動した位置とは、カメラ2cの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2cを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。
In the process of step S102, when there is no image captured without a missing background (step S102-NO), the arrangement determination unit 34g inputs the input image, variable information and rotation information table, arrangement information of the camera 2c, Based on the position information of the observer 5, the object arrangement information, and the camera parameter information, the arrangement position and orientation of the camera 2c are determined (step S701). Specifically, the arrangement determining unit 34g determines the position where the background is not blurred and the position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c as the arrangement position of the camera 2c. For example, the arrangement determining unit 34g determines the arrangement position of the camera 2c based on the above formulas 1 to 3, similarly to the processing performed by the arrangement determining unit 34e. Here, the position where the camera 2c is moved by a predetermined distance refers to the area where the camera 2c is imaged on the same plane as the background from the arrangement information of the camera 2c, and the camera 2c is determined in a direction closer to the calculated background area. (For example, about 10% of the distance from the initial position of the camera to the background).
また、配置決定部34gは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34gは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34gは、カメラ移動先配置情報を配置部39に出力する。その後、画像処理装置3gは、ステップS302以降の処理を実行する。
Further, the arrangement determining unit 34g refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34g determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determining unit 34g outputs the camera movement destination arrangement information to the arrangement unit 39. Thereafter, the image processing device 3g executes the processing after step S302.
一方、背景が欠けずに撮像されている画像がある場合(ステップS102−YES)、配置決定部34gは背景がぼけない位置にカメラ2cが設置されているか否かを判定する(ステップS702)。配置決定部34gは、配置決定部34eが行う処理と同様に、上記式3に基づいて背景がぼけない位置にカメラ2cが設置されているか否かを判定する。
背景がぼけない位置にカメラ2cが設置されている場合(ステップS702−YES)、画像処理装置3gはステップS107の処理を実行する。
On the other hand, if there is an image that has been imaged with no background missing (step S102—YES), the arrangement determining unit 34g determines whether the camera 2c is installed at a position where the background is not blurred (step S702). The placement determination unit 34g determines whether or not the camera 2c is installed at a position where the background is not blurred based on Equation 3 above, similarly to the processing performed by the placement determination unit 34e.
When the camera 2c is installed at a position where the background is not blurred (step S702-YES), the image processing device 3g executes the process of step S107.
一方、背景がぼけない位置にカメラ2cが設置されていない場合(ステップS702−NO)、配置決定部34gはカメラ2cの配置位置及び向きを決定する(ステップS703)。具体的には、配置決定部34gは、カメラ2cの現在位置からカメラ2cを所定の距離移動した位置、かつ、上記式3を満たす背景がぼけない位置をカメラ2cの配置位置として決定する。また、配置決定部34gは、回転情報テーブルを参照し、カメラ2cの位置と、カメラ角度とに基づいて回転角度を取得する。配置決定部34gは、取得した回転角度をカメラ2cの向きとして決定する。配置決定部34gは、カメラ移動先配置情報を配置部39に出力する。
On the other hand, when the camera 2c is not installed at a position where the background is not blurred (step S702-NO), the arrangement determining unit 34g determines the arrangement position and orientation of the camera 2c (step S703). Specifically, the arrangement determining unit 34g determines, as the arrangement position of the camera 2c, a position where the camera 2c is moved by a predetermined distance from the current position of the camera 2c and a position where the background satisfying Equation 3 is not blurred. Further, the arrangement determining unit 34g refers to the rotation information table, and acquires the rotation angle based on the position of the camera 2c and the camera angle. The arrangement determining unit 34g determines the acquired rotation angle as the orientation of the camera 2c. The arrangement determining unit 34g outputs the camera movement destination arrangement information to the arrangement unit 39.
配置部39は、配置決定部34fから出力されたカメラ移動先配置情報に含まれる配置位置の座標に基づいて、カメラ2cを、カメラ移動先位置に移動させる(ステップS704)。その後、配置部39は、カメラ移動先配置情報に含まれる回転角度に基づいて、カメラ2cを、回転角度で示される角度分回転させる(ステップS705)。画像取得部30は、移動及び回転後のカメラ2cによって撮像された画像を取得する(ステップS706)。例えば、画像取得部30は、配置部39からカメラ2cの移動及び回転が完了した旨の通知を受けた後に、カメラ2cによって撮像された画像を移動及び回転後のカメラ2cによって撮像された画像として取得してもよい。画像取得部30は、取得した画像を記憶部33cに記録する。その後、画像処理装置30gはステップS102以降の処理を実行する。
The arrangement unit 39 moves the camera 2c to the camera movement destination position based on the coordinates of the arrangement position included in the camera movement destination arrangement information output from the arrangement determination unit 34f (step S704). Thereafter, the arrangement unit 39 rotates the camera 2c by an angle indicated by the rotation angle based on the rotation angle included in the camera movement destination arrangement information (step S705). The image acquisition unit 30 acquires an image captured by the camera 2c after movement and rotation (step S706). For example, the image acquisition unit 30 receives the notification that the movement and rotation of the camera 2c has been completed from the placement unit 39, and then converts the image captured by the camera 2c as an image captured by the camera 2c after movement and rotation. You may get it. The image acquisition unit 30 records the acquired image in the storage unit 33c. Thereafter, the image processing device 30g executes the processing after step S102.
画像取得部30が動画像を取得する場合について、図24に示す処理との相違点を説明する。ステップS101において、画像取得部30は、カメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS102において、配置決定部34gは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、カメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
When the image acquisition unit 30 acquires a moving image, differences from the processing illustrated in FIG. 24 will be described. In step S101, the image acquisition unit 30 acquires a moving image from the camera 2c, and acquires each frame image from the acquired moving image. In step S102, the arrangement determining unit 34g determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. If there is an image that is captured with no background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS102において、背景が欠けずに撮像されている画像がない場合、ステップS304において、画像取得部30は、移動及び回転後のカメラ2cから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS305において、配置決定部34gは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS107において、切出部36は、移動及び回転後のカメラ2cから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS305において、背景が欠けずに撮像されている画像がない場合、画像処理装置3gはステップS701以降の処理を実行する。
On the other hand, in step S102, when there is no image captured without a missing background, in step S304, the image acquisition unit 30 acquires a moving image from the camera 2c after movement and rotation, and each image is acquired from the acquired moving image. Get a frame image. In step S305, the arrangement determining unit 34g determines whether or not there is an image that is captured without any background missing based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S107, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S305, when there is no image captured without a missing background, the image processing device 3g executes the processing from step S701 onward.
以上のように、第7の実施形態の画像処理装置3gは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第7の実施形態の決定装置は、配置決定部34gを備える。配置決定部34gは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2cの配置位置及び向きに決定する。これによって、決定された配置位置に配置され、決定された向きに配置された撮像装置によって撮像された画像を取得することによって、画像処理装置3gは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3g according to the seventh embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determining device of the seventh embodiment includes an arrangement determining unit 34g. The arrangement determination unit 34g determines the position where the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2c. As a result, the image processing apparatus 3g is shielded by a specific object and can be viewed from the user by acquiring an image captured by the imaging apparatus arranged at the determined arrangement position and arranged in the determined orientation. It becomes possible to obtain a background image that cannot be obtained.
第7の実施形態の画像処理装置3gは、第3の実施形態の画像処理装置3cと同様に変形されてもよい。
The image processing device 3g according to the seventh embodiment may be modified in the same manner as the image processing device 3c according to the third embodiment.
(第8の実施形態)
第4の実施形態では、画像処理システムに備えられる複数台のカメラから一台のカメラを選択し、選択したカメラを背景が全て撮像できるように、かつ、観察者の視線の方向から見た画像に変換する際の影響が小さくなるようにカメラの移動先の位置及び向きを制御する構成を示した。しかしながら、第4の実施形態において、カメラを背景が全て撮像できるようにカメラの移動先の位置及び向きを制御したとしても、特定の物体で遮蔽されてユーザから見ることができない背景の画像がぼけてしまっている(背景にピントが合っていない)場合には、表示装置4に表示される画像全体の品質が劣化してしまう。そこで、第8の実施形態では、複数台のカメラから選択されたカメラの配置位置及び向きを、背景が全て撮像できる位置であり、かつ、背景がぼけない位置及び向きに決定する点で第4の実施形態と相違する。第8の実施形態では、第4の実施形態との相違点についてのみ説明する。
(Eighth embodiment)
In the fourth embodiment, an image obtained by selecting one camera from a plurality of cameras provided in the image processing system and capturing the entire background of the selected camera as viewed from the observer's line of sight. A configuration is shown in which the position and orientation of the destination of the camera are controlled so that the influence of the conversion into the camera is reduced. However, in the fourth embodiment, even if the position and orientation of the destination of the camera are controlled so that the entire background of the camera can be imaged, the background image that is blocked by a specific object and cannot be seen by the user is blurred. If the image is displayed (the background is not in focus), the quality of the entire image displayed on the display device 4 deteriorates. Therefore, in the eighth embodiment, the fourth is that the arrangement position and orientation of a camera selected from a plurality of cameras are determined to be positions where the background can be captured and the background is not blurred. This is different from the embodiment. In the eighth embodiment, only differences from the fourth embodiment will be described.
図25は、第8の実施形態における画像処理システム1hの構成の例を示す図である。画像処理システム1hは、カメラ2c−1〜2c−Nと、画像処理装置3hと、表示装置4とを備える。画像処理装置3hは、カメラ2cを選択する方法及びカメラ2cの配置位置及び向きを決定する方法が画像処理装置3dと異なる。具体的には、画像処理装置3hは、複数台のカメラ2c−1〜2c−Nの中から評価値の高いカメラ2c−nを選択し、選択したカメラ2c−nの配置位置及び向きを、背景が全て撮像できる位置であり、かつ、背景がぼけない位置に決定する。
FIG. 25 is a diagram illustrating an example of a configuration of an image processing system 1h according to the eighth embodiment. The image processing system 1h includes cameras 2c-1 to 2c-N, an image processing device 3h, and a display device 4. The image processing device 3h differs from the image processing device 3d in the method of selecting the camera 2c and the method of determining the arrangement position and orientation of the camera 2c. Specifically, the image processing device 3h selects the camera 2c-n having a high evaluation value from the plurality of cameras 2c-1 to 2c-N, and determines the arrangement position and orientation of the selected camera 2c-n. The background is determined as a position where all the images can be captured and the background is not blurred.
画像処理装置3hは、バスで接続されたCPUやメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置3hは、画像取得部30、操作部31h、変数決定部32、記憶部33c、配置決定部34h、切出部36、出力部37、選択部38h、配置部39を備える装置として機能する。なお、画像処理装置3hの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
The image processing device 3h includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes an image processing program. By executing the image processing program, the image processing apparatus 3h has an image acquisition unit 30, an operation unit 31h, a variable determination unit 32, a storage unit 33c, an arrangement determination unit 34h, a cutout unit 36, an output unit 37, a selection unit 38h, an arrangement. It functions as a device including the unit 39. Note that all or part of the functions of the image processing device 3h may be realized using hardware such as an ASIC, PLD, or FPGA. The image processing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the image processing program may be transmitted / received via a telecommunication line.
画像処理装置3hは、操作部31、配置決定部34d及び選択部38dに代えて操作部31h、配置決定部34h及び選択部38hを備える点で画像処理装置3dと構成が異なる。画像処理装置3hは、他の構成については画像処理装置3dと同様である。そのため、画像処理装置3h全体の説明は省略し、操作部31h、配置決定部34h及び選択部38hについて説明する。
The image processing device 3h is different from the image processing device 3d in that an operation unit 31h, an arrangement determination unit 34h, and a selection unit 38h are provided instead of the operation unit 31, the arrangement determination unit 34d, and the selection unit 38d. The other configuration of the image processing device 3h is the same as that of the image processing device 3d. Therefore, description of the entire image processing device 3h is omitted, and the operation unit 31h, the arrangement determination unit 34h, and the selection unit 38h will be described.
操作部31hは、操作部31と同様の処理を行う。また、操作部31hは、優先情報を取得する。また、操作部31hは、予め設定されている優先情報を取得してもよいし、入力装置を介して入力されることによって優先情報を取得してもよい。操作部31hは、取得した優先情報を選択部38hに出力する。
The operation unit 31 h performs the same processing as the operation unit 31. The operation unit 31h acquires priority information. The operation unit 31h may acquire preset priority information, or may acquire priority information by being input via an input device. The operation unit 31h outputs the acquired priority information to the selection unit 38h.
配置決定部34hは、カメラ2c−nの配置位置を決定する決定装置として機能する。配置決定部34hは、選択部38hが選択したカメラ2c−nの識別情報と、記憶部33に記憶されているカメラ2c−1〜2c−Nのそれぞれによって撮像された画像、変数情報及び回転情報テーブルと、操作部31hを介して入力された観察者5の位置情報と、実空間における物体の配置情報と、実空間におけるカメラ2c−1〜2c−Nのそれぞれの配置情報と、カメラパラメータ情報とを入力する。配置決定部34hは、入力した複数の画像、変数情報及び回転情報テーブルと、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報と、カメラパラメータ情報とに基づいて、カメラ2c−nの配置位置及び向きを決定する。具体的には、配置決定部34hは、背景が全て撮像できる位置であり、かつ、背景がぼけない位置をカメラ2c−nの配置位置及び向きに決定する。
The arrangement determination unit 34h functions as a determination device that determines the arrangement position of the cameras 2c-n. The arrangement determination unit 34h includes the identification information of the camera 2c-n selected by the selection unit 38h, and the images, variable information, and rotation information captured by each of the cameras 2c-1 to 2c-N stored in the storage unit 33. Table, position information of the observer 5 input via the operation unit 31h, object arrangement information in real space, arrangement information of each of the cameras 2c-1 to 2c-N in real space, and camera parameter information Enter. The arrangement determination unit 34h includes a plurality of input images, variable information and rotation information tables, arrangement information of the cameras 2c-1 to 2c-N, position information of the observer 5, arrangement information of the object, and camera Based on the parameter information, the arrangement position and orientation of the camera 2c-n are determined. Specifically, the arrangement determining unit 34h determines the position where the background can be captured and the position where the background is not blurred as the arrangement position and orientation of the camera 2c-n.
また、配置決定部34hは、入力した複数の画像のうち背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、背景を欠けずに撮像しているカメラ2cがある旨の通知を選択部38hに出力する。この場合、配置決定部34hは、通知とともに、背景を欠けずに撮像しているカメラ2cの識別情報を選択部38hに出力する。一方、背景が欠けずに撮像されている画像がない場合、背景を欠けずに撮像しているカメラ2cがない旨の通知を選択部38hに出力する。
In addition, the arrangement determining unit 34h determines whether there is an image that is captured without any background loss among the plurality of input images. When there is an image captured without a background missing, a notification that there is a camera 2c capturing an image without a background is output to the selection unit 38h. In this case, the arrangement determination unit 34h outputs, together with the notification, identification information of the camera 2c that is imaging without missing the background to the selection unit 38h. On the other hand, when there is no image captured without missing the background, a notification that there is no camera 2c that is imaged without missing the background is output to the selection unit 38h.
また、配置決定部34hは、選択部38hによって選択されたカメラ2c−nの現在位置から所定の距離移動した位置を、選択されたカメラ2c−nの配置位置として決定する。また、配置決定部34hは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34hは、取得した回転角度の値をカメラ2c−nの向きとして決定する。背景が欠けずに撮像されている画像がない場合、配置決定部34fは選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。
Further, the arrangement determining unit 34h determines a position moved by a predetermined distance from the current position of the camera 2c-n selected by the selecting unit 38h as the arrangement position of the selected camera 2c-n. Further, the arrangement determining unit 34h refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34h determines the acquired rotation angle value as the orientation of the camera 2c-n. If there is no image captured without a background missing, the arrangement determining unit 34 f outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39.
選択部38hは、選択されるカメラ2c−nを決定する決定装置として機能する。選択部38hは、配置決定部34hから出力された通知と、記憶部33cに記憶されている画像及び変数情報と、操作部31hを介して入力されたカメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、実空間における物体の配置情報と、優先情報と、カメラパラメータ情報を入力する。選択部38hは、カメラパラメータ情報を各カメラ2cから取得する。選択部38hは、入力した画像と、カメラ2c−1〜2c−Nのそれぞれの配置情報と、観察者5の位置情報と、物体の配置情報とに基づいて、背景を欠けずに撮像しているカメラ2c−nを複数のカメラ2c−1〜2c−Nの中から選択する。選択部38hは、選択したカメラ2c−nの識別情報を配置決定部34hに出力する。
The selection unit 38h functions as a determination device that determines the selected camera 2c-n. The selection unit 38h includes the notification output from the placement determination unit 34h, the image and variable information stored in the storage unit 33c, and the cameras 2c-1 to 2c-N input via the operation unit 31h. Arrangement information, position information of the observer 5, object arrangement information in real space, priority information, and camera parameter information are input. The selection unit 38h acquires camera parameter information from each camera 2c. The selection unit 38h captures an image without missing a background based on the input image, the respective arrangement information of the cameras 2c-1 to 2c-N, the position information of the observer 5, and the arrangement information of the object. The selected camera 2c-n is selected from a plurality of cameras 2c-1 to 2c-N. The selection unit 38h outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34h.
図26は、第8の実施形態における画像処理装置3hの処理の流れを示すフローチャートである。図17と同様の処理については、図26において図17と同様の符号を付して説明を省略する。なお、図26の説明では、既に変数決定部32による処理は行われているものとする。また、図26では、複数のカメラ2c−1〜2c−Nから静止画像を取得した場合の処理について説明する。
FIG. 26 is a flowchart showing the flow of processing of the image processing apparatus 3h in the eighth embodiment. The processes similar to those in FIG. 17 are denoted by the same reference numerals as those in FIG. In the description of FIG. 26, it is assumed that the processing by the variable determination unit 32 has already been performed. In addition, FIG. 26 describes processing when still images are acquired from the plurality of cameras 2c-1 to 2c-N.
ステップS202の処理において、背景が欠けずに撮像されている画像がある場合(ステップS202−YES)、選択部38hは配置決定部34hから出力された識別情報で識別されるカメラ2c−1〜2c−Nの中に背景がぼけない位置に設置されているカメラ2cがあるか否かを判定する(ステップS801)。選択部38hは、選択部38fが行う方法と同様の方法で背景がぼけない位置に設置されているカメラ2cがあるか否かを判定する。背景がぼけない位置に設置されているカメラ2cがある場合(ステップS801−YES)、選択部38hは配置決定部34hから出力された識別情報で識別されるカメラ2cの中から背景を欠けずに撮像しているカメラ2c−nであって、かつ、背景がぼけない位置に設置されているカメラ2c−nを選択する(ステップS802)。
In the process of step S202, if there is an image that has been captured without any background missing (step S202-YES), the selection unit 38h is identified by the cameras 2c-1 to 2c identified by the identification information output from the arrangement determination unit 34h. It is determined whether or not there is a camera 2c installed in a position where the background is not blurred in -N (step S801). The selection unit 38h determines whether there is a camera 2c installed at a position where the background is not blurred by a method similar to the method performed by the selection unit 38f. When there is a camera 2c installed at a position where the background is not blurred (step S801-YES), the selection unit 38h does not lose the background from the cameras 2c identified by the identification information output from the arrangement determination unit 34h. The camera 2c-n that is taking an image and is installed at a position where the background is not blurred is selected (step S802).
具体的には、選択部38hは、背景がぼけない位置に設置されているカメラ2cが一台ある場合、背景がぼけない位置に設置されているカメラ2c−nを選択する。また、選択部38hは、背景がぼけない位置に設置されているカメラ2cが複数台ある場合、背景がぼけない位置に設置されているカメラ2cそれぞれに対してカメラ評価値を算出する。
Specifically, when there is one camera 2c installed at a position where the background is not blurred, the selection unit 38h selects the camera 2c-n installed at a position where the background is not blurred. Further, when there are a plurality of cameras 2c installed at a position where the background is not blurred, the selection unit 38h calculates a camera evaluation value for each of the cameras 2c installed at a position where the background is not blurred.
選択部38hは、配置決定部34fから出力された識別情報で識別されるカメラ2c全てにおいてカメラ評価値を算出する。その後、選択部38hは、背景を欠けずに撮像しているカメラ2cであって、背景がぼけない位置に設置されているカメラ2cのうち、カメラ評価値が所定の閾値以上のカメラ2c−nを選択する。カメラ評価値が所定の閾値以上のカメラ2c−nが複数台ある場合、選択部38hはカメラ評価値が最も高いカメラ2c−nを選択してもよい。選択部38hは、選択したカメラ2c−nの識別情報を切出部36に出力する。その後、画像処理装置3fはステップS208の処理を実行する。
The selection unit 38h calculates camera evaluation values in all the cameras 2c identified by the identification information output from the arrangement determination unit 34f. Thereafter, the selection unit 38h is a camera 2c that captures an image without losing the background, and among the cameras 2c that are installed at positions where the background is not blurred, the camera 2c-n having a camera evaluation value equal to or greater than a predetermined threshold value. Select. When there are a plurality of cameras 2c-n having camera evaluation values equal to or greater than a predetermined threshold, the selection unit 38h may select the camera 2c-n having the highest camera evaluation value. The selection unit 38h outputs the identification information of the selected camera 2c-n to the cutout unit 36. Thereafter, the image processing device 3f executes the process of step S208.
また、ステップS202の処理において背景が欠けずに撮像されている画像がない場合(ステップS202−NO)、又は、背景がぼけない位置に設置されているカメラ2cがない場合(ステップS801−NO)、選択部38hは複数のカメラ2c−1〜2c−Nの中からカメラ2c−nを選択する(ステップS803)。具体的には、選択部38hは、変数情報に基づいて、選択部38fが行う方法と同様の方法でカメラ2c−nを選択する。選択部38hは、選択したカメラ2c−nの識別情報を配置決定部34hに出力する。
Also, in the process of step S202, when there is no image captured without a missing background (step S202-NO), or when there is no camera 2c installed at a position where the background is not blurred (step S801-NO). The selection unit 38h selects the camera 2c-n from the plurality of cameras 2c-1 to 2c-N (step S803). Specifically, the selection unit 38h selects the camera 2c-n by a method similar to the method performed by the selection unit 38f based on the variable information. The selection unit 38h outputs the identification information of the selected camera 2c-n to the arrangement determination unit 34h.
配置決定部34hは、選択部38hから出力された識別情報で識別されるカメラ2c−nの配置位置及び向きを決定する(ステップS804)。具体的には、配置決定部34hは、背景がぼけない位置、かつ、選択部38hから出力された識別情報で識別されるカメラ2c−nの現在位置からカメラ2c−nを所定の距離移動した位置をカメラ2c−nの配置位置として決定する。ここで、カメラ2c−nを所定の距離移動した位置とは、選択されたカメラc−nの配置情報から、背景と同一平面上で撮像している領域を算出し、算出した背景の領域に近づける方向にカメラ2c−nを所定の距離(例えば、カメラの初期位置から背景までの距離の10%程度)移動した位置である。また、配置決定部34hは、回転情報テーブルを参照し、選択されたカメラ2c−nの配置位置及びカメラ角度から対応する回転角度の値を取得する。配置決定部34hは、取得した回転角度の値をカメラ2c−nの向きとして決定する。その後、配置決定部34fは、選択されたカメラ2c−nの識別情報と、カメラ移動先位置情報とを配置部39に出力する。その後、画像処理装置3fは、ステップS403以降の処理を実行する。
The arrangement determination unit 34h determines the arrangement position and orientation of the camera 2c-n identified by the identification information output from the selection unit 38h (step S804). Specifically, the arrangement determination unit 34h moves the camera 2c-n by a predetermined distance from the current position of the camera 2c-n identified by the identification information output from the selection unit 38h and the position where the background is not blurred. The position is determined as the arrangement position of the cameras 2c-n. Here, the position where the camera 2c-n is moved by a predetermined distance is calculated from an area captured on the same plane as the background from the arrangement information of the selected camera c-n. This is a position where the camera 2c-n is moved by a predetermined distance (for example, about 10% of the distance from the initial position of the camera to the background) in the approaching direction. Further, the arrangement determining unit 34h refers to the rotation information table, and acquires a corresponding rotation angle value from the arrangement position and camera angle of the selected camera 2c-n. The arrangement determining unit 34h determines the acquired rotation angle value as the orientation of the camera 2c-n. Thereafter, the arrangement determining unit 34 f outputs the identification information of the selected camera 2 c-n and the camera movement destination position information to the arrangement unit 39. Thereafter, the image processing device 3f executes the processing after step S403.
画像取得部30が動画像を取得する場合について、図26に示す処理との相違点を説明する。ステップS201において、画像取得部30は、複数のカメラ2c−1〜2c−Nのそれぞれから動画像を取得し、取得した動画像それぞれから各フレーム画像を取得する。ステップS202において、配置決定部34hは、取得した動画像それぞれの各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、選択されたカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
Differences from the processing shown in FIG. 26 will be described in the case where the image acquisition unit 30 acquires a moving image. In step S201, the image acquisition unit 30 acquires a moving image from each of the plurality of cameras 2c-1 to 2c-N, and acquires each frame image from each of the acquired moving images. In step S202, the arrangement determining unit 34h determines whether or not there is an image that is captured without missing the background, based on the first frame image of each frame image of each acquired moving image. If there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the selected camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
一方、ステップS202において、背景が欠けずに撮像されている画像がない場合、ステップS406において、画像取得部30は、移動及び回転後の複数のカメラ2c−nから動画像を取得し、取得した動画像から各フレーム画像を取得する。ステップS406において、配置決定部34hは、取得した動画像の各フレーム画像の先頭フレーム画像に基づいて、背景が欠けずに撮像されている画像があるか否か判定する。背景が欠けずに撮像されている画像がある場合、ステップS208において、切出部36は、移動及び回転後のカメラ2c−nから取得された動画像のフレーム画像毎に背景部分画像を切り出す。次に、切出部36は、各フレーム画像において共通する表示位置となるように、背景部分画像の表示位置を決定する。その後、出力部37は、フレーム画像の数の背景部分画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
一方、ステップS406において、背景が欠けずに撮像されている画像がない場合、画像処理装置3hはステップS803以降の処理を実行する。
On the other hand, in step S202, when there is no image captured without a missing background, in step S406, the image acquisition unit 30 acquires and acquires moving images from the plurality of cameras 2c-n after movement and rotation. Each frame image is acquired from the moving image. In step S406, the arrangement determining unit 34h determines whether or not there is an image that is captured without any background missing, based on the first frame image of each frame image of the acquired moving image. When there is an image that is captured without any background missing, in step S208, the cutout unit 36 cuts out a background partial image for each frame image of the moving image acquired from the moved and rotated camera 2c-n. Next, the cutout unit 36 determines the display position of the background partial image so as to be a common display position in each frame image. Thereafter, the output unit 37 outputs the background partial images corresponding to the number of frame images and the display position information common to the frame images to the display device 4.
On the other hand, in step S406, if there is no image captured without a missing background, the image processing device 3h executes the processing from step S803 onward.
以上のように、第8の実施形態の画像処理装置3hは、実空間に配置された物体6を撮像するように位置及び向きが定められたカメラ2cが実空間に配置され、表示装置4の画面に表示された画像の空間で物体6が取り除かれたように観察される背景画像であって、物体6で遮蔽されてユーザから見ることができない背景画像を含む画像を出力するカメラ2cの配置位置を決定する決定装置を備える。第8の実施形態の決定装置は、配置決定部34hと、選択部38hとを備える。選択部38hは、複数のカメラ2c−1〜2c−Nのうちカメラ評価値に基づいてカメラ2c−nを選択する。配置決定部34hは、選択されたカメラ2c−nについて、表示装置4を介して観察者5が見ている領域内において、特定の物体で観察者5から見えない背景を欠けずに撮像可能な位置及び向きであって、背景がぼけない位置をカメラ2c−nの移動先であるカメラ2c−nの配置位置に決定する。これによって、決定された配置位置から撮像された画像を取得することによって、画像処理装置3hは特定の物体で遮蔽されてユーザから見ることができない背景の画像を取得することが可能になる。
As described above, in the image processing device 3h according to the eighth embodiment, the camera 2c whose position and orientation are determined so as to image the object 6 placed in the real space is placed in the real space, and the display device 4 Arrangement of a camera 2c that outputs a background image that is observed as if the object 6 has been removed in the space of the image displayed on the screen and that is hidden by the object 6 and cannot be seen by the user A determination device for determining the position is provided. The determination device according to the eighth embodiment includes an arrangement determination unit 34h and a selection unit 38h. The selection unit 38h selects the camera 2c-n based on the camera evaluation value among the plurality of cameras 2c-1 to 2c-N. The arrangement determination unit 34h can capture an image of the selected camera 2c-n without missing a background that is not visible to the observer 5 with a specific object in an area viewed by the observer 5 via the display device 4. The position where the background is not blurred is determined as the arrangement position of the camera 2c-n which is the movement destination of the camera 2c-n. Thus, by acquiring an image captured from the determined arrangement position, the image processing device 3h can acquire a background image that is blocked by a specific object and cannot be seen by the user.
第8の実施形態の画像処理装置3hは、第4の実施形態の画像処理装置3dと同様に変形されてもよい。
本実施形態では、配置決定部34hが、選択部38hがカメラ評価値に基づいて選択したカメラ2−nの配置位置を決定する構成を示したが、これに限定される必要はない。例えば、配置決定部34hは、第4の実施形態における選択部38dが選択したカメラ2c−nの配置位置を決定するように構成されてもよい。このように構成される場合、画像処理装置3hは、選択部38hに代えて選択部38dを備える。
The image processing device 3h according to the eighth embodiment may be modified in the same manner as the image processing device 3d according to the fourth embodiment.
In the present embodiment, the arrangement determining unit 34h determines the arrangement position of the camera 2-n selected by the selection unit 38h based on the camera evaluation value. However, the present invention is not limited to this. For example, the arrangement determination unit 34h may be configured to determine the arrangement position of the camera 2c-n selected by the selection unit 38d in the fourth embodiment. When configured in this way, the image processing device 3h includes a selection unit 38d instead of the selection unit 38h.
上記の各実施形態における画像処理装置が備える決定装置は、実空間に配置された特定の物体を撮像するように位置及び向きが定められた撮像装置が実空間に配置され、表示装置の画面に表示された画像の空間で特定の物体が取り除かれたように観察される背景の静止画像又は動画像である背景画像であって、特定の物体で遮蔽されてユーザから見ることができない背景画像を含む画像を出力する撮像装置の配置位置を決定するために用いられる。
The determination device included in the image processing device in each of the above embodiments includes an imaging device whose position and orientation are determined so as to capture an image of a specific object placed in the real space, and is displayed on the screen of the display device. A background image that is a background still image or a moving image that is observed as if a specific object has been removed in the space of the displayed image, and is a background image that is blocked by the specific object and cannot be seen by the user This is used to determine the arrangement position of an imaging device that outputs an image including the image.
上述した実施形態における画像処理システム及び画像処理装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
You may make it implement | achieve at least one part of the image processing system and image processing apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.