JP2018129784A - Determination device, image processing apparatus, determination method, and determination program - Google Patents

Determination device, image processing apparatus, determination method, and determination program Download PDF

Info

Publication number
JP2018129784A
JP2018129784A JP2017161550A JP2017161550A JP2018129784A JP 2018129784 A JP2018129784 A JP 2018129784A JP 2017161550 A JP2017161550 A JP 2017161550A JP 2017161550 A JP2017161550 A JP 2017161550A JP 2018129784 A JP2018129784 A JP 2018129784A
Authority
JP
Japan
Prior art keywords
image
camera
space
observer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017161550A
Other languages
Japanese (ja)
Inventor
亀田 明男
Akio Kameda
明男 亀田
愛 磯貝
Ai Isogai
愛 磯貝
越智 大介
Daisuke Ochi
大介 越智
木全 英明
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2018129784A publication Critical patent/JP2018129784A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a determination device, an image processing apparatus, a determination method, and a determination program that can prevent the apparent size of an image of an object observed when assumed that the object is moved in a real space, from being different from the apparent size of an image of the object virtually moved in a space of an image displayed on a display screen.SOLUTION: A determination device selects, from a plurality of cameras arranged in a real space the positions and directions of which are determined to pick up an image of an object arranged in the real space, a camera that outputs an image including an object image that is an image of the object observed to be moved in a space of a displayed image. The determination device comprises a selection part that selects a camera on the basis of at least one of the direction of a line connecting from an object actual position that is an actual position of the object to an object temporary position that is a temporary position of the object, the direction of a line connecting from a camera movement source position that is the position of the source of camera movement to a camera movement destination position that is the position of the destination of camera movement, and magnification.SELECTED DRAWING: Figure 1

Description

本発明は、決定装置、画像処理装置、決定方法及び決定プログラムに関する。   The present invention relates to a determination device, an image processing device, a determination method, and a determination program.

拡張現実感(AR: Augmented Reality)の技術とは、実空間に存在する物体の画像に装置が情報を付与等することで、現実を拡張して表現する技術である。また、複合現実感(MR: Mixed Reality)の技術とは、実空間に存在する物体の画像を装置が変化させ、変化した物体の画像と仮想空間に存在する物体の画像とを装置が複合化して表現する技術である。実空間で静止している物体の画像を、表示画面に表示された画像の空間で仮想的に移動させるには、表示画面に表示された画像の空間における物体の移動後の位置又は向きに応じて、実空間に複数のカメラが配置される必要がある。物体を取り囲むように実空間に複数のカメラが配置され、カメラ画像の中央に物体が撮像されるようカメラの光軸の方向が定められることで、複数のカメラによって物体を撮像する方法が提案されている(非特許文献1参照)。   Augmented Reality (AR) technology is a technology that expands and expresses reality by adding information to an image of an object in real space. Mixed reality (MR) technology means that the device changes the image of an object that exists in real space, and the device combines the image of the changed object and the image of the object that exists in virtual space. It is a technology that expresses. To virtually move an image of an object that is stationary in real space in the space of the image displayed on the display screen, depending on the position or orientation of the object in the space of the image displayed on the display screen Thus, a plurality of cameras need to be arranged in the real space. A method has been proposed in which a plurality of cameras are arranged in real space so as to surround an object, and the direction of the optical axis of the camera is determined so that the object is imaged in the center of the camera image. (See Non-Patent Document 1).

池谷健佑 外3名,“被写体の動きをパンフォロー可能な多視点ロボットカメラシステム”,2011年映像情報メディア学会冬季大会Kenji Ikeya, 3 others, “Multi-viewpoint robot camera system that can follow-up the movement of the subject”, 2011 Winter Conference of the Institute of Image Information and Television Engineers

しかしながら、実空間で静止している物体の位置及び向きと、表示画面に表示された画像の空間で仮想的に移動された物体の位置又は方向と、実空間に配置された複数のカメラの位置又は方向とは、必ずしも整合しない場合がある。このため、従来では、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異なる場合がある、という問題があった。   However, the position and orientation of an object that is stationary in the real space, the position or direction of the object that is virtually moved in the space of the image displayed on the display screen, and the positions of a plurality of cameras arranged in the real space Or, it may not always match the direction. For this reason, conventionally, the apparent size of the image of the object observed when the object is temporarily moved in the real space and the image of the object virtually moved in the space of the image displayed on the display screen There was a problem that the apparent size of the case may be different.

上記事情に鑑み、本発明は、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることができる決定装置、画像処理装置、決定方法及び決定プログラムを提供することを目的としている。   In view of the above circumstances, the present invention is virtually moved in the apparent size of the image of the object observed when the object is temporarily moved in the real space and in the space of the image displayed on the display screen. It is an object of the present invention to provide a determination device, an image processing device, a determination method, and a determination program that can prevent the apparent size of an object image from differing.

本発明の一態様は、実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置であって、前記物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択する選択部を備える決定装置である。   In one embodiment of the present invention, a plurality of cameras whose positions and orientations are determined so as to capture an image of an object arranged in the real space are arranged in the real space and moved in the space of the image displayed on the screen of the display device. A determination device that selects, from a plurality of cameras, the camera that outputs an image including an object image that is a still image or a moving image of the object to be observed, and is an object that is an actual position of the object The direction of the line connecting from the actual position to the temporary object position, which is the temporary position of the object, and the camera movement, which is the camera movement destination position, from the camera movement source position, which is the movement source position of the camera that images the object The determination apparatus includes a selection unit that selects the camera from a plurality of the cameras based on at least one of a direction of a line connecting to the previous position and a predetermined magnification.

本発明の一態様は、上記の決定装置であって、前記選択部は、前記物体実位置から前記物体仮位置までを結ぶ線の方向と前記カメラ移動元位置から前記カメラ移動先位置までを結ぶ線の方向とが平行に近い前記カメラほど優先して前記カメラを選択する。   One aspect of the present invention is the above-described determination device, wherein the selection unit connects a direction of a line connecting the actual object position to the temporary object position and the camera movement source position to the camera movement destination position. The camera is selected with priority as the camera is closer to the line direction.

本発明の一態様は、上記の決定装置であって、前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記カメラ移動先位置までの距離が短い前記カメラを優先して選択する。   One aspect of the present invention is the determination device described above, wherein the selection unit moves the camera from an observer temporary position that is a predetermined temporary position of an observer who observes the object image displayed on the screen. The camera with a short distance to the destination position is selected with priority.

本発明の一態様は、上記の決定装置であって、前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記物体実位置までの距離と前記カメラ移動先位置から前記物体実位置までの距離との差が短い前記カメラを優先して選択する。   One aspect of the present invention is the above-described determination device, wherein the selection unit is configured to detect the object actual from an observer temporary position that is a predetermined temporary position of an observer who observes the object image displayed on the screen. The camera having a short difference between the distance to the position and the distance from the camera destination position to the actual object position is selected with priority.

本発明の一態様は、上記の決定装置であって、前記選択部は、前記選択部が前記倍率に基づいて前記カメラを選択する場合、前記カメラから前記物体までの距離が前記倍率の逆数に応じて定まる距離の位置にある前記カメラを選択する。   One aspect of the present invention is the above-described determination device, wherein when the selection unit selects the camera based on the magnification, a distance from the camera to the object is a reciprocal of the magnification. The camera at a distance determined according to the selection is selected.

本発明の一態様は、上記の決定装置であって、前記画面に表示された前記物体画像を観察する観察者が存在する実空間である第1空間の座標系と前記物体が存在する実空間である第2空間の座標系とを対応付けた結果に基づいて、前記第2空間における、前記観察者の所定の仮の位置である観察者仮位置を決定する座標処理部を更に備える。   One aspect of the present invention is the determination apparatus described above, wherein the coordinate system of the first space, which is a real space in which an observer who observes the object image displayed on the screen is present, and the real space in which the object is present And a coordinate processing unit for determining an observer temporary position that is a predetermined temporary position of the observer in the second space based on a result of associating with a coordinate system of the second space.

本発明の一態様は、上記の決定装置と、選択された前記カメラを移動させる移動部と、移動された前記カメラから、前記物体画像を含む画像を取得する画像取得部と、前記物体画像を含む画像から、前記物体画像を切り出す切出部と、切り出された前記物体画像を表示装置に出力する出力部とを備える画像処理装置である。   One aspect of the present invention provides the determination apparatus, a moving unit that moves the selected camera, an image acquisition unit that acquires an image including the object image from the moved camera, and the object image. An image processing apparatus comprising: a cutout unit that cuts out the object image from an included image; and an output unit that outputs the cut out object image to a display device.

本発明の一態様は、上記の画像処理装置であって、切り出された前記物体画像の向き及び大きさのうち少なくとも一方を補正する補正部を更に備え、前記出力部は、前記物体画像の向き及び大きさのうち少なくとも一方が補正された前記物体画像を前記表示装置に出力する。   One aspect of the present invention is the image processing apparatus described above, further including a correction unit that corrects at least one of a direction and a size of the cut-out object image, and the output unit includes a direction of the object image. And the object image in which at least one of the sizes is corrected is output to the display device.

本発明の一態様は、実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置が実行する決定方法であって、物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択するステップを含む決定方法である。   In one embodiment of the present invention, a plurality of cameras whose positions and orientations are determined so as to capture an image of an object arranged in the real space are arranged in the real space and moved in the space of the image displayed on the screen of the display device. A determination method executed by a determination device that selects, from a plurality of cameras, the camera that outputs an image including an object image that is a still image or a moving image of the object observed as described above, The direction of the line connecting from the actual object position, which is the position, to the temporary object position, which is the temporary position of the object, and the position of the camera movement destination from the camera movement source position, which is the movement source position of the camera that captures the object This is a determination method including a step of selecting the camera from a plurality of the cameras based on at least one of the direction of a line connecting to the camera movement destination position and a predetermined magnification.

本発明の一態様は、上記の決定装置としてコンピュータを機能させるための決定プログラムである。   One embodiment of the present invention is a determination program for causing a computer to function as the determination device.

本発明により、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。   According to the present invention, the apparent size of the image of the object observed when the object is temporarily moved in the real space and the appearance of the image of the object virtually moved in the space of the image displayed on the display screen It becomes possible not to differ from the above size.

第1実施形態における、画像処理システムの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system in 1st Embodiment. 第1実施形態における、物体及びカメラの配置情報の例を示す図である。It is a figure which shows the example of the arrangement information of an object and a camera in 1st Embodiment. 第1実施形態における、物体及びカメラの配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of an object and a camera in 1st Embodiment. 第1実施形態における、カメラの配置に関する変数の例を示す図である。It is a figure which shows the example of the variable regarding the arrangement | positioning of the camera in 1st Embodiment. 第1実施形態における、表示画像の第1例を示す図である。It is a figure which shows the 1st example of the display image in 1st Embodiment. 第1実施形態における、カメラ画像の第1例を示す図である。It is a figure which shows the 1st example of the camera image in 1st Embodiment. 第1実施形態における、カメラ画像の第2例を示す図である。It is a figure which shows the 2nd example of the camera image in 1st Embodiment. 第1実施形態における、カメラ画像の第3例を示す図である。It is a figure which shows the 3rd example of the camera image in 1st Embodiment. 第1実施形態における、表示画像の第2例を示す図である。It is a figure which shows the 2nd example of the display image in 1st Embodiment. 第1実施形態における、画像処理装置の動作の例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of the image processing apparatus in the first embodiment. 第2実施形態における、画像処理システムの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system in 2nd Embodiment. 第2実施形態における、表示画像の例を示す図である。It is a figure which shows the example of the display image in 2nd Embodiment. 第2実施形態における、画像処理装置の動作の例を示すフローチャートである。12 is a flowchart illustrating an example of an operation of the image processing apparatus in the second embodiment. 第3実施形態における、画像処理システムの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system in 3rd Embodiment. 第3実施形態における、第1空間での観察者の配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of the observer in 1st space in 3rd Embodiment. 第3実施形態における、表示画像の例を示す図である。It is a figure which shows the example of the display image in 3rd Embodiment. 第3実施形態における、第2空間での物体及びカメラの配置の例を示す俯瞰図である。It is an overhead view which shows the example of arrangement | positioning of the object and camera in 2nd space in 3rd Embodiment. 第3実施形態における、画像処理装置の動作の例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of an image processing apparatus according to a third embodiment. 第4実施形態における、画像処理システムの構成の例を示す図である。It is a figure which shows the example of a structure of the image processing system in 4th Embodiment. 第4実施形態における、画像処理装置の動作の例を示すフローチャートである。14 is a flowchart illustrating an example of an operation of an image processing apparatus according to a fourth embodiment.

本発明の実施形態について、図面を参照して詳細に説明する。
(第1実施形態)
図1は、画像処理システム1aの構成の例を示す図である。画像処理システム1aは、画像に画像処理を施すシステムである。画像は、静止画像又は動画像のいずれでもよい。画像処理システム1aは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることができる。画像処理システム1aは、実空間で静止している物体の画像を、表示画面に表示された画像の空間(仮想空間)で、物体の画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能である。画像処理システム1aは、カメラ2−1〜2−N(Nは2以上の整数)と、画像処理装置3aと、表示装置4とを備える。以下では、Nは一例として3である。以下では、カメラ2−1〜2−3に共通する事項については、符号の一部を省略して「カメラ2」と表記する。
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of the configuration of the image processing system 1a. The image processing system 1a is a system that performs image processing on an image. The image may be either a still image or a moving image. The image processing system 1a uses the apparent size of the image of the object observed when the object is temporarily moved in the real space and the image of the object virtually moved in the space of the image displayed on the display screen. The apparent size of can be made different. The image processing system 1a reproduces an image of an object that is stationary in real space as faithfully as possible in the space of the image displayed on the display screen (virtual space). Can be moved. The image processing system 1a includes cameras 2-1 to 2-N (N is an integer of 2 or more), an image processing device 3a, and a display device 4. In the following, N is 3 as an example. Hereinafter, items common to the cameras 2-1 to 2-3 are denoted by “camera 2” while omitting a part of the reference numerals.

カメラ2は、物体が配置されている実空間において、それぞれ予め定められた向きで予め定められた位置に配置されている。カメラ2は、カメラ2が配置されている実空間に配置されている物体を、レンズである光学系を介して撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。以下、撮像対象である物体の静止画像又は動画像を「物体画像」という。カメラ2は、カメラごとに撮像対象である物体よりも後ろの背景の静止画像又は動画像(以下「背景画像」という。)と物体画像とを含む画像(カメラ画像)を、画像処理装置3aに出力する。   The camera 2 is arranged at a predetermined position in a predetermined direction in the real space where the object is arranged. The camera 2 captures an image of an object placed in the real space where the camera 2 is placed through an optical system that is a lens. The optical system may be a wide-angle lens, a fish-eye lens, or an omnidirectional lens. Hereinafter, a still image or a moving image of an object to be imaged is referred to as an “object image”. The camera 2 sends an image (camera image) including a background still image or moving image (hereinafter referred to as “background image”) behind the object to be imaged for each camera and an object image to the image processing apparatus 3a. Output.

画像処理装置3aは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3aと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3aは、複数のカメラ2からカメラ2−n(1≦n≦N)を選択する。画像処理装置3aは、選択されたカメラ2を所定位置まで移動させる。画像処理装置3aは、選択されたカメラ2の光軸方向を維持したまま、選択されたカメラ2を移動してもよい。画像処理装置3aは、選択されたカメラ2が出力した画像に画像処理を施す。画像処理装置3aは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3aは、画像処理が施された物体画像を含む画像を、表示装置4に出力する。画像処理装置3aは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3aは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。   The image processing device 3a is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3a and the display device 4 may be separate or integrated. The image processing apparatus 3a selects the camera 2-n (1 ≦ n ≦ N) from the plurality of cameras 2. The image processing device 3a moves the selected camera 2 to a predetermined position. The image processing apparatus 3a may move the selected camera 2 while maintaining the optical axis direction of the selected camera 2. The image processing device 3a performs image processing on the image output by the selected camera 2. For example, the image processing device 3a may execute image processing at an image acquisition period (frame rate) of the camera. The image processing device 3 a outputs an image including the object image on which image processing has been performed to the display device 4. The image processing device 3a may execute image output processing at, for example, the display cycle (refresh rate) of the display device. That is, the image processing device 3a may perform moving image processing on a moving image including a plurality of frame images.

表示装置4は、ヘッドマウントディスプレイ等の表示装置である。表示装置4の画面は、表示装置4の外の物体から表示装置4の画面に届いた光を透過させる。例えば、表示装置4の画面は、光透過性を備えた液晶ディスプレイである。以下、表示装置4の画面を透過した光による物体の光学画像を「物体光学像」という。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理装置3aが出力した物体画像を表示する。すなわち、表示装置4の画面は、画像処理装置3aが出力した物体画像を、画面上で物体光学像に貼り合わせる。これによって、表示装置4の画面は、物体光学像を表示する代わりに、画像処理装置3aが出力した物体画像を表示することができる。以下、表示装置4の画面に表示される画像を「表示画像」という。   The display device 4 is a display device such as a head mounted display. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from an object outside the display device 4. For example, the screen of the display device 4 is a liquid crystal display having light transparency. Hereinafter, an optical image of an object by light transmitted through the screen of the display device 4 is referred to as an “object optical image”. The screen of the display device 4 displays the object image output by the image processing device 3a so as to hide the object optical image on the screen. That is, on the screen of the display device 4, the object image output by the image processing device 3a is pasted on the object optical image on the screen. Thereby, the screen of the display device 4 can display the object image output by the image processing device 3a instead of displaying the object optical image. Hereinafter, an image displayed on the screen of the display device 4 is referred to as a “display image”.

以下、実空間における観察者の実際の位置を「観察者実位置」という。観察者の所定の仮の位置を「観察者仮位置」という。観察者仮位置は、例えば、観察者が移動したと仮定された場合における観察者の移動先の位置として定められる。以下、実空間における物体の実際の位置を「物体実位置」という。以下、物体の所定の仮の位置を「物体仮位置」という。物体仮位置は、例えば、物体が移動したと仮定された場合における物体の移動先の位置として定められる。以下、実空間におけるカメラの移動元の位置を「カメラ移動元位置」という。以下、実空間におけるカメラの移動先の位置を「カメラ移動先位置」という。   Hereinafter, the actual position of the observer in the real space is referred to as “observer actual position”. The predetermined temporary position of the observer is referred to as “observer temporary position”. The observer temporary position is determined as, for example, the position of the observer's movement destination when it is assumed that the observer has moved. Hereinafter, the actual position of the object in the real space is referred to as “the actual object position”. Hereinafter, the predetermined temporary position of the object is referred to as “object temporary position”. The temporary object position is determined as, for example, the position to which the object is moved when it is assumed that the object has moved. Hereinafter, the position of the camera movement source in the real space is referred to as “camera movement source position”. Hereinafter, the position of the camera movement destination in the real space is referred to as “camera movement destination position”.

図2は、物体及びカメラ2の配置情報の例を示す図である。画像処理装置3aは、予め定められた配置情報を取得する。観察者実位置及び観察者仮位置の配置情報は、例えば、座標を用いて表される。以下では、座標の原点は、観察者実位置に定められる。以下では、座標は、一例としてメートル単位で表される。物体実位置及び物体仮位置の配置情報は、例えば、座標を用いて表される。カメラ2の配置情報は、例えば、座標及び光軸方向を用いて表される。光軸方向は、例えば、座標のx軸を基準とする角度で表現される。図2では、一例として、B1=約108度、B2=90度、B3=約108度である。   FIG. 2 is a diagram illustrating an example of the arrangement information of the object and the camera 2. The image processing device 3a acquires predetermined arrangement information. For example, the arrangement information of the observer actual position and the observer temporary position is expressed using coordinates. In the following, the origin of coordinates is determined at the observer's actual position. In the following, the coordinates are expressed in meters as an example. The arrangement information of the actual object position and the temporary object position is expressed using coordinates, for example. The arrangement information of the camera 2 is represented using, for example, coordinates and an optical axis direction. The optical axis direction is expressed by, for example, an angle with reference to the x-axis of coordinates. In FIG. 2, as an example, B1 = about 108 degrees, B2 = 90 degrees, and B3 = about 108 degrees.

図3は、物体6及びカメラ2の配置の例を示す俯瞰図である。物体6(オブジェクト)は、例えば、箱、柱である。物体6の形状は、例えば、立方体である。図3では、物体6の上面には、一例として文字「A」が描かれている。物体6は、実空間に存在する部屋100に予め定められた物体実位置に配置されている。物体6が屋外に配置されている場合には、部屋100の壁は仮想的な壁でもよい。物体6は、実空間では静止していてもよい。   FIG. 3 is an overhead view showing an example of the arrangement of the object 6 and the camera 2. The object 6 (object) is, for example, a box or a pillar. The shape of the object 6 is, for example, a cube. In FIG. 3, the letter “A” is drawn on the upper surface of the object 6 as an example. The object 6 is arranged at a predetermined actual object position in the room 100 existing in the real space. When the object 6 is disposed outdoors, the wall of the room 100 may be a virtual wall. The object 6 may be stationary in real space.

観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって、表示装置4の画面越しに観察者実位置から観察する。観察者5は、予め定められた観察者実位置から移動しない。観察者5は、表示画面に表示された画像の空間(仮想空間)を移動した物体6の物体画像を、表示装置4の画面の表示画像によって、観察者実位置から観察する。図3では、観察者5は、表示画面に表示された画像の空間で物体実位置から物体仮位置60まで物体6が移動して、物体仮位置60から観察者実位置までの距離が所定距離となったように見える物体画像を、表示装置4の画面の表示画像によって、観察者実位置から観察する。   The observer 5 observes the object optical image of the object 6 arranged in the room 100 from the observer's actual position through the screen of the display device 4 with the light transmitted through the screen of the display device 4. The observer 5 does not move from a predetermined observer actual position. The observer 5 observes the object image of the object 6 moved in the space (virtual space) of the image displayed on the display screen from the observer's actual position by the display image on the screen of the display device 4. In FIG. 3, the observer 5 moves the object 6 from the actual object position to the temporary object position 60 in the space of the image displayed on the display screen, and the distance from the temporary object position 60 to the actual observer position is a predetermined distance. The object image that looks like this is observed from the observer's actual position by the display image on the screen of the display device 4.

観察者5は、例えば、観察者仮位置50の近くに配置されているカメラ2が撮像した物体6の物体画像を表示装置4の画面の表示画像によって観察するので、物体6が移動したという拡張現実感(AR)や複合現実感(MR)を得ることができる。観察者5が拡張現実感や複合現実感を得ることができるのは、物体実位置から物体仮位置60まで物体6が移動した場合に観察者5が見る物体画像と、物体実位置に配置されている物体6を観察者5が観察者仮位置50から観察した場合に観察者5が見る物体画像とが、等価だからである。   For example, the observer 5 observes the object image of the object 6 captured by the camera 2 arranged near the observer temporary position 50 with the display image on the screen of the display device 4, so that the object 6 has moved. Reality (AR) and mixed reality (MR) can be obtained. The observer 5 can obtain augmented reality or mixed reality because the object image viewed by the observer 5 when the object 6 moves from the actual object position to the temporary object position 60 and the actual object position. This is because the object image seen by the observer 5 when the observer 5 observes the object 6 viewed from the observer temporary position 50 is equivalent.

すなわち、物体実位置から物体仮位置60に移動する物体6を観察者5が観察者実位置から見る場合における物体6の大きさ等の見え方は、観察者実位置から観察者仮位置50に観察者5が移動しながら観察者5が物体実位置の物体6を見る場合における物体6の大きさ等の見え方と同じである。したがって、物体実位置から物体仮位置60に物体6が移動することと、観察者実位置から観察者仮位置50に観察者5が移動することとは、表示画像における物体6の見え方に関して等価である。   In other words, when the observer 5 views the object 6 moving from the actual object position to the temporary object position 60 from the actual observer position, the size of the object 6 is changed from the actual observer position to the temporary observer position 50. This is the same as how the object 6 is seen when the observer 5 sees the object 6 at the actual position of the object while the observer 5 moves. Therefore, the movement of the object 6 from the actual object position to the temporary object position 60 and the movement of the observer 5 from the actual observer position to the temporary observer position 50 are equivalent in terms of how the object 6 appears in the display image. It is.

カメラ2は、カメラ2の配置情報に基づく位置に、カメラ2の配置情報に基づく向きで配置されている。カメラ2の光軸方向は、カメラ2の画角に物体6を含むように予め定められる。カメラ2は、予め定められた方向に移動可能である。ベクトル21は、カメラ移動元位置からカメラ移動先位置までを結ぶベクトルである。すなわち、ベクトル21は、カメラ移動元位置からカメラ移動先位置まで移動するカメラ2の移動ベクトルを表す。図3では、ベクトル21−3は、ベクトル51及びベクトル61と平行である。   The camera 2 is arranged at a position based on the arrangement information of the camera 2 in a direction based on the arrangement information of the camera 2. The optical axis direction of the camera 2 is determined in advance so as to include the object 6 at the angle of view of the camera 2. The camera 2 is movable in a predetermined direction. The vector 21 is a vector connecting from the camera movement source position to the camera movement destination position. That is, the vector 21 represents a movement vector of the camera 2 that moves from the camera movement source position to the camera movement destination position. In FIG. 3, the vector 21-3 is parallel to the vector 51 and the vector 61.

直線22は、カメラ移動先位置から物体実位置までを結ぶ線である。光軸23は、カメラ移動先位置のカメラ2の光軸である。カメラ2は、カメラ移動元位置のカメラ2の光軸20の方向を維持して、ベクトル21に沿ってカメラ移動先位置まで移動してもよい。図3では、カメラ移動元位置のカメラ2の光軸20と、カメラ移動先位置のカメラ2の光軸23とは平行である。図3では、カメラ移動元位置のカメラ2−2の光軸20−2と、カメラ移動先位置のカメラ2−2の光軸とが一致している。   A straight line 22 is a line connecting the camera movement destination position to the actual object position. The optical axis 23 is the optical axis of the camera 2 at the camera movement destination position. The camera 2 may move to the camera movement destination position along the vector 21 while maintaining the direction of the optical axis 20 of the camera 2 at the camera movement source position. In FIG. 3, the optical axis 20 of the camera 2 at the camera movement source position and the optical axis 23 of the camera 2 at the camera movement destination position are parallel. In FIG. 3, the optical axis 20-2 of the camera 2-2 at the camera movement source position and the optical axis of the camera 2-2 at the camera movement destination position match.

ベクトル51は、観察者実位置から観察者仮位置50までを結ぶベクトルである。すなわち、ベクトル51は、観察者5が移動すると仮定された場合における移動ベクトルを表す。直線52は、観察者実位置と物体実位置とを結ぶ線である。直線52は、観察者実位置の観察者5の視線方向を表す。直線53は、観察者実位置と物体仮位置60とを結ぶ線である。直線53と直線55とは平行である。直線53と直線55とが平行であるため、直線55と直線22−1とが成す角度は、直線53と直線22−1とが成す角度と等しい。   The vector 51 is a vector that connects from the actual observer position to the temporary observer position 50. That is, the vector 51 represents a movement vector when the observer 5 is assumed to move. A straight line 52 is a line connecting the observer actual position and the object actual position. A straight line 52 represents the line-of-sight direction of the observer 5 at the observer's actual position. A straight line 53 is a line connecting the actual observer position and the temporary object position 60. The straight line 53 and the straight line 55 are parallel. Since the straight line 53 and the straight line 55 are parallel, the angle formed by the straight line 55 and the straight line 22-1 is equal to the angle formed by the straight line 53 and the straight line 22-1.

視野境界54は、観察者実位置の観察者5の視野の境界を表す線である。直線55は、観察者仮位置50と物体実位置とを結ぶ線である。直線56は、観察者仮位置50の観察者5の視線を表す。直線56と直線52とは平行である。直線57は、カメラ移動先位置においてy軸に平行な線である。したがって、直線52と直線56と直線57とは、互いに平行である。ベクトル61は、物体実位置から物体仮位置60までを結ぶベクトルである。ベクトル61は、物体6が移動すると仮定された場合における移動ベクトルを表す。ベクトル61は、ベクトル51の逆ベクトルである。観察者5は、ベクトル61に沿って移動する物体6の画像を、表示装置4の画面に見ることができる。   The visual field boundary 54 is a line representing the boundary of the visual field of the observer 5 at the actual position of the observer. A straight line 55 is a line connecting the temporary observer position 50 and the actual object position. A straight line 56 represents the line of sight of the observer 5 at the temporary observer position 50. The straight line 56 and the straight line 52 are parallel. A straight line 57 is a line parallel to the y-axis at the camera movement destination position. Therefore, the straight line 52, the straight line 56, and the straight line 57 are parallel to each other. The vector 61 is a vector that connects the actual object position to the temporary object position 60. The vector 61 represents a movement vector when it is assumed that the object 6 moves. The vector 61 is an inverse vector of the vector 51. The observer 5 can see an image of the object 6 moving along the vector 61 on the screen of the display device 4.

図3では、カメラ2−2は、観察者仮位置50に最も近い位置に配置されたカメラである。したがって、カメラ2−2は、観察者5が観察している物体光学像の大きさに最も近い大きさの物体画像を含む画像を、画像処理装置3aに出力する。物体画像の大きさとは、表示装置4の画面の面積に対する物体画像の面積である。画面の面積に対する物体画像の面積は、例えば、表示装置4の画面の全画素数に対する物体画像の画素数で表現されてもよい。物体画像の大きさとは、カメラ2が出力したカメラ画像の面積に占める物体画像の面積の割合でもよい。   In FIG. 3, the camera 2-2 is a camera arranged at a position closest to the observer temporary position 50. Therefore, the camera 2-2 outputs an image including an object image having a size closest to the size of the object optical image observed by the observer 5 to the image processing device 3a. The size of the object image is the area of the object image with respect to the area of the screen of the display device 4. The area of the object image with respect to the area of the screen may be expressed by, for example, the number of pixels of the object image with respect to the total number of pixels of the screen of the display device 4. The size of the object image may be a ratio of the area of the object image to the area of the camera image output by the camera 2.

以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−1のカメラ移動先位置から物体実位置までの距離との差を、「D1」と表記する。図3では、所定距離L0は、一例として約8.1mである。以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−2のカメラ移動先位置から物体実位置までの距離との差を、「D2」と表記する。以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−3のカメラ移動先位置から物体実位置までの距離との差を、「D3」と表記する。以下、観察者仮位置50から物体実位置までの距離と、カメラ移動先位置から物体実位置までの距離との差を、「距離差」という。   Hereinafter, the difference between the predetermined distance L0 from the actual object position to the temporary observer position 50 and the distance from the camera movement destination position of the camera 2-1 to the actual object position is denoted as “D1”. In FIG. 3, the predetermined distance L0 is about 8.1 m as an example. Hereinafter, the difference between the predetermined distance L0 from the actual object position to the temporary observer position 50 and the distance from the camera movement destination position of the camera 2-2 to the actual object position is denoted as “D2”. Hereinafter, the difference between the predetermined distance L0 from the actual object position to the observer temporary position 50 and the distance from the camera movement destination position of the camera 2-3 to the actual object position is denoted as “D3”. Hereinafter, the difference between the distance from the observer temporary position 50 to the actual object position and the distance from the camera destination position to the actual object position is referred to as a “distance difference”.

以下、y軸方向の線とベクトル21−1とが成す角度を「A1」と表記する。図3では、カメラ2−1のカメラ移動先位置から物体実位置までを結ぶベクトル21−1と直線57−1とが成す角度A1は、0度である。すなわち、ベクトル21−1と直線57−1とy軸とは、互いに平行である。   Hereinafter, an angle formed by a line in the y-axis direction and the vector 21-1 is denoted as “A1”. In FIG. 3, the angle A1 formed by the vector 21-1 connecting the camera 2-1 from the camera movement destination position to the actual object position and the straight line 57-1 is 0 degrees. That is, the vector 21-1, the straight line 57-1 and the y-axis are parallel to each other.

以下、y軸方向の線とベクトル21−2とが成す角度を「A2」と表記する。図3では、カメラ2−2のカメラ移動先位置から物体実位置までを結ぶベクトル21−2と直線57−2とが成す角度A2は、0度である。すなわち、ベクトル21−2と直線57−2とy軸とは、互いに平行である。   Hereinafter, an angle formed by a line in the y-axis direction and the vector 21-2 is denoted as “A2”. In FIG. 3, the angle A2 formed by the vector 21-2 connecting the camera 2-2 from the camera movement destination position to the actual object position and the straight line 57-2 is 0 degrees. That is, the vector 21-2, the straight line 57-2, and the y axis are parallel to each other.

以下、y軸方向の線とベクトル21−3とが成す角度を「A3」と表記する。図3では、カメラ2−3のカメラ移動先位置から物体実位置までを結ぶベクトル21−3と直線57−3とが成す角度A3は、約14度である。直線57−3とy軸とは、互いに平行である。図3では、物体実位置から物体仮位置60までを結ぶベクトル61と直線52とが成す角度は、A3である。すなわち、ベクトル61とy軸とが成す角度は、A3である。したがって、カメラ2−3は、カメラ2−3の移動中でも、物体6の見かけ上の大きさの変化率が再現された物体画像を含む画像を画像処理装置3aに出力する。   Hereinafter, the angle formed by the line in the y-axis direction and the vector 21-3 is denoted as “A3”. In FIG. 3, the angle A3 formed by the vector 21-3 connecting the camera 2-3 from the camera destination position to the actual object position and the straight line 57-3 is about 14 degrees. The straight line 57-3 and the y-axis are parallel to each other. In FIG. 3, the angle formed by the vector 61 connecting the actual object position to the temporary object position 60 and the straight line 52 is A3. That is, the angle formed by the vector 61 and the y axis is A3. Accordingly, the camera 2-3 outputs an image including an object image in which the apparent change rate of the object 6 is reproduced to the image processing device 3a even while the camera 2-3 is moving.

次に、図1に戻り、画像処理装置3aの構成の例を説明する。
画像処理装置3aは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、移動部35と、切出部36と、出力部37とを備える。画像取得部30と操作部31と変数決定部32と選択部34と移動部35と切出部36と出力部37とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現されてもよいし、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
Next, returning to FIG. 1, an example of the configuration of the image processing apparatus 3a will be described.
The image processing apparatus 3 a includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, a selection unit 34, a movement unit 35, a cutout unit 36, and an output unit 37. . Some or all of the image acquisition unit 30, the operation unit 31, the variable determination unit 32, the selection unit 34, the movement unit 35, the cutout unit 36, and the output unit 37 are, for example, a processor such as a CPU (Central Processing Unit). However, it may be realized by executing a program stored in the storage unit, or may be realized by using hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).

画像取得部30は、背景画像と物体画像とを含む画像を、選択部34によって選択されたカメラ2のそれぞれから取得する。画像取得部30は、背景画像と物体画像とを含む画像と、カメラ2の識別情報とを、記憶部33に記録する。操作部31は、操作キー等を有する操作デバイスである。例えば、操作部31は、キーボード、マウス、タッチパネルである。操作部31は、操作部31に対する操作を受け付けることによって、実空間におけるカメラ2の配置情報を取得する。操作部31は、操作部31に対する操作を受け付けることによって、物体実位置及び物体仮位置の配置情報を、物体6の配置情報として取得する。物体実位置及び物体仮位置の配置情報は、例えば、物体6の座標及び向きを用いて表される。操作部31は、操作部31に対する操作を受け付けることによって、観察者実位置及び観察者仮位置の配置情報を、観察者5の配置情報として取得する。観察者実位置及び観察者仮位置の配置情報は、例えば、観察者5の座標及び視線方向を用いて表される。操作部31は、カメラ画像から切り出される領域の位置を表す情報(以下「切り出し位置情報」という。)と、カメラ画像から切り出された領域が表示画像に貼り付けられる位置を表す情報(以下「貼り付け位置情報」という。)とを取得する。切り出し位置情報は、カメラ画像から切り出される領域の位置を表す情報である。切り出し位置情報は、例えば、物体光学像における左上座標、幅及び高さの情報で表されてもよい。左上座標は、物体光学像における切り出される領域の左上の座標を表す。幅は、物体光学像における切り出される領域の幅を表す。高さは、物体光学像における切り出される領域の高さを表す。貼り付け位置情報は、カメラ画像から切り出された領域が表示画像に貼り付けられる位置を表す情報である。貼り付け位置情報は、例えば、表示画像における左上座標、幅及び高さの情報で表されてもよい。また、例えば、貼り付け位置情報は、表示画像の座標と対応付けてあらかじめ定義されている領域である、「中央」、「右」、「左」といった情報であってもよい。   The image acquisition unit 30 acquires an image including a background image and an object image from each of the cameras 2 selected by the selection unit 34. The image acquisition unit 30 records the image including the background image and the object image and the identification information of the camera 2 in the storage unit 33. The operation unit 31 is an operation device having operation keys and the like. For example, the operation unit 31 is a keyboard, a mouse, or a touch panel. The operation unit 31 acquires the arrangement information of the camera 2 in the real space by receiving an operation on the operation unit 31. The operation unit 31 receives the operation on the operation unit 31 to obtain the arrangement information of the actual object position and the temporary object position as the arrangement information of the object 6. The arrangement information of the actual object position and the temporary object position is represented using, for example, the coordinates and orientation of the object 6. The operation unit 31 receives the operation on the operation unit 31 to acquire the arrangement information of the observer actual position and the observer temporary position as the arrangement information of the observer 5. The arrangement information of the observer actual position and the observer temporary position is represented using, for example, the coordinates and the line-of-sight direction of the observer 5. The operation unit 31 includes information indicating the position of the area cut out from the camera image (hereinafter referred to as “cutout position information”) and information indicating the position where the area cut out from the camera image is pasted on the display image (hereinafter referred to as “pasting position information”). Acquisition position information ”). The cutout position information is information indicating the position of the area cut out from the camera image. The cutout position information may be represented by, for example, information on the upper left coordinates, width, and height in the object optical image. The upper left coordinate represents the upper left coordinate of the region to be cut out in the object optical image. The width represents the width of a region to be cut out in the object optical image. The height represents the height of a region to be cut out in the object optical image. The pasting position information is information indicating a position where an area cut out from the camera image is pasted on the display image. The pasting position information may be represented by, for example, information on the upper left coordinates, width, and height in the display image. Further, for example, the pasting position information may be information such as “center”, “right”, and “left”, which are areas defined in advance in association with the coordinates of the display image.

変数決定部32は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報と、カメラ2のそれぞれの配置情報とを、操作部31から取得する。変数決定部32は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報と、カメラ2のそれぞれの配置情報とに基づいて、カメラ2のそれぞれの配置に関する変数をカメラ2ごとに決定する。カメラ2の配置に関する変数は、例えば、予め定められた方向の線とカメラ移動元位置からカメラ移動先位置までを結ぶ線とが成す角度(以下「カメラ移動先位置角度」という。)と、観察者仮位置50からカメラ移動先位置までの距離(以下「カメラ移動先位置距離」という。)と、距離差とである。予め定められた方向とは、例えば、y軸方向である。変数決定部32は、カメラ2の配置情報と三角関数とに基づいて、カメラ2の配置に関する変数をカメラ2ごとに決定してもよい。   The variable determination unit 32 acquires the arrangement information of the actual object position and the temporary object position, the arrangement information of the actual observer position and the temporary observer position, and the respective arrangement information of the camera 2 from the operation unit 31. The variable determination unit 32 determines each placement of the camera 2 based on the placement information of the actual object position and the temporary object position, the placement information of the actual observer position and the temporary observer position, and the placement information of the camera 2. Is determined for each camera 2. The variables relating to the arrangement of the camera 2 include, for example, an angle formed by a line in a predetermined direction and a line connecting the camera movement source position to the camera movement destination position (hereinafter referred to as “camera movement destination position angle”) and observation. The distance from the temporary person position 50 to the camera destination position (hereinafter referred to as “camera destination position distance”) and the distance difference. The predetermined direction is, for example, the y-axis direction. The variable determination unit 32 may determine a variable related to the placement of the camera 2 for each camera 2 based on the placement information of the camera 2 and the trigonometric function.

図4は、カメラ2の配置に関する変数の例を示す図である。変数決定部32は、カメラ2の配置に関する変数情報を、カメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、カメラ移動先位置角度を、カメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、カメラ移動先位置距離をカメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、距離差をカメラ2ごとに記憶部33に記録する。図4では、カメラ2−1のカメラ移動先位置距離L150は、一例として3mである。カメラ2−2のカメラ移動先位置距離L250は、一例として1mである。カメラ2−3のカメラ移動先位置距離L350は、一例として4mである。   FIG. 4 is a diagram illustrating an example of variables related to the arrangement of the camera 2. The variable determination unit 32 records variable information regarding the arrangement of the cameras 2 in the storage unit 33 for each camera 2. For example, the variable determination unit 32 records the camera movement destination position angle in the storage unit 33 for each camera 2. For example, the variable determination unit 32 records the camera movement destination position distance in the storage unit 33 for each camera 2. For example, the variable determination unit 32 records the distance difference for each camera 2 in the storage unit 33. In FIG. 4, the camera movement destination position distance L150 of the camera 2-1 is 3 m as an example. The camera movement destination position distance L250 of the camera 2-2 is 1 m as an example. The camera movement destination position distance L350 of the camera 2-3 is 4 m as an example.

図1に戻り、画像処理装置3aの構成の例の説明を続ける。記憶部33は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記録媒体(非一時的な記録媒体)を有する記憶装置である。記憶部33は、背景画像と物体画像とを含む画像と、カメラ2のそれぞれの配置に関する変数情報とを記憶する。記憶部33は、カメラ2のそれぞれの配置情報(座標、光軸方向)を記憶してもよい。記憶部33は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報とを記憶してもよい。   Returning to FIG. 1, the description of the configuration example of the image processing apparatus 3a will be continued. The storage unit 33 is a storage device having a nonvolatile recording medium (non-temporary recording medium) such as a magnetic hard disk device or a semiconductor storage device. The storage unit 33 stores an image including a background image and an object image, and variable information regarding each arrangement of the camera 2. The storage unit 33 may store arrangement information (coordinates, optical axis direction) of each camera 2. The storage unit 33 may store arrangement information of the actual object position and the temporary object position, and arrangement information of the actual observer position and the temporary observer position.

選択部34は、選択されるカメラ2を決定する決定装置として機能する。選択部34は、カメラ2の配置に関する変数情報を、記憶部33から取得する。選択部34は、カメラ移動先位置角度に基づいて、カメラ2−nを選択する。選択部34は、カメラ移動先位置角度が所定角度以下であるカメラ2−nを選択する。所定角度は、予め定められた角度であり、例えば、30度である。図3に示すカメラ2の配置の例では、選択部34は、物体実位置から物体仮位置60までを結ぶベクトル61の方向とカメラ移動元位置からカメラ移動先位置までを結ぶベクトル21−3の方向とが平行に近いカメラ2を優先して、カメラ2−3を選択する。図3に示すカメラ2の配置の例では、ベクトル61とy軸とが成す角度がA3であるので、選択部34は、カメラ移動先位置角度がA3であるカメラ2−3を選択する。   The selection unit 34 functions as a determination device that determines the camera 2 to be selected. The selection unit 34 acquires variable information related to the placement of the camera 2 from the storage unit 33. The selection unit 34 selects the camera 2-n based on the camera movement destination position angle. The selection unit 34 selects a camera 2-n whose camera destination position angle is equal to or smaller than a predetermined angle. The predetermined angle is a predetermined angle, for example, 30 degrees. In the example of the arrangement of the camera 2 shown in FIG. 3, the selection unit 34 sets the direction of the vector 61 that connects the actual object position to the temporary object position 60 and the vector 21-3 that connects the camera movement source position to the camera movement destination position. The camera 2-3 is selected giving priority to the camera 2 whose direction is nearly parallel. In the example of the arrangement of the cameras 2 shown in FIG. 3, since the angle formed by the vector 61 and the y axis is A3, the selection unit 34 selects the camera 2-3 whose camera movement destination position angle is A3.

ベクトル61の方向とベクトル21の方向とが平行に近いカメラ2が複数ある場合には、選択部34は、カメラ移動先位置距離又は距離差に基づいてカメラ2−nを選択してもよい。距離差は、予め定められた距離の差であり、例えば、観察者仮位置から物体実位置までの距離の10%に相当する距離である。選択部34は、観察者仮位置50にカメラ移動先位置が近いカメラ2を優先して選択してもよい。例えば、選択部34は、カメラ移動先位置距離がより短いカメラ2を優先して選択してもよい。例えば、選択部34は、距離差がより短いカメラ2を優先して選択してもよい。   When there are a plurality of cameras 2 in which the direction of the vector 61 and the direction of the vector 21 are nearly parallel, the selection unit 34 may select the camera 2-n based on the camera movement destination position distance or the distance difference. The distance difference is a predetermined distance difference, for example, a distance corresponding to 10% of the distance from the temporary observer position to the actual object position. The selection unit 34 may preferentially select the camera 2 whose camera movement destination position is close to the temporary observer position 50. For example, the selection unit 34 may preferentially select the camera 2 with a shorter camera movement destination position distance. For example, the selection unit 34 may preferentially select the camera 2 having a shorter distance difference.

移動部35は、選択されたカメラ2を移動させることによって、選択されたカメラ2の位置及び向きを決定する決定装置として機能する。移動部35は、予め定められたカメラ移動先位置にカメラ2を移動させる。移動部35は、カメラ移動元位置における光軸方向とカメラ移動先位置における光軸方向とが同じ方向となる向きに、カメラ2を配置してもよい。例えば、移動部35は、モータ等のアクチュエータを駆動することによって、カメラ2を移動及び配置する。移動部35は、位置センサの検出結果に基づいて、配置されたカメラ2の位置情報を検出してもよい。移動部35は、加速度センサや方位センサの検出結果に基づいて、カメラ2の向き(姿勢)を検出してもよい。   The moving unit 35 functions as a determination device that determines the position and orientation of the selected camera 2 by moving the selected camera 2. The moving unit 35 moves the camera 2 to a predetermined camera movement destination position. The moving unit 35 may arrange the camera 2 in a direction in which the optical axis direction at the camera movement source position and the optical axis direction at the camera movement destination position are the same direction. For example, the moving unit 35 moves and arranges the camera 2 by driving an actuator such as a motor. The moving unit 35 may detect the position information of the arranged camera 2 based on the detection result of the position sensor. The moving unit 35 may detect the orientation (posture) of the camera 2 based on the detection result of the acceleration sensor or the azimuth sensor.

切出部36は、選択されたカメラ2が出力した背景画像及び物体画像を含む画像を、記憶部33から取得する。切出部36は、記憶部33から取得された画像から、切り出し位置情報に基づいて、物体画像を切り出す。切出部36は、表示画面における物体画像の表示位置を、貼り付け位置情報に基づいて決定する。例えば、貼り付け位置情報が「中央」を表している場合、切出部36は、表示画面における物体画像の表示位置を、表示装置4の画面の中央に決定する。   The cutout unit 36 acquires an image including a background image and an object image output from the selected camera 2 from the storage unit 33. The cutout unit 36 cuts out an object image from the image acquired from the storage unit 33 based on the cutout position information. The cutout unit 36 determines the display position of the object image on the display screen based on the pasting position information. For example, when the pasting position information represents “center”, the cutout unit 36 determines the display position of the object image on the display screen as the center of the screen of the display device 4.

切出部36は、選択されたカメラ2の向きと観察者5の視線方向とに基づいて、表示画面における物体画像の表示位置を決定してもよい。例えば、切出部36は、選択されたカメラ2の配置情報と観察者5の配置情報と物体6の配置情報とに基づいて、物体仮位置の物体6を観察者実位置の観察者5から観察した場合における、表示画面上での物体光学像の位置及び範囲を算出する。切出部36は、表示画面上での物体光学像の位置及び範囲を、表示画面における物体画像の表示位置と決定してもよい。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する。   The cutout unit 36 may determine the display position of the object image on the display screen based on the selected direction of the camera 2 and the viewing direction of the observer 5. For example, based on the selected placement information of the camera 2, the placement information of the observer 5, and the placement information of the object 6, the clipping unit 36 moves the object 6 at the temporary object position from the observer 5 at the observer's actual position. The position and range of the object optical image on the display screen when observed are calculated. The cutout unit 36 may determine the position and range of the object optical image on the display screen as the display position of the object image on the display screen. The output unit 37 outputs the clipped object image and display position information to the display device 4.

図5は、表示画像の第1例を示す図である。表示装置4の画面は、物体6から表示装置4の画面に届いた光を透過させる。表示装置4の画面は、物体6の物体光学像を含む表示画像40を表示する。物体実位置から観察者実位置までの距離L65が例えば12mである場合、観察者実位置の観察者5は、観察者実位置から12mだけ離れている物体6の物体光学像を、表示画像40の中央に見ることができる。   FIG. 5 is a diagram illustrating a first example of a display image. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from the object 6. The screen of the display device 4 displays a display image 40 including an object optical image of the object 6. When the distance L65 from the actual object position to the actual observer position is, for example, 12 m, the observer 5 at the actual observer position displays the object optical image of the object 6 that is 12 m away from the actual observer position as the display image 40. Can be seen in the middle of.

図6は、カメラ画像の第1例を示す図であり、カメラ2−1が画像処理装置3aに出力したカメラ画像24である。カメラ画像24は、カメラ移動先位置のカメラ2−1から距離L61だけ離れている物体6の物体画像を、カメラ画像24の中央よりも右領域に含む。距離L61は、例えば、約8.2mである。カメラ画像24では、観察者5に正対する物体6の面は、カメラ画像24では右を向いている。カメラ画像24では、観察者5に正対する物体6の面は、ひし形に歪んでいる。   FIG. 6 is a diagram illustrating a first example of a camera image, which is a camera image 24 output from the camera 2-1 to the image processing device 3a. The camera image 24 includes the object image of the object 6 that is separated from the camera 2-1 at the camera movement destination position by the distance L61 in the right region from the center of the camera image 24. The distance L61 is about 8.2 m, for example. In the camera image 24, the surface of the object 6 facing the observer 5 is facing right in the camera image 24. In the camera image 24, the surface of the object 6 facing the observer 5 is distorted in a rhombus.

図7は、カメラ画像の第2例を示す図であり、カメラ2−2が画像処理装置3aに出力したカメラ画像25である。カメラ画像25は、カメラ移動先位置のカメラ2−2から距離L62だけ離れている物体6の物体画像を、カメラ画像25の中央よりも左領域に含む。距離L62は、例えば、約8.2mである。カメラ画像25では、実空間において観察者5に正対する物体6の面は、カメラ画像25では左を向いている。カメラ画像25では、実空間において観察者5に正対する物体6の面は、ひし形に歪んでいる。   FIG. 7 is a diagram illustrating a second example of a camera image, which is a camera image 25 output from the camera 2-2 to the image processing device 3a. The camera image 25 includes the object image of the object 6 that is separated from the camera 2-2 at the camera movement destination position by the distance L62 in the left region from the center of the camera image 25. The distance L62 is about 8.2 m, for example. In the camera image 25, the surface of the object 6 facing the observer 5 in the real space is facing left in the camera image 25. In the camera image 25, the surface of the object 6 that faces the observer 5 in real space is distorted in a rhombus.

図8は、カメラ画像の第3例を示す図であり、カメラ2−3が画像処理装置3aに出力したカメラ画像26である。図3に示されたベクトル51とベクトル21−3とが平行であるため、カメラ画像26では、物体6の物体画像の大きさは、観察者5が観察者実位置から観察者仮位置50まで移動しながら物体6を見ている場合における物体6の見かけ上の大きさの変化率と同じ変化率で変化する。カメラ画像26は、カメラ移動先位置のカメラ2−3から距離L63だけ離れている物体6の物体画像を、カメラ画像26の中央よりも左領域に含む。距離L63は、例えば、約9.4mである。カメラ画像26では、実空間において観察者5に正対する物体6の面は、カメラ画像26では左を向いている。カメラ画像26では、実空間において観察者5に正対する物体6の面は、ひし形に大きく歪んでいる。   FIG. 8 is a diagram illustrating a third example of a camera image, which is a camera image 26 output from the camera 2-3 to the image processing device 3a. Since the vector 51 and the vector 21-3 shown in FIG. 3 are parallel, the size of the object image of the object 6 in the camera image 26 is from the observer actual position to the observer temporary position 50. When the object 6 is viewed while moving, the object 6 changes at the same change rate as the change rate of the apparent size. The camera image 26 includes an object image of the object 6 that is a distance L63 away from the camera 2-3 at the camera movement destination position in the left region from the center of the camera image 26. The distance L63 is about 9.4 m, for example. In the camera image 26, the surface of the object 6 facing the observer 5 in the real space is facing left in the camera image 26. In the camera image 26, the surface of the object 6 directly facing the observer 5 in the real space is greatly distorted into a rhombus.

図9は、表示画像の第2例を示す図である。切出部36は、選択部34がカメラ2−3を選択した場合、選択されたカメラ2−3が出力した背景画像及び物体画像を含むカメラ画像26から、物体6の物体画像を含む領域110を切り出す。切出部36は、表示画面における物体画像の表示位置を、例えば、図3に示された直線52と直線53とが成す角度に応じて決定する。例えば、切出部36は、表示画面における物体画像の表示位置を、表示装置4の画面の中央の左側に決定する。出力部37は、切り出された物体画像を含む領域110と、表示位置情報「中央の左側」とを、表示装置4に出力する。表示装置4の画面は、画面の中央の物体光学像を隠すように、切り出された物体画像を含む領域110を表示する。これによって、表示装置4の画面は、物体6の物体光学像を表示する代わりに、切り出された物体画像を含む領域110を表示することができる。   FIG. 9 is a diagram illustrating a second example of the display image. When the selection unit 34 selects the camera 2-3, the cutout unit 36 includes a region 110 including the object image of the object 6 from the camera image 26 including the background image and the object image output by the selected camera 2-3. Cut out. The cutout unit 36 determines the display position of the object image on the display screen according to, for example, the angle formed by the straight line 52 and the straight line 53 shown in FIG. For example, the cutout unit 36 determines the display position of the object image on the display screen to the left of the center of the screen of the display device 4. The output unit 37 outputs the area 110 including the clipped object image and the display position information “left of the center” to the display device 4. The screen of the display device 4 displays a region 110 including the cut object image so as to hide the object optical image at the center of the screen. Thereby, the screen of the display device 4 can display the area 110 including the clipped object image instead of displaying the object optical image of the object 6.

次に、画像処理装置3aの動作の例を説明する。
図10は、画像処理装置3aの動作の例を示すフローチャートである。操作部31は、カメラの配置情報を取得する(ステップS101)。変数決定部32は、カメラの配置情報に基づいて、カメラの配置に関する変数を決定する(ステップS102)。選択部34は、決定された変数に基づいて、カメラ2−nを選択する(ステップS103)。移動部35は、選択されたカメラ2を、カメラ移動先位置まで移動させる(ステップS104)。画像取得部30は、選択されたカメラ2から静止画像を取得する(ステップS105)。切出部36は、選択されたカメラ2から取得された静止画像から、物体画像を切り出す(ステップS106)。切出部36は、物体画像の表示位置を決定する(ステップS107)。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する(ステップS108)。画像処理装置3aは、図10のフローチャートに示された動作を、例えば、カメラの画像取得周期(フレーレート)で実行してもよい。
Next, an example of the operation of the image processing device 3a will be described.
FIG. 10 is a flowchart illustrating an example of the operation of the image processing apparatus 3a. The operation unit 31 acquires camera arrangement information (step S101). The variable determination unit 32 determines a variable related to the camera arrangement based on the camera arrangement information (step S102). The selection unit 34 selects the camera 2-n based on the determined variable (step S103). The moving unit 35 moves the selected camera 2 to the camera movement destination position (step S104). The image acquisition unit 30 acquires a still image from the selected camera 2 (step S105). The cutout unit 36 cuts out an object image from the still image acquired from the selected camera 2 (step S106). The cutout unit 36 determines the display position of the object image (step S107). The output unit 37 outputs the clipped object image and display position information to the display device 4 (step S108). The image processing device 3a may execute the operation shown in the flowchart of FIG. 10 at, for example, an image acquisition period (frame rate) of the camera.

選択されたカメラ2から画像取得部30が動画像を取得する場合について、選択されたカメラ2から画像取得部30が静止画像を取得する場合との相違点を説明する。選択されたカメラ2から画像取得部30が動画像を取得する場合、ステップS105において、画像取得部30は、選択されたカメラ2から動画像を取得する。ステップS106において、切出部36は、選択されたカメラ2から取得された動画像から、各フレーム画像を取得する。ステップS106において、切出部36は、各フレーム画像から物体画像を切り出す。ステップS107において、切出部36は、各フレーム画像において共通する表示位置となるように、物体画像の表示位置を決定する。ステップS108において、出力部37は、フレーム画像の数の物体画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   The difference between the case where the image acquisition unit 30 acquires a moving image from the selected camera 2 and the case where the image acquisition unit 30 acquires a still image from the selected camera 2 will be described. When the image acquisition unit 30 acquires a moving image from the selected camera 2, the image acquisition unit 30 acquires a moving image from the selected camera 2 in step S <b> 105. In step S <b> 106, the cutout unit 36 acquires each frame image from the moving image acquired from the selected camera 2. In step S106, the cutout unit 36 cuts out an object image from each frame image. In step S <b> 107, the cutout unit 36 determines the display position of the object image so that it becomes a common display position in each frame image. In step S <b> 108, the output unit 37 outputs the number of object images corresponding to the number of frame images and display position information common to the frame images to the display device 4.

以上のように、第1実施形態の画像処理装置3aが備える決定装置は、複数の位置及び方向から物体を撮像する複数のカメラ2からカメラ2−nを選択する決定装置であって、選択部34と、移動部35とを備える。選択部34は、物体実位置から物体仮位置60までを結ぶベクトル61の方向とカメラ移動元位置からカメラ移動先位置までを結ぶベクトル21の方向とに基づいて、複数のカメラ2からカメラ2−nを選択する。   As described above, the determination device included in the image processing device 3a of the first embodiment is a determination device that selects the camera 2-n from the plurality of cameras 2 that capture an image of the object from a plurality of positions and directions. 34 and a moving unit 35. Based on the direction of the vector 61 that connects the actual object position to the temporary object position 60 and the direction of the vector 21 that connects the camera movement source position to the camera movement destination position, the selection unit 34 sets the camera 2 to the camera 2- Select n.

これによって、第1実施形態の画像処理装置3aは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。第1実施形態の画像処理装置3aは、実空間で静止している物体6の特定の画像を、表示画面に表示された画像の空間で、物体画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能となる。第1実施形態の画像処理装置3aは、観察者仮位置50とカメラ移動先位置とが十分に近い場合には、物体画像の大きさを補正せずにカメラ画像をそのまま表示しても、見かけ上の大きさの違和感がない物体画像を表示装置4の画面に表示できる。第1実施形態の画像処理装置3aは、実空間で物体6が仮に移動されたとした場合に観察される物体6の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体6の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能である。   As a result, the image processing apparatus 3a according to the first embodiment uses the apparent size of the image of the object observed when the object is temporarily moved in the real space and the space of the image displayed on the display screen. Therefore, it is possible to prevent the apparent size of the image of the moved object from being different. The image processing apparatus 3a according to the first embodiment faithfully displays a specific image of the object 6 stationary in the real space in the space of the image displayed on the display screen as much as possible. Can be reproduced and moved. When the temporary observer position 50 and the camera movement destination position are sufficiently close, the image processing apparatus 3a according to the first embodiment does not correct the size of the object image and displays the camera image as it is. An object image with no sense of incongruity in the upper size can be displayed on the screen of the display device 4. The image processing apparatus 3a according to the first embodiment includes the apparent size or orientation of the image of the object 6 that is observed when the object 6 is temporarily moved in the real space, and the space of the image displayed on the display screen. Thus, it is possible to prevent the apparent size or orientation of the object image of the object 6 that has been virtually moved.

(第2実施形態)
第2実施形態では、物体画像の向き及び大きさのうち少なくとも一方を画像処理装置が補正する点が、第1実施形態と相違する。第2実施形態では、第1実施形態との相違点についてのみ説明する。
(Second Embodiment)
The second embodiment is different from the first embodiment in that the image processing apparatus corrects at least one of the orientation and size of the object image. In the second embodiment, only differences from the first embodiment will be described.

図11は、画像処理システム1bの構成の例を示す図である。画像処理システム1bは、カメラ2−1〜2−Nと、画像処理装置3bと、表示装置4とを備える。画像処理装置3bは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3bと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3bは、複数のカメラ2からカメラ2−nを選択する。画像処理装置3bは、選択されたカメラ2を移動させる。画像処理装置3bは、選択されたカメラ2が出力した画像に画像処理を施す。画像処理装置3bは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、移動部35と、切出部36と、出力部37と、補正部38とを備える。   FIG. 11 is a diagram illustrating an example of the configuration of the image processing system 1b. The image processing system 1b includes cameras 2-1 to 2-N, an image processing device 3b, and a display device 4. The image processing device 3b is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3b and the display device 4 may be separate or integrated. The image processing device 3b selects the camera 2-n from the plurality of cameras 2. The image processing device 3b moves the selected camera 2. The image processing device 3b performs image processing on the image output by the selected camera 2. The image processing device 3b includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, a selection unit 34, a movement unit 35, a cutout unit 36, an output unit 37, and a correction unit. Part 38.

補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する場合、例えば、アフィン変換行列を用いたアフィン変換処理を、カメラ画像から切り出された物体画像及び領域に施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。   The correction unit 38 corrects at least one of the orientation and size of the cut out object image. When correcting at least one of the orientation and size of the clipped object image, the correction unit 38 performs, for example, affine transformation processing using an affine transformation matrix on the object image and the region clipped from the camera image. The affine transformation matrix may include information indicating a region to be subjected to processing such as rotation, enlargement, or reduction. The correction unit 38 corrects at least one of the orientation and size of the cut out object image.

補正部38は、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の向きと、表示画面における物体画像の見かけ上の向きとが一致するように、物体画像を回転する。例えば、補正部38は、カメラ移動先位置角度に基づいて、物体画像を回転する。すなわち、補正部38は、物体画像の歪みを補正する。   The correction unit 38 is configured so that the apparent direction of the object 6 when the observer 5 views the object 6 at the actual object position from the temporary position of the observer matches the apparent direction of the object image on the display screen. Rotate the object image. For example, the correction unit 38 rotates the object image based on the camera movement destination position angle. That is, the correction unit 38 corrects the distortion of the object image.

補正部38は、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の大きさと、表示画面における物体画像の見かけ上の大きさとが一致するように、物体画像を拡大又は縮小する。例えば、補正部38は、物体仮位置60から観察者実位置までの距離と物体実位置から観察者実位置までの距離との比に基づいて、物体画像を拡大又は縮小する。出力部37は、物体画像の向き及び大きさのうち少なくとも一方が補正された物体画像を、表示装置4に出力する。   The correction unit 38 is configured so that the apparent size of the object 6 when the observer 5 sees the object 6 at the actual object position from the temporary position of the object matches the apparent size of the object image on the display screen. , Enlarge or reduce the object image. For example, the correction unit 38 enlarges or reduces the object image based on the ratio of the distance from the temporary object position 60 to the actual observer position and the distance from the actual object position to the actual observer position. The output unit 37 outputs an object image in which at least one of the direction and size of the object image is corrected to the display device 4.

図12は、表示画像の例を示す図である。表示装置4の画面は、表示位置情報に基づいて画面の中央の左側で物体光学像を隠すように、向き及び大きさのうち少なくとも一方が補正された物体画像を含む領域を表示する。図12では、実空間において観察者仮位置50の観察者5から見て左側に見える物体6の面の向きと、表示画像40において対応する面の向きとが、一致している。また、図12では、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の大きさと、表示画像40における物体画像の見かけ上の大きさとが、一致している。   FIG. 12 is a diagram illustrating an example of a display image. The screen of the display device 4 displays an area including an object image in which at least one of orientation and size is corrected so as to hide the object optical image on the left side of the center of the screen based on the display position information. In FIG. 12, the orientation of the surface of the object 6 seen on the left side when viewed from the observer 5 at the observer temporary position 50 in the real space and the orientation of the corresponding surface in the display image 40 are the same. In FIG. 12, the apparent size of the object 6 when the observer 5 views the object 6 at the actual object position from the observer temporary position and the apparent size of the object image in the display image 40 are equal to each other. I'm doing it.

これによって、表示装置4の画面は、物体6の物体光学像を表示する代わりに、向き及び大きさのうち少なくとも一方が補正された物体画像を表示することができる。観察者5は、図12に示された表示画像40を見た場合、実空間では静止している物体6が物体仮位置60まで移動したという拡張現実感(AR)や複合現実感(MR)を得ることができる。   Thereby, the screen of the display device 4 can display an object image in which at least one of the orientation and the size is corrected instead of displaying the object optical image of the object 6. When the observer 5 looks at the display image 40 shown in FIG. 12, the augmented reality (AR) or the mixed reality (MR) that the stationary object 6 has moved to the temporary object position 60 in the real space. Can be obtained.

次に、画像処理装置3bの動作の例を説明する。
図13は、画像処理装置3bの動作の例を示すフローチャートである。操作部31は、カメラの配置情報を取得する(ステップS201)。変数決定部32は、カメラの配置情報に基づいて、カメラの配置に関する変数を決定する(ステップS202)。選択部34は、決定された変数に基づいて、カメラ2−nを選択する(ステップS203)。移動部35は、選択されたカメラ2を、カメラ移動先位置まで移動させる(ステップS204)。画像取得部30は、選択されたカメラ2から画像を取得する(ステップS205)。切出部36は、選択されたカメラ2から取得された画像から、物体画像を切り出す(ステップS206)。補正部38は、物体画像の向き及び大きさの少なくとも一方を補正する(ステップS207)。切出部36は、物体画像の表示位置を決定する(ステップS208)。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する(ステップS209)。画像処理装置3bは、図13のフローチャートに示された動作を、例えば、カメラの画像取得周期(フレームレート)で実行してもよい。
Next, an example of the operation of the image processing device 3b will be described.
FIG. 13 is a flowchart illustrating an example of the operation of the image processing apparatus 3b. The operation unit 31 acquires camera arrangement information (step S201). The variable determination unit 32 determines a variable related to the camera arrangement based on the camera arrangement information (step S202). The selection unit 34 selects the camera 2-n based on the determined variable (step S203). The moving unit 35 moves the selected camera 2 to the camera movement destination position (step S204). The image acquisition unit 30 acquires an image from the selected camera 2 (step S205). The cutout unit 36 cuts out an object image from the image acquired from the selected camera 2 (step S206). The correcting unit 38 corrects at least one of the direction and size of the object image (step S207). The cutout unit 36 determines the display position of the object image (step S208). The output unit 37 outputs the clipped object image and display position information to the display device 4 (step S209). The image processing device 3b may perform the operation shown in the flowchart of FIG. 13 at, for example, an image acquisition cycle (frame rate) of the camera.

選択されたカメラ2から画像取得部30が動画像を取得する場合について、選択されたカメラ2から画像取得部30が静止画像を取得する場合との相違点を説明する。選択されたカメラ2から画像取得部30が動画像を取得する場合、ステップS205において、画像取得部30は、選択されたカメラ2から動画像を取得する。ステップS206において、切出部36は、選択されたカメラ2から取得された動画像から、各フレーム画像を取得する。ステップS206において、切出部36は、各フレーム画像から物体画像を切り出す。ステップS207において、補正部38は、フレーム画像の数の物体画像の向き及び大きさの少なくとも一方を補正する。ステップS208において、切出部36は、各フレーム画像において共通する表示位置となるように、物体画像の表示位置を決定する。ステップS209において、出力部37は、フレーム画像の数の物体画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。   The difference between the case where the image acquisition unit 30 acquires a moving image from the selected camera 2 and the case where the image acquisition unit 30 acquires a still image from the selected camera 2 will be described. When the image acquisition unit 30 acquires a moving image from the selected camera 2, the image acquisition unit 30 acquires a moving image from the selected camera 2 in step S <b> 205. In step S <b> 206, the cutout unit 36 acquires each frame image from the moving image acquired from the selected camera 2. In step S206, the cutout unit 36 cuts out an object image from each frame image. In step S207, the correction unit 38 corrects at least one of the orientation and size of the object images corresponding to the number of frame images. In step S208, the cutout unit 36 determines the display position of the object image so that the display position is common to the frame images. In step S <b> 209, the output unit 37 outputs the number of frame images of object images and display position information common to the frame images to the display device 4.

以上のように、第2実施形態の画像処理装置3bは、第1実施形態の決定装置と、切出部36と、補正部38と、出力部37とを備える。切出部36は、物体画像を含む画像から、物体画像を切り出す。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。出力部37は、物体画像の向き及び大きさのうち少なくとも一方が補正された物体画像を、表示装置4に出力する。これによって、第2実施形態の画像処理装置3bは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。例えば、第2実施形態の画像処理装置3bは、実空間で静止している物体6の特定の適切な大きさの画像を、表示画面に表示された画像の空間で、物体画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能となる。   As described above, the image processing device 3b according to the second embodiment includes the determination device according to the first embodiment, the cutout unit 36, the correction unit 38, and the output unit 37. The cutout unit 36 cuts out an object image from an image including the object image. The correction unit 38 corrects at least one of the orientation and size of the cut out object image. The output unit 37 outputs an object image in which at least one of the direction and size of the object image is corrected to the display device 4. As a result, the image processing apparatus 3b according to the second embodiment can perform virtual processing based on the apparent size of the object image observed when the object is temporarily moved in the real space and the space of the image displayed on the display screen. Therefore, it is possible to prevent the apparent size of the image of the moved object from being different. For example, the image processing apparatus 3b according to the second embodiment displays an image of a specific appropriate size of the object 6 that is stationary in the real space in the image space displayed on the display screen. It is possible to reproduce and move the change rate as faithfully as possible.

(第3実施形態)
第3実施形態では、観察者5と物体6とが異なる実空間に存在する点が、第1実施形態と相違する。第3実施形態では、第1実施形態との相違点についてのみ説明する。
(Third embodiment)
The third embodiment is different from the first embodiment in that the observer 5 and the object 6 exist in different real spaces. In the third embodiment, only differences from the first embodiment will be described.

以下、観察者5が存在する実空間を「第1空間」という。以下、物体6が存在する実空間を「第2空間」という。第1空間と第2空間とは、互いに隣接している異なる実空間でもよいし、互いに離れている異なる実空間でもよい。   Hereinafter, the real space in which the observer 5 exists is referred to as “first space”. Hereinafter, the real space in which the object 6 exists is referred to as “second space”. The first space and the second space may be different real spaces that are adjacent to each other, or may be different real spaces that are separated from each other.

第1空間は、例えば、実空間における野球場の小型模型(ミニチュア)である。野球場の小型模型は、例えば、実空間におけるテーブル上に置かれる。第2空間は、第1空間が野球場の小型模型である場合、例えば、実空間における原寸大の野球場である。原寸大の野球場では、野球の試合が行われていてもよい。第1空間が野球場の小型模型であり、第2空間が原寸大の野球場である場合、仮想空間は、例えば、第1空間及び第2空間の互いの座標系が一致するように第1空間及び第2空間の少なくとも一方の距離が縮尺補正されており、第2空間に存在する物体の物体画像が第1空間に重畳表示されている画面上の空間である。第2空間における原寸大の野球場に存在する物体6の物体画像は、第1空間における距離と第2空間における距離とに基づいて縮尺補正されることによって、野球場の小型模型において物体6が仮想的に移動するように観察される画像として表示装置4の画面に表示される。   The first space is, for example, a small model (miniature) of a baseball field in real space. A small model of a baseball field is placed on a table in real space, for example. When the first space is a small model of a baseball field, for example, the second space is a full-scale baseball field in real space. A baseball game may be held at a full-scale baseball field. When the first space is a small model of a baseball field and the second space is a full-scale baseball field, the virtual space is, for example, the first space and the second space such that the coordinate systems of the first space and the second space coincide. This is a space on the screen in which at least one distance between the space and the second space is scale-corrected, and an object image of an object existing in the second space is superimposed and displayed in the first space. The object image of the object 6 existing in the full-size baseball field in the second space is corrected on the basis of the distance in the first space and the distance in the second space, so that the object 6 is displayed in the small model of the baseball field. It is displayed on the screen of the display device 4 as an image observed so as to move virtually.

第1空間は、例えば、実空間における原寸大の第1の野球場である。第2空間は、第1空間が原寸大の第1の野球場である場合、例えば、実空間における原寸大の第2の野球場である。画像取得部30は、原寸大の第2の野球場において過去に行われた野球の試合の動画像を取得してもよい。第1空間が原寸大の第1の野球場であり、第2空間が原寸大の野球場である場合、仮想空間は、例えば、第1空間及び第2空間の互いの座標系が一致するように第1空間及び第2空間が原寸大のまま、第2空間に存在する物体の物体画像が第1空間に重畳表示されている画面上の空間である。第2空間における原寸大の野球場に存在する物体6の物体画像は、第1空間における原寸大の野球場において物体6が仮想的に移動するように観察される画像として表示装置4の画面に表示される。   The first space is, for example, a full-scale first baseball field in real space. In the case where the first space is a full-size first baseball field, the second space is, for example, a full-size second baseball field in real space. The image acquisition unit 30 may acquire a moving image of a baseball game that has been played in the past at the full-scale second baseball field. When the first space is a full-size first baseball field and the second space is a full-size baseball field, for example, the virtual space is such that the coordinate systems of the first space and the second space match each other. In addition, the first space and the second space are on the screen in which the object image of the object existing in the second space is superimposed and displayed on the first space while the original space is the full size. The object image of the object 6 existing in the full-size baseball field in the second space is displayed on the screen of the display device 4 as an image observed so that the object 6 moves virtually in the full-size baseball field in the first space. Is displayed.

図14は、画像処理システム1cの構成の例を示す図である。画像処理システム1cは、カメラ2−1〜2−Nと、画像処理装置3cと、表示装置4とを備える。画像処理装置3cは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3cと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3cは、カメラ2−nが出力した画像に画像処理を施す。画像処理装置3cは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、切出部36と、出力部37と、座標処理部41とを備える。   FIG. 14 is a diagram illustrating an example of the configuration of the image processing system 1c. The image processing system 1c includes cameras 2-1 to 2-N, an image processing device 3c, and a display device 4. The image processing device 3c is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3c and the display device 4 may be separate or integrated. The image processing device 3c performs image processing on the image output from the camera 2-n. The image processing apparatus 3 c includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, a selection unit 34, a cutout unit 36, an output unit 37, and a coordinate processing unit 41. Prepare.

画像処理装置3cは、第1空間を撮像することが可能なカメラを更に備えてもよい。記憶部33は、第1空間又は第2空間における所定の物体の配置を表す情報を記憶してもよい。例えば、記憶部33は、第1空間又は第2空間における野球場の設計図を記憶してもよい。   The image processing device 3c may further include a camera capable of capturing the first space. The storage unit 33 may store information representing the arrangement of a predetermined object in the first space or the second space. For example, the storage unit 33 may store a design drawing of a baseball field in the first space or the second space.

図15は、第1空間101での観察者5の配置の例を示す俯瞰図である。以下、第1空間及び第2空間において共通して存在する種類の物体を「共通物体」という。例えば、第1空間が野球場の小型模型であり、第2空間が原寸大の野球場である場合、共通物体は、ホームベース等のベースである。   FIG. 15 is an overhead view showing an example of the arrangement of the observers 5 in the first space 101. Hereinafter, the types of objects that exist in common in the first space and the second space are referred to as “common objects”. For example, when the first space is a small baseball field model and the second space is a full-scale baseball field, the common object is a base such as a home base.

図15では、第1空間101は、野球場の小型模型である。第1共通物体7−1は、ホームベースの小型模型である。第2共通物体8−1は、1塁ベースの小型模型である。第3共通物体9−1は、2塁ベースの小型模型である。第4共通物体10−1は、3塁ベースの小型模型である。第1共通物体7−1から第4共通物体10−1までの各共通物体は、第1空間101において移動しなくてもよい。共通物体は、物体の一部分でもよい。共通物体の個数は、4個でなくてもよい。例えば、カメラ2の光軸方向が定められている場合、共通物体の個数は、3個以下でもよい。観察者5は、表示装置4の画面を透過した光によって、第1空間101を物体光学像として観察する。   In FIG. 15, the first space 101 is a small model of a baseball field. The first common object 7-1 is a home base small model. The second common object 8-1 is a 1 塁 -based small model. The third common object 9-1 is a small model based on 2 塁. The fourth common object 10-1 is a 3 塁 -based small model. Each common object from the first common object 7-1 to the fourth common object 10-1 may not move in the first space 101. The common object may be a part of the object. The number of common objects may not be four. For example, when the optical axis direction of the camera 2 is determined, the number of common objects may be three or less. The observer 5 observes the first space 101 as an object optical image with the light transmitted through the screen of the display device 4.

図16は、表示画像42の例を示す図である。表示画像42は、観察者5が第1空間101を観察している場合における、表示装置4の画面に表示された画像である。図16では、第1空間は、一例として、図15に示す第1空間101のような野球場の小型模型である。表示装置4は、微調整キー画像15と、決定キー画像16と、メニューキー画像17とを、操作部31の操作キーの画像として画面に表示する。   FIG. 16 is a diagram illustrating an example of the display image 42. The display image 42 is an image displayed on the screen of the display device 4 when the observer 5 is observing the first space 101. In FIG. 16, the 1st space is a small model of a baseball field like the 1st space 101 shown in FIG. 15 as an example. The display device 4 displays the fine adjustment key image 15, the enter key image 16, and the menu key image 17 on the screen as operation key images of the operation unit 31.

観察者5は、操作部31を操作することによって、第1空間101における物体仮位置60−1を決定する。第1空間101における物体仮位置60−1は、観察者5以外によって決定されてもよい。例えば、第1空間101における物体仮位置60−1は、外部装置によって決定されてもよい。   The observer 5 determines the temporary object position 60-1 in the first space 101 by operating the operation unit 31. The temporary object position 60-1 in the first space 101 may be determined by a person other than the observer 5. For example, the temporary object position 60-1 in the first space 101 may be determined by an external device.

観察者5は、操作部31を操作することによって、表示装置4の画面上で第1空間の原点(以下「第1原点」という。)の位置を指定する。例えば、観察者5は、第1空間101に存在する物体と第2空間102に存在する物体とで各空間における配置に共通点がある共通物体の位置を指定する。共通物体の配置は、例えば、野球場におけるホームベースと1塁ベースと2塁ベースと3塁ベースとの相対的な配置である。観察者5は、表示画像42において、ホームベース、1塁ベース、2塁ベース、3塁ベースの順番に共通物体の画像を指でタッチして、各共通物体の位置を指定する。第1空間の第1原点は、例えば、最初にタッチされた第1共通物体7−1の位置である。観察者5は、表示画像42において物体仮位置60−1の位置を指でタッチして、物体仮位置60−1の位置を指定してもよい。   The observer 5 designates the position of the origin of the first space (hereinafter referred to as “first origin”) on the screen of the display device 4 by operating the operation unit 31. For example, the observer 5 designates the position of a common object having a common point in the arrangement in each space between the object existing in the first space 101 and the object existing in the second space 102. The arrangement of the common object is, for example, a relative arrangement of a home base, a 1-base, a 2-base, and a 3-base in a baseball field. In the display image 42, the observer 5 touches the image of the common object with his / her finger in the order of home base, first base, second base, and third base, and designates the position of each common object. The first origin of the first space is, for example, the position of the first common object 7-1 touched first. The observer 5 may specify the position of the temporary object position 60-1 by touching the position of the temporary object position 60-1 with a finger in the display image 42.

表示装置4は、観察者5がメニューキー画像17を押下操作した場合、表示画像42に矢印画像11〜14を表示する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像11を移動させて、表示画像42における第1共通物体7−1の正確な指定位置を微調整(キャリブレーション)する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像12を移動させて、表示画像42における第2共通物体8−1の正確な指定位置を微調整する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像13を移動させて、表示画像42における第3共通物体9−1の正確な指定位置を微調整する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像14−1を矢印画像14−2の位置まで移動させて、表示画像42における第4共通物体10−1の正確な指定位置を微調整する。観察者5は、表示画像42における各共通物体の正確な指定位置を決定する場合、決定キー画像16を押下操作する。   The display device 4 displays the arrow images 11 to 14 on the display image 42 when the observer 5 presses the menu key image 17. The observer 5 moves the arrow image 11 in the display image 42 by pressing the fine adjustment key image 15, and finely adjusts the exact designated position of the first common object 7-1 in the display image 42 (calibration). ) The observer 5 moves the arrow image 12 in the display image 42 by pressing the fine adjustment key image 15 to finely adjust the exact designated position of the second common object 8-1 in the display image 42. The observer 5 moves the arrow image 13 in the display image 42 by pressing the fine adjustment key image 15 to finely adjust the exact designated position of the third common object 9-1 in the display image 42. The observer 5 moves the arrow image 14-1 to the position of the arrow image 14-2 in the display image 42 by depressing the fine adjustment key image 15, and the fourth common object 10-1 in the display image 42 is moved. Fine-tune the exact specified position. The observer 5 presses the determination key image 16 when determining the exact designated position of each common object in the display image 42.

操作部31は、決定キー画像16の押下操作を受け付けた場合、表示画像42における各共通物体の位置情報(指定位置情報)を、座標処理部41に出力する。操作部31は、決定キー画像16の押下操作を受け付けた場合、表示画像42における物体仮位置60−1の位置情報を、座標処理部41に出力する。   When the operation unit 31 receives an operation of pressing the enter key image 16, the operation unit 31 outputs position information (designated position information) of each common object in the display image 42 to the coordinate processing unit 41. When the operation unit 31 receives an operation of pressing the enter key image 16, the operation unit 31 outputs position information of the temporary object position 60-1 in the display image 42 to the coordinate processing unit 41.

図17は、第2空間102での物体6及びカメラ2の配置の例を示す俯瞰図である。図17では、第2空間102は、原寸大の野球場である。第1共通物体7−2は、原寸大のホームベースである。第2共通物体8−2は、原寸大の1塁ベースである。第3共通物体9−2は、原寸大の2塁ベースである。第4共通物体10−2は、原寸大の3塁ベースである。第1共通物体7−2から第4共通物体10−2までの各共通物体は、第2空間102において移動しない。共通物体は、物体の一部分でもよい。各カメラ2は、第2空間102を撮像する。   FIG. 17 is an overhead view showing an example of the arrangement of the object 6 and the camera 2 in the second space 102. In FIG. 17, the second space 102 is a full-scale baseball field. The first common object 7-2 is a full-size home base. The second common object 8-2 is a full-scale 1-inch base. The third common object 9-2 is a full-size 2cm base. The fourth common object 10-2 is a full-scale 3cm base. Each common object from the first common object 7-2 to the fourth common object 10-2 does not move in the second space 102. The common object may be a part of the object. Each camera 2 images the second space 102.

図14に戻り、画像処理装置3cの構成の例の説明を続ける。座標処理部41は、表示画像42における各共通物体の位置情報を、操作部31から取得する。例えば、座標処理部41は、表示画像42における第1共通物体7−1の位置情報を、第1原点の位置情報として取得する。座標処理部41は、表示画像42における物体仮位置60−1の位置情報を、操作部31から取得する。   Returning to FIG. 14, the description of the configuration example of the image processing apparatus 3 c is continued. The coordinate processing unit 41 acquires position information of each common object in the display image 42 from the operation unit 31. For example, the coordinate processing unit 41 acquires the position information of the first common object 7-1 in the display image 42 as the position information of the first origin. The coordinate processing unit 41 acquires position information of the temporary object position 60-1 in the display image 42 from the operation unit 31.

座標処理部41は、表示画像42における各共通物体の位置情報に基づいて、第1空間101における第1共通物体7−1(第1原点)の位置を検出する。座標処理部41は、表示画像42における各共通物体の位置情報に基づいて、第1空間101における共通物体同士の距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第2共通物体8−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第3共通物体9−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第4共通物体10−1までの距離を更に検出してもよい。   The coordinate processing unit 41 detects the position of the first common object 7-1 (first origin) in the first space 101 based on the position information of each common object in the display image 42. The coordinate processing unit 41 detects the distance between the common objects in the first space 101 based on the position information of each common object in the display image 42. For example, the coordinate processing unit 41 detects the distance from the first common object 7-1 to the second common object 8-1 in the first space 101. For example, the coordinate processing unit 41 may further detect the distance from the first common object 7-1 to the third common object 9-1 in the first space 101. For example, the coordinate processing unit 41 may further detect the distance from the first common object 7-1 to the fourth common object 10-1 in the first space 101.

座標処理部41は、観察者5が決定キー画像16を押下操作した場合、第1空間101の第1原点と、第1空間101の向きと、各共通物体同士の距離と、観察者実位置を基準とした各共通物体の位置の俯角とを検出する。第1空間101が野球場の小型模型である場合、座標処理部41は、例えば、第1空間101の物体光学像に対する空間認識処理の結果に基づいて、第1空間101における第1原点の位置と、第1空間101の向きと、第1空間101における各共通物体同士の距離と、第1空間101における観察者実位置を基準とした各共通物体の位置の俯角とを検出する。   When the observer 5 presses the enter key image 16, the coordinate processing unit 41 selects the first origin of the first space 101, the direction of the first space 101, the distance between the common objects, and the actual position of the observer And the depression angle of the position of each common object with reference to. When the first space 101 is a small model of a baseball field, the coordinate processing unit 41 determines the position of the first origin in the first space 101 based on, for example, the result of the space recognition process on the object optical image of the first space 101. Then, the orientation of the first space 101, the distance between the common objects in the first space 101, and the depression angle of the position of each common object with respect to the actual position of the observer in the first space 101 are detected.

座標処理部41は、例えば、ニューラルネットワークの学習結果を用いて空間認識処理を実行してもよい。座標処理部41は、例えば、ホームベースの教師画像等を用いて空間認識を学習してもよい。   For example, the coordinate processing unit 41 may execute the space recognition process using the learning result of the neural network. The coordinate processing unit 41 may learn spatial recognition using, for example, a home-based teacher image.

第1空間101が原寸大の野球場である場合、記憶部33に記憶されている野球場の設計図は、第1空間101の各所に予め配置されたポジショントラッキング装置の位置を計測した結果を表す情報を含んでもよい。第1空間101が原寸大の野球場である場合、座標処理部41は、例えば、ポジショントラッキング装置の位置を計測した結果に基づいて、第1空間101における第1原点の位置と、第1空間101の向きと、第1空間101における各共通物体同士の距離と、第1空間101における観察者実位置を基準とした各共通物体の位置の俯角とを検出する。   When the first space 101 is a full-scale baseball field, the design drawing of the baseball field stored in the storage unit 33 shows the result of measuring the positions of the position tracking devices arranged in advance in the first space 101. It may include information to represent. When the first space 101 is a full-scale baseball field, the coordinate processing unit 41, for example, based on the result of measuring the position of the position tracking device, the position of the first origin in the first space 101 and the first space The direction of 101, the distance between the common objects in the first space 101, and the depression angle of the position of each common object with respect to the actual position of the observer in the first space 101 are detected.

座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第2共通物体8−1から物体仮位置60−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第3共通物体9−1から物体仮位置60−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第4共通物体10−1から物体仮位置60−1までの距離を更に検出してもよい。   The coordinate processing unit 41 detects the distance from the first common object 7-1 to the temporary object position 60-1 in the first space 101. For example, the coordinate processing unit 41 detects the distance from the first common object 7-1 to the temporary object position 60-1 in the first space 101. For example, the coordinate processing unit 41 may further detect the distance from the second common object 8-1 to the temporary object position 60-1 in the first space 101. For example, the coordinate processing unit 41 may further detect the distance from the third common object 9-1 to the temporary object position 60-1 in the first space 101. For example, the coordinate processing unit 41 may further detect the distance from the fourth common object 10-1 to the temporary object position 60-1 in the first space 101.

座標処理部41は、第2空間102における各共通物体の位置情報を、記憶部33から取得する。例えば、座標処理部41は、原寸大の野球場等である第2空間102の設計図として、第2空間102における各共通物体の位置情報を取得する。   The coordinate processing unit 41 acquires the position information of each common object in the second space 102 from the storage unit 33. For example, the coordinate processing unit 41 acquires position information of each common object in the second space 102 as a design drawing of the second space 102 that is a full-scale baseball field or the like.

座標処理部41は、第2空間102における各共通物体の位置情報に基づいて、第2空間102の座標系の原点(以下「第2原点」という。)の位置を検出する。座標処理部41は、第2空間102における各共通物体の位置情報に基づいて、第2空間102における共通物体同士の距離を検出する。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第2共通物体8−2までの距離を検出する。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第3共通物体9−2までの距離を更に検出してもよい。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第4共通物体10−2までの距離を更に検出してもよい。   The coordinate processing unit 41 detects the position of the origin of the coordinate system of the second space 102 (hereinafter referred to as “second origin”) based on the position information of each common object in the second space 102. The coordinate processing unit 41 detects the distance between the common objects in the second space 102 based on the position information of each common object in the second space 102. For example, the coordinate processing unit 41 detects the distance from the first common object 7-2 to the second common object 8-2 in the second space 102. For example, the coordinate processing unit 41 may further detect the distance from the first common object 7-2 to the third common object 9-2 in the second space 102. For example, the coordinate processing unit 41 may further detect the distance from the first common object 7-2 to the fourth common object 10-2 in the second space 102.

座標処理部41は、観察者5が決定キー画像16を押下操作した場合、第2空間102の第2原点と、第2空間102の向きと、各共通物体同士の距離と、所定位置を基準とした各共通物体の位置の俯角とを検出する。第2空間102が原寸大の野球場である場合、記憶部33に記憶されている野球場の設計図は、第2空間102の各所に予め配置されたポジショントラッキング装置の位置を計測した結果を表す情報を含んでもよい。第2空間102が原寸大の野球場である場合、座標処理部41は、例えば、ポジショントラッキング装置の位置を計測した結果に基づいて、第2空間102における第2原点の位置と、第2空間102の向きと、第2空間102における各共通物体同士の距離と、第2空間102における所定位置を基準とした各共通物体の位置の俯角とを検出する。   When the observer 5 presses the enter key image 16, the coordinate processing unit 41 uses the second origin of the second space 102, the direction of the second space 102, the distance between the common objects, and a predetermined position as a reference. And the depression angle of the position of each common object. When the second space 102 is a full-scale baseball field, the design drawing of the baseball field stored in the storage unit 33 shows the result of measuring the positions of the position tracking devices arranged in advance in various places in the second space 102. It may include information to represent. When the second space 102 is a full-scale baseball field, the coordinate processing unit 41, for example, based on the result of measuring the position of the position tracking device, the position of the second origin in the second space 102, and the second space The direction of 102, the distance between the common objects in the second space 102, and the depression angle of the position of each common object with respect to a predetermined position in the second space 102 are detected.

座標処理部41は、第2原点を画面上で第1原点に一致させる。座標処理部41は、第2空間の座標系の向きを第1空間の座標系の向きに一致させる。これらによって、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが同じである場合、第1空間101の座標系と第2空間102の座標系とを互いに変換することができる。   The coordinate processing unit 41 matches the second origin with the first origin on the screen. The coordinate processing unit 41 matches the direction of the coordinate system in the second space with the direction of the coordinate system in the first space. Thus, when the scale of the coordinate system of the first space 101 and the scale of the coordinate system of the second space 102 are the same, the coordinate processing unit 41 has the coordinate system of the first space 101 and the coordinate system of the second space 102. Can be converted to each other.

更に、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが異なる場合、第2空間102の座標系における距離と第1空間101の座標系における距離との比(距離比)を、共通物体の組ごとに検出する。すなわち、座標処理部41は、第2空間102の座標系に対する第1空間101の座標系の縮尺を、共通物体の組ごとに検出する。例えば、座標処理部41は、実空間の水平のx軸方向について、第1共通物体7−1から第2共通物体8−1までの距離と第1共通物体7−2から第2共通物体8−2までの距離との比を検出する。例えば、座標処理部41は、実空間の水平のy軸方向について、第2共通物体8−1から第3共通物体9−1までの距離と第2共通物体8−2から第3共通物体9−2までの距離との比を検出してもよい。座標処理部41は、各実空間のz軸方向(鉛直の上方向)について、第1空間101のxy平面から第1空間101の所定の客席までの距離と第2空間102のxy平面から第2空間102の所定の客席までの距離との比を検出してもよい。座標処理部41は、第1空間101の座標系に対する第2空間102の座標系の縮尺を検出してもよい。距離比(縮尺)は、各実空間のxyzの3軸で共通でもよいし、各実空間のxyzの軸ごとに異なっていてもよい。これらによって、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが異なる場合でも、第1空間101の座標系と第2空間102の座標系とを互いに変換することができる。   Furthermore, when the scale of the coordinate system of the first space 101 and the scale of the coordinate system of the second space 102 are different, the coordinate processing unit 41 determines the distance in the coordinate system of the second space 102 and the coordinate system of the first space 101. A ratio to the distance (distance ratio) is detected for each set of common objects. That is, the coordinate processing unit 41 detects the scale of the coordinate system of the first space 101 with respect to the coordinate system of the second space 102 for each set of common objects. For example, the coordinate processing unit 41 has the distance from the first common object 7-1 to the second common object 8-1 and the first common object 7-2 to the second common object 8 in the horizontal x-axis direction of the real space. The ratio to the distance to -2. For example, for the horizontal y-axis direction of the real space, the coordinate processing unit 41 and the distance from the second common object 8-1 to the third common object 9-1 and the second common object 8-2 to the third common object 9 The ratio to the distance to -2 may be detected. The coordinate processing unit 41 determines the distance from the xy plane of the first space 101 to a predetermined seat in the first space 101 and the xy plane of the second space 102 with respect to the z-axis direction (vertical upward direction) of each real space. A ratio of the distance to a predetermined seat in the two spaces 102 may be detected. The coordinate processing unit 41 may detect the scale of the coordinate system of the second space 102 with respect to the coordinate system of the first space 101. The distance ratio (scale) may be common to the three axes xyz of each real space, or may be different for each xyz axis of each real space. As a result, even when the scale of the coordinate system of the first space 101 is different from the scale of the coordinate system of the second space 102, the coordinate processing unit 41 has the coordinate system of the first space 101 and that of the second space 102. Can be converted to each other.

座標処理部41は、第1空間101の座標系と第2空間102の座標系とを対応付けた結果に基づいて、第2空間102における観察者仮位置50を決定する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離と距離比とに基づいて、第2空間102における物体仮位置60−2を決定する。座標処理部41は、第2空間における物体仮位置60−2に基づいて、第2空間102における観察者仮位置50を決定する。   The coordinate processing unit 41 determines the temporary observer position 50 in the second space 102 based on the result of associating the coordinate system of the first space 101 with the coordinate system of the second space 102. For example, the coordinate processing unit 41 determines the temporary object position 60-2 in the second space 102 based on the distance and the distance ratio from the first common object 7-1 to the temporary object position 60-1 in the first space 101. decide. The coordinate processing unit 41 determines the temporary observer position 50 in the second space 102 based on the temporary object position 60-2 in the second space.

座標処理部41は、第2空間102における観察者仮位置50を、変数決定部32に出力する。変数決定部32は、第2空間における観察者仮位置50に基づいて、図4に示すカメラ2の配置に関する変数を更新する。   The coordinate processing unit 41 outputs the temporary observer position 50 in the second space 102 to the variable determination unit 32. The variable determination unit 32 updates the variables related to the arrangement of the camera 2 illustrated in FIG. 4 based on the temporary observer position 50 in the second space.

観察者5は、第2空間102における観察者仮位置50の近くに移動されていたカメラ2−2が撮像した物体6の物体画像を表示装置4の画面の表示画像によって観察するので、物体6が移動したという拡張現実感や複合現実感を得ることができる。観察者5が拡張現実感や複合現実感を得ることができるのは、物体実位置から物体仮位置60−2まで物体6が移動した場合に観察者5が見る画像と、物体実位置に配置されている物体6を観察者5が観察者仮位置50から観察した場合に観察者5が見る画像とが、等価だからである。   The observer 5 observes the object image of the object 6 captured by the camera 2-2 that has been moved near the observer temporary position 50 in the second space 102 by the display image on the screen of the display device 4, and thus the object 6 Augmented reality and mixed reality can be obtained. The observer 5 can obtain augmented reality or mixed reality because the image viewed by the observer 5 when the object 6 moves from the actual object position to the temporary object position 60-2 and the actual object position. This is because the image seen by the observer 5 when the observer 5 observes the object 6 being viewed from the observer temporary position 50 is equivalent.

図18は、画像処理装置3cの動作の例を示すフローチャートである。座標処理部41は、表示画像42における各共通物体の位置情報を取得する(ステップS301)。座標処理部41は、表示画像42における物体仮位置の位置情報を取得する(ステップS302)。座標処理部41は、第1空間101における共通物体同士の距離を検出する(ステップS303)。座標処理部41は、第1空間101における各共通物体から物体仮位置60−1までの距離を検出する(ステップS304)。   FIG. 18 is a flowchart illustrating an example of the operation of the image processing device 3c. The coordinate processing unit 41 acquires position information of each common object in the display image 42 (step S301). The coordinate processing unit 41 acquires position information of the temporary object position in the display image 42 (step S302). The coordinate processing unit 41 detects the distance between the common objects in the first space 101 (step S303). The coordinate processing unit 41 detects the distance from each common object to the temporary object position 60-1 in the first space 101 (step S304).

座標処理部41は、第2空間102における各共通物体の位置情報を取得する(ステップS305)。座標処理部41は、第2空間102における共通物体同士の距離を検出する(ステップS306)。座標処理部41は、第1空間101における共通物体同士の距離と第2空間102における共通物体同士の距離との比(距離比)を、共通物体の組ごとに決定する(ステップS307)。座標処理部41は、第1空間101における第1共通物体7−1(第1原点)から物体仮位置60−1までの距離と距離比とに基づいて、第2空間102における物体仮位置60−2を決定する(ステップS308)。座標処理部41は、第2空間102における物体仮位置60−2に基づいて、第2空間102における観察者仮位置50を決定する(ステップS309)。   The coordinate processing unit 41 acquires position information of each common object in the second space 102 (step S305). The coordinate processing unit 41 detects the distance between the common objects in the second space 102 (step S306). The coordinate processing unit 41 determines the ratio (distance ratio) between the distance between the common objects in the first space 101 and the distance between the common objects in the second space 102 for each set of common objects (step S307). The coordinate processing unit 41 determines the temporary object position 60 in the second space 102 based on the distance and the distance ratio from the first common object 7-1 (first origin) to the temporary object position 60-1 in the first space 101. -2 is determined (step S308). The coordinate processing unit 41 determines the temporary observer position 50 in the second space 102 based on the temporary object position 60-2 in the second space 102 (step S309).

なお、第1空間は、野球場の小型模型でなくてもよく、例えば、サッカー場の小型模型でもよい。第1空間は、原寸大の野球場でなくてもよく、例えば、原寸大のサッカー場でもよい。同様に、第2空間は、原寸大のサッカー場でもよい。第1空間がサッカー場の小型模型である場合、図16に示された表示画像42は、ゴールポストが左右に配置されたサッカー場の小型模型を鉛直下方向に見下ろした場合の俯瞰図でもよい。第1空間が原寸大のサッカー場である場合、図16に示された表示画像42は、ゴールポストが左右に配置された原寸大のサッカー場を鉛直下方向に見下ろした場合の俯瞰図でもよい。   Note that the first space may not be a small model of a baseball field, for example, a small model of a soccer field. The first space may not be a full size baseball field, for example, a full size soccer field. Similarly, the second space may be a full-scale soccer field. When the first space is a small model of a soccer field, the display image 42 shown in FIG. 16 may be an overhead view when the small model of a soccer field with goal posts arranged on the left and right is looked down vertically. . When the first space is a full size soccer field, the display image 42 shown in FIG. 16 may be an overhead view when the full size soccer field where the goal posts are arranged on the left and right is looked down vertically. .

第1空間が原寸大のサッカー場である場合、原寸大のサッカー場を鉛直下方向に見下ろした場合の俯瞰図において、第1共通物体7−1は、ゴールラインの左下隅の部分でもよい。第2共通物体8−1は、ゴールラインの右下隅の部分でもよい。第3共通物体9−1は、ゴールラインの左上隅の部分でもよい。第4共通物体10−1は、ゴールポストにおいて最も位置が高い枠の一部分でもよい。   When the first space is a full size soccer field, the first common object 7-1 may be the lower left corner portion of the goal line in the overhead view when the full size soccer field is looked down vertically. The second common object 8-1 may be a lower right corner portion of the goal line. The third common object 9-1 may be the upper left corner of the goal line. The fourth common object 10-1 may be a part of the frame having the highest position on the goal post.

座標処理部41は、実空間の水平のx軸方向について、第1共通物体7−1から第2共通物体8−1までの距離と第1共通物体7−2から第2共通物体8−2までの距離との比を決定してもよい。座標処理部41は、実空間の水平のy軸方向について、第2共通物体8−1から第3共通物体9−1までの距離と第2共通物体8−2から第3共通物体9−2までの距離との比を検出してもよい。座標処理部41は、各実空間のz軸方向(鉛直の上方向)について、xy平面から第4共通物体10−1までの距離とxy平面から第4共通物体10−2までの距離との比を検出してもよい。   The coordinate processing unit 41 has a distance from the first common object 7-1 to the second common object 8-1 and a first common object 7-2 to a second common object 8-2 in the horizontal x-axis direction of the real space. The ratio to the distance to may be determined. The coordinate processing unit 41 has a distance from the second common object 8-1 to the third common object 9-1 and the second common object 8-2 to the third common object 9-2 in the horizontal y-axis direction of the real space. The ratio to the distance to may be detected. The coordinate processing unit 41 is configured to calculate the distance from the xy plane to the fourth common object 10-1 and the distance from the xy plane to the fourth common object 10-2 with respect to the z-axis direction (vertical upward direction) of each real space. The ratio may be detected.

以上のように、第3実施形態の画像処理装置3cは、座標処理部41を備える。座標処理部41は、第1空間101の座標系と第2空間102の座標系とを対応付けた結果に基づいて、第2空間102における観察者仮位置50を決定する。   As described above, the image processing device 3 c according to the third embodiment includes the coordinate processing unit 41. The coordinate processing unit 41 determines the temporary observer position 50 in the second space 102 based on the result of associating the coordinate system of the first space 101 with the coordinate system of the second space 102.

これによって、第3実施形態の画像処理装置3cは、観察者5と物体6とが異なる実空間に存在する場合でも、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能となる。   As a result, the image processing apparatus 3c according to the third embodiment allows the image of the object to be observed when the object 5 is temporarily moved in the real space even when the observer 5 and the object 6 exist in different real spaces. It is possible to prevent the apparent size or orientation from differing from the apparent size or orientation of the object image of the object virtually moved in the space of the image displayed on the display screen.

なお、第1実施形態から第2実施形態までにおいて、画像処理装置3a〜3bは、座標処理部41を更に備えてもよい。   In the first embodiment to the second embodiment, the image processing apparatuses 3a to 3b may further include a coordinate processing unit 41.

(第4実施形態)
第4実施形態では、表示画面に表示されることになる物体画像の大きさを定める倍率に応じて画像処理装置がカメラを選択又は移動する点が、第1実施形態と相違する。第4実施形態では、第1実施形態との相違点についてのみ説明する。
(Fourth embodiment)
The fourth embodiment is different from the first embodiment in that the image processing apparatus selects or moves the camera according to a magnification that determines the size of the object image to be displayed on the display screen. In the fourth embodiment, only differences from the first embodiment will be described.

図19は、画像処理システム1dの構成の例を示す図である。画像処理システム1dは、カメラ2−1〜2−Nと、画像処理装置3dと、表示装置4とを備える。画像処理装置3dは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3dと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3dは、カメラ2−nが出力した画像に画像処理を施す。画像処理装置3dは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34dと、切出部36と、出力部37とを備える。画像処理装置3dは、配置部39を更に備えてもよい。   FIG. 19 is a diagram illustrating an example of the configuration of the image processing system 1d. The image processing system 1d includes cameras 2-1 to 2-N, an image processing device 3d, and a display device 4. The image processing device 3d is an information processing device such as a personal computer device, a server device, a smartphone terminal, or a tablet terminal. The image processing device 3d and the display device 4 may be separate or integrated. The image processing device 3d performs image processing on the image output from the camera 2-n. The image processing device 3d includes an image acquisition unit 30, an operation unit 31, a variable determination unit 32, a storage unit 33, a selection unit 34d, a cutout unit 36, and an output unit 37. The image processing apparatus 3d may further include an arrangement unit 39.

物体6の所定方向の長さWと、表示装置4の画面における物体画像の所定方向の長さWとの関係は、式(1)のように表される。所定方向とは、例えば、x軸方向、y軸方向又はz軸方向である。 The relationship between the length W 0 in the predetermined direction of the object 6 and the length W i in the predetermined direction of the object image on the screen of the display device 4 is expressed as Expression (1). The predetermined direction is, for example, the x-axis direction, the y-axis direction, or the z-axis direction.

=f/d×W …(1) W i = f / d × W 0 (1)

ここで、fは、カメラ2が備えるレンズの焦点距離を表す。焦点距離fは、一定である。dは、カメラ2から物体6(被写体)までの距離を表す。Wは、物体6の所定方向の長さを表す。Wは、表示装置4の画面における物体画像の所定方向の長さである。物体画像の面積は、画面の面積に対する比で表現されてもよいし、画素数で表現されてもよい。なお、式(1)の「W」には、(f/d)以外の他の係数が更に乗算されてもよい。 Here, f represents the focal length of the lens provided in the camera 2. The focal length f is constant. d represents the distance from the camera 2 to the object 6 (subject). W 0 represents the length of the object 6 in a predetermined direction. Wi is the length of the object image on the screen of the display device 4 in a predetermined direction. The area of the object image may be expressed as a ratio to the area of the screen or may be expressed as the number of pixels. Note that “W 0 ” in Expression (1) may be further multiplied by a coefficient other than (f / d).

選択部34dは、カメラ2−1〜2−Nのうちから選択されているカメラ2から物体6までの距離dを検出する。選択部34dは、画面における物体画像の所定方向の長さWをX倍にすることを表す命令信号を、操作部31から取得する。選択部34dは、長さWをX倍にすることを表す命令信号を取得した場合、物体6までの距離が(d/X)であるカメラ2を選択する。Xは、倍率を表す。 The selection unit 34d detects the distance d from the camera 2 selected from the cameras 2-1 to 2-N to the object 6. Selecting unit 34d is a command signal indicating that the predetermined direction of the object image in the screen length W i to X times, acquires from the operation unit 31. Selecting unit 34d, when acquiring a command signal indicating that the length W i to X times the distance to the object 6 to select the camera 2 is (d / X). X represents a magnification.

選択部34dは、例えば、観察者実位置から物体仮位置60までの距離が観察者実位置から物体実位置までの距離の(1/X)倍である場合、画面における物体画像の所定方向の長さWをX倍にすると決定してもよい。選択部34dは、画面における物体画像の所定方向の長さWをX倍にすると決定した場合、物体6までの距離が(d/X)であるカメラ2を選択する。選択部34dは、優先情報に基づいて、物体6までの距離が(d/X)に近いカメラ2を選択してもよい。例えば、表示画像における物体画像の向きを物体画像の大きさよりも優先することを優先情報が表している場合、選択部34dは、物体6までの距離が(d/X)に近いカメラ2を選択してもよい。 For example, when the distance from the observer actual position to the object temporary position 60 is (1 / X) times the distance from the observer actual position to the object actual position, the selection unit 34d selects the object image in the predetermined direction on the screen. the length W i may be determined as to X times. Selecting unit 34d is in a predetermined direction of the object image in the screen length W i when determining to the X times, the distance to the object 6 to select the camera 2 is (d / X). The selection unit 34d may select the camera 2 whose distance to the object 6 is close to (d / X) based on the priority information. For example, when the priority information indicates that the direction of the object image in the display image is given priority over the size of the object image, the selection unit 34d selects the camera 2 whose distance to the object 6 is close to (d / X). May be.

選択部34dは、画像処理装置3dが配置部39を備えている場合、物体6までの距離が(d/X)となる位置にカメラ2を配置してもよい。選択部34dは、物体6を画角に含む向きでカメラ2を配置する。   When the image processing device 3d includes the arrangement unit 39, the selection unit 34d may arrange the camera 2 at a position where the distance to the object 6 is (d / X). The selection unit 34d arranges the camera 2 in a direction that includes the object 6 in the angle of view.

図22は、画像処理装置3dの動作の例を示すフローチャートである。選択部34dは、カメラ2−1〜2−Nのうちから選択されているカメラ2から物体6までの距離dを検出する(ステップS401)。選択部34dは、画面における物体画像の所定方向の長さWをX倍にすることを表す命令信号を、操作部31から取得する(ステップS402)。選択部34dは、長さWをX倍にすることを表す命令信号を取得した場合、物体6までの距離が(d/X)であるカメラ2を選択する(ステップS403)。 FIG. 22 is a flowchart illustrating an example of the operation of the image processing apparatus 3d. The selection unit 34d detects the distance d from the camera 2 selected from the cameras 2-1 to 2-N to the object 6 (step S401). Selecting unit 34d is a command signal indicating that the predetermined direction of the object image in the screen length W i to X times, acquires from the operation unit 31 (step S402). Selecting unit 34d, when acquiring a command signal indicating that the length W i to X times the distance to the object 6 to select the camera 2 is (d / X) (step S403).

以上のように、第4実施形態の画像処理装置3dは、選択部34dを備える。選択部34dは、選択部34dが倍率に基づいてカメラ2を選択する場合、カメラ2から物体6までの距離が倍率(X)の逆数に応じて定まる距離(d/X)の位置にあるカメラ2を選択する。   As described above, the image processing device 3d according to the fourth embodiment includes the selection unit 34d. When the selection unit 34d selects the camera 2 based on the magnification, the selection unit 34d has a distance (d / X) where the distance from the camera 2 to the object 6 is determined according to the reciprocal of the magnification (X). 2 is selected.

これによって、第4実施形態の画像処理装置3dは、表示画面に表示されることになる物体画像の大きさを定める倍率に応じて画像処理装置がカメラを選択又は移動する場合でも、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能となる。   As a result, the image processing apparatus 3d according to the fourth embodiment can be used in real space even when the image processing apparatus selects or moves the camera according to the magnification that determines the size of the object image to be displayed on the display screen. The apparent size or orientation of the object image observed when the object is temporarily moved, and the apparent size of the object image of the object virtually moved in the space of the image displayed on the display screen It is possible to prevent the height or direction from being different.

なお、第1実施形態において、画像処理装置3aの選択部34は、選択部34dと同様の処理を更に実行してもよい。第2実施形態において、画像処理装置3bの選択部34は、選択部34dと同様の処理を更に実行してもよい。第3実施形態において、画像処理装置3cの選択部34は、選択部34dと同様の処理を更に実行してもよい。   In the first embodiment, the selection unit 34 of the image processing apparatus 3a may further execute the same process as the selection unit 34d. In the second embodiment, the selection unit 34 of the image processing device 3b may further execute the same process as the selection unit 34d. In the third embodiment, the selection unit 34 of the image processing device 3c may further execute the same process as the selection unit 34d.

上述した実施形態における画像処理システム、決定装置及び画像処理装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   You may make it implement | achieve at least one part of the image processing system in the embodiment mentioned above, the determination apparatus, and the image processing apparatus with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

本発明は、拡張現実感(AR)又は複合現実感(MR)を観察者に与える画像を出力するカメラの選択、位置及び向きを決定する決定装置に適用可能である。   The present invention is applicable to a determination apparatus that determines the selection, position, and orientation of a camera that outputs an image that gives an observer an augmented reality (AR) or mixed reality (MR).

1a−1d…画像処理システム、2…カメラ、3a−3d…画像処理装置、4…表示装置、5…観察者、6…物体、7…第1共通物体、8…第2共通物体、9…第3共通物体、10…第4共通物体、11…矢印画像、12…矢印画像、13…矢印画像、14…矢印画像、15…微調整キー画像、16…決定キー画像、17…メニューキー画像、20…光軸、21…ベクトル、22…直線、23…光軸、24…カメラ画像、25…カメラ画像、26…カメラ画像、30…画像取得部、31…操作部、32…変数決定部、33…記憶部、34,34d…選択部、35…移動部、36…切出部、37…出力部、38…補正部、40…表示画像、41…座標処理部、42…表示画像、50…観察者仮位置、51…ベクトル、52…直線、53…直線、54…視野境界、55…直線、56…直線、57…直線、60…物体仮位置、61…ベクトル、100…部屋、101…第1空間、102…第2空間、110…領域   DESCRIPTION OF SYMBOLS 1a-1d ... Image processing system, 2 ... Camera, 3a-3d ... Image processing apparatus, 4 ... Display apparatus, 5 ... Observer, 6 ... Object, 7 ... 1st common object, 8 ... 2nd common object, 9 ... 3rd common object, 10 ... 4th common object, 11 ... arrow image, 12 ... arrow image, 13 ... arrow image, 14 ... arrow image, 15 ... fine adjustment key image, 16 ... decision key image, 17 ... menu key image 20 ... optical axis, 21 ... vector, 22 ... straight line, 23 ... optical axis, 24 ... camera image, 25 ... camera image, 26 ... camera image, 30 ... image acquisition unit, 31 ... operation unit, 32 ... variable determination unit 33 ... Storage unit, 34, 34d ... Selection unit, 35 ... Moving unit, 36 ... Extraction unit, 37 ... Output unit, 38 ... Correction unit, 40 ... Display image, 41 ... Coordinate processing unit, 42 ... Display image, 50 ... Temporary observer position, 51 ... Vector, 52 ... Straight line, 53 ... Straight line, 4 ... field boundaries, 55 ... straight line, 56 ... straight line, 57 ... straight line, 60 ... object temporary position, 61 ... vector, 100 ... room 101 ... first space, 102: second space, 110 ... area

Claims (10)

実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置であって、
前記物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択する選択部
を備える決定装置。
A plurality of cameras whose positions and orientations are determined so as to image an object placed in the real space are arranged in the real space and observed as if they were moved in the space of the image displayed on the screen of the display device A determination device that selects the camera that outputs an image including an object image that is a still image or a moving image of an object from a plurality of the cameras,
The direction of a line connecting from the actual object position, which is the actual position of the object, to the temporary object position, which is the temporary position of the object, and the camera movement source position, which is the movement source position of the camera that captures the object, And a selection unit that selects the camera from the plurality of cameras based on at least one of a direction of a line connecting to the camera destination position, which is a destination position of the camera, and a predetermined magnification .
前記選択部は、前記物体実位置から前記物体仮位置までを結ぶ線の方向と前記カメラ移動元位置から前記カメラ移動先位置までを結ぶ線の方向とが平行に近い前記カメラほど優先して前記カメラを選択する、請求項1に記載の決定装置。   The selection unit gives priority to the camera in which the direction of the line connecting the actual object position to the temporary object position and the direction of the line connecting the camera movement source position to the camera movement destination position are nearly parallel. The determination device according to claim 1, wherein the determination device selects a camera. 前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記カメラ移動先位置までの距離が短い前記カメラを優先して選択する、請求項2に記載の決定装置。   The selection unit preferentially selects the camera having a short distance from the observer temporary position, which is a predetermined temporary position of the observer observing the object image displayed on the screen, to the camera movement destination position. The determination apparatus according to claim 2. 前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記物体実位置までの距離と前記カメラ移動先位置から前記物体実位置までの距離との差が短い前記カメラを優先して選択する、請求項2に記載の決定装置。   The selection unit includes a distance from an observer temporary position, which is a predetermined temporary position of an observer observing the object image displayed on the screen, to the object actual position and the object actual position from the camera destination position. The determination apparatus according to claim 2, wherein the camera having a short difference from the distance to the camera is selected with priority. 前記選択部は、前記選択部が前記倍率に基づいて前記カメラを選択する場合、前記カメラから前記物体までの距離が前記倍率の逆数に応じて定まる距離の位置にある前記カメラを選択する、請求項1に記載の決定装置。   The selection unit, when the selection unit selects the camera based on the magnification, selects the camera in which the distance from the camera to the object is a position determined according to the reciprocal of the magnification. Item 2. The determination device according to Item 1. 前記画面に表示された前記物体画像を観察する観察者が存在する実空間である第1空間の座標系と前記物体が存在する実空間である第2空間の座標系とを対応付けた結果に基づいて、前記第2空間における、前記観察者の所定の仮の位置である観察者仮位置を決定する座標処理部
を更に備える、請求項1に記載の決定装置。
As a result of associating the coordinate system of the first space, which is the real space where the observer who observes the object image displayed on the screen exists, with the coordinate system of the second space, which is the real space where the object exists. The determination apparatus according to claim 1, further comprising: a coordinate processing unit that determines an observer temporary position that is a predetermined temporary position of the observer in the second space.
請求項1から請求項6のいずれか一項に記載の決定装置と、
選択された前記カメラを移動させる移動部と、
移動された前記カメラから、前記物体画像を含む画像を取得する画像取得部と、
前記物体画像を含む画像から、前記物体画像を切り出す切出部と、
切り出された前記物体画像を表示装置に出力する出力部と
を備える画像処理装置。
A determination device according to any one of claims 1 to 6,
A moving unit for moving the selected camera;
An image acquisition unit for acquiring an image including the object image from the moved camera;
A cutout unit that cuts out the object image from the image including the object image;
An image processing apparatus comprising: an output unit that outputs the cut-out object image to a display device.
切り出された前記物体画像の向き及び大きさのうち少なくとも一方を補正する補正部
を更に備え、
前記出力部は、前記物体画像の向き及び大きさのうち少なくとも一方が補正された前記物体画像を前記表示装置に出力する、請求項7に記載の画像処理装置。
A correction unit that corrects at least one of the orientation and size of the clipped object image;
The image processing apparatus according to claim 7, wherein the output unit outputs the object image in which at least one of a direction and a size of the object image is corrected to the display device.
実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置が実行する決定方法であって、
物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択するステップ
を含む決定方法。
A plurality of cameras whose positions and orientations are determined so as to image an object placed in the real space are arranged in the real space and observed as if they were moved in the space of the image displayed on the screen of the display device A determination method executed by a determination apparatus that selects the camera that outputs an image including an object image that is a still image or a moving image of an object from a plurality of the cameras,
The direction of the line connecting the actual position of the object, which is the actual position of the object, to the temporary position of the object, which is the temporary position of the object, and the camera movement source position, which is the position of the movement source of the camera that captures the object, A determination method including a step of selecting the camera from a plurality of the cameras based on at least one of a direction of a line connecting to a camera movement destination position which is a movement destination position and a predetermined magnification.
請求項1から請求項6のいずれか一項に記載の決定装置としてコンピュータを機能させるための決定プログラム。   The determination program for functioning a computer as a determination apparatus as described in any one of Claims 1-6.
JP2017161550A 2017-02-06 2017-08-24 Determination device, image processing apparatus, determination method, and determination program Pending JP2018129784A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017019472 2017-02-06
JP2017019472 2017-02-06

Publications (1)

Publication Number Publication Date
JP2018129784A true JP2018129784A (en) 2018-08-16

Family

ID=63173215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161550A Pending JP2018129784A (en) 2017-02-06 2017-08-24 Determination device, image processing apparatus, determination method, and determination program

Country Status (1)

Country Link
JP (1) JP2018129784A (en)

Similar Documents

Publication Publication Date Title
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
US9161027B2 (en) Method and apparatus for providing camera calibration
CN108573530B (en) Augmented reality AR interaction method and system
US20140320404A1 (en) Image processing device, image processing method, and program
CN110954083A (en) Positioning of mobile devices
US11627251B2 (en) Image processing apparatus and control method thereof, computer-readable storage medium
CN103914876B (en) For showing the method and apparatus of video on 3D maps
WO2022022029A1 (en) Virtual display method, apparatus and device, and computer readable storage medium
JP7378243B2 (en) Image generation device, image display device, and image processing method
JP2011090400A (en) Image display device, method, and program
US20130176337A1 (en) Device and Method For Information Processing
US20130222363A1 (en) Stereoscopic imaging system and method thereof
KR20120017783A (en) Method and apparatus for presenting location information on augmented reality
WO2019069575A1 (en) Information processing device, information processing method, and program
JP4619216B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP7335335B2 (en) Information processing device, information processing method, and program
JP5748355B2 (en) Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program
JP2017016166A (en) Image processing apparatus and image processing method
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP5330946B2 (en) 3D image display program, portable device such as a mobile phone having a 3D image display function, and 3D image display method
JP6737945B2 (en) Determination device, image processing device, and determination program
WO2022176450A1 (en) Information processing device, information processing method, and program
JP2018129784A (en) Determination device, image processing apparatus, determination method, and determination program
JP2018129785A (en) Determination device, image processing apparatus, determination method, and determination program