JP2018129784A - Determination device, image processing apparatus, determination method, and determination program - Google Patents
Determination device, image processing apparatus, determination method, and determination program Download PDFInfo
- Publication number
- JP2018129784A JP2018129784A JP2017161550A JP2017161550A JP2018129784A JP 2018129784 A JP2018129784 A JP 2018129784A JP 2017161550 A JP2017161550 A JP 2017161550A JP 2017161550 A JP2017161550 A JP 2017161550A JP 2018129784 A JP2018129784 A JP 2018129784A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- space
- observer
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 177
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000012937 correction Methods 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 description 41
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、決定装置、画像処理装置、決定方法及び決定プログラムに関する。 The present invention relates to a determination device, an image processing device, a determination method, and a determination program.
拡張現実感(AR: Augmented Reality)の技術とは、実空間に存在する物体の画像に装置が情報を付与等することで、現実を拡張して表現する技術である。また、複合現実感(MR: Mixed Reality)の技術とは、実空間に存在する物体の画像を装置が変化させ、変化した物体の画像と仮想空間に存在する物体の画像とを装置が複合化して表現する技術である。実空間で静止している物体の画像を、表示画面に表示された画像の空間で仮想的に移動させるには、表示画面に表示された画像の空間における物体の移動後の位置又は向きに応じて、実空間に複数のカメラが配置される必要がある。物体を取り囲むように実空間に複数のカメラが配置され、カメラ画像の中央に物体が撮像されるようカメラの光軸の方向が定められることで、複数のカメラによって物体を撮像する方法が提案されている(非特許文献1参照)。 Augmented Reality (AR) technology is a technology that expands and expresses reality by adding information to an image of an object in real space. Mixed reality (MR) technology means that the device changes the image of an object that exists in real space, and the device combines the image of the changed object and the image of the object that exists in virtual space. It is a technology that expresses. To virtually move an image of an object that is stationary in real space in the space of the image displayed on the display screen, depending on the position or orientation of the object in the space of the image displayed on the display screen Thus, a plurality of cameras need to be arranged in the real space. A method has been proposed in which a plurality of cameras are arranged in real space so as to surround an object, and the direction of the optical axis of the camera is determined so that the object is imaged in the center of the camera image. (See Non-Patent Document 1).
しかしながら、実空間で静止している物体の位置及び向きと、表示画面に表示された画像の空間で仮想的に移動された物体の位置又は方向と、実空間に配置された複数のカメラの位置又は方向とは、必ずしも整合しない場合がある。このため、従来では、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異なる場合がある、という問題があった。 However, the position and orientation of an object that is stationary in the real space, the position or direction of the object that is virtually moved in the space of the image displayed on the display screen, and the positions of a plurality of cameras arranged in the real space Or, it may not always match the direction. For this reason, conventionally, the apparent size of the image of the object observed when the object is temporarily moved in the real space and the image of the object virtually moved in the space of the image displayed on the display screen There was a problem that the apparent size of the case may be different.
上記事情に鑑み、本発明は、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることができる決定装置、画像処理装置、決定方法及び決定プログラムを提供することを目的としている。 In view of the above circumstances, the present invention is virtually moved in the apparent size of the image of the object observed when the object is temporarily moved in the real space and in the space of the image displayed on the display screen. It is an object of the present invention to provide a determination device, an image processing device, a determination method, and a determination program that can prevent the apparent size of an object image from differing.
本発明の一態様は、実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置であって、前記物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択する選択部を備える決定装置である。 In one embodiment of the present invention, a plurality of cameras whose positions and orientations are determined so as to capture an image of an object arranged in the real space are arranged in the real space and moved in the space of the image displayed on the screen of the display device. A determination device that selects, from a plurality of cameras, the camera that outputs an image including an object image that is a still image or a moving image of the object to be observed, and is an object that is an actual position of the object The direction of the line connecting from the actual position to the temporary object position, which is the temporary position of the object, and the camera movement, which is the camera movement destination position, from the camera movement source position, which is the movement source position of the camera that images the object The determination apparatus includes a selection unit that selects the camera from a plurality of the cameras based on at least one of a direction of a line connecting to the previous position and a predetermined magnification.
本発明の一態様は、上記の決定装置であって、前記選択部は、前記物体実位置から前記物体仮位置までを結ぶ線の方向と前記カメラ移動元位置から前記カメラ移動先位置までを結ぶ線の方向とが平行に近い前記カメラほど優先して前記カメラを選択する。 One aspect of the present invention is the above-described determination device, wherein the selection unit connects a direction of a line connecting the actual object position to the temporary object position and the camera movement source position to the camera movement destination position. The camera is selected with priority as the camera is closer to the line direction.
本発明の一態様は、上記の決定装置であって、前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記カメラ移動先位置までの距離が短い前記カメラを優先して選択する。 One aspect of the present invention is the determination device described above, wherein the selection unit moves the camera from an observer temporary position that is a predetermined temporary position of an observer who observes the object image displayed on the screen. The camera with a short distance to the destination position is selected with priority.
本発明の一態様は、上記の決定装置であって、前記選択部は、前記画面に表示された前記物体画像を観察する観察者の所定の仮の位置である観察者仮位置から前記物体実位置までの距離と前記カメラ移動先位置から前記物体実位置までの距離との差が短い前記カメラを優先して選択する。 One aspect of the present invention is the above-described determination device, wherein the selection unit is configured to detect the object actual from an observer temporary position that is a predetermined temporary position of an observer who observes the object image displayed on the screen. The camera having a short difference between the distance to the position and the distance from the camera destination position to the actual object position is selected with priority.
本発明の一態様は、上記の決定装置であって、前記選択部は、前記選択部が前記倍率に基づいて前記カメラを選択する場合、前記カメラから前記物体までの距離が前記倍率の逆数に応じて定まる距離の位置にある前記カメラを選択する。 One aspect of the present invention is the above-described determination device, wherein when the selection unit selects the camera based on the magnification, a distance from the camera to the object is a reciprocal of the magnification. The camera at a distance determined according to the selection is selected.
本発明の一態様は、上記の決定装置であって、前記画面に表示された前記物体画像を観察する観察者が存在する実空間である第1空間の座標系と前記物体が存在する実空間である第2空間の座標系とを対応付けた結果に基づいて、前記第2空間における、前記観察者の所定の仮の位置である観察者仮位置を決定する座標処理部を更に備える。 One aspect of the present invention is the determination apparatus described above, wherein the coordinate system of the first space, which is a real space in which an observer who observes the object image displayed on the screen is present, and the real space in which the object is present And a coordinate processing unit for determining an observer temporary position that is a predetermined temporary position of the observer in the second space based on a result of associating with a coordinate system of the second space.
本発明の一態様は、上記の決定装置と、選択された前記カメラを移動させる移動部と、移動された前記カメラから、前記物体画像を含む画像を取得する画像取得部と、前記物体画像を含む画像から、前記物体画像を切り出す切出部と、切り出された前記物体画像を表示装置に出力する出力部とを備える画像処理装置である。 One aspect of the present invention provides the determination apparatus, a moving unit that moves the selected camera, an image acquisition unit that acquires an image including the object image from the moved camera, and the object image. An image processing apparatus comprising: a cutout unit that cuts out the object image from an included image; and an output unit that outputs the cut out object image to a display device.
本発明の一態様は、上記の画像処理装置であって、切り出された前記物体画像の向き及び大きさのうち少なくとも一方を補正する補正部を更に備え、前記出力部は、前記物体画像の向き及び大きさのうち少なくとも一方が補正された前記物体画像を前記表示装置に出力する。 One aspect of the present invention is the image processing apparatus described above, further including a correction unit that corrects at least one of a direction and a size of the cut-out object image, and the output unit includes a direction of the object image. And the object image in which at least one of the sizes is corrected is output to the display device.
本発明の一態様は、実空間に配置された物体を撮像するように位置及び向きが定められた複数のカメラが実空間に配置され、表示装置の画面に表示された画像の空間で移動されたように観察される前記物体の静止画像又は動画像である物体画像を含む画像を出力する前記カメラを、複数の前記カメラから選択する決定装置が実行する決定方法であって、物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択するステップを含む決定方法である。 In one embodiment of the present invention, a plurality of cameras whose positions and orientations are determined so as to capture an image of an object arranged in the real space are arranged in the real space and moved in the space of the image displayed on the screen of the display device. A determination method executed by a determination device that selects, from a plurality of cameras, the camera that outputs an image including an object image that is a still image or a moving image of the object observed as described above, The direction of the line connecting from the actual object position, which is the position, to the temporary object position, which is the temporary position of the object, and the position of the camera movement destination from the camera movement source position, which is the movement source position of the camera that captures the object This is a determination method including a step of selecting the camera from a plurality of the cameras based on at least one of the direction of a line connecting to the camera movement destination position and a predetermined magnification.
本発明の一態様は、上記の決定装置としてコンピュータを機能させるための決定プログラムである。 One embodiment of the present invention is a determination program for causing a computer to function as the determination device.
本発明により、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。 According to the present invention, the apparent size of the image of the object observed when the object is temporarily moved in the real space and the appearance of the image of the object virtually moved in the space of the image displayed on the display screen It becomes possible not to differ from the above size.
本発明の実施形態について、図面を参照して詳細に説明する。
(第1実施形態)
図1は、画像処理システム1aの構成の例を示す図である。画像処理システム1aは、画像に画像処理を施すシステムである。画像は、静止画像又は動画像のいずれでもよい。画像処理システム1aは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることができる。画像処理システム1aは、実空間で静止している物体の画像を、表示画面に表示された画像の空間(仮想空間)で、物体の画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能である。画像処理システム1aは、カメラ2−1〜2−N(Nは2以上の整数)と、画像処理装置3aと、表示装置4とを備える。以下では、Nは一例として3である。以下では、カメラ2−1〜2−3に共通する事項については、符号の一部を省略して「カメラ2」と表記する。
Embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of the configuration of the
カメラ2は、物体が配置されている実空間において、それぞれ予め定められた向きで予め定められた位置に配置されている。カメラ2は、カメラ2が配置されている実空間に配置されている物体を、レンズである光学系を介して撮像する。光学系は、広角レンズ、魚眼レンズ、全天球レンズでもよい。以下、撮像対象である物体の静止画像又は動画像を「物体画像」という。カメラ2は、カメラごとに撮像対象である物体よりも後ろの背景の静止画像又は動画像(以下「背景画像」という。)と物体画像とを含む画像(カメラ画像)を、画像処理装置3aに出力する。
The
画像処理装置3aは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3aと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3aは、複数のカメラ2からカメラ2−n(1≦n≦N)を選択する。画像処理装置3aは、選択されたカメラ2を所定位置まで移動させる。画像処理装置3aは、選択されたカメラ2の光軸方向を維持したまま、選択されたカメラ2を移動してもよい。画像処理装置3aは、選択されたカメラ2が出力した画像に画像処理を施す。画像処理装置3aは、例えば、カメラの画像取得周期(フレームレート)で、画像処理を実行してもよい。画像処理装置3aは、画像処理が施された物体画像を含む画像を、表示装置4に出力する。画像処理装置3aは、例えば、表示装置の表示周期(リフレッシュレート)で、画像の出力処理を実行してもよい。すなわち、画像処理装置3aは、複数のフレーム画像を含む動画像に動画像処理を実行してもよい。
The
表示装置4は、ヘッドマウントディスプレイ等の表示装置である。表示装置4の画面は、表示装置4の外の物体から表示装置4の画面に届いた光を透過させる。例えば、表示装置4の画面は、光透過性を備えた液晶ディスプレイである。以下、表示装置4の画面を透過した光による物体の光学画像を「物体光学像」という。表示装置4の画面は、画面上で物体光学像を隠すように、画像処理装置3aが出力した物体画像を表示する。すなわち、表示装置4の画面は、画像処理装置3aが出力した物体画像を、画面上で物体光学像に貼り合わせる。これによって、表示装置4の画面は、物体光学像を表示する代わりに、画像処理装置3aが出力した物体画像を表示することができる。以下、表示装置4の画面に表示される画像を「表示画像」という。
The display device 4 is a display device such as a head mounted display. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from an object outside the display device 4. For example, the screen of the display device 4 is a liquid crystal display having light transparency. Hereinafter, an optical image of an object by light transmitted through the screen of the display device 4 is referred to as an “object optical image”. The screen of the display device 4 displays the object image output by the
以下、実空間における観察者の実際の位置を「観察者実位置」という。観察者の所定の仮の位置を「観察者仮位置」という。観察者仮位置は、例えば、観察者が移動したと仮定された場合における観察者の移動先の位置として定められる。以下、実空間における物体の実際の位置を「物体実位置」という。以下、物体の所定の仮の位置を「物体仮位置」という。物体仮位置は、例えば、物体が移動したと仮定された場合における物体の移動先の位置として定められる。以下、実空間におけるカメラの移動元の位置を「カメラ移動元位置」という。以下、実空間におけるカメラの移動先の位置を「カメラ移動先位置」という。 Hereinafter, the actual position of the observer in the real space is referred to as “observer actual position”. The predetermined temporary position of the observer is referred to as “observer temporary position”. The observer temporary position is determined as, for example, the position of the observer's movement destination when it is assumed that the observer has moved. Hereinafter, the actual position of the object in the real space is referred to as “the actual object position”. Hereinafter, the predetermined temporary position of the object is referred to as “object temporary position”. The temporary object position is determined as, for example, the position to which the object is moved when it is assumed that the object has moved. Hereinafter, the position of the camera movement source in the real space is referred to as “camera movement source position”. Hereinafter, the position of the camera movement destination in the real space is referred to as “camera movement destination position”.
図2は、物体及びカメラ2の配置情報の例を示す図である。画像処理装置3aは、予め定められた配置情報を取得する。観察者実位置及び観察者仮位置の配置情報は、例えば、座標を用いて表される。以下では、座標の原点は、観察者実位置に定められる。以下では、座標は、一例としてメートル単位で表される。物体実位置及び物体仮位置の配置情報は、例えば、座標を用いて表される。カメラ2の配置情報は、例えば、座標及び光軸方向を用いて表される。光軸方向は、例えば、座標のx軸を基準とする角度で表現される。図2では、一例として、B1=約108度、B2=90度、B3=約108度である。
FIG. 2 is a diagram illustrating an example of the arrangement information of the object and the
図3は、物体6及びカメラ2の配置の例を示す俯瞰図である。物体6(オブジェクト)は、例えば、箱、柱である。物体6の形状は、例えば、立方体である。図3では、物体6の上面には、一例として文字「A」が描かれている。物体6は、実空間に存在する部屋100に予め定められた物体実位置に配置されている。物体6が屋外に配置されている場合には、部屋100の壁は仮想的な壁でもよい。物体6は、実空間では静止していてもよい。
FIG. 3 is an overhead view showing an example of the arrangement of the
観察者5は、部屋100に配置されている物体6の物体光学像を、表示装置4の画面を透過した光によって、表示装置4の画面越しに観察者実位置から観察する。観察者5は、予め定められた観察者実位置から移動しない。観察者5は、表示画面に表示された画像の空間(仮想空間)を移動した物体6の物体画像を、表示装置4の画面の表示画像によって、観察者実位置から観察する。図3では、観察者5は、表示画面に表示された画像の空間で物体実位置から物体仮位置60まで物体6が移動して、物体仮位置60から観察者実位置までの距離が所定距離となったように見える物体画像を、表示装置4の画面の表示画像によって、観察者実位置から観察する。
The
観察者5は、例えば、観察者仮位置50の近くに配置されているカメラ2が撮像した物体6の物体画像を表示装置4の画面の表示画像によって観察するので、物体6が移動したという拡張現実感(AR)や複合現実感(MR)を得ることができる。観察者5が拡張現実感や複合現実感を得ることができるのは、物体実位置から物体仮位置60まで物体6が移動した場合に観察者5が見る物体画像と、物体実位置に配置されている物体6を観察者5が観察者仮位置50から観察した場合に観察者5が見る物体画像とが、等価だからである。
For example, the
すなわち、物体実位置から物体仮位置60に移動する物体6を観察者5が観察者実位置から見る場合における物体6の大きさ等の見え方は、観察者実位置から観察者仮位置50に観察者5が移動しながら観察者5が物体実位置の物体6を見る場合における物体6の大きさ等の見え方と同じである。したがって、物体実位置から物体仮位置60に物体6が移動することと、観察者実位置から観察者仮位置50に観察者5が移動することとは、表示画像における物体6の見え方に関して等価である。
In other words, when the
カメラ2は、カメラ2の配置情報に基づく位置に、カメラ2の配置情報に基づく向きで配置されている。カメラ2の光軸方向は、カメラ2の画角に物体6を含むように予め定められる。カメラ2は、予め定められた方向に移動可能である。ベクトル21は、カメラ移動元位置からカメラ移動先位置までを結ぶベクトルである。すなわち、ベクトル21は、カメラ移動元位置からカメラ移動先位置まで移動するカメラ2の移動ベクトルを表す。図3では、ベクトル21−3は、ベクトル51及びベクトル61と平行である。
The
直線22は、カメラ移動先位置から物体実位置までを結ぶ線である。光軸23は、カメラ移動先位置のカメラ2の光軸である。カメラ2は、カメラ移動元位置のカメラ2の光軸20の方向を維持して、ベクトル21に沿ってカメラ移動先位置まで移動してもよい。図3では、カメラ移動元位置のカメラ2の光軸20と、カメラ移動先位置のカメラ2の光軸23とは平行である。図3では、カメラ移動元位置のカメラ2−2の光軸20−2と、カメラ移動先位置のカメラ2−2の光軸とが一致している。
A straight line 22 is a line connecting the camera movement destination position to the actual object position. The optical axis 23 is the optical axis of the
ベクトル51は、観察者実位置から観察者仮位置50までを結ぶベクトルである。すなわち、ベクトル51は、観察者5が移動すると仮定された場合における移動ベクトルを表す。直線52は、観察者実位置と物体実位置とを結ぶ線である。直線52は、観察者実位置の観察者5の視線方向を表す。直線53は、観察者実位置と物体仮位置60とを結ぶ線である。直線53と直線55とは平行である。直線53と直線55とが平行であるため、直線55と直線22−1とが成す角度は、直線53と直線22−1とが成す角度と等しい。
The
視野境界54は、観察者実位置の観察者5の視野の境界を表す線である。直線55は、観察者仮位置50と物体実位置とを結ぶ線である。直線56は、観察者仮位置50の観察者5の視線を表す。直線56と直線52とは平行である。直線57は、カメラ移動先位置においてy軸に平行な線である。したがって、直線52と直線56と直線57とは、互いに平行である。ベクトル61は、物体実位置から物体仮位置60までを結ぶベクトルである。ベクトル61は、物体6が移動すると仮定された場合における移動ベクトルを表す。ベクトル61は、ベクトル51の逆ベクトルである。観察者5は、ベクトル61に沿って移動する物体6の画像を、表示装置4の画面に見ることができる。
The visual field boundary 54 is a line representing the boundary of the visual field of the
図3では、カメラ2−2は、観察者仮位置50に最も近い位置に配置されたカメラである。したがって、カメラ2−2は、観察者5が観察している物体光学像の大きさに最も近い大きさの物体画像を含む画像を、画像処理装置3aに出力する。物体画像の大きさとは、表示装置4の画面の面積に対する物体画像の面積である。画面の面積に対する物体画像の面積は、例えば、表示装置4の画面の全画素数に対する物体画像の画素数で表現されてもよい。物体画像の大きさとは、カメラ2が出力したカメラ画像の面積に占める物体画像の面積の割合でもよい。
In FIG. 3, the camera 2-2 is a camera arranged at a position closest to the observer
以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−1のカメラ移動先位置から物体実位置までの距離との差を、「D1」と表記する。図3では、所定距離L0は、一例として約8.1mである。以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−2のカメラ移動先位置から物体実位置までの距離との差を、「D2」と表記する。以下では、物体実位置から観察者仮位置50までの所定距離L0と、カメラ2−3のカメラ移動先位置から物体実位置までの距離との差を、「D3」と表記する。以下、観察者仮位置50から物体実位置までの距離と、カメラ移動先位置から物体実位置までの距離との差を、「距離差」という。
Hereinafter, the difference between the predetermined distance L0 from the actual object position to the
以下、y軸方向の線とベクトル21−1とが成す角度を「A1」と表記する。図3では、カメラ2−1のカメラ移動先位置から物体実位置までを結ぶベクトル21−1と直線57−1とが成す角度A1は、0度である。すなわち、ベクトル21−1と直線57−1とy軸とは、互いに平行である。 Hereinafter, an angle formed by a line in the y-axis direction and the vector 21-1 is denoted as “A1”. In FIG. 3, the angle A1 formed by the vector 21-1 connecting the camera 2-1 from the camera movement destination position to the actual object position and the straight line 57-1 is 0 degrees. That is, the vector 21-1, the straight line 57-1 and the y-axis are parallel to each other.
以下、y軸方向の線とベクトル21−2とが成す角度を「A2」と表記する。図3では、カメラ2−2のカメラ移動先位置から物体実位置までを結ぶベクトル21−2と直線57−2とが成す角度A2は、0度である。すなわち、ベクトル21−2と直線57−2とy軸とは、互いに平行である。 Hereinafter, an angle formed by a line in the y-axis direction and the vector 21-2 is denoted as “A2”. In FIG. 3, the angle A2 formed by the vector 21-2 connecting the camera 2-2 from the camera movement destination position to the actual object position and the straight line 57-2 is 0 degrees. That is, the vector 21-2, the straight line 57-2, and the y axis are parallel to each other.
以下、y軸方向の線とベクトル21−3とが成す角度を「A3」と表記する。図3では、カメラ2−3のカメラ移動先位置から物体実位置までを結ぶベクトル21−3と直線57−3とが成す角度A3は、約14度である。直線57−3とy軸とは、互いに平行である。図3では、物体実位置から物体仮位置60までを結ぶベクトル61と直線52とが成す角度は、A3である。すなわち、ベクトル61とy軸とが成す角度は、A3である。したがって、カメラ2−3は、カメラ2−3の移動中でも、物体6の見かけ上の大きさの変化率が再現された物体画像を含む画像を画像処理装置3aに出力する。
Hereinafter, the angle formed by the line in the y-axis direction and the vector 21-3 is denoted as “A3”. In FIG. 3, the angle A3 formed by the vector 21-3 connecting the camera 2-3 from the camera destination position to the actual object position and the straight line 57-3 is about 14 degrees. The straight line 57-3 and the y-axis are parallel to each other. In FIG. 3, the angle formed by the
次に、図1に戻り、画像処理装置3aの構成の例を説明する。
画像処理装置3aは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、移動部35と、切出部36と、出力部37とを備える。画像取得部30と操作部31と変数決定部32と選択部34と移動部35と切出部36と出力部37とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現されてもよいし、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
Next, returning to FIG. 1, an example of the configuration of the
The
画像取得部30は、背景画像と物体画像とを含む画像を、選択部34によって選択されたカメラ2のそれぞれから取得する。画像取得部30は、背景画像と物体画像とを含む画像と、カメラ2の識別情報とを、記憶部33に記録する。操作部31は、操作キー等を有する操作デバイスである。例えば、操作部31は、キーボード、マウス、タッチパネルである。操作部31は、操作部31に対する操作を受け付けることによって、実空間におけるカメラ2の配置情報を取得する。操作部31は、操作部31に対する操作を受け付けることによって、物体実位置及び物体仮位置の配置情報を、物体6の配置情報として取得する。物体実位置及び物体仮位置の配置情報は、例えば、物体6の座標及び向きを用いて表される。操作部31は、操作部31に対する操作を受け付けることによって、観察者実位置及び観察者仮位置の配置情報を、観察者5の配置情報として取得する。観察者実位置及び観察者仮位置の配置情報は、例えば、観察者5の座標及び視線方向を用いて表される。操作部31は、カメラ画像から切り出される領域の位置を表す情報(以下「切り出し位置情報」という。)と、カメラ画像から切り出された領域が表示画像に貼り付けられる位置を表す情報(以下「貼り付け位置情報」という。)とを取得する。切り出し位置情報は、カメラ画像から切り出される領域の位置を表す情報である。切り出し位置情報は、例えば、物体光学像における左上座標、幅及び高さの情報で表されてもよい。左上座標は、物体光学像における切り出される領域の左上の座標を表す。幅は、物体光学像における切り出される領域の幅を表す。高さは、物体光学像における切り出される領域の高さを表す。貼り付け位置情報は、カメラ画像から切り出された領域が表示画像に貼り付けられる位置を表す情報である。貼り付け位置情報は、例えば、表示画像における左上座標、幅及び高さの情報で表されてもよい。また、例えば、貼り付け位置情報は、表示画像の座標と対応付けてあらかじめ定義されている領域である、「中央」、「右」、「左」といった情報であってもよい。
The
変数決定部32は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報と、カメラ2のそれぞれの配置情報とを、操作部31から取得する。変数決定部32は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報と、カメラ2のそれぞれの配置情報とに基づいて、カメラ2のそれぞれの配置に関する変数をカメラ2ごとに決定する。カメラ2の配置に関する変数は、例えば、予め定められた方向の線とカメラ移動元位置からカメラ移動先位置までを結ぶ線とが成す角度(以下「カメラ移動先位置角度」という。)と、観察者仮位置50からカメラ移動先位置までの距離(以下「カメラ移動先位置距離」という。)と、距離差とである。予め定められた方向とは、例えば、y軸方向である。変数決定部32は、カメラ2の配置情報と三角関数とに基づいて、カメラ2の配置に関する変数をカメラ2ごとに決定してもよい。
The
図4は、カメラ2の配置に関する変数の例を示す図である。変数決定部32は、カメラ2の配置に関する変数情報を、カメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、カメラ移動先位置角度を、カメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、カメラ移動先位置距離をカメラ2ごとに記憶部33に記録する。例えば、変数決定部32は、距離差をカメラ2ごとに記憶部33に記録する。図4では、カメラ2−1のカメラ移動先位置距離L150は、一例として3mである。カメラ2−2のカメラ移動先位置距離L250は、一例として1mである。カメラ2−3のカメラ移動先位置距離L350は、一例として4mである。
FIG. 4 is a diagram illustrating an example of variables related to the arrangement of the
図1に戻り、画像処理装置3aの構成の例の説明を続ける。記憶部33は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記録媒体(非一時的な記録媒体)を有する記憶装置である。記憶部33は、背景画像と物体画像とを含む画像と、カメラ2のそれぞれの配置に関する変数情報とを記憶する。記憶部33は、カメラ2のそれぞれの配置情報(座標、光軸方向)を記憶してもよい。記憶部33は、物体実位置及び物体仮位置の配置情報と、観察者実位置及び観察者仮位置の配置情報とを記憶してもよい。
Returning to FIG. 1, the description of the configuration example of the
選択部34は、選択されるカメラ2を決定する決定装置として機能する。選択部34は、カメラ2の配置に関する変数情報を、記憶部33から取得する。選択部34は、カメラ移動先位置角度に基づいて、カメラ2−nを選択する。選択部34は、カメラ移動先位置角度が所定角度以下であるカメラ2−nを選択する。所定角度は、予め定められた角度であり、例えば、30度である。図3に示すカメラ2の配置の例では、選択部34は、物体実位置から物体仮位置60までを結ぶベクトル61の方向とカメラ移動元位置からカメラ移動先位置までを結ぶベクトル21−3の方向とが平行に近いカメラ2を優先して、カメラ2−3を選択する。図3に示すカメラ2の配置の例では、ベクトル61とy軸とが成す角度がA3であるので、選択部34は、カメラ移動先位置角度がA3であるカメラ2−3を選択する。
The
ベクトル61の方向とベクトル21の方向とが平行に近いカメラ2が複数ある場合には、選択部34は、カメラ移動先位置距離又は距離差に基づいてカメラ2−nを選択してもよい。距離差は、予め定められた距離の差であり、例えば、観察者仮位置から物体実位置までの距離の10%に相当する距離である。選択部34は、観察者仮位置50にカメラ移動先位置が近いカメラ2を優先して選択してもよい。例えば、選択部34は、カメラ移動先位置距離がより短いカメラ2を優先して選択してもよい。例えば、選択部34は、距離差がより短いカメラ2を優先して選択してもよい。
When there are a plurality of
移動部35は、選択されたカメラ2を移動させることによって、選択されたカメラ2の位置及び向きを決定する決定装置として機能する。移動部35は、予め定められたカメラ移動先位置にカメラ2を移動させる。移動部35は、カメラ移動元位置における光軸方向とカメラ移動先位置における光軸方向とが同じ方向となる向きに、カメラ2を配置してもよい。例えば、移動部35は、モータ等のアクチュエータを駆動することによって、カメラ2を移動及び配置する。移動部35は、位置センサの検出結果に基づいて、配置されたカメラ2の位置情報を検出してもよい。移動部35は、加速度センサや方位センサの検出結果に基づいて、カメラ2の向き(姿勢)を検出してもよい。
The moving
切出部36は、選択されたカメラ2が出力した背景画像及び物体画像を含む画像を、記憶部33から取得する。切出部36は、記憶部33から取得された画像から、切り出し位置情報に基づいて、物体画像を切り出す。切出部36は、表示画面における物体画像の表示位置を、貼り付け位置情報に基づいて決定する。例えば、貼り付け位置情報が「中央」を表している場合、切出部36は、表示画面における物体画像の表示位置を、表示装置4の画面の中央に決定する。
The
切出部36は、選択されたカメラ2の向きと観察者5の視線方向とに基づいて、表示画面における物体画像の表示位置を決定してもよい。例えば、切出部36は、選択されたカメラ2の配置情報と観察者5の配置情報と物体6の配置情報とに基づいて、物体仮位置の物体6を観察者実位置の観察者5から観察した場合における、表示画面上での物体光学像の位置及び範囲を算出する。切出部36は、表示画面上での物体光学像の位置及び範囲を、表示画面における物体画像の表示位置と決定してもよい。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する。
The
図5は、表示画像の第1例を示す図である。表示装置4の画面は、物体6から表示装置4の画面に届いた光を透過させる。表示装置4の画面は、物体6の物体光学像を含む表示画像40を表示する。物体実位置から観察者実位置までの距離L65が例えば12mである場合、観察者実位置の観察者5は、観察者実位置から12mだけ離れている物体6の物体光学像を、表示画像40の中央に見ることができる。
FIG. 5 is a diagram illustrating a first example of a display image. The screen of the display device 4 transmits light that reaches the screen of the display device 4 from the
図6は、カメラ画像の第1例を示す図であり、カメラ2−1が画像処理装置3aに出力したカメラ画像24である。カメラ画像24は、カメラ移動先位置のカメラ2−1から距離L61だけ離れている物体6の物体画像を、カメラ画像24の中央よりも右領域に含む。距離L61は、例えば、約8.2mである。カメラ画像24では、観察者5に正対する物体6の面は、カメラ画像24では右を向いている。カメラ画像24では、観察者5に正対する物体6の面は、ひし形に歪んでいる。
FIG. 6 is a diagram illustrating a first example of a camera image, which is a
図7は、カメラ画像の第2例を示す図であり、カメラ2−2が画像処理装置3aに出力したカメラ画像25である。カメラ画像25は、カメラ移動先位置のカメラ2−2から距離L62だけ離れている物体6の物体画像を、カメラ画像25の中央よりも左領域に含む。距離L62は、例えば、約8.2mである。カメラ画像25では、実空間において観察者5に正対する物体6の面は、カメラ画像25では左を向いている。カメラ画像25では、実空間において観察者5に正対する物体6の面は、ひし形に歪んでいる。
FIG. 7 is a diagram illustrating a second example of a camera image, which is a
図8は、カメラ画像の第3例を示す図であり、カメラ2−3が画像処理装置3aに出力したカメラ画像26である。図3に示されたベクトル51とベクトル21−3とが平行であるため、カメラ画像26では、物体6の物体画像の大きさは、観察者5が観察者実位置から観察者仮位置50まで移動しながら物体6を見ている場合における物体6の見かけ上の大きさの変化率と同じ変化率で変化する。カメラ画像26は、カメラ移動先位置のカメラ2−3から距離L63だけ離れている物体6の物体画像を、カメラ画像26の中央よりも左領域に含む。距離L63は、例えば、約9.4mである。カメラ画像26では、実空間において観察者5に正対する物体6の面は、カメラ画像26では左を向いている。カメラ画像26では、実空間において観察者5に正対する物体6の面は、ひし形に大きく歪んでいる。
FIG. 8 is a diagram illustrating a third example of a camera image, which is a
図9は、表示画像の第2例を示す図である。切出部36は、選択部34がカメラ2−3を選択した場合、選択されたカメラ2−3が出力した背景画像及び物体画像を含むカメラ画像26から、物体6の物体画像を含む領域110を切り出す。切出部36は、表示画面における物体画像の表示位置を、例えば、図3に示された直線52と直線53とが成す角度に応じて決定する。例えば、切出部36は、表示画面における物体画像の表示位置を、表示装置4の画面の中央の左側に決定する。出力部37は、切り出された物体画像を含む領域110と、表示位置情報「中央の左側」とを、表示装置4に出力する。表示装置4の画面は、画面の中央の物体光学像を隠すように、切り出された物体画像を含む領域110を表示する。これによって、表示装置4の画面は、物体6の物体光学像を表示する代わりに、切り出された物体画像を含む領域110を表示することができる。
FIG. 9 is a diagram illustrating a second example of the display image. When the
次に、画像処理装置3aの動作の例を説明する。
図10は、画像処理装置3aの動作の例を示すフローチャートである。操作部31は、カメラの配置情報を取得する(ステップS101)。変数決定部32は、カメラの配置情報に基づいて、カメラの配置に関する変数を決定する(ステップS102)。選択部34は、決定された変数に基づいて、カメラ2−nを選択する(ステップS103)。移動部35は、選択されたカメラ2を、カメラ移動先位置まで移動させる(ステップS104)。画像取得部30は、選択されたカメラ2から静止画像を取得する(ステップS105)。切出部36は、選択されたカメラ2から取得された静止画像から、物体画像を切り出す(ステップS106)。切出部36は、物体画像の表示位置を決定する(ステップS107)。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する(ステップS108)。画像処理装置3aは、図10のフローチャートに示された動作を、例えば、カメラの画像取得周期(フレーレート)で実行してもよい。
Next, an example of the operation of the
FIG. 10 is a flowchart illustrating an example of the operation of the
選択されたカメラ2から画像取得部30が動画像を取得する場合について、選択されたカメラ2から画像取得部30が静止画像を取得する場合との相違点を説明する。選択されたカメラ2から画像取得部30が動画像を取得する場合、ステップS105において、画像取得部30は、選択されたカメラ2から動画像を取得する。ステップS106において、切出部36は、選択されたカメラ2から取得された動画像から、各フレーム画像を取得する。ステップS106において、切出部36は、各フレーム画像から物体画像を切り出す。ステップS107において、切出部36は、各フレーム画像において共通する表示位置となるように、物体画像の表示位置を決定する。ステップS108において、出力部37は、フレーム画像の数の物体画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
The difference between the case where the
以上のように、第1実施形態の画像処理装置3aが備える決定装置は、複数の位置及び方向から物体を撮像する複数のカメラ2からカメラ2−nを選択する決定装置であって、選択部34と、移動部35とを備える。選択部34は、物体実位置から物体仮位置60までを結ぶベクトル61の方向とカメラ移動元位置からカメラ移動先位置までを結ぶベクトル21の方向とに基づいて、複数のカメラ2からカメラ2−nを選択する。
As described above, the determination device included in the
これによって、第1実施形態の画像処理装置3aは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。第1実施形態の画像処理装置3aは、実空間で静止している物体6の特定の画像を、表示画面に表示された画像の空間で、物体画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能となる。第1実施形態の画像処理装置3aは、観察者仮位置50とカメラ移動先位置とが十分に近い場合には、物体画像の大きさを補正せずにカメラ画像をそのまま表示しても、見かけ上の大きさの違和感がない物体画像を表示装置4の画面に表示できる。第1実施形態の画像処理装置3aは、実空間で物体6が仮に移動されたとした場合に観察される物体6の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体6の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能である。
As a result, the
(第2実施形態)
第2実施形態では、物体画像の向き及び大きさのうち少なくとも一方を画像処理装置が補正する点が、第1実施形態と相違する。第2実施形態では、第1実施形態との相違点についてのみ説明する。
(Second Embodiment)
The second embodiment is different from the first embodiment in that the image processing apparatus corrects at least one of the orientation and size of the object image. In the second embodiment, only differences from the first embodiment will be described.
図11は、画像処理システム1bの構成の例を示す図である。画像処理システム1bは、カメラ2−1〜2−Nと、画像処理装置3bと、表示装置4とを備える。画像処理装置3bは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3bと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3bは、複数のカメラ2からカメラ2−nを選択する。画像処理装置3bは、選択されたカメラ2を移動させる。画像処理装置3bは、選択されたカメラ2が出力した画像に画像処理を施す。画像処理装置3bは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、移動部35と、切出部36と、出力部37と、補正部38とを備える。
FIG. 11 is a diagram illustrating an example of the configuration of the
補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する場合、例えば、アフィン変換行列を用いたアフィン変換処理を、カメラ画像から切り出された物体画像及び領域に施す。アフィン変換行列は、回転、拡大又は縮小等の処理が施される領域を示す情報を含んでもよい。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。
The
補正部38は、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の向きと、表示画面における物体画像の見かけ上の向きとが一致するように、物体画像を回転する。例えば、補正部38は、カメラ移動先位置角度に基づいて、物体画像を回転する。すなわち、補正部38は、物体画像の歪みを補正する。
The
補正部38は、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の大きさと、表示画面における物体画像の見かけ上の大きさとが一致するように、物体画像を拡大又は縮小する。例えば、補正部38は、物体仮位置60から観察者実位置までの距離と物体実位置から観察者実位置までの距離との比に基づいて、物体画像を拡大又は縮小する。出力部37は、物体画像の向き及び大きさのうち少なくとも一方が補正された物体画像を、表示装置4に出力する。
The
図12は、表示画像の例を示す図である。表示装置4の画面は、表示位置情報に基づいて画面の中央の左側で物体光学像を隠すように、向き及び大きさのうち少なくとも一方が補正された物体画像を含む領域を表示する。図12では、実空間において観察者仮位置50の観察者5から見て左側に見える物体6の面の向きと、表示画像40において対応する面の向きとが、一致している。また、図12では、物体実位置の物体6を観察者仮位置から観察者5が見た場合における物体6の見かけ上の大きさと、表示画像40における物体画像の見かけ上の大きさとが、一致している。
FIG. 12 is a diagram illustrating an example of a display image. The screen of the display device 4 displays an area including an object image in which at least one of orientation and size is corrected so as to hide the object optical image on the left side of the center of the screen based on the display position information. In FIG. 12, the orientation of the surface of the
これによって、表示装置4の画面は、物体6の物体光学像を表示する代わりに、向き及び大きさのうち少なくとも一方が補正された物体画像を表示することができる。観察者5は、図12に示された表示画像40を見た場合、実空間では静止している物体6が物体仮位置60まで移動したという拡張現実感(AR)や複合現実感(MR)を得ることができる。
Thereby, the screen of the display device 4 can display an object image in which at least one of the orientation and the size is corrected instead of displaying the object optical image of the
次に、画像処理装置3bの動作の例を説明する。
図13は、画像処理装置3bの動作の例を示すフローチャートである。操作部31は、カメラの配置情報を取得する(ステップS201)。変数決定部32は、カメラの配置情報に基づいて、カメラの配置に関する変数を決定する(ステップS202)。選択部34は、決定された変数に基づいて、カメラ2−nを選択する(ステップS203)。移動部35は、選択されたカメラ2を、カメラ移動先位置まで移動させる(ステップS204)。画像取得部30は、選択されたカメラ2から画像を取得する(ステップS205)。切出部36は、選択されたカメラ2から取得された画像から、物体画像を切り出す(ステップS206)。補正部38は、物体画像の向き及び大きさの少なくとも一方を補正する(ステップS207)。切出部36は、物体画像の表示位置を決定する(ステップS208)。出力部37は、切り出された物体画像と表示位置情報とを、表示装置4に出力する(ステップS209)。画像処理装置3bは、図13のフローチャートに示された動作を、例えば、カメラの画像取得周期(フレームレート)で実行してもよい。
Next, an example of the operation of the
FIG. 13 is a flowchart illustrating an example of the operation of the
選択されたカメラ2から画像取得部30が動画像を取得する場合について、選択されたカメラ2から画像取得部30が静止画像を取得する場合との相違点を説明する。選択されたカメラ2から画像取得部30が動画像を取得する場合、ステップS205において、画像取得部30は、選択されたカメラ2から動画像を取得する。ステップS206において、切出部36は、選択されたカメラ2から取得された動画像から、各フレーム画像を取得する。ステップS206において、切出部36は、各フレーム画像から物体画像を切り出す。ステップS207において、補正部38は、フレーム画像の数の物体画像の向き及び大きさの少なくとも一方を補正する。ステップS208において、切出部36は、各フレーム画像において共通する表示位置となるように、物体画像の表示位置を決定する。ステップS209において、出力部37は、フレーム画像の数の物体画像と、各フレーム画像において共通する表示位置情報とを、表示装置4に出力する。
The difference between the case where the
以上のように、第2実施形態の画像処理装置3bは、第1実施形態の決定装置と、切出部36と、補正部38と、出力部37とを備える。切出部36は、物体画像を含む画像から、物体画像を切り出す。補正部38は、切り出された物体画像の向き及び大きさのうち少なくとも一方を補正する。出力部37は、物体画像の向き及び大きさのうち少なくとも一方が補正された物体画像を、表示装置4に出力する。これによって、第2実施形態の画像処理装置3bは、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさと、表示画面に表示された画像の空間で仮想的に移動された物体の画像の見かけ上の大きさとが異ならないようにすることが可能となる。例えば、第2実施形態の画像処理装置3bは、実空間で静止している物体6の特定の適切な大きさの画像を、表示画面に表示された画像の空間で、物体画像の大きさの変化率を可能な限り忠実に再現して移動させることが可能となる。
As described above, the
(第3実施形態)
第3実施形態では、観察者5と物体6とが異なる実空間に存在する点が、第1実施形態と相違する。第3実施形態では、第1実施形態との相違点についてのみ説明する。
(Third embodiment)
The third embodiment is different from the first embodiment in that the
以下、観察者5が存在する実空間を「第1空間」という。以下、物体6が存在する実空間を「第2空間」という。第1空間と第2空間とは、互いに隣接している異なる実空間でもよいし、互いに離れている異なる実空間でもよい。
Hereinafter, the real space in which the
第1空間は、例えば、実空間における野球場の小型模型(ミニチュア)である。野球場の小型模型は、例えば、実空間におけるテーブル上に置かれる。第2空間は、第1空間が野球場の小型模型である場合、例えば、実空間における原寸大の野球場である。原寸大の野球場では、野球の試合が行われていてもよい。第1空間が野球場の小型模型であり、第2空間が原寸大の野球場である場合、仮想空間は、例えば、第1空間及び第2空間の互いの座標系が一致するように第1空間及び第2空間の少なくとも一方の距離が縮尺補正されており、第2空間に存在する物体の物体画像が第1空間に重畳表示されている画面上の空間である。第2空間における原寸大の野球場に存在する物体6の物体画像は、第1空間における距離と第2空間における距離とに基づいて縮尺補正されることによって、野球場の小型模型において物体6が仮想的に移動するように観察される画像として表示装置4の画面に表示される。
The first space is, for example, a small model (miniature) of a baseball field in real space. A small model of a baseball field is placed on a table in real space, for example. When the first space is a small model of a baseball field, for example, the second space is a full-scale baseball field in real space. A baseball game may be held at a full-scale baseball field. When the first space is a small model of a baseball field and the second space is a full-scale baseball field, the virtual space is, for example, the first space and the second space such that the coordinate systems of the first space and the second space coincide. This is a space on the screen in which at least one distance between the space and the second space is scale-corrected, and an object image of an object existing in the second space is superimposed and displayed in the first space. The object image of the
第1空間は、例えば、実空間における原寸大の第1の野球場である。第2空間は、第1空間が原寸大の第1の野球場である場合、例えば、実空間における原寸大の第2の野球場である。画像取得部30は、原寸大の第2の野球場において過去に行われた野球の試合の動画像を取得してもよい。第1空間が原寸大の第1の野球場であり、第2空間が原寸大の野球場である場合、仮想空間は、例えば、第1空間及び第2空間の互いの座標系が一致するように第1空間及び第2空間が原寸大のまま、第2空間に存在する物体の物体画像が第1空間に重畳表示されている画面上の空間である。第2空間における原寸大の野球場に存在する物体6の物体画像は、第1空間における原寸大の野球場において物体6が仮想的に移動するように観察される画像として表示装置4の画面に表示される。
The first space is, for example, a full-scale first baseball field in real space. In the case where the first space is a full-size first baseball field, the second space is, for example, a full-size second baseball field in real space. The
図14は、画像処理システム1cの構成の例を示す図である。画像処理システム1cは、カメラ2−1〜2−Nと、画像処理装置3cと、表示装置4とを備える。画像処理装置3cは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3cと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3cは、カメラ2−nが出力した画像に画像処理を施す。画像処理装置3cは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34と、切出部36と、出力部37と、座標処理部41とを備える。
FIG. 14 is a diagram illustrating an example of the configuration of the
画像処理装置3cは、第1空間を撮像することが可能なカメラを更に備えてもよい。記憶部33は、第1空間又は第2空間における所定の物体の配置を表す情報を記憶してもよい。例えば、記憶部33は、第1空間又は第2空間における野球場の設計図を記憶してもよい。
The
図15は、第1空間101での観察者5の配置の例を示す俯瞰図である。以下、第1空間及び第2空間において共通して存在する種類の物体を「共通物体」という。例えば、第1空間が野球場の小型模型であり、第2空間が原寸大の野球場である場合、共通物体は、ホームベース等のベースである。
FIG. 15 is an overhead view showing an example of the arrangement of the
図15では、第1空間101は、野球場の小型模型である。第1共通物体7−1は、ホームベースの小型模型である。第2共通物体8−1は、1塁ベースの小型模型である。第3共通物体9−1は、2塁ベースの小型模型である。第4共通物体10−1は、3塁ベースの小型模型である。第1共通物体7−1から第4共通物体10−1までの各共通物体は、第1空間101において移動しなくてもよい。共通物体は、物体の一部分でもよい。共通物体の個数は、4個でなくてもよい。例えば、カメラ2の光軸方向が定められている場合、共通物体の個数は、3個以下でもよい。観察者5は、表示装置4の画面を透過した光によって、第1空間101を物体光学像として観察する。
In FIG. 15, the
図16は、表示画像42の例を示す図である。表示画像42は、観察者5が第1空間101を観察している場合における、表示装置4の画面に表示された画像である。図16では、第1空間は、一例として、図15に示す第1空間101のような野球場の小型模型である。表示装置4は、微調整キー画像15と、決定キー画像16と、メニューキー画像17とを、操作部31の操作キーの画像として画面に表示する。
FIG. 16 is a diagram illustrating an example of the
観察者5は、操作部31を操作することによって、第1空間101における物体仮位置60−1を決定する。第1空間101における物体仮位置60−1は、観察者5以外によって決定されてもよい。例えば、第1空間101における物体仮位置60−1は、外部装置によって決定されてもよい。
The
観察者5は、操作部31を操作することによって、表示装置4の画面上で第1空間の原点(以下「第1原点」という。)の位置を指定する。例えば、観察者5は、第1空間101に存在する物体と第2空間102に存在する物体とで各空間における配置に共通点がある共通物体の位置を指定する。共通物体の配置は、例えば、野球場におけるホームベースと1塁ベースと2塁ベースと3塁ベースとの相対的な配置である。観察者5は、表示画像42において、ホームベース、1塁ベース、2塁ベース、3塁ベースの順番に共通物体の画像を指でタッチして、各共通物体の位置を指定する。第1空間の第1原点は、例えば、最初にタッチされた第1共通物体7−1の位置である。観察者5は、表示画像42において物体仮位置60−1の位置を指でタッチして、物体仮位置60−1の位置を指定してもよい。
The
表示装置4は、観察者5がメニューキー画像17を押下操作した場合、表示画像42に矢印画像11〜14を表示する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像11を移動させて、表示画像42における第1共通物体7−1の正確な指定位置を微調整(キャリブレーション)する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像12を移動させて、表示画像42における第2共通物体8−1の正確な指定位置を微調整する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像13を移動させて、表示画像42における第3共通物体9−1の正確な指定位置を微調整する。観察者5は、微調整キー画像15を押下操作することによって表示画像42において矢印画像14−1を矢印画像14−2の位置まで移動させて、表示画像42における第4共通物体10−1の正確な指定位置を微調整する。観察者5は、表示画像42における各共通物体の正確な指定位置を決定する場合、決定キー画像16を押下操作する。
The display device 4 displays the
操作部31は、決定キー画像16の押下操作を受け付けた場合、表示画像42における各共通物体の位置情報(指定位置情報)を、座標処理部41に出力する。操作部31は、決定キー画像16の押下操作を受け付けた場合、表示画像42における物体仮位置60−1の位置情報を、座標処理部41に出力する。
When the
図17は、第2空間102での物体6及びカメラ2の配置の例を示す俯瞰図である。図17では、第2空間102は、原寸大の野球場である。第1共通物体7−2は、原寸大のホームベースである。第2共通物体8−2は、原寸大の1塁ベースである。第3共通物体9−2は、原寸大の2塁ベースである。第4共通物体10−2は、原寸大の3塁ベースである。第1共通物体7−2から第4共通物体10−2までの各共通物体は、第2空間102において移動しない。共通物体は、物体の一部分でもよい。各カメラ2は、第2空間102を撮像する。
FIG. 17 is an overhead view showing an example of the arrangement of the
図14に戻り、画像処理装置3cの構成の例の説明を続ける。座標処理部41は、表示画像42における各共通物体の位置情報を、操作部31から取得する。例えば、座標処理部41は、表示画像42における第1共通物体7−1の位置情報を、第1原点の位置情報として取得する。座標処理部41は、表示画像42における物体仮位置60−1の位置情報を、操作部31から取得する。
Returning to FIG. 14, the description of the configuration example of the
座標処理部41は、表示画像42における各共通物体の位置情報に基づいて、第1空間101における第1共通物体7−1(第1原点)の位置を検出する。座標処理部41は、表示画像42における各共通物体の位置情報に基づいて、第1空間101における共通物体同士の距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第2共通物体8−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第3共通物体9−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第1共通物体7−1から第4共通物体10−1までの距離を更に検出してもよい。
The coordinate
座標処理部41は、観察者5が決定キー画像16を押下操作した場合、第1空間101の第1原点と、第1空間101の向きと、各共通物体同士の距離と、観察者実位置を基準とした各共通物体の位置の俯角とを検出する。第1空間101が野球場の小型模型である場合、座標処理部41は、例えば、第1空間101の物体光学像に対する空間認識処理の結果に基づいて、第1空間101における第1原点の位置と、第1空間101の向きと、第1空間101における各共通物体同士の距離と、第1空間101における観察者実位置を基準とした各共通物体の位置の俯角とを検出する。
When the
座標処理部41は、例えば、ニューラルネットワークの学習結果を用いて空間認識処理を実行してもよい。座標処理部41は、例えば、ホームベースの教師画像等を用いて空間認識を学習してもよい。
For example, the coordinate processing
第1空間101が原寸大の野球場である場合、記憶部33に記憶されている野球場の設計図は、第1空間101の各所に予め配置されたポジショントラッキング装置の位置を計測した結果を表す情報を含んでもよい。第1空間101が原寸大の野球場である場合、座標処理部41は、例えば、ポジショントラッキング装置の位置を計測した結果に基づいて、第1空間101における第1原点の位置と、第1空間101の向きと、第1空間101における各共通物体同士の距離と、第1空間101における観察者実位置を基準とした各共通物体の位置の俯角とを検出する。
When the
座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離を検出する。例えば、座標処理部41は、第1空間101における第2共通物体8−1から物体仮位置60−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第3共通物体9−1から物体仮位置60−1までの距離を更に検出してもよい。例えば、座標処理部41は、第1空間101における第4共通物体10−1から物体仮位置60−1までの距離を更に検出してもよい。
The coordinate
座標処理部41は、第2空間102における各共通物体の位置情報を、記憶部33から取得する。例えば、座標処理部41は、原寸大の野球場等である第2空間102の設計図として、第2空間102における各共通物体の位置情報を取得する。
The coordinate
座標処理部41は、第2空間102における各共通物体の位置情報に基づいて、第2空間102の座標系の原点(以下「第2原点」という。)の位置を検出する。座標処理部41は、第2空間102における各共通物体の位置情報に基づいて、第2空間102における共通物体同士の距離を検出する。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第2共通物体8−2までの距離を検出する。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第3共通物体9−2までの距離を更に検出してもよい。例えば、座標処理部41は、第2空間102における第1共通物体7−2から第4共通物体10−2までの距離を更に検出してもよい。
The coordinate
座標処理部41は、観察者5が決定キー画像16を押下操作した場合、第2空間102の第2原点と、第2空間102の向きと、各共通物体同士の距離と、所定位置を基準とした各共通物体の位置の俯角とを検出する。第2空間102が原寸大の野球場である場合、記憶部33に記憶されている野球場の設計図は、第2空間102の各所に予め配置されたポジショントラッキング装置の位置を計測した結果を表す情報を含んでもよい。第2空間102が原寸大の野球場である場合、座標処理部41は、例えば、ポジショントラッキング装置の位置を計測した結果に基づいて、第2空間102における第2原点の位置と、第2空間102の向きと、第2空間102における各共通物体同士の距離と、第2空間102における所定位置を基準とした各共通物体の位置の俯角とを検出する。
When the
座標処理部41は、第2原点を画面上で第1原点に一致させる。座標処理部41は、第2空間の座標系の向きを第1空間の座標系の向きに一致させる。これらによって、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが同じである場合、第1空間101の座標系と第2空間102の座標系とを互いに変換することができる。
The coordinate
更に、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが異なる場合、第2空間102の座標系における距離と第1空間101の座標系における距離との比(距離比)を、共通物体の組ごとに検出する。すなわち、座標処理部41は、第2空間102の座標系に対する第1空間101の座標系の縮尺を、共通物体の組ごとに検出する。例えば、座標処理部41は、実空間の水平のx軸方向について、第1共通物体7−1から第2共通物体8−1までの距離と第1共通物体7−2から第2共通物体8−2までの距離との比を検出する。例えば、座標処理部41は、実空間の水平のy軸方向について、第2共通物体8−1から第3共通物体9−1までの距離と第2共通物体8−2から第3共通物体9−2までの距離との比を検出してもよい。座標処理部41は、各実空間のz軸方向(鉛直の上方向)について、第1空間101のxy平面から第1空間101の所定の客席までの距離と第2空間102のxy平面から第2空間102の所定の客席までの距離との比を検出してもよい。座標処理部41は、第1空間101の座標系に対する第2空間102の座標系の縮尺を検出してもよい。距離比(縮尺)は、各実空間のxyzの3軸で共通でもよいし、各実空間のxyzの軸ごとに異なっていてもよい。これらによって、座標処理部41は、第1空間101の座標系の縮尺と第2空間102の座標系の縮尺とが異なる場合でも、第1空間101の座標系と第2空間102の座標系とを互いに変換することができる。
Furthermore, when the scale of the coordinate system of the
座標処理部41は、第1空間101の座標系と第2空間102の座標系とを対応付けた結果に基づいて、第2空間102における観察者仮位置50を決定する。例えば、座標処理部41は、第1空間101における第1共通物体7−1から物体仮位置60−1までの距離と距離比とに基づいて、第2空間102における物体仮位置60−2を決定する。座標処理部41は、第2空間における物体仮位置60−2に基づいて、第2空間102における観察者仮位置50を決定する。
The coordinate
座標処理部41は、第2空間102における観察者仮位置50を、変数決定部32に出力する。変数決定部32は、第2空間における観察者仮位置50に基づいて、図4に示すカメラ2の配置に関する変数を更新する。
The coordinate
観察者5は、第2空間102における観察者仮位置50の近くに移動されていたカメラ2−2が撮像した物体6の物体画像を表示装置4の画面の表示画像によって観察するので、物体6が移動したという拡張現実感や複合現実感を得ることができる。観察者5が拡張現実感や複合現実感を得ることができるのは、物体実位置から物体仮位置60−2まで物体6が移動した場合に観察者5が見る画像と、物体実位置に配置されている物体6を観察者5が観察者仮位置50から観察した場合に観察者5が見る画像とが、等価だからである。
The
図18は、画像処理装置3cの動作の例を示すフローチャートである。座標処理部41は、表示画像42における各共通物体の位置情報を取得する(ステップS301)。座標処理部41は、表示画像42における物体仮位置の位置情報を取得する(ステップS302)。座標処理部41は、第1空間101における共通物体同士の距離を検出する(ステップS303)。座標処理部41は、第1空間101における各共通物体から物体仮位置60−1までの距離を検出する(ステップS304)。
FIG. 18 is a flowchart illustrating an example of the operation of the
座標処理部41は、第2空間102における各共通物体の位置情報を取得する(ステップS305)。座標処理部41は、第2空間102における共通物体同士の距離を検出する(ステップS306)。座標処理部41は、第1空間101における共通物体同士の距離と第2空間102における共通物体同士の距離との比(距離比)を、共通物体の組ごとに決定する(ステップS307)。座標処理部41は、第1空間101における第1共通物体7−1(第1原点)から物体仮位置60−1までの距離と距離比とに基づいて、第2空間102における物体仮位置60−2を決定する(ステップS308)。座標処理部41は、第2空間102における物体仮位置60−2に基づいて、第2空間102における観察者仮位置50を決定する(ステップS309)。
The coordinate
なお、第1空間は、野球場の小型模型でなくてもよく、例えば、サッカー場の小型模型でもよい。第1空間は、原寸大の野球場でなくてもよく、例えば、原寸大のサッカー場でもよい。同様に、第2空間は、原寸大のサッカー場でもよい。第1空間がサッカー場の小型模型である場合、図16に示された表示画像42は、ゴールポストが左右に配置されたサッカー場の小型模型を鉛直下方向に見下ろした場合の俯瞰図でもよい。第1空間が原寸大のサッカー場である場合、図16に示された表示画像42は、ゴールポストが左右に配置された原寸大のサッカー場を鉛直下方向に見下ろした場合の俯瞰図でもよい。
Note that the first space may not be a small model of a baseball field, for example, a small model of a soccer field. The first space may not be a full size baseball field, for example, a full size soccer field. Similarly, the second space may be a full-scale soccer field. When the first space is a small model of a soccer field, the
第1空間が原寸大のサッカー場である場合、原寸大のサッカー場を鉛直下方向に見下ろした場合の俯瞰図において、第1共通物体7−1は、ゴールラインの左下隅の部分でもよい。第2共通物体8−1は、ゴールラインの右下隅の部分でもよい。第3共通物体9−1は、ゴールラインの左上隅の部分でもよい。第4共通物体10−1は、ゴールポストにおいて最も位置が高い枠の一部分でもよい。 When the first space is a full size soccer field, the first common object 7-1 may be the lower left corner portion of the goal line in the overhead view when the full size soccer field is looked down vertically. The second common object 8-1 may be a lower right corner portion of the goal line. The third common object 9-1 may be the upper left corner of the goal line. The fourth common object 10-1 may be a part of the frame having the highest position on the goal post.
座標処理部41は、実空間の水平のx軸方向について、第1共通物体7−1から第2共通物体8−1までの距離と第1共通物体7−2から第2共通物体8−2までの距離との比を決定してもよい。座標処理部41は、実空間の水平のy軸方向について、第2共通物体8−1から第3共通物体9−1までの距離と第2共通物体8−2から第3共通物体9−2までの距離との比を検出してもよい。座標処理部41は、各実空間のz軸方向(鉛直の上方向)について、xy平面から第4共通物体10−1までの距離とxy平面から第4共通物体10−2までの距離との比を検出してもよい。
The coordinate
以上のように、第3実施形態の画像処理装置3cは、座標処理部41を備える。座標処理部41は、第1空間101の座標系と第2空間102の座標系とを対応付けた結果に基づいて、第2空間102における観察者仮位置50を決定する。
As described above, the
これによって、第3実施形態の画像処理装置3cは、観察者5と物体6とが異なる実空間に存在する場合でも、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能となる。
As a result, the
なお、第1実施形態から第2実施形態までにおいて、画像処理装置3a〜3bは、座標処理部41を更に備えてもよい。
In the first embodiment to the second embodiment, the
(第4実施形態)
第4実施形態では、表示画面に表示されることになる物体画像の大きさを定める倍率に応じて画像処理装置がカメラを選択又は移動する点が、第1実施形態と相違する。第4実施形態では、第1実施形態との相違点についてのみ説明する。
(Fourth embodiment)
The fourth embodiment is different from the first embodiment in that the image processing apparatus selects or moves the camera according to a magnification that determines the size of the object image to be displayed on the display screen. In the fourth embodiment, only differences from the first embodiment will be described.
図19は、画像処理システム1dの構成の例を示す図である。画像処理システム1dは、カメラ2−1〜2−Nと、画像処理装置3dと、表示装置4とを備える。画像処理装置3dは、パーソナルコンピュータ装置、サーバ装置、スマートフォン端末、タブレット端末等の情報処理装置である。画像処理装置3dと表示装置4とは、別体でもよいし一体でもよい。画像処理装置3dは、カメラ2−nが出力した画像に画像処理を施す。画像処理装置3dは、画像取得部30と、操作部31と、変数決定部32と、記憶部33と、選択部34dと、切出部36と、出力部37とを備える。画像処理装置3dは、配置部39を更に備えてもよい。
FIG. 19 is a diagram illustrating an example of the configuration of the image processing system 1d. The image processing system 1d includes cameras 2-1 to 2-N, an
物体6の所定方向の長さW0と、表示装置4の画面における物体画像の所定方向の長さWiとの関係は、式(1)のように表される。所定方向とは、例えば、x軸方向、y軸方向又はz軸方向である。
The relationship between the length W 0 in the predetermined direction of the
Wi=f/d×W0 …(1) W i = f / d × W 0 (1)
ここで、fは、カメラ2が備えるレンズの焦点距離を表す。焦点距離fは、一定である。dは、カメラ2から物体6(被写体)までの距離を表す。W0は、物体6の所定方向の長さを表す。Wiは、表示装置4の画面における物体画像の所定方向の長さである。物体画像の面積は、画面の面積に対する比で表現されてもよいし、画素数で表現されてもよい。なお、式(1)の「W0」には、(f/d)以外の他の係数が更に乗算されてもよい。
Here, f represents the focal length of the lens provided in the
選択部34dは、カメラ2−1〜2−Nのうちから選択されているカメラ2から物体6までの距離dを検出する。選択部34dは、画面における物体画像の所定方向の長さWiをX倍にすることを表す命令信号を、操作部31から取得する。選択部34dは、長さWiをX倍にすることを表す命令信号を取得した場合、物体6までの距離が(d/X)であるカメラ2を選択する。Xは、倍率を表す。
The selection unit 34d detects the distance d from the
選択部34dは、例えば、観察者実位置から物体仮位置60までの距離が観察者実位置から物体実位置までの距離の(1/X)倍である場合、画面における物体画像の所定方向の長さWiをX倍にすると決定してもよい。選択部34dは、画面における物体画像の所定方向の長さWiをX倍にすると決定した場合、物体6までの距離が(d/X)であるカメラ2を選択する。選択部34dは、優先情報に基づいて、物体6までの距離が(d/X)に近いカメラ2を選択してもよい。例えば、表示画像における物体画像の向きを物体画像の大きさよりも優先することを優先情報が表している場合、選択部34dは、物体6までの距離が(d/X)に近いカメラ2を選択してもよい。
For example, when the distance from the observer actual position to the object
選択部34dは、画像処理装置3dが配置部39を備えている場合、物体6までの距離が(d/X)となる位置にカメラ2を配置してもよい。選択部34dは、物体6を画角に含む向きでカメラ2を配置する。
When the
図22は、画像処理装置3dの動作の例を示すフローチャートである。選択部34dは、カメラ2−1〜2−Nのうちから選択されているカメラ2から物体6までの距離dを検出する(ステップS401)。選択部34dは、画面における物体画像の所定方向の長さWiをX倍にすることを表す命令信号を、操作部31から取得する(ステップS402)。選択部34dは、長さWiをX倍にすることを表す命令信号を取得した場合、物体6までの距離が(d/X)であるカメラ2を選択する(ステップS403)。
FIG. 22 is a flowchart illustrating an example of the operation of the
以上のように、第4実施形態の画像処理装置3dは、選択部34dを備える。選択部34dは、選択部34dが倍率に基づいてカメラ2を選択する場合、カメラ2から物体6までの距離が倍率(X)の逆数に応じて定まる距離(d/X)の位置にあるカメラ2を選択する。
As described above, the
これによって、第4実施形態の画像処理装置3dは、表示画面に表示されることになる物体画像の大きさを定める倍率に応じて画像処理装置がカメラを選択又は移動する場合でも、実空間で物体が仮に移動されたとした場合に観察される物体の画像の見かけ上の大きさ又は向きと、表示画面に表示された画像の空間で仮想的に移動された物体の物体画像の見かけ上の大きさ又は向きとが異ならないようにすることが可能となる。
As a result, the
なお、第1実施形態において、画像処理装置3aの選択部34は、選択部34dと同様の処理を更に実行してもよい。第2実施形態において、画像処理装置3bの選択部34は、選択部34dと同様の処理を更に実行してもよい。第3実施形態において、画像処理装置3cの選択部34は、選択部34dと同様の処理を更に実行してもよい。
In the first embodiment, the
上述した実施形態における画像処理システム、決定装置及び画像処理装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 You may make it implement | achieve at least one part of the image processing system in the embodiment mentioned above, the determination apparatus, and the image processing apparatus with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
本発明は、拡張現実感(AR)又は複合現実感(MR)を観察者に与える画像を出力するカメラの選択、位置及び向きを決定する決定装置に適用可能である。 The present invention is applicable to a determination apparatus that determines the selection, position, and orientation of a camera that outputs an image that gives an observer an augmented reality (AR) or mixed reality (MR).
1a−1d…画像処理システム、2…カメラ、3a−3d…画像処理装置、4…表示装置、5…観察者、6…物体、7…第1共通物体、8…第2共通物体、9…第3共通物体、10…第4共通物体、11…矢印画像、12…矢印画像、13…矢印画像、14…矢印画像、15…微調整キー画像、16…決定キー画像、17…メニューキー画像、20…光軸、21…ベクトル、22…直線、23…光軸、24…カメラ画像、25…カメラ画像、26…カメラ画像、30…画像取得部、31…操作部、32…変数決定部、33…記憶部、34,34d…選択部、35…移動部、36…切出部、37…出力部、38…補正部、40…表示画像、41…座標処理部、42…表示画像、50…観察者仮位置、51…ベクトル、52…直線、53…直線、54…視野境界、55…直線、56…直線、57…直線、60…物体仮位置、61…ベクトル、100…部屋、101…第1空間、102…第2空間、110…領域
DESCRIPTION OF
Claims (10)
前記物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択する選択部
を備える決定装置。 A plurality of cameras whose positions and orientations are determined so as to image an object placed in the real space are arranged in the real space and observed as if they were moved in the space of the image displayed on the screen of the display device A determination device that selects the camera that outputs an image including an object image that is a still image or a moving image of an object from a plurality of the cameras,
The direction of a line connecting from the actual object position, which is the actual position of the object, to the temporary object position, which is the temporary position of the object, and the camera movement source position, which is the movement source position of the camera that captures the object, And a selection unit that selects the camera from the plurality of cameras based on at least one of a direction of a line connecting to the camera destination position, which is a destination position of the camera, and a predetermined magnification .
を更に備える、請求項1に記載の決定装置。 As a result of associating the coordinate system of the first space, which is the real space where the observer who observes the object image displayed on the screen exists, with the coordinate system of the second space, which is the real space where the object exists. The determination apparatus according to claim 1, further comprising: a coordinate processing unit that determines an observer temporary position that is a predetermined temporary position of the observer in the second space.
選択された前記カメラを移動させる移動部と、
移動された前記カメラから、前記物体画像を含む画像を取得する画像取得部と、
前記物体画像を含む画像から、前記物体画像を切り出す切出部と、
切り出された前記物体画像を表示装置に出力する出力部と
を備える画像処理装置。 A determination device according to any one of claims 1 to 6,
A moving unit for moving the selected camera;
An image acquisition unit for acquiring an image including the object image from the moved camera;
A cutout unit that cuts out the object image from the image including the object image;
An image processing apparatus comprising: an output unit that outputs the cut-out object image to a display device.
を更に備え、
前記出力部は、前記物体画像の向き及び大きさのうち少なくとも一方が補正された前記物体画像を前記表示装置に出力する、請求項7に記載の画像処理装置。 A correction unit that corrects at least one of the orientation and size of the clipped object image;
The image processing apparatus according to claim 7, wherein the output unit outputs the object image in which at least one of a direction and a size of the object image is corrected to the display device.
物体の実際の位置である物体実位置から前記物体の仮の位置である物体仮位置までを結ぶ線の方向と前記物体を撮像するカメラの移動元の位置であるカメラ移動元位置から前記カメラの移動先の位置であるカメラ移動先位置までを結ぶ線の方向と、予め定められた倍率とのうち少なくとも一つに基づいて、複数の前記カメラから前記カメラを選択するステップ
を含む決定方法。 A plurality of cameras whose positions and orientations are determined so as to image an object placed in the real space are arranged in the real space and observed as if they were moved in the space of the image displayed on the screen of the display device A determination method executed by a determination apparatus that selects the camera that outputs an image including an object image that is a still image or a moving image of an object from a plurality of the cameras,
The direction of the line connecting the actual position of the object, which is the actual position of the object, to the temporary position of the object, which is the temporary position of the object, and the camera movement source position, which is the position of the movement source of the camera that captures the object, A determination method including a step of selecting the camera from a plurality of the cameras based on at least one of a direction of a line connecting to a camera movement destination position which is a movement destination position and a predetermined magnification.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017019472 | 2017-02-06 | ||
JP2017019472 | 2017-02-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018129784A true JP2018129784A (en) | 2018-08-16 |
Family
ID=63173215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017161550A Pending JP2018129784A (en) | 2017-02-06 | 2017-08-24 | Determination device, image processing apparatus, determination method, and determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018129784A (en) |
-
2017
- 2017-08-24 JP JP2017161550A patent/JP2018129784A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6687204B2 (en) | Projection image generation method and apparatus, and mapping method between image pixels and depth values | |
US9161027B2 (en) | Method and apparatus for providing camera calibration | |
CN108573530B (en) | Augmented reality AR interaction method and system | |
US20140320404A1 (en) | Image processing device, image processing method, and program | |
CN110954083A (en) | Positioning of mobile devices | |
US11627251B2 (en) | Image processing apparatus and control method thereof, computer-readable storage medium | |
CN103914876B (en) | For showing the method and apparatus of video on 3D maps | |
WO2022022029A1 (en) | Virtual display method, apparatus and device, and computer readable storage medium | |
JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
JP2011090400A (en) | Image display device, method, and program | |
US20130176337A1 (en) | Device and Method For Information Processing | |
US20130222363A1 (en) | Stereoscopic imaging system and method thereof | |
KR20120017783A (en) | Method and apparatus for presenting location information on augmented reality | |
WO2019069575A1 (en) | Information processing device, information processing method, and program | |
JP4619216B2 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
JP2017212510A (en) | Image management device, program, image management system, and information terminal | |
JP7335335B2 (en) | Information processing device, information processing method, and program | |
JP5748355B2 (en) | Three-dimensional coordinate calculation apparatus, three-dimensional coordinate calculation method, and program | |
JP2017016166A (en) | Image processing apparatus and image processing method | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP5330946B2 (en) | 3D image display program, portable device such as a mobile phone having a 3D image display function, and 3D image display method | |
JP6737945B2 (en) | Determination device, image processing device, and determination program | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
JP2018129784A (en) | Determination device, image processing apparatus, determination method, and determination program | |
JP2018129785A (en) | Determination device, image processing apparatus, determination method, and determination program |