JP7320660B1 - Omnidirectional image object detection device and omnidirectional image object detection method - Google Patents
Omnidirectional image object detection device and omnidirectional image object detection method Download PDFInfo
- Publication number
- JP7320660B1 JP7320660B1 JP2022192277A JP2022192277A JP7320660B1 JP 7320660 B1 JP7320660 B1 JP 7320660B1 JP 2022192277 A JP2022192277 A JP 2022192277A JP 2022192277 A JP2022192277 A JP 2022192277A JP 7320660 B1 JP7320660 B1 JP 7320660B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- object detection
- rectangle
- detected
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】360度の全方位画像にて適切に物体を検出可能とする。【解決手段】全方位画像の物体検出装置1は、360度全方位カメラ11で撮影したエクイレクタングラー画像をキューブマップ画像に変換するキューブマップ画像変換部21と、キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出する物体検出部23aと、パノラマ画像において、物体検出部23aによって検出された物体を囲う矩形の座標を決定する検出枠決定部24aと、エクイレクタングラー画像を360度表示画面に表示し、この矩形を360度表示画面に対応した位置に合成する三次元情報合成部25とを有する。【選択図】図1An object can be appropriately detected in a 360-degree omnidirectional image. An omnidirectional image object detection device 1 includes a cubemap image conversion unit 21 for converting an equirectangular image captured by a 360-degree omnidirectional camera 11 into a cubemap image; An object detection unit 23a that detects an object in a panoramic image of a plane, a detection frame determination unit 24a that determines the coordinates of a rectangle surrounding the object detected by the object detection unit 23a in the panoramic image, and an equirectangular image of 360 degrees. A three-dimensional information synthesizing unit 25 for displaying the rectangle on the display screen and synthesizing the rectangle at a position corresponding to the 360-degree display screen. [Selection drawing] Fig. 1
Description
本発明は、全方位画像の物体検出装置、および、全方位画像の物体検出方法に関する。 The present invention relates to an omnidirectional image object detection apparatus and an omnidirectional image object detection method.
近年、仮想空間を提供する装置やサービスが多く普及している。このような仮想空間は、コンピュータグラフィックによって提供されるほか、360度の全方位カメラで撮影されたエクイレクタングラー(equirectangular)画像によっても提供可能である。 In recent years, many devices and services that provide virtual space have become widespread. In addition to being provided by computer graphics, such virtual space can also be provided by equirectangular images captured by a 360-degree omnidirectional camera.
また、近年では、二次元映像に対し、AI(Artificial Intelligence)などによる物体検出を行うことも多く行われている。しかしエクイレクタングラー画像は、二次元平面画像として見たときには歪んでいるため、適切に物体検出を行うことができなかった。 In recent years, object detection is often performed on two-dimensional images by AI (Artificial Intelligence) or the like. However, since the equirectangular image is distorted when viewed as a two-dimensional plane image, it was not possible to perform object detection appropriately.
特許文献1には、全方位カメラ20を用いて得られる全方位動画像から全方位フレーム画像を順に取り出す手段41と、順に取り出される全方位フレーム画像をキューブマップに変換する手段42と、変換されたキューブマップの各方位の要素画像に対して各々ディープラーニングによる物体検出を行う手段43と、検出された物体を当該要素画像の方位及び当該要素画像内の位置と、当該のキューブマップが基づく全方位フレーム画像とに対応付けて記憶手段51のレコードに格納する47と、物体検出処理後のキューブマップを全方位フレーム画像に復元して全方位動画像内の原位置に設定する手段49と、を有する全方位動画像処理装置の発明が記載されている。
In Patent Document 1, means 41 for sequentially extracting omnidirectional frame images from an omnidirectional moving image obtained using an
特許文献1に記載されている発明によれば、全方位画像に撮影された物体を検出し、全方位フレーム画像に物体を検出した位置を設定可能である。しかし、360度の全方位画像をキューブマップ画像に変換して物体を検出した場合、キューブマップの辺の部分に位置する物体を適切に検出できなかった。 According to the invention described in Patent Literature 1, it is possible to detect an object photographed in an omnidirectional image and set the position where the object is detected in an omnidirectional frame image. However, when an object is detected by converting a 360-degree omnidirectional image into a cube map image, the object located on the sides of the cube map cannot be detected appropriately.
そこで、本発明は、360度の全方位画像にて適切に物体を検出可能とすることを課題とする。 Accordingly, an object of the present invention is to appropriately detect an object in a 360-degree omnidirectional image.
前記した課題を解決するため、本発明の全方位画像の物体検出装置は、全方位カメラで撮影したエクイレクタングラー画像をキューブマップ画像に変換する画像変換部と、前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出する第1物体検出部と、前記パノラマ画像において、前記第1物体検出部によって検出された前記物体を囲う矩形の座標を決定する第1検出枠決定部と、前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出する第2物体検出部と、前記回り込み画像の面上に前記第2物体検出部によって検出された物体を囲う矩形の座標を決定する第2検出枠決定部と、前記エクイレクタングラー画像を360度表示画面に表示し、前記第1検出枠決定部で決定された矩形と前記第2検出枠決定部で決定された矩形とを前記360度表示画面の対応した位置に合成する合成部と、を有することを特徴とする。 In order to solve the above-described problems, an omnidirectional image object detection apparatus according to the present invention includes an image conversion unit that converts an equirectangular image captured by an omnidirectional camera into a cubemap image; a first object detection unit that detects an object in a panoramic image of the plane of the; a first detection frame determination unit that determines coordinates of a rectangle surrounding the object detected by the first object detection unit in the panoramic image; a second object detection unit for detecting an object in a wrap around image obtained by shifting and wrapping a panoramic image out of the cube map image; a second detection frame determining unit for determining coordinates; and displaying the equirectangular image on a 360-degree display screen. and a synthesizing unit for synthesizing the rectangle with the corresponding position on the 360-degree display screen.
本発明の全方位画像の物体検出方法は、全方位カメラで撮影したエクイレクタングラー画像をキューブマップ画像に変換するステップと、前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出するステップと、前記パノラマ画像上に検出された前記物体を囲う矩形の座標を決定するステップと、前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出するステップと、前記回り込み画像の面上に検出された物体を囲う矩形の座標を決定するステップと、前記エクイレクタングラー画像を360度表示画面に表示し、前記パノラマ画像について物体が検出された矩形と前記回り込み画像について物体が検出された矩形とを前記360度表示画面の対応した位置に合成するステップと、を有することを特徴とする。 A method for detecting an object in an omnidirectional image according to the present invention includes the steps of converting an equirectangular image captured by an omnidirectional camera into a cubemap image, and detecting an object in panoramic images of a plurality of planes that constitute the cubemap image. determining the coordinates of a rectangle surrounding the object detected on the panoramic image; detecting the object in a wrapped image obtained by shifting and wrapping the panoramic image out of the cube map image; determining the coordinates of a rectangle surrounding the detected object on the plane of the image; displaying the equirectangular image on a 360-degree display screen and determining the rectangle in which the object is detected for the panoramic image and the object for the wraparound image; and synthesizing the detected rectangle with the corresponding position on the 360-degree display screen.
本発明の物体検出プログラムは、コンピュータに、全方位カメラで撮影したエクイレクタングラー画像をキューブマップ画像に変換する手順、前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出する手順、前記パノラマ画像上に検出された前記物体を囲う矩形の座標を決定する手順、前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出する手順、前記回り込み画像の面上に検出された物体を囲う矩形の座標を決定する手順、前記エクイレクタングラー画像を360度表示画面に表示し、前記パノラマ画像について物体が検出された矩形と前記回り込み画像について物体が検出された矩形とを前記360度表示画面の対応した位置に合成する手順、を実行させるためのものである。
その他の手段については、発明を実施するための形態のなかで説明する。
The object detection program of the present invention provides a computer with a procedure for converting an equirectangular image captured by an omnidirectional camera into a cube map image, a procedure for detecting an object in panoramic images of a plurality of planes that make up the cube map image, a procedure of determining the coordinates of a rectangle surrounding the object detected on the panoramic image; a procedure of detecting the object in a wrapped around image obtained by shifting and wrapping the panoramic image out of the cube map image; A procedure for determining the coordinates of a rectangle surrounding the detected object, displaying the equirectangular image on a 360 -degree display screen, determining the rectangle in which the object is detected in the panorama image and the rectangle in which the object is detected in the wrapping image. to the corresponding positions on the 360-degree display screen.
Other means are described in the detailed description.
本発明によれば、360度の全方位画像にて適切に物体を検出可能とすることが可能となる。 According to the present invention, it is possible to appropriately detect an object in a 360-degree omnidirectional image.
以降、本発明を実施するための形態を、各図を参照して詳細に説明する。
本発明は、現行の二次元平面画像における物体検出に留まらず、三次元空間としての物体検出を可能とするものである。本発明によれば、360度の映像外周における位置(三次元座標)・向き(三次元角度)が取得できる。
EMBODIMENT OF THE INVENTION Henceforth, the form for implementing this invention is demonstrated in detail with reference to each figure.
The present invention enables object detection not only in the current two-dimensional plane image, but also in three-dimensional space. According to the present invention, the position (three-dimensional coordinates) and orientation (three-dimensional angle) on the outer periphery of a 360-degree image can be acquired.
図1は、本実施形態に係る物体検出装置2の構成図である。図1は、360度の全方位カメラによる撮影から全方位ビュワーによる表示までの論理構成を示している。
FIG. 1 is a configuration diagram of an
物体検出装置2は、キューブマップ画像変換部21と、パノラマ取得部22a,22bと、物体検出部23a,23bと、検出枠決定部24a,24bと、三次元情報合成部25と、ポリゴン生成部26とを含んで構成される。物体検出装置2は、例えばCPU(Central Processing Unit)を備えるコンピュータであり、不図示の物体検出プログラムを実行することで各機能部を具現化する。
The
この物体検出装置2には、360度全方位カメラ11で撮影された全方位画像としてエクイレクタングラー画像31が入力される。物体検出装置2は、このエクイレクタングラー画像31に撮影されている物体を検出して、検出枠のポリゴンを生成して、360度表示画面32に合成する。この360度表示画面32は、外部コントローラによって視点などが調整され、表示部13に表示される。
An
360度全方位カメラ11は、360度の全方位を一度に撮影可能なカメラである。360度全方位カメラ11は、例えば8Kサイズのエクイレクタングラーの動画を撮影可能である。
The 360-degree
図2は、エクイレクタングラー画像31を示している。
このエクイレクタングラー画像31は、本来は球面上に投影すべきものを矩形にマッピングしたものである。エクイレクタングラーは、正距円筒図法と呼ばれており、パノラマ写真で球状のパノラマ画像を表すために用いられるほか、地図投影法としても用いられている。エクイレクタングラー画像31では、球面を地球に擬えたときの緯度が所定間隔の水平直線として表現される。エクイレクタングラー画像31の画素位置と、これに対応する球面上との画素位置との関係が単純であり、他の投影法に変換しやすいが、特に極において歪みが生じる。
FIG. 2 shows an
This
360度全方位カメラ11は、2つの魚眼レンズが組み合わされたものである。360度全方位カメラ11から、フィッシュアイ画像という円形撮像が得られる。360度全方位カメラ11は、フィッシュアイ画像をエクイレクタングラー形式に変換し、空間レンダリングに使用する。この画像形式の変換は、ステッチングと呼ばれている。
The 360-degree
図3は、エクイレクタングラー画像31の座標系を示す図である。
エクイレクタングラー画像31は、本来は球面にマッピングされるものである。球面の上の点Pは、XYZ座標で表わされてもよく、極座標で表わされてもよい。
FIG. 3 is a diagram showing the coordinate system of the
The
図1に戻り説明を続ける。物体検出装置2のキューブマップ画像変換部21は、360度全方位カメラ11で撮影したエクイレクタングラー画像31を、キューブマップ画像に変換する画像変換部として機能する。キューブマップ画像とその変換については、後記する図5と図6で説明する。
Returning to FIG. 1, the description continues. The cube map
そして、パノラマ取得部22a,22bは、キューブマップ画像のうち連続した4枚を使って、それぞれ第1パノラマ画像と第2パノラマ画像を取得する。パノラマ取得部22aは、キューブマップ画像を構成する複数の面の第1パノラマ画像を取得するも第1パノラマ取得部として機能する。第1パノラマ画像は、後記する図8で説明する。
パノラマ取得部22bは、キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像を取得する第2パノラマ取得部として機能する。第2パノラマ画像は、後記する図9で説明する。
Then, the
The
物体検出部23a,23bは、第1パノラマ画像と第2パノラマ画像から、それぞれ物体を検出する。物体検出部23aは、第1パノラマ画像について物体を検出する第1物体検出部として機能する。物体検出部23bは、第2パノラマ画像について物体を検出する第2物体検出部として機能する。
The
検出枠決定部24aは、第1パノラマ画像上の物体の検出枠の座標を決定する第1検出枠決定部として機能する。検出枠決定部24bは、第2パノラマ画像上の物体の検出枠の座標を決定する第2検出枠決定部として機能する。これにより、例えば、右周り後方145度に人物を検知等の判定が可能となる。これら検出枠決定部24a,24bの処理については、後記する図10で説明する。
The detection
物体の検出枠の座標は、球面上であり、視点からの距離は検出できない。しかし、人物については、検出した領域の大きさと、人物の平均身長とから、視点から人物までの距離を推定する。また、第1実施形態では、上下方向の物体検出については考慮しない。後記する第2実施形態では、上下方向の物体検出が可能である。 The coordinates of the object detection frame are on a spherical surface, and the distance from the viewpoint cannot be detected. However, for a person, the distance from the viewpoint to the person is estimated from the size of the detected region and the average height of the person. Further, in the first embodiment, vertical object detection is not taken into consideration. In a second embodiment, which will be described later, it is possible to detect an object in the vertical direction.
三次元情報合成部25は、第1パノラマ画像上の物体の検出枠の座標を三次元情報に変換し、第2パノラマ画像上の物体の検出枠の座標を三次元情報に変換したのち、これら座標を合成する合成部である。三次元情報合成部25の処理は、後記する図11で説明する。
The three-dimensional
ポリゴン生成部26は、三次元情報合成部25が合成した座標に物体の検出枠のポリゴンを生成して、360度表示画面32に合成する。ポリゴン生成部26の処理は、後記する図12で説明する。
The
図4は、エクイレクタングラー画像31の表示方法の一例を示す図である。
表示部13は、例えばヘッドマウントディスプレイである。図4に示すように、表示部13は、前述したエクイレクタングラー画像31を全天球に貼り付けて、ユーザ5に360度の仮想現実(VR)空間を提供する。外部コントローラ12は、例えばヘッドマウントディスプレイに設けられた各種センサである。このときユーザ5が視る画像は歪んでいない。
FIG. 4 is a diagram showing an example of a method of displaying the
The
図5は、キューブマップ画像33の一例を示す図である。
キューブマップ画像33は、全方位映像の画像形式の一種であり、上下・正面・左右・背面それぞれの撮像を立方体に貼り付けて空間を再現したものである。キューブマップ画像33は、エクイレクタングラー画像31を変換したものである。エクイレクタングラー画像31は、立方体の正面・背面・左右面・上下面に投影することができる。エクイレクタングラー画像31が投影された6つの面を抽出することで、キューブマップ画像に変換できる。このキューブマップ画像33は、各面画素が湾曲せず、物体検出に利用しやすい。
FIG. 5 is a diagram showing an example of the
The
数学的には、球の半径をr=1とし、極座標θ,φを0<θ<π、-π/4<φ<7π/4としたとき、以下の式(1)の関係を満たす。
これらを中央でキューブに投影することを考える。
まず、緯度-π/4<φ<π/4、π/4<φ<3π/4、3π/4<φ<5π/4、5π/4<φ<7π/4で4つの領域に分割する。これらは、上部または下部の4つの側面のいずれかに投影される。
-π/4<φ<π/4 で示される側面について検討する。
(sinθcosφ, sinθsinφ, cosθ)の中心投影は(sinθcosφ,sinθsinφ,cosθ)になり、式(2)の場合にx=1平面に該当する。
First, divide into 4 regions at latitude -π/4<φ<π/4, π/4<φ<3π/4, 3π/4<φ<5π/4, 5π/4<φ<7π/4 . These are projected on one of the four sides, top or bottom.
Consider the side denoted by -π/4<φ<π/4.
The central projection of (sin θ cos φ, sin θ sin φ, cos θ) becomes (sin θ cos φ, sin θ sin φ, cos θ), which corresponds to the x=1 plane in the case of equation (2).
これは、式(3)に変換できる。
投影点は(1,tan φ,cotθ/cosφ)となる。
|cotθ/cosφ|<1の場合、前面となる。それ以外は、上部または下部に投影され、そのために別の投影が必要となる。
上部のより良いテストでは、cosφの最小値がcos(π/4)= 1/√2になるという事実を使用する。したがって、cotθ/(1/√2)>1またはtanθ<1/√2となる。これは、θ<35°または0.615ラジアンに相当する。
The projection point is (1,tan φ,cotθ/cosφ).
If |cotθ/cosφ|<1, it is the front surface. Others are projected to the top or bottom, which requires another projection.
A better test at the top uses the fact that the minimum value of cosφ is cos(π/4)=1/√2. Therefore, cot θ/(1/√2)>1 or tan θ<1/√2. This corresponds to θ<35° or 0.615 radians.
図6は、キューブマップ画像33の座標系を示す図である。
このとき、エクイレクタングラー形式から単位球面への変換は、以下の式(4)で表わされる。
At this time, conversion from the equirectangular form to the unit sphere is represented by the following equation (4).
なお、式(4)のxs,ys,zsは、点Pの座標を示している。
そして、単位球面からエクイレクタングラー形式への変換は、以下の式(5)で表わされる。
Transformation from the unit sphere to the equirectangular form is represented by the following equation (5).
《第1実施形態》
第1実施形態は、水平外周部に限り、物体を検出して検出枠を付与するものである。殆どの場合、所望の検出物体は上下方向に存在しないので、このような制限下でも問題はない。
<<1st Embodiment>>
In the first embodiment, an object is detected and a detection frame is provided only in the horizontal peripheral portion. In most cases, the desired detection object does not exist in the vertical direction, so there is no problem even under such a limitation.
図7は、キューブマップ画像33を構成する各面を示す説明図である。
キューブマップ画像33は、正面B、左面A、右面C、背面D、上面E、下面Fから構成されている。これら各面の歪みはさほど無いため、物体を検出可能であるが、各面の辺に掛かっており、見切れている物体に関しては、物体が検出できないおそれがある。
FIG. 7 is an explanatory diagram showing each plane that constitutes the
The
図8は、キューブマップ画像33の水平外周部の各面で構成されるパノラマ画像34の概念図である。
パノラマ取得部22aは、キューブマップ画像33の水平外周部を構成する背面右側D2、左面A、正面B、右面C、背面左側D1を集めてパノラマ画像34とする。物体検出部23aは、このパノラマ画像34に対して物体検出を実施する。物体検出には、例えはAIモデルのSSD(Single Shot MultiBox Detector)またはYOLO(You Only Look Once)等を用いる。
FIG. 8 is a conceptual diagram of a
The
なお、元解像度が高いため、物体検出部23a向けには縮小画像を用いるとよい。パノラマ画像34の水平座標は、全周の角度に該当する。パノラマ画像34の左右端は画像が見切れるため、物体検出部23aは、左右端に掛かっている物体を検出できない。
Since the original resolution is high, it is preferable to use a reduced image for the
図9は、キューブマップ画像33の水平外周部を水平方向にずらしたパノラマ画像35の概念図である。
パノラマ画像34の両端に関しては、対象物が見切れることから、物体検出部23aは、両端に掛かっている物体が検出できないおそれがある。この課題に対処するため、本実施形態では、全体を水平方向にずらして回り込ませたパノラマ画像35を用意し、パノラマ画像35の物体検出結果とパノラマ画像34の物体検出結果を合成する。
FIG. 9 is a conceptual diagram of a
As for both ends of the
パノラマ画像35は、パノラマ画像34を水平方向にずらして回り込ませた画像である。パノラマ取得部22bは、正面右側B2、右面C、背面D、左面A、正面左側B1を集めてパノラマ画像35を構成する。物体検出部23bは、このパノラマ画像35を入力として二次元画像の物体検出を行う。
A
図10は、物体検出枠の三次元座標変換の前準備を説明する画像である。
物体検出部23aは、二次元物体検出処理により、パノラマ画像34に撮影されている各物体51~53をそれぞれ検出して、各検出枠41~43の座標を決定する。このとき物体検出部23aが検出できるのは、パノラマ画像34の二次元座標であり、カメラから物体までの距離は検出できない。
FIG. 10 is an image for explaining preparatory preparation for three-dimensional coordinate transformation of the object detection frame.
The
三次元情報合成部25は、物体検出部23aの二次元物体検出で出力された検出枠を三次元座標へと変換していく。三次元情報合成部25は、360度表示画面32を上部から見下ろし状態でとらえ、外周との関係を把握しておく。
The three-dimensional
図11は、物体の検出枠の円周上の配置による三次元座標変換を説明する画像である。
360度表示画面32は、円周上に投影される。パノラマ画像34の左端に対応する360度表示画面32の位置は、視点に対する角度が-180度である。パノラマ画像34の右端に対応する360度表示画面32の位置は、視点に対する角度が+180度である。パノラマ画像34の中央に対応する360度表示画面32の位置は、視点に対する角度が0度である。
11A and 11B are images for explaining three-dimensional coordinate transformation by arranging the object detection frame on the circumference.
The 360-
この360度表示画面32を上部から見た場合、検出枠41~43は、360度表示画面32の円周上に配置される。ここで三次元情報合成部25は、三次元座標変換を行う。パノラマ画像34のX座標は、360度表示画面32の外周角度に相当する。よってパノラマ画像34の検出枠41~43の位置のX座標に基づき、360度表示画面32上に変換された検出枠41~43の外周角度を算出できる。
When the 360-
図12は、物体の検出枠41~43の向きの変換を説明する画像である。
三次元情報合成部25は、検出枠41~43の向きを、これら検出枠41~43の円周投影における位置に基づいて算出する。検出枠41~43の向きとは、検出枠41~43の三次元座標における角度である。各検出枠41~43は、360度表示画面32上から原点(視点)の方向を向いている。よって三次元情報合成部25は、各検出枠41~43の位置(外周角度)から、各検出枠41~43の向きを算出する。ポリゴン生成部26は、各検出枠41~43の位置(外周角度)と向きから、これら検出枠41~43のポリゴンを生成して、360度表示画面32と合成する。
FIG. 12 is an image for explaining the conversion of the directions of the detection frames 41 to 43 of the object.
The three-dimensional
《第2実施形態》
第2実施形態は、全周に亘って物体を検出して検出枠を付与するものである。以下、図13と図14を参照して説明する。
<<Second embodiment>>
2nd Embodiment detects an object over a perimeter, and gives a detection frame. Description will be made below with reference to FIGS. 13 and 14. FIG.
図13は、パノラマ画像35,36を示す図面である。
パノラマ画像35は、キューブマップ画像33のうち背面上側D3、上面E、正面B、下面F、背面下側D4を集めたものである。このパノラマ画像35に対して物体が検出される。このパノラマ画像35のY座標は、360度表示画面32の所定経度面における緯度に相当する。これにより、360度表示画面32における検出枠41~43の位置と向きとを知ることができる。
FIG. 13 is a diagram showing
The
しかし、パノラマ画像35の上下端に関しては、対象物が見切れることから、両端に掛かっている物体が検出できないおそれがある。この課題に対処するため、本実施形態は、全体を上下方向にずらして回り込ませたパノラマ画像36を用意し、パノラマ画像36からの物体検出結果とパノラマ画像35の物体検出結果とを合成する。
However, with respect to the upper and lower ends of the
パノラマ画像36は、パノラマ画像35を上下方向にずらして回り込ませた画像である。パノラマ画像36は、正面下側B3、下面F、背面D、上面E、正面上側B4を集めて構成される。このパノラマ画像36を入力として二次元画像の物体検出が行われる。これにより、本実施形態では、全周に亘って漏れなく物体を検出可能である。
The
図14は、パノラマ画像37,38を示す図面である。
パノラマ画像37は、キューブマップ画像33のうち下面F、右面C、上面E、左面Aを集めたものである。このパノラマ画像37に対して物体が検出される。このパノラマ画像37のY座標は、360度表示画面32の所定経度面における緯度に相当する。これにより、360度表示画面32における検出枠41~43の位置と向きとを知ることができる。
FIG. 14 is a diagram showing
The
しかし、パノラマ画像37の上下端に関しては、対象物が見切れることから、両端に掛かっている物体が検出できないおそれがある。この課題に対処するため、本実施形態は、全体を上下方向にずらして回り込ませたパノラマ画像38を用意し、パノラマ画像38からの物体検出結果とパノラマ画像37の物体検出結果とを合成する。
However, with respect to the upper and lower ends of the
パノラマ画像38は、パノラマ画像37を上下方向にずらして回り込ませた画像である。パノラマ画像38は、上面E、左面A、下面F、右面Cを集めて構成される。このパノラマ画像38を入力として二次元画像の物体検出が行われる。これにより、本実施形態では、全周に亘って漏れなく物体を検出可能である。
The
(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
(Modification)
The present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. A part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is also possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.
上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。 Some or all of the above configurations, functions, processing units, processing means, etc. may be realized by hardware such as integrated circuits. Each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as flash memory cards and DVDs (Digital Versatile Disks). can.
各実施形態に於いて、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)~(c)のようなものがある。
In each embodiment, control lines and information lines indicate those considered necessary for explanation, and not all control lines and information lines are necessarily indicated on the product. In fact, it may be considered that almost all configurations are interconnected.
Modifications of the present invention include, for example, the following (a) to (c).
(a)パノラマ画像の長辺軸の位置を360度表示画面の角度に対応づけるだけではなく、パノラマ画像の短辺軸の位置を360度表示画面の角度に対応づけてもよい。
(b)キューブマップの画像変換に限定されず、任意の多角形への画像変換によってエクイレクタングラー画像を二次元パノラマ画像に変換してもよい。
(c)物体検出処理の方式は、SSDとYOLOに限定されず、任意方式の物体検出処理を採用してもよい。
(a) In addition to associating the position of the long axis of the panoramic image with the angle of the 360-degree display screen, the position of the short axis of the panoramic image may be associated with the angle of the 360-degree display screen.
(b) The equirectangular image may be converted into a two-dimensional panorama image by image conversion to an arbitrary polygon, not limited to cube map image conversion.
(c) The method of object detection processing is not limited to SSD and YOLO, and any method of object detection processing may be adopted.
11 360度全方位カメラ
12 外部コントローラ
13 表示部
2 物体検出装置
21 キューブマップ画像変換部
22a パノラマ取得部
22b パノラマ取得部
23a 物体検出部 (第1物体検出部)
23b 物体検出部 (第2物体検出部)
24a 検出枠決定部 (第1検出枠決定部)
24b 検出枠決定部 (第2検出枠決定部)
25 三次元情報合成部 (合成部)
26 ポリゴン生成部
31 エクイレクタングラー画像
32 360度表示画面
33 キューブマップ画像
34~38 パノラマ画像
41~43 検出枠
5 ユーザ
51~53 物体
11 360-degree
23b object detection unit (second object detection unit)
24a detection frame determination unit (first detection frame determination unit)
24b detection frame determination unit (second detection frame determination unit)
25 Three-dimensional information synthesizing unit (synthesizing unit)
26
Claims (6)
前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出する第1物体検出部と、
前記パノラマ画像において、前記第1物体検出部によって検出された前記物体を囲う矩形の座標を決定する第1検出枠決定部と、
前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出する第2物体検出部と、
前記回り込み画像の面上に前記第2物体検出部によって検出された物体を囲う矩形の座標を決定する第2検出枠決定部と、
前記エクイレクタングラー画像を360度表示画面に表示し、前記第1検出枠決定部で決定された矩形と前記第2検出枠決定部で決定された矩形とを前記360度表示画面の対応した位置に合成する合成部と、
を有することを特徴とする全方位画像の物体検出装置。 an image conversion unit that converts an equirectangular image captured by an omnidirectional camera into a cube map image;
a first object detection unit that detects an object in a panoramic image of a plurality of planes that constitute the cube map image;
a first detection frame determination unit that determines coordinates of a rectangle surrounding the object detected by the first object detection unit in the panoramic image;
a second object detection unit that detects an object in a wrapped image obtained by shifting and wrapping the panoramic image of the cube map image;
a second detection frame determination unit that determines coordinates of a rectangle surrounding the object detected by the second object detection unit on the surface of the wrapping image;
The equirectangular image is displayed on a 360-degree display screen, and the rectangle determined by the first detection frame determination unit and the rectangle determined by the second detection frame determination unit are displayed at corresponding positions on the 360 -degree display screen. a synthesizing unit that synthesizes into
An omnidirectional image object detection device comprising:
ことを特徴とする請求項1に記載の全方位画像の物体検出装置。 wherein the synthesis unit corrects the orientation of the rectangle based on the position of the rectangle in the circumferential projection;
2. The omnidirectional image object detection apparatus according to claim 1, wherein:
ことを特徴とする請求項1に記載の全方位画像の物体検出装置。 wherein the panoramic image is a horizontal perimeter of the cubemap image,
2. The omnidirectional image object detection apparatus according to claim 1, wherein:
前記キューブマップ画像の水平外周部と、
前記キューブマップ画像の前面と天面と背面と下面の組み合わせと、
前記キューブマップ画像の左面と天面と右面と下面の組み合わせと、
を含んで構成されることを特徴とする請求項1に記載の全方位画像の物体検出装置。 The panoramic image is
a horizontal periphery of the cube map image;
a combination of the front surface, the top surface, the back surface, and the bottom surface of the cube map image;
a combination of the left surface, the top surface, the right surface, and the bottom surface of the cube map image;
2. The omnidirectional image object detection apparatus according to claim 1, comprising:
前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出するステップと、
前記パノラマ画像上に検出された前記物体を囲う矩形の座標を決定するステップと、
前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出するステップと、
前記回り込み画像の面上に検出された物体を囲う矩形の座標を決定するステップと、
前記エクイレクタングラー画像を360度表示画面に表示し、前記パノラマ画像について物体が検出された矩形と前記回り込み画像について物体が検出された矩形とを前記360度表示画面の対応した位置に合成するステップと、
を有することを特徴とする全方位画像の物体検出方法。 converting an equirectangular image captured by an omnidirectional camera into a cubemap image;
a step of detecting an object in a panoramic image of a plurality of planes that make up the cubemap image;
determining the coordinates of a rectangle enclosing the detected object on the panoramic image;
a step of detecting an object in a wraparound image obtained by shifting and wrapping a panoramic image out of the cubemap images;
determining the coordinates of a rectangle enclosing the detected object on the plane of the wrap image;
displaying the equirectangular image on a 360-degree display screen, and synthesizing the rectangle in which the object is detected in the panorama image and the rectangle in which the object is detected in the wraparound image at corresponding positions on the 360-degree display screen; and,
An object detection method for an omnidirectional image, comprising:
全方位カメラで撮影したエクイレクタングラー画像をキューブマップ画像に変換する手順、
前記キューブマップ画像を構成する複数の面のパノラマ画像について物体を検出する手順、
前記パノラマ画像上に検出された前記物体を囲う矩形の座標を決定する手順、
前記キューブマップ画像のうちパノラマ画像をずらして回り込ませた回り込み画像について物体を検出する手順、
前記回り込み画像の面上に検出された物体を囲う矩形の座標を決定する手順、
前記エクイレクタングラー画像を360度表示画面に表示し、前記パノラマ画像について物体が検出された矩形と前記回り込み画像について物体が検出された矩形とを前記360度表示画面の対応した位置に合成する手順、
を実行させるための物体検出プログラム。 to the computer,
The procedure for converting an equirectangular image taken with an omnidirectional camera into a cubemap image,
a procedure for detecting an object in a panoramic image of a plurality of planes that constitute the cubemap image;
determining the coordinates of a rectangle surrounding the object detected on the panoramic image;
a step of detecting an object in a wrapped image obtained by shifting and wrapping the panoramic image of the cube map image;
determining the coordinates of a rectangle enclosing the detected object on the plane of the wrap image;
A procedure of displaying the equirectangular image on a 360-degree display screen, and synthesizing the rectangle in which the object is detected in the panoramic image and the rectangle in which the object is detected in the wraparound image at corresponding positions on the 360-degree display screen. ,
Object detection program for running.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022192277A JP7320660B1 (en) | 2022-11-30 | 2022-11-30 | Omnidirectional image object detection device and omnidirectional image object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022192277A JP7320660B1 (en) | 2022-11-30 | 2022-11-30 | Omnidirectional image object detection device and omnidirectional image object detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7320660B1 true JP7320660B1 (en) | 2023-08-03 |
Family
ID=87469843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192277A Active JP7320660B1 (en) | 2022-11-30 | 2022-11-30 | Omnidirectional image object detection device and omnidirectional image object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7320660B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140218354A1 (en) | 2013-02-06 | 2014-08-07 | Electronics And Telecommunications Research Institute | View image providing device and method using omnidirectional image and 3-dimensional data |
-
2022
- 2022-11-30 JP JP2022192277A patent/JP7320660B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140218354A1 (en) | 2013-02-06 | 2014-08-07 | Electronics And Telecommunications Research Institute | View image providing device and method using omnidirectional image and 3-dimensional data |
Non-Patent Citations (1)
Title |
---|
井上慶彦 外2名,全方位カメラを用いた物体検出とトラッキング -視覚障害者支援システムの実現に向けて-,情報処理学会研究報告,情報処理学会,2018年05月03日,Vo1.2018-CVIM-212, No.20,第1-6頁 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11257283B2 (en) | Image reconstruction method, system, device and computer-readable storage medium | |
Zakharchenko et al. | Quality metric for spherical panoramic video | |
JP6764995B2 (en) | Panorama image compression method and equipment | |
JP6201476B2 (en) | Free viewpoint image capturing apparatus and method | |
CN107169924B (en) | Method and system for establishing three-dimensional panoramic image | |
TW201915944A (en) | Image processing method, apparatus, and storage medium | |
JP5093053B2 (en) | Electronic camera | |
WO2015122108A1 (en) | Information processing device, information processing method and program | |
JPH0879622A (en) | Method and apparatus for removing distortion in wide-angle image | |
KR102551713B1 (en) | Electronic apparatus and image processing method thereof | |
KR101851303B1 (en) | Apparatus and method for reconstructing 3d space | |
JP2013027021A (en) | Omnidirectional imaging device and omnidirectional imaging method | |
CN110580720A (en) | camera pose estimation method based on panorama | |
WO2020184174A1 (en) | Image processing device and image processing method | |
WO2018052100A1 (en) | Image processing device, image processing method, and image processing program | |
JP2019075766A (en) | Image processing apparatus, photographing system, image processing method, and program | |
CN114511447A (en) | Image processing method, device, equipment and computer storage medium | |
JP7320660B1 (en) | Omnidirectional image object detection device and omnidirectional image object detection method | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP3660108B2 (en) | Image storage method and machine-readable medium | |
US11423609B2 (en) | Apparatus and method for generating point cloud | |
JP7150460B2 (en) | Image processing device and image processing method | |
CN108171802B (en) | Panoramic augmented reality implementation method realized by combining cloud and terminal | |
JP2001256492A (en) | Device and method for composing image and computer readable recording medium for recording its program | |
JP2019087984A (en) | Information processing apparatus, imaging system, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230303 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7320660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |