JP7211621B2 - Image generation device and image generation program - Google Patents
Image generation device and image generation program Download PDFInfo
- Publication number
- JP7211621B2 JP7211621B2 JP2018547656A JP2018547656A JP7211621B2 JP 7211621 B2 JP7211621 B2 JP 7211621B2 JP 2018547656 A JP2018547656 A JP 2018547656A JP 2018547656 A JP2018547656 A JP 2018547656A JP 7211621 B2 JP7211621 B2 JP 7211621B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- feature points
- moving
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Description
本発明は、画像生成装置、および画像生成プログラムに関する。 The present invention relates to an image generation device and an image generation program.
従来、回転する物体に、カメラを組み合わせて、物体から見た周囲の映像を得る画像生成装置が知られている(例えば、非特許文献1等参照)。 2. Description of the Related Art Conventionally, there has been known an image generation device that combines a rotating object with a camera to obtain an image of the surroundings as seen from the object (see, for example, Non-Patent Document 1).
しかしながら、このような従来の画像生成装置では、物体の回転の程度によってカメラの姿勢も変化し、視線が不安定になる。このため、安定した画像を得るため、視点を固定したいが、視点がぶれて生成された動画が見ずらくなってしまう。
また、静止画を連結する手法では、先の画像へ再生箇所がジャンプしてしまい、一瞬動きが止まったり、ある画像から次の画像に映像が飛んで連続していない不自然な映像になってしまういわゆるコマ落ちが発生する場合もある。However, in such a conventional image generation device, the orientation of the camera changes depending on the degree of rotation of the object, making the line of sight unstable. Therefore, in order to obtain a stable image, it is desired to fix the viewpoint, but the moving image generated by the blurring of the viewpoint becomes difficult to watch.
Also, in the method of connecting still images, the playback part jumps to the previous image, and the movement stops for a moment, or the image jumps from one image to the next, resulting in an unnatural image that is not continuous. In some cases, so-called dropped frames may occur.
そこで、本発明は、視点を同一方向に固定して、安定した画像から見やすい動画を生成できる画像生成装置、および画像生成プログラムを提供することを課題としている。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image generation apparatus and an image generation program capable of generating an easy-to-view moving image from stable images by fixing the viewpoint in the same direction.
本発明に係る画像生成装置は、移動する物体に装着される撮像部と、撮像部で取得された画像に基づき、同一視点方向の動画を生成する際、画像中に存在する特徴点を捉えて、移動後の画像中の特徴点と一致させることにより、移動量を演算して、移動量で画像を戻すことを繰り返して動画のフレームを連続させる制御部とを備えることを特徴としている。 The image generating apparatus according to the present invention captures feature points present in the image when generating a moving image in the same viewpoint direction based on the image captured by the image capturing unit attached to a moving object and the image capturing unit. and a control unit that calculates the amount of movement by matching the feature points in the image after the movement, repeats returning the image by the amount of movement, and continues the frames of the moving image.
本発明によれば、視点が同一方向に固定されて安定した画像が良好な動画を生成することができる。 According to the present invention, it is possible to generate a moving image in which the viewpoint is fixed in the same direction and the stable image is good.
本発明の実施形態について、図1乃至図12を参照して詳細に示す。説明において、同一の要素には同一の番号を付し、重複する説明は省略する。 Embodiments of the present invention are illustrated in detail with reference to FIGS. 1-12. In the description, the same elements are given the same numbers, and overlapping descriptions are omitted.
図1は、実施形態の画像生成装置Sの構成を説明する模式的なブロック図である。
実施形態の画像生成装置Sは、撮像部1と、制御を行うPC(パーソナルコンピュータ:制御部)2と、物体に装着されるカメラ4とを備えている。FIG. 1 is a schematic block diagram illustrating the configuration of an image generation device S according to an embodiment.
The image generation device S of the embodiment includes an
このうち、図2に示すように、物体としてのボール3は、回転運動を伴って移動する撮像部1を設けている。撮像部1は、表面の球面に均等または、ほぼ均等に複数台のカメラ4(ここでは、X=6台)を有している。
カメラ4には、それぞれレンズ5が設けられていて、各レンズ5は、それぞれ外方に向けて配置されている。これにより、カメラ4は、ボール3の周囲の全ての空間を撮影可能な全天球型のカメラとして機能することができる。Among them, as shown in FIG. 2, a
Each
すなわち、実施形態のボール3に設けられた6台のカメラ4では、撮影した動画が全天球動画となり、全天球動画は、全方向(ボール3を中心に360°)の情報を撮影することができる。
従って、全天球動画は、どの方向の視点でも、たとえば、移動方向正面や、移動方向の背面など、視界の切れ目を生じさせることがない。ここでは、6台のカメラ4で撮影しているが、1枚の全天球映像が得られれば、X=何台のカメラであっても構わない。That is, with the six
Therefore, the omnidirectional moving image does not cause any break in the field of view, such as the front in the moving direction or the back in the moving direction, regardless of the viewpoint in any direction. Here, six
また、図1のPC2は、通信インターフェース部10と、カメラ4によって撮影された情報およびプログラムなどを記憶する記憶部11と、通信インターフェース部10で受信した画像に基づき、同一視点方向の動画を生成する制御部12と、制御部12で演算された動画を出力して表示するモニタからなる表示部13と、キーボード等の入力部20とを有している。
The PC 2 in FIG. 1 also includes a
この通信インターフェース部10は、ネットワーク100に接続されて、送受信を行うとともに、ボール3のカメラ4によって撮影されたデータを受信可能とする通信手段を含む。
そして、通信インターフェース部10は、ブルートゥース(登録商標)などの無線通信により、回転を含む移動しているボール3から送られてくる画像の信号を受信可能に構成されている。なお、ここでは、無線通信の一例として、ブルートゥースを挙げたが、特にこれに限らず、ボール3から送られてくる画像を受信可能であれば、他の無線通信規格に基づく通信手段を用いてもよい。The
The
記憶部11は、揮発性メモリ、不揮発性メモリを有して構成されている。このうち、揮発性メモリとしては、スタティック・ランダム・アクセス・メモリ(SRAM)とダイナミック・ランダム・アクセス・メモリ(DRAM)を含む。また、BIOS、プログラムコードおよびシステムソフトウェアなどは、不揮発性メモリに格納される。不揮発性メモリは、リードオンリィメモリ(ROM)、EPROM、EEPROM、フラッシュメモリ、磁気記憶媒体、コンパクトディスクなどの光学ディスクを含む。
The
そして、この実施形態の記憶部11には、図3に示すように、動画11a、特徴点画像11b、数式11c、姿勢変換行列11dが随時、呼び出し可能に格納されている。
As shown in FIG. 3, the
図4に示すように、制御部12は、CPU(CentralProcessingUnit)などにより主に構成されていて、記憶部11に記憶されたプログラムまたは、ネットワーク100からダウンロードされたアプリケーションプログラムを実行する。これにより、制御部12は、カメラ4から送られてくる画像の情報を演算して、動画を生成するように構成されている。動画は、表示部13に出力されて表示される(図1参照)。
As shown in FIG. 4 , the
制御部12は、6台のカメラ4から動画を取得する取得部12aを備えている。この取得部12aでは、1枚の全天球の画像41を生成する。
さらに、制御部12は、次にこの1枚の全天球の画像41から、n枚(nは任意の自然数、π/n、ここでは6枚であるがカメラ4の台数とは関連がない。)の回転画像を生成する分割部12bと、低緯度の部分の特徴点を抽出する抽出部12cと、n枚の画像を1枚の全体画像に統合する統合部12dとを備える。さらに、制御部12は、一致度を算出する算出部12eと、姿勢の推定を行う生成部12fと、生成された画像を出力する出力部12gとを備えている。The
Further, the
すなわち、制御部12は、動画を生成する際、画像中に存在する特徴点を捉えて、移動後の画像中の特徴点と一致させることにより、移動量を演算して、姿勢を修正することにより動画のフレームを連続させる。ここで、特徴点とは、たとえば画素値の変化が他の箇所よりも大きい若しくはまれに小さい箇所で、他の箇所との差異が明確な部分を示す。
まず、取得部12aで動画が取得されると、分割部12bにて1枚の全天球の画像41から、n枚の回転画像(π/nずつ回転)が生成される(図8中の回転画像42a~47a参照)。That is, when generating a moving image, the
First, when a moving image is acquired by the acquiring
抽出部12cは、SIFT(Scale-InvariantFeatureTransform)を用いて各フレームから特徴点を抽出する。SIFTは、画像のスケールや回転に対して不変な特徴点を求めるアルゴリズムである。このSIFTは、様々な強さで平滑化した画像の差分からDoG(Difference-of-Gaussian)画像を生成して、ガウス方向の値の変化、すなわち画像に強さの異なるぼかしを適用した場合の画素値の変化を基に特徴点を抽出する。
The
図5は、球面座標を表している。また、図6は、正距円筒図法による全天球画像座標を表している。正距円筒図法によって表された画像は経線と緯線とが直角を成し、等間隔の経度と緯度とをもって交差するという性質を有する。しかしながら、球面上では、これらは等間隔に配置されていない。よって、表示部13にて全天球画像を2次元の画像として表示すると、低緯度領域では、情報が正しく表示されるが、高緯度領域では、情報が経度方向に引き伸ばされて歪みが発生する。このため、高緯度領域では、特徴点を取得することができなかったり、特徴量が正確に抽出できない場合がある。
このため、抽出部12cは、n枚すべてに対し、低緯度の部分だけを使って特徴点抽出を行う。
なお、この実施形態では、特徴点の抽出にSIFTを用いたが、SIFTに代えてSURFやAKAZEなどの他のアルゴリズムを用いて特徴点を抽出してもよい。FIG. 5 represents spherical coordinates. Also, FIG. 6 shows omnidirectional image coordinates by the equirectangular projection method. An image represented by an equirectangular projection has the property that longitudes and latitudes form right angles and intersect at equally spaced longitudes and latitudes. However, on the spherical surface they are not evenly spaced. Therefore, when the omnidirectional image is displayed as a two-dimensional image on the
Therefore, the extracting
Although SIFT is used to extract feature points in this embodiment, other algorithms such as SURF and AKAZE may be used instead of SIFT to extract feature points.
そして、統合部12dは、n枚の回転画像の抽出結果を用いて、特徴点をもつ1枚の画像を作る。これらの動作は、各時刻におけるフレームに対して行われる。
また、算出部12eは、前のフレームと現在のフレームの特徴点を用いて特徴点照合を行い、姿勢変換行列Rを求める。
制御部12は、特徴点が画像周縁の歪みの多い部分にある場合、同一視点方向の周縁の歪の少ない部分である低緯度の部分に画像を移動させてから、特徴点を一致させる。
生成部12fは、姿勢変換行列Rを用いて現在のフレーム画像を前のフレームの画像に戻す。出力部12gは、画像をモニタ等の表示部13に出力する。Then, the
Further, the
If the feature point is located in a portion of the periphery of the image with much distortion, the
The
表示部13は、制御部12で生成された同一視点方向の動画を出力して表示する。
そして、カメラ4によって撮影された3次元の全方位の画像は、表示部13によって、2次元の画像としてリアルタイムで表示される。The
The three-dimensional omnidirectional image captured by the
この際、カメラ4によって構成される全天球カメラは、カメラモデルとしてカメラを中心とする3次元球面を想定すると、3次元球面の経緯度(θ,φ)と、正距円筒図法による全天球画像座標(u,v)との関係は以下のようになる。
u=w/2π・(θ+π) (-π≦θ<π)…(1)
v=h/π・(φ+π/2) (-π/2≦θ<π/2)…(2)
ただし、wは画像の幅、hは画像の高さである。At this time, assuming a three-dimensional spherical surface centered on the camera as a camera model, the omnidirectional camera configured by the
u=w/2π・(θ+π) (−π≦θ<π) (1)
v=h/π·(φ+π/2) (−π/2≦θ<π/2) (2)
However, w is the width of the image, and h is the height of the image.
次に、実施形態の画像生成装置Sの画像処理について、図7に示すフローチャートに沿って、図8~図11を参照しつつ、説明する。
カメラ4によって撮影されたデータに基づいて画像処理が開始されると、ステップS0では、取得部12aで画像が取得される。ステップS1では、特徴点を抽出するため、撮像部1で撮像された動画の画像中に存在する特徴点を捉える(図8参照)。Next, image processing of the image generation device S of the embodiment will be described along the flowchart shown in FIG. 7 and with reference to FIGS. 8 to 11. FIG.
When the image processing is started based on the data photographed by the
ここで、まず全天球画像からの特徴点と特徴量との抽出方法について説明する。前述したように正距円筒図法で示された全天球画像は、低緯度領域のみ情報が正しく表示され、高緯度領域では、画像41のように情報に歪が生じている。
そして、情報が正しく表示される低緯度領域内の特徴点を抽出することにより、姿勢修正に用いる特徴点照合(マッチング)に対応させることができる。Here, first, a method of extracting feature points and feature amounts from an omnidirectional image will be described. As described above, in the omnidirectional image represented by the equirectangular projection, the information is correctly displayed only in the low latitude area, and the information is distorted like the
By extracting feature points in the low latitude region where information is correctly displayed, feature point matching (matching) used for posture correction can be performed.
この実施形態の制御部12の取得部12a(図4参照)は、特徴点を抽出したい注目する領域が高緯度にあるときは、注目する領域を球面の回転によって、移動方向前方の同一視点方向の周縁の歪の少ない低緯度の領域へ移動させる。
すなわち、制御部12は、各時刻において図8に示す全天球の画像41を1枚撮影して生成する(original)。この全天球の画像41から分割部12b(図4参照)は、回転画像42~47をn枚(π/nより)、生成する。回転画像42a~47aは、π/6(n枚の値は任意に決められる)ずつ回転させて、ここでは、6枚(π/6なので6枚)、生成される。
そして、抽出部12cは、この6枚の回転画像42a~47aのそれぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出を行う。さらに、この実施形態では、統合部12dがこれらの6枚から得られた特徴点をまとめて全体画像49の特徴点とする。この結果、original画像において歪みの影響の少ない特徴点が抽出される。When the region of interest from which feature points are to be extracted is at a high latitude, the
That is, the
Then, the
このように、特徴点と特徴量とを抽出する前に、球面の回転によって注目する領域を低緯度の領域へと移動する。すなわち、カメラ4の座標系のX軸周りに適切な量だけ回転させることにより、擬似的に高緯度領域を低緯度へ移動させることができる。
たとえば、図8中、回転画像42a~47aに示すように高緯度に存在した注目する領域は、移動方向と同一の視点方向の周縁の歪の少ない低緯度の領域に移動して、低緯度の領域に存在するのと同様に正確に特徴点と特徴量とを抽出することが可能となる。In this way, before extracting feature points and feature quantities, the area of interest is moved to a lower latitude area by rotating the spherical surface. That is, by rotating the coordinate system of the
For example, in FIG. 8, as shown in rotated
特徴点は低緯度領域で抽出するため、抽出した特徴点の座標と元の画像とにおける特徴点のあるべき座標は異なる。このため、生成部12f(図4参照)で推定された姿勢に基づいて、特徴点と特徴量とを抽出するために行った回転と逆の回転を特徴点の座標に適用する。これにより、元の画像における特徴点の座標に修正することができる。
Since the feature points are extracted in a low latitude region, the coordinates of the extracted feature points are different from the coordinates of the feature points in the original image. Therefore, based on the orientation estimated by the
ステップS2では、算出部12e(図4参照)にて特徴点照合が行われる(図9参照)。特徴点照合は、特徴点が画像周縁の歪みの多い部分にあると判定すると、同一視点方向の周縁の歪の少ない部分に画像を移動させてから、移動前の画像中の特徴点と移動後の画像中の特徴点と一致させる。
ここでは、フレームtの特徴点とフレーム(t+1)の特徴点とが照合されているものが示されている。図中2つのフレームt,フレーム(t+1)に跨る直線は、同一であると推定される特徴点同士を結んだものである。
各フレームの特徴点と特徴量とは、低緯度に移動された特徴点から正確に抽出されているため、照合結果の信頼性が向上している。In step S2, feature point collation is performed by the
Here, the feature points of frame t and the feature points of frame (t+1) are collated. In the figure, a straight line extending over two frames t and (t+1) connects feature points that are presumed to be the same.
Since the feature points and feature amounts of each frame are accurately extracted from feature points that have been moved to low latitudes, the reliability of matching results is improved.
ステップS3では、算出部12e(図4参照)にて姿勢変化の推定が行われる(図10参照)。ここでは、得られた照合情報から、基本行列Eを、回転と並進とに分解して、カメラ4の姿勢変化の姿勢変換行列Rを求める。
すなわち、全天球画像上で抽出した特徴点の座標を正規化画像座標へ変換する。たとえば、照合の結果を用いて8点アルゴリズムによって2つのフレームの撮影時のカメラ間の基本行列Eを推定する。なお、ロバストに推定するためにRANSACやLMedsを用いるとなおよい。
このように、基本行列Eを、回転と並進とに分解することにより、2つのフレーム間の回転行列と並進ベクトルとが得られる姿勢変換行列Rとなる。このため、姿勢変換行列Rにより2つのフレーム間のカメラ4の姿勢変化が求められる。In step S3, the posture change is estimated by the
That is, the coordinates of the feature points extracted on the omnidirectional image are converted into normalized image coordinates. For example, the result of matching is used to estimate the fundamental matrix E between the cameras when the two frames were taken by an 8-point algorithm. It is more preferable to use RANSAC or LMeds for robust estimation.
By decomposing the fundamental matrix E into rotation and translation in this way, an orientation transformation matrix R is obtained that provides a rotation matrix and a translation vector between two frames. Therefore, the posture change of the
ステップS4では、生成部12f(図4参照)にて姿勢修正が行われる(図11(a)参照)。ここでは、各フレームごとの姿勢変化を示す姿勢変換行列Rが得られたことから、これらの積として任意のフレームの姿勢を修正して、フレームF1からフレームFnまでの全ての隣接フレーム間の姿勢変化を計算する。
すなわち、初期フレームから始めて現フレームまでの全ての隣接するフレーム間で、姿勢変換行列Rを推定する。
そして、それらの総乗は、図11(b)に示すように初期のフレームと現在のフレームとの姿勢変化を表す回転行列であるとみなせる。
これにより、現在のフレームに対してその姿勢変換行列R(n-1)(nはフレーム数)、を作用させることにより、現在のフレームを初期のフレームの視点に連続させることができる。In step S4, posture correction is performed by the
That is, the pose transformation matrix R is estimated between all adjacent frames starting from the initial frame to the current frame.
Then, the sum of them can be regarded as a rotation matrix representing the posture change between the initial frame and the current frame as shown in FIG. 11(b).
As a result, the current frame can be made continuous with the viewpoint of the initial frame by applying the attitude transformation matrix R(n-1) (n is the number of frames) to the current frame.
この実施形態では、初期フレームと現在のフレームとの間で直接、姿勢を推定しない。
これには、以下の理由が存在する。すなわち、(i)隣接するフレーム間の時間差は微小である。このため、特徴点の移動量も微小に限られる。これにより、3次元球面上で移動量の大きい特徴点同士の照合をフィルタリングできる。(ii)隣接するフレーム間の時間差は微小である。よって、シーンは静的である。(iii)隣接するフレーム間の時間差は微小である。したがって、並進による特徴点の見え方に変化はない。In this embodiment, we do not estimate the pose directly between the initial frame and the current frame.
There are the following reasons for this. (i) the time difference between adjacent frames is minute; Therefore, the amount of movement of the feature point is also limited to a small amount. This makes it possible to filter matching between feature points with a large amount of movement on the three-dimensional spherical surface. (ii) the time difference between adjacent frames is minute; The scene is therefore static. (iii) the time difference between adjacent frames is minute; Therefore, there is no change in how the feature points appear due to translation.
ステップS5では、次のフレームがあるか否かが判定される。ステップS5にて、次のフレームがある場合(ステップS5にてYes)、ステップS2に戻り、特徴点の抽出が継続して行われる。また、ステップS5にて、次のフレームがない場合(ステップS5にてNo)、制御部12は、処理を終了する。
At step S5, it is determined whether or not there is a next frame. If there is a next frame in step S5 (Yes in step S5), the process returns to step S2 to continue extraction of feature points. Further, in step S5, if there is no next frame (No in step S5), the
次に、この実施形態の画像生成装置Sの作用効果について説明する。
この実施形態の画像生成装置Sでは、特徴点照合ステップS2にて、特徴点が画像周縁の歪みの多い部分にあると判定すると、同一視点方向の周縁の歪の少ない部分に画像を移動させてから、移動前の画像中の特徴点と移動後の画像中の特徴点と一致させる。
このため、カメラ4を設けたボール3が高速で回転していても、6枚の回転画像42a~47aのそれぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出を行うことができる。したがって、抽出された特徴点および特徴量の精度を良好なものとすることができる。
そして、この精度の良好な特徴点の情報に基づいて正確な移動量を算出して、姿勢修正を行うことにより、隣接するフレーム間を繋げることができる。このため、フレーム間は円滑に連続して、視点が固定されて安定した動画を生成できる。しかも、生成された動画は、回転して移動するボール3の周囲を全て撮影した見えない部分の存在しない、安定した動画を得られる。このため、スポーツや、医療、災害現場等、様々な分野に用いることができる。Next, the effects of the image generation device S of this embodiment will be described.
In the image generation device S of this embodiment, when it is determined in the feature point collation step S2 that the feature point is located in a portion of the periphery of the image with much distortion, the image is moved to a portion of the periphery with less distortion in the same viewpoint direction. , the feature points in the image before movement are matched with the feature points in the image after movement.
Therefore, even if the
Adjacent frames can be connected by calculating an accurate amount of movement based on the information of feature points with high accuracy and correcting the posture. Therefore, it is possible to generate a stable moving image with smooth continuity between frames and a fixed viewpoint. In addition, the generated moving image can be a stable moving image in which the surroundings of the
また、この実施形態では、複数のレンズ5を組み合わせた全天球型のカメラ4を用いたので、移動方向正面や、移動方向の背面など、どの方向の視点にもフレームの切れ目を生じさせることなく、視野が連続した動画を生成することができる。
In addition, in this embodiment, since the
さらに、この実施形態では、図8に示すように、1枚撮影された全天球の画像41から、π/6ずつ回転させた6枚の回転画像42a~47aを生成して、それぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出が行なわれている。このため、さらに、歪みの影響の少ない多数の特徴点が全体画像49の特徴点としてまとめられる。従って、隣接フレーム間の姿勢変化を計算する際にも、移動量の推定の精度を向上させることが出来、さらに動画の視点の位置を安定させることができる。
Furthermore, in this embodiment, as shown in FIG. 8, six rotated
<実施例>
図12は、実施形態の変形例の画像生成装置Sで、撮像部としての全天球カメラ14が内蔵されたボール30の構成を示す分解斜視図である。なお、前記実施形態と同一乃至均等な部分については、説明を省略する。
この変形例のボール30は、中空半球形状の透明アクリル樹脂製の一対のドーム31,32を係合させて、外形形状が球体となるように構成されている。
ボール30の内部には、固定用円形板15が設けられている。固定用円形板15は、ドーム31,32の内側面31a,32aに、移動不能となるように固定されている。そして、固定用円形板15の一部には、全天球カメラ14を固定する装着孔16が開口されている。<Example>
FIG. 12 is an exploded perspective view showing the configuration of a
The
A fixing
また、この変形例の全天球カメラ14は、箱型の筺体14aの表,裏両側面14bに、それぞれに撮影可能画角が180度以上、好ましくは約270度程度の2つのレンズ14c,14cが設けられている。そして、固定用円形板15の装着孔16に筺体14aを嵌着させた状態で、ドーム31,32の略中心に、2つのレンズ14c,14cが配置されるように構成されている。
このため、この全天球カメラ14は、2つのレンズの画像を合成することにより、周囲を360度撮影した全天球の画像を生成できる。In addition, the
Therefore, the
このように構成された変形例の全天球カメラ14では、表,裏両側面14bに設けられた2つのレンズ14cによって、周囲を360度撮影することが可能である。このため、この変形例の全天球カメラ14では、実施形態の作用効果に加えて、さらに少ないカメラの台数で、どの方向にも切れ目なく、動画のフレームを連続させて、一定の方向に視線を安定させた動画を円滑に生成することができる。
In the
<他の実施形態>
図13~図22は、他の実施形態として、医療用のカプセル内視鏡80に本発明の画像生成装置および画像生成プログラムを適用したものを示している。
近年,医療分野では、図13に示すように、魚眼レンズ83,83を有して、広範囲を撮影可能なカメラ82,82を両端に内蔵しているカプセル内視鏡80が普及してきた。カプセル内視鏡80は、図14に示すように被験者kの嚥下により消化器官内を流下させながら周囲の器官を内側から撮像する。これにより、身体の内部が容易に確認できる。<Other embodiments>
13 to 22 show, as another embodiment, a
In recent years, in the medical field, as shown in FIG. 13, a
一方で、カプセル内視鏡80はいくつか問題点を抱えている。たとえば、二つのカメラ82,82から得られた映像を同時に観察することができない問題点がある。
この問題点に対して、カメラ82,82から得られた映像から全天球動画を生成することにより、施術者は、二つの映像の位置関係を一目で認識できるようになる。On the other hand, the
To solve this problem, by generating an omnidirectional moving image from the images obtained from the
しかしながら、この際、カプセル内視鏡80は体内で回転しながら進むため、単純に全天球動画を生成したとしても、カプセル内視鏡80がどのように進んでいるのかがわかりにくい。
このため、カプセル内視鏡80から得られた映像に対して、前記実施形態にて説明した全天球動画を安定化させる手法を応用することで、この課題を解決する。However, at this time, since the
Therefore, this problem is solved by applying the method of stabilizing the omnidirectional moving image described in the above embodiment to the image obtained from the
そこで、他の実施形態の構成を説明すると、図13に示すように、カプセル内視鏡80は、小型のカメラ82,82を内蔵したカプセル型の内視鏡のことである。カプセル内視鏡80は、片側のみ、または両端に一つずつ、撮像部としての小型カメラをつけた形式のものが存在する。
このうち、この実施形態では、両側に小型のカメラ82,82を有するカプセル内視鏡を用いて説明する。この形式のカプセル内視鏡80は、円筒状の筒部材84の軸方向両端に、それぞれ小型のカメラ82,82が装着されている。
筒部材84の軸方向の各端部には、ほぼ半球状を呈して透明のオプティカルドーム86,86が端部の開口を塞ぐように装着されている。そして、各カメラ82は、それぞれ端部に装着されたオプティカルドーム86により覆われている。Therefore, to explain the configuration of another embodiment, as shown in FIG. 13, a
Of these, this embodiment will be described using a capsule endoscope having
Transparent
筒部材84の各端部に設けられているカメラ82,82は、2つ合わせて360度に近い全天球映像を撮影することができる。
そして、この撮影された映像は、カプセル内視鏡80に内蔵された無線送信装置によって、被験者kに取り付けられたレコーダ87(図14)に送信される。レコーダ87は、被験者kの身体に取り付けられたセンサ88に接続されている。レコーダ87では、前記した実施形態と同様に制御部12(図1参照)によって演算された動画が表示部13のモニタに出力される。施術者は、レコーダ87に送られてくる画像を、表示部13を通じて被験者の身体の外方で見ることができる。
この際、センサ88による位置情報と撮影された動画とが結びつけられていて、体内の位置が特定されるようにしてもよい。The two
Then, the photographed image is transmitted to the recorder 87 (FIG. 14) attached to the subject k by the wireless transmission device built in the
At this time, the position information from the
<画像欠落への対処>
発明者らが提案した前記実施形態の全天球動画安定化手法では、ボールに取り付けられたカメラによって撮影された全天球映像から、回転成分を除去して視点を固定する。
回転しながら移動するという点で前記実施形態のボールカメラと、この実施形態のカプセル内視鏡80とは、共通している。
そこで、このカプセル内視鏡80に前記実施形態の安定化方法を適用すると、回転しながら移動するカプセル内視鏡80の映像を施術者が見やすいよう安定化させることができる。<Dealing with missing images>
In the omnidirectional video stabilization method of the embodiment proposed by the inventors, the rotation component is removed from the omnidirectional video captured by the camera attached to the ball, and the viewpoint is fixed.
The ball camera of the above embodiment and the
Therefore, if the stabilization method of the embodiment is applied to the
図13に示すように、この実施形態のカプセル内視鏡80は、軸線L上に180度反対側を向く2つの小型のカメラ82,82を配置している。全天球画像は、これらの2つのカメラ82,82で撮影される魚眼画像を正距円筒図法やキューブマップ法などによって変換することで作られる。
しかしながら、カプセル内視鏡80の映像は、図15に示すように、完全な円形の魚眼映像(円周魚眼の影像)ではなく、対角線魚眼の影像であるため、上下左右の部分a~dが切取られてしまう。
また、それぞれのカメラの画角angは約172度となり、0~4度、176度~180度の部分は撮影されていない。このため、単に2つのカメラ82,82の画像を合せただけでは、360度の撮影画像を得ることができない。As shown in FIG. 13, the
However, as shown in FIG. 15, the image of the
Also, the angle of view ang of each camera is approximately 172 degrees, and the portions of 0 to 4 degrees and 176 to 180 degrees are not photographed. Therefore, simply combining the images of the two
さらに、カプセル内視鏡80に内蔵されたそれぞれのカメラ82,82は、常に同期しながら撮影しているのではなく、それぞれが独立して撮影している。つまり、2つのカメラ82,82で撮影された画像のタイムスタンプが一致していない。このため、容易に全天球画像を作ることができない。
Furthermore, the
使用したカプセル内視鏡80は、バッテリの容量を考慮し断続的に撮影していたり、上述したように移動速度によってフレームレートを変化させながら撮影している。たとえば、消化管内でのカプセル内視鏡80の移動が遅い場合は、毎秒4枚、速い場合には、毎秒35枚というように、カプセル内視鏡80の移動速度に合わせて枚数が調整されながら撮影される。
このため、一部のフレームが欠損する場合がある。The
As a result, some frames may be lost.
また、カプセル内視鏡80は、内臓という狭い空間で、内臓の内壁面に接触しながら撮影している。このため、画像が全体的に暗く鮮明ではない。よって、撮影された映像は、撮影開始から撮影終了まで完全に連続した映像とはならない。
ところで、視点固定アルゴリズムでは、フレーム間で特徴点マッチングを行う。このため、全天球動画を作る上で画像の特徴点が得られるか否かは、画像を安定させるために大きく影響する。In addition, the
By the way, in the fixed viewpoint algorithm, feature point matching is performed between frames. Therefore, whether or not the characteristic points of the image can be obtained in creating an omnidirectional moving image has a great influence on the stability of the image.
たとえば、図16に示すように、画像番号としては前方のカメラ82が撮影した映像のフレームがF1.F3.F5・・・と奇数番号で、後方のカメラ82が撮影した映像のフレームがF2.F4.F6・・・のように偶数番号となっている。図16では、フレームレートが一定ではない場合に、途中のフレームが欠損していることを表している。
For example, as shown in FIG. 16, as the image number, the frame of the video imaged by the
前記実施形態のアルゴリズムを用いた安定化の手法では、フレーム間の特徴点マッチングが行なわれ、姿勢変化が求められた後、回転行列と並進ベクトルとに分解される。
そして、基準フレームからの累積回転行列を現在のフレームにかけることで画像を修正している。この操作を全てのフレームに対して行うことで全天球動画の視点を固定することが可能となる。
しかしながら、このアルゴリズムでは、基準フレームからの姿勢変化を累積回転行列で修正しているため、途中のフレーム間での姿勢変化の推定に失敗してしまうとそれ以降の特徴点のマッチングが行えず、画像を修正できなくなってしまう虞があった。
たとえば、前記実施形態の画像生成装置では、フレーム間の特徴点マッチングのマッチング数がある閾値以下になった場合に姿勢推定が失敗したと判定している。In the stabilization method using the algorithm of the above-described embodiment, feature point matching between frames is performed, and after the posture change is obtained, it is decomposed into a rotation matrix and a translation vector.
The image is then modified by multiplying the current frame by the cumulative rotation matrix from the reference frame. By performing this operation for all frames, it becomes possible to fix the viewpoint of the omnidirectional video.
However, since this algorithm corrects the posture change from the reference frame using the cumulative rotation matrix, if the posture change estimation fails in the middle of the frame, matching of feature points cannot be performed thereafter. There was a possibility that the image could not be corrected.
For example, in the image generation device of the above-described embodiment, it is determined that pose estimation has failed when the number of matchings in feature point matching between frames is equal to or less than a certain threshold.
Rijをframe i とframe j 間の姿勢変化とすると、次の式1にて表される。 Assuming that Rij is the change in posture between frame i and frame j, it is expressed by the following equation (1).
図17は、特徴点マッチングが成功した一例を示す模式的な概念図である。また、図18は、特徴点マッチングが失敗した一例を示す模式的な概念図である。 FIG. 17 is a schematic conceptual diagram showing an example of successful feature point matching. Also, FIG. 18 is a schematic conceptual diagram showing an example in which feature point matching fails.
本実施形態は、フレームの欠損および2つのカメラ82,82の非同期といった問題を解決するため、途中のフレームを補完し、両側のカメラ82,82で撮影したフレーム数を同じとすることで擬似的に連続した魚眼映像(擬似円周魚眼の画像)としている。すなわち、欠損しているフレームと前のフレームとを入れ替える。これにより、欠落しているフレーム部分が円滑に接続されて、擬似的に連続した魚眼映像を得られる。
この際、具体的に制御部12は、それぞれのカメラ82,82で撮影された画像同士のタイムスタンプが合っておらず、それを合わせるのは困難であると判断すると、同じ番号のフレームは、同じ時刻で撮影されたものとして処理を行うように構成されている。In this embodiment, in order to solve the problem of missing frames and asynchronization of the two
At this time, when the
図15を参照しながら説明すると、このように、不完全な魚眼画像から全天球画像への変換を行うため、図15の画像では、1つのカメラ82の画角が180度より小さく(たとえば172度)、上下左右に切り取られた部分a~dを有している。
そこで、図19に示すように、仮想的に画角が180度の円として扱うことにより、正距円筒図法を用いて変換することができる。Referring to FIG. 15, in order to convert an imperfect fisheye image into an omnidirectional image, the angle of view of one
Therefore, as shown in FIG. 19, by treating the image as a circle having a virtual angle of view of 180 degrees, it is possible to convert using the equirectangular projection method.
図19は、欠落したフレームを補完した様子を説明する模式的な概念図である。
図19では、撮影画像の部分a~dの境界線から外側の円までの間は死角の黒い画像として扱う。このため、図15の画像では、欠落していた上下左右の部分a~dが黒い画像で補完されている。全天球画像に変換した場合に周囲に現れる黒い帯は、この箇所が変換されたものである。図20は、欠落したフレームを補完する様子を説明する模式的な概念図である。
図21は、不完全な魚眼画像から全天球の画像に変換したことを説明する模式的な概念図である。カメラ82で撮影された状態の生データから全天球画像を作成する具体的な手順としては、(1)生データから時刻情報など不要な箇所を切り取る。(2)同じ時刻で撮影されたと仮定した2枚の魚眼画像の欠落する部分を補完後、左右に並べて1枚の画像にする。(3)正距円筒図法で全天球画像に変換する。(1)~(3)の処理を全てのフレームに対して行う。そして、フレーム間を連結することで全天球動画に変換することができる。FIG. 19 is a schematic conceptual diagram for explaining how missing frames are complemented.
In FIG. 19, the area from the boundary line of parts a to d of the photographed image to the outer circle is treated as a black image with blind spots. Therefore, in the image of FIG. 15, the missing upper, lower, left, and right portions a to d are complemented with black images. The black band that appears around the image when converted to an omnidirectional image is the result of this conversion. FIG. 20 is a schematic conceptual diagram illustrating how missing frames are complemented.
FIG. 21 is a schematic conceptual diagram illustrating conversion from an incomplete fisheye image to an omnidirectional image. As a specific procedure for creating an omnidirectional image from the raw data captured by the
<特徴点照合処理>
特徴点を結びつけて連続させる際に、欠落した画像が存在すると、円滑な動画を得にくい。そこで、フレームの欠落する部分を修正により復帰させる。
図22は、フレームにエラーフレームが発生した場合に、修正により復帰したフレームの様子を説明する模式的な概念図である。
全天球動画安定化手法のアルゴリズムでは、特徴点マッチングが失敗すると意味のある映像としては、そこで終了してしまう(図22中右上部分参照)という問題点があった(以下、失敗した時点でのフレームをエラーフレームと呼ぶ)。
この実施形態の画像生成装置では、この問題を解決するために、特徴点マッチングが失敗したら、そこで、累積回転行列を単位行列で初期化し、次のフレームを基点として処理を再び開始するように、前記実施形態のボールカメラを改良してカプセル内視鏡80に適用した。
なお、エラーフレームと前フレーム間の回転行列も単位行列で初期化するため、基点フレームの視点はプログラムを開始した時点のフレームの視点とは異なる。つまり、マッチングが失敗する度に視点はエラーフレームの視点に固定されてしまう。<Feature point matching process>
If there are missing images when linking and connecting feature points, it is difficult to obtain a smooth moving image. Therefore, the missing portion of the frame is restored by correction.
FIG. 22 is a schematic conceptual diagram for explaining how a frame is recovered by correction when an error frame occurs in the frame.
The algorithm of the omnidirectional video stabilization method has a problem that if the feature point matching fails, the meaningful video ends there (see the upper right part of Fig. 22). frame is called an error frame).
In order to solve this problem, the image generating apparatus of this embodiment initializes the cumulative rotation matrix with a unit matrix and starts the process again with the next frame as the base point if the feature point matching fails. The ball camera of the embodiment is improved and applied to the
Since the rotation matrix between the error frame and the previous frame is also initialized with the unit matrix, the viewpoint of the base frame is different from the viewpoint of the frame when the program is started. That is, every time matching fails, the viewpoint is fixed to the viewpoint of the error frame.
次に、この実施形態のカプセル内視鏡80を用いた画像生成装置の実施例について説明する。
使用したカプセル内視鏡80は、画角は172×2度,フレームレートは移動速度に応じて変化し、毎秒4フレームから35フレームで、大腸粘膜を撮影することができる大腸カプセル内視鏡を用いた。カプセル内視鏡80に用いるカメラ82,82の非同期やフレームが欠損しているという問題点は、フレームレートを一定にすることにより解決してもよい。Next, an example of an image generating apparatus using the
The
カプセル内視鏡80は、画角が172×2度であるため、死角が存在する。全天球動画に変換した際に3つの部分に別れてしまっているため、わかりにくいが、ある程度視点は固定されていると判断した。
しかし,明らかに誤った推定により不自然に修正されている箇所もあり完全とは言えない。また、特徴点マッチングが失敗して回転行列が得られなかった場合には,次のフレームを基点として処理を再実行することができた。Since the
However, it cannot be said to be complete because there are some parts that have been corrected unnaturally due to clearly incorrect assumptions. Also, if the feature point matching failed and the rotation matrix could not be obtained, the process could be re-executed using the next frame as the base point.
この結果を図23に示す。図23は、比較例の画像を左側に示している。この比較例では、既存手法においてエラー後、意味のない画像が流れる様子である。また、図23中右側の画像が本実施形態のカプセル内視鏡80を用いた画像生成装置の画像生成プログラムで、エラー後も回転を推定できるように改良された様子を示す模式的な概念図である。
しかしながら、このように修正により連続させても、マッチングが失敗したと判断されるのは回転行列が得られなかった時のみであり、誤った推定で得られた回転行列によって不正確な回転が行われた際には検知することができない。
このため、誤った回転をしたまま処理が進んでしまうことがあった。The results are shown in FIG. FIG. 23 shows the image of the comparative example on the left. In this comparative example, meaningless images flow after an error in the existing method. The image on the right side of FIG. 23 is a schematic conceptual diagram showing how the image generation program of the image generation device using the
However, even with this correction, the matching is judged to have failed only when the rotation matrix is not obtained, and the rotation matrix obtained by erroneous estimation causes an incorrect rotation. It cannot be detected when it is broken.
For this reason, the process may proceed with an erroneous rotation.
このように、視点固定アルゴリズムをカプセル内視鏡80に適用した結果、いくつかの問題点が見つかった。
1つ目に、死角が多く動画自体が見にくいという点である。今回は不完全な魚眼画像から全天球画像を作成したため死角が多かった。これは、カプセル内視鏡80の性能の向上により画角が180度以上のものを2つ使用できれば、撮影できる範囲が広がり、死角のない完全な全天球画像を作ることができる。すなわち、完全な全天球画像であれば、2つの魚眼映像のつながりが分かるため、視認しやすい。As a result of applying the fixed viewpoint algorithm to the
The first is that there are many blind spots and it is difficult to see the video itself. This time, there were many blind spots because the omnidirectional image was created from an imperfect fisheye image. If two
これに対して本実施形態の画像生成装置では、図15および図19に示すように、死角となる上下左右の部分a~dが黒い画像で補完されている。
これにより、完全な全天球画像でなくとも、2つの魚眼映像のつながりが分かりやすくなった。On the other hand, in the image generating apparatus of this embodiment, as shown in FIGS. 15 and 19, the upper, lower, left, and right blind spots a to d are complemented with black images.
This makes it easier to understand the connection between two fisheye images, even if they are not perfect omnidirectional images.
2つ目は、特徴点マッチングによる誤った推定やマッチング数が少ないために回転が推定できないという点である。特徴点マッチングは画像中に特徴点が多いほど成功しやすい。しかしながら、カプセル内視鏡80の映像の様に内臓に密着した状態で撮影されるものでは、暗く特徴点が少ない画像となる。このような場合は、特徴点が検出できず誤推定や失敗となる可能性が高い。
また、内臓のように周囲の状況が常に変化する映像ではカメラが回転したものと判断され、誤推定の原因になると考えられる。The second point is that rotation cannot be estimated due to erroneous estimation due to feature point matching and a small number of matchings. Feature point matching is more likely to succeed as the number of feature points in the image increases. However, an image taken in close contact with the internal organs, such as the image of the
In addition, in the case of an image in which the surrounding situation is constantly changing, such as internal organs, it is determined that the camera has rotated, which may cause erroneous estimation.
次に、図24のフローチャートおよび図25に沿って画像生成装置の処理について説明する。なお、前記実施形態の図7と同一乃至均等な部分については、説明を省略する。
図24のフローチャート中、ステップS00~ステップS12までは、前記実施形態のステップS0~ステップS2までと同様に、取得された画像(ステップS00)のフレーム(ステップS10)から特徴点を抽出(ステップS11)して、次のフレームと特徴点の照合(ステップS12)を行う(図25中第1行目および第2行目参照)。Next, processing of the image generation device will be described with reference to the flowchart of FIG. 24 and FIG. Note that the description of the same or equivalent parts as those in FIG. 7 of the above embodiment will be omitted.
In the flowchart of FIG. 24, steps S00 to S12 extract feature points from the frame (step S10) of the acquired image (step S00) (step S11 ), and the next frame and feature points are compared (step S12) (see the first and second lines in FIG. 25).
ステップS16では、照合が失敗したかあるいは成功したかの判定を行う。ステップS16で照合が成功した場合は、次のステップS13に進み(ステップS16にてNO)、ステップS16で照合が失敗した場合は、ステップS10に戻り(ステップS16にてYES)、フレームの取得を行う。 In step S16, it is determined whether collation has failed or succeeded. If the collation succeeds in step S16, the process proceeds to the next step S13 (NO in step S16), and if the collation fails in step S16, the process returns to step S10 (YES in step S16) to acquire the frame. conduct.
ステップS13~ステップS15までは、前記実施形態のステップS3~ステップS5までと同様に、姿勢変化の推定が行われ(図10参照)、結果を用いて8点アルゴリズムによって2つのフレームから得られる姿勢変換行列Rを用いて、ステップS14では、姿勢修正が行われる。 In steps S13 to S15, as in steps S3 to S5 of the above embodiment, posture change estimation is performed (see FIG. 10), and the results are used to determine the posture obtained from two frames by an 8-point algorithm. Using the transformation matrix R, posture correction is performed in step S14.
図25の第3行目に示す従来の安定化手法では、照合の失敗が生じるとフレーム間の結びつけが行えず、そのフレームの集合で無意味な画像E1,E2…が、処理が終了するまで継続して生成されてしまう。
これに対して、図25の第4行目に示すこの実施形態の安定化終了では、照合の失敗が生じると、取得されている画像の次のフレームの画像G1を用いて、エラーした画像E1を補完する。
取得された次のフレームの画像G1が照合可能である場合、特徴点を一致させて、姿勢を修正する安定化処理を継続できる。なお、照合が成功しない場合は、照合が成功するまでステップS10を繰り返す。
このため、取得した画像に不連続点があっても、直ちに次のフレームへ照合が成功するフレームが割り当てられて、エラーから復帰する。したがって、照合が失敗した場合でもフレームの切れ目が目立たない安定した見やすい画像が得られる。In the conventional stabilization method shown in the third line of FIG. 25, if the matching fails, the frames cannot be linked, and the meaningless images E1, E2, . . . It is continuously generated.
In contrast, in the end of stabilization of this embodiment, shown in the fourth row of FIG. Complement the
If the acquired image G1 of the next frame can be matched, the feature points can be matched and the stabilization process for correcting the posture can be continued. If the collation is not successful, step S10 is repeated until the collation is successful.
Therefore, even if there is a point of discontinuity in the acquired image, the next frame is immediately assigned a frame for which matching is successful, thereby recovering from the error. Therefore, even if collation fails, a stable and easy-to-view image with inconspicuous frame breaks can be obtained.
ステップS15では、前記実施形態のステップS5と同様に、次のフレームがあるか否かが判定される。ステップS15にて、次のフレームがある場合(ステップS15にてYes)、ステップS10に戻り、特徴点の抽出が継続して行われる(ステップS11~ステップS12)。また、ステップS15にて、次のフレームがない場合(ステップS15にてNo)、前記実施形態と同様に制御部12は、処理を終了する。
In step S15, it is determined whether or not there is a next frame, as in step S5 of the above embodiment. If there is a next frame in step S15 (Yes in step S15), the process returns to step S10, and extraction of feature points is continued (steps S11 and S12). Also, in step S15, if there is no next frame (No in step S15), the
次に、この実施形態の画像生成装置の作用効果について説明する。この実施形態の画像生成装置では、カプセル内視鏡80で撮影された映像を全天球映像に変換し、視点固定のアルゴリズムを適用した。
そして、元のアルゴリズムでは特徴点マッチングに失敗するとそれ以降は修正できないという問題点(図22中右上部分参照)があったが、この実施形態の画像生成装置の画像生成プログラムのように基点フレームを更新することで失敗した後も視点を固定して、エラーから復帰して、画像を継続すること(図22中右下部分参照)ができた。
なお、失敗する度に視点が変わってしまうことを防止するため、カルマンフィルタなどを用いて回転行列を推定するなどを行うとさらに望ましい。Next, the effects of the image generation device of this embodiment will be described. In the image generating apparatus of this embodiment, the image captured by the
In the original algorithm, there was a problem that if the feature point matching failed, it could not be corrected thereafter (see the upper right part in FIG. 22). By updating, even after a failure, it was possible to fix the viewpoint, recover from the error, and continue the image (see the lower right part in FIG. 22).
It is more desirable to estimate the rotation matrix using a Kalman filter or the like in order to prevent the viewpoint from changing every time it fails.
また、内視鏡映像に死角が存在する場合は、カプセル内視鏡80の性能の向上により画角が180度以上のものを2つ使用することにより、撮影可能な範囲を広げて、死角のない完全な全天球画像を作るようにしてもよい。
Also, if there is a blind spot in the endoscopic image, by using two capsule endoscopes with an angle of view of 180 degrees or more by improving the performance of the
さらに、カプセル内視鏡80によって撮影される映像自体が暗い場合には、LED照光装置の補助光を使用したり、あるいはISO感度を高感度なものに変更する等、カプセル内視鏡80に用いるカメラ82の性能を向上させるとなおよい。
Furthermore, if the image itself captured by the
<変形例1>
図26は、実施形態の変形例1のクレーン車50を示している。このクレーン車50は、アーム部51の先端から延出されるワイヤ52の一端にフック部材53が吊り下げられている。そして、このフック部材53に、前記実施形態のボール3等が係止され、運転席54から離間した位置まで延伸されたアーム部51の先端から、ボール3を下降させることができる。
これにより、災害現場等により人が入れない空間にボール3を侵入させて、内部の様子を安定した画像で撮影することができる。<
FIG. 26 shows a
As a result, the
<変形例2>
図27は、実施形態の変形例2のドローン(無人機)60を示している。ドローン60の機体中央部下面側61には、前記実施形態のボール3または、他の実施形態のカプセル内視鏡80と同等のカメラ62が装着されていて、操縦者から離間した位置でドローン60の周囲の様子を安定した画像で撮影することができる。
ドローン60は、遠隔操作が可能であるため、オペレータは、災害現場から離れていても現場の様子を詳細に撮影することができ、二次災害を防止できる。<
FIG. 27 shows a drone (unmanned aerial vehicle) 60 of
Since the
<変形例3>
図28は、実施形態の変形例3の釣り竿70である。ロッド71の手もとに固定されているリール72は、複数のガイド73通して、釣り糸74が繰り出されている。釣り糸74の先端には、実施形態のボール3または、他の実施形態のカプセル内視鏡80と同等のカメラ75が装着されている。
そして、ロッド71を握る地上の者から離間した位置で、釣り糸74の先端のカメラ75を降ろして、水中の様子を安定した画像で撮影することができる。<
FIG. 28 shows a
Then, the
以上、本実施形態に係る画像生成装置S、および画像生成プログラムについて詳述してきたが、本発明はこれらの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能であることは言うまでもない。 Although the image generation device S and the image generation program according to the present embodiment have been described in detail above, the present invention is not limited to these embodiments, and can be changed as appropriate without departing from the scope of the present invention. It goes without saying that
例えば、本実施形態では、撮影された1枚の全天球の画像41からπ/6ずつ回転させた6枚の回転画像42a~47aを生成している。しかしながら、特にこれに限らない。たとえば、π/4又はπ/8ずつ回転させた4枚又は8枚の画像等、回転角度が相違する1枚または複数の画像をどのような回転方向の角度の間隔で用いてもよく、それぞれにおいて画像の歪みの少ない低緯度の部分を使って特徴点の抽出が行なえるものであればよい。
For example, in the present embodiment, six rotated
さらに、実施形態では、6台のカメラ4によって、また変形例では、2台に相当する2つのレンズ14cを有する全天球カメラ14によって、撮像部1を構成している。しかしながら特にこれに限らない。たとえば、1又は2台以上の複数のカメラを用いて撮像部1を構成してもよく、撮影した動画が全天球動画となり、全天球動画は、好ましくは全方向の情報を記録することができるものであれば、カメラの数量、形状および組み合わせが特に限定されるものではない。
Furthermore, in the embodiment, six
たとえば、前記他の実施形態では、図13に示すように、魚眼レンズ83,83を有していて、広範囲を撮影可能なカメラ82,82を両端に内蔵しているカプセル内視鏡80を用いているが、特にこれに限らない。たとえば、一方側または他方側とのうち、少なくとも何れか一方にカメラ82が設けられていて、広範囲を撮影可能なカメラ82,82であれば、魚眼レンズ83以外の広角レンズであってもよく、カメラ82やレンズの形状、数量、および材質が特に限定されるものではない。
For example, in the other embodiment, as shown in FIG. 13, a
また、実施形態および変形例では、撮像部1を装着する物体としてボール3,30を用いているが、特にこれに限らない。たとえば、回転移動可能な立方体のフレームの各面に全天球カメラを装着してもよい。また、ラグビーボールのような楕円球であってもよい。このように、回転運動を伴い移動する物体の形状は、球形に限定されるものではない。
Also, in the embodiment and the modified example, the
そして、実施形態の画像生成装置Sでは、ボールが同時に、回転運動する場合および並進運動する場合について説明してきたが特にこれに限らず、回転運動または並進運動のうち、少なくとも何れか一方を行うものであればよい。 In the image generation device S of the embodiment, the case where the ball simultaneously performs rotational motion and translational motion has been described, but the present invention is not limited to this, and at least one of rotational motion and translational motion is performed. If it is
1 撮像部
3,30 ボール
4 カメラ
5,14c レンズ
10 通信インターフェース部
11 記憶部
12 制御部
13 表示部
14 全天球カメラ(カメラ)
14a 筺体
15 固定用円形板
16 装着孔
20 入力部
31 ドーム
80 カプセル内視鏡
82 小型のカメラ(撮像部)
100 ネットワーク1
100 network
Claims (11)
前記撮像部で取得された画像に基づき、同一視点方向の動画を生成する際、前記撮像部が移動する際の移動前後の画像中、前記撮像部が移動する前のフレームtの画像中に存在する特徴点を捉えて、前記撮像部が移動した後のフレーム(t+1)の画像中の特徴点と一致させることにより、移動量を演算して、当該移動量で画像を戻す姿勢修正を繰り返して動画のフレームを連続させる制御部と、
を備えた画像生成装置であって、
前記制御部は、各時刻におけるフレームに対して、一のステップで、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正し、その後、前記一のステップの次のステップで、前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合するとともに、姿勢変化を推定する算出部と、前記推定された姿勢変化から、前記姿勢修正を行う生成部と、を有することを特徴とする画像生成装置。 an imaging unit attached to a moving object;
When generating a moving image in the same viewpoint direction based on the images acquired by the imaging unit, the By matching the feature points in the image of the frame (t+1) after the movement of the imaging unit, the amount of movement is calculated, and the posture correction is repeated to return the image by the amount of movement. a control unit that consecutively frames moving images;
An image generation device comprising:
The control unit rotates a high latitude region to a low latitude region in one step for a frame at each time, extracts a feature point from the low latitude region, and reversely rotates the coordinates of the feature point. to the coordinates in the original image of the high latitude region, and then in the next step of the first step, the feature points extracted from the previous frame and the feature points extracted from the current frame are compared with each other. 1. An image generating apparatus comprising: a calculation unit for estimating a change in posture; and a generation unit for correcting the posture based on the estimated change in posture.
前記撮像部で取得された動画から前記撮像部が移動する際の移動量を演算して、動画のフレームを連続させる制御部と、を備えた画像生成装置に実行させるための画像生成プログラムであって、
前記画像生成装置に、前記撮像部で撮像された動画の画像中に存在する特徴点を捉える特徴点抽出ステップと、
各時刻におけるフレームに対して、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正する修正ステップと、
前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合する特徴点照合ステップと、
移動量を演算して、当該移動量で画像を戻すことを繰り返して動画のフレームを連続させるステップと、を実行させるための画像生成プログラム。 an imaging unit provided on a moving object for capturing an image of the surroundings of the moving object;
an image generation program for causing an image generation device to execute , comprising: a control unit that calculates a movement amount when the imaging unit moves from a moving image acquired by the imaging unit, and continues frames of the moving image; hand,
a feature point extracting step of catching feature points present in an image of a moving image captured by the imaging unit in the image generation device ;
A high latitude area is rotated to a low latitude area for a frame at each time, a feature point is extracted from the low latitude area, and the coordinates of the feature point are reversely rotated to coordinates in the original image of the high latitude area. a correction step that corrects to
a feature point matching step of matching feature points extracted from a previous frame with feature points extracted from a current frame;
An image generation program for executing a step of calculating a movement amount and repeating moving images back by the movement amount to continue frames of a moving image.
前記画像生成装置に、前記動画の画像中に存在する特徴点を捉える特徴点抽出ステップと、
各時刻におけるフレームに対して、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正する修正ステップと、
前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合する特徴点照合ステップと、
移動量を演算して、前記移動量で画像を戻すことを繰り返して動画のフレームを連続させるステップと、を実行させるための画像生成プログラム。 An image generating program to be executed by an image generating device for calculating the amount of movement of a moving object from a moving image of the surroundings of the moving object and making the frames of the moving image continuous,
a feature point extracting step of catching feature points present in the image of the moving image in the image generation device ;
A high latitude area is rotated to a low latitude area for a frame at each time, a feature point is extracted from the low latitude area, and the coordinates of the feature point are reversely rotated to coordinates in the original image of the high latitude area. a correction step that corrects to
a feature point matching step of matching feature points extracted from a previous frame with feature points extracted from a current frame;
An image generation program for executing a step of calculating a movement amount and repeating moving images back by the movement amount to continue frames of a moving image.
照合が失敗した場合に、照合が成功するフレームの取得を行うフレーム取得ステップと、
を実行させるための請求項9または10に記載の画像生成プログラム。 a collation determination step of determining whether collation has failed or succeeded in the image generation device ;
a frame acquisition step of acquiring a frame for which matching is successful if matching fails;
11. The image generating program according to claim 9 or 10, for executing
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016208049 | 2016-10-24 | ||
JP2016208049 | 2016-10-24 | ||
PCT/JP2017/038196 WO2018079490A1 (en) | 2016-10-24 | 2017-10-23 | Image generation device and image generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018079490A1 JPWO2018079490A1 (en) | 2019-09-19 |
JP7211621B2 true JP7211621B2 (en) | 2023-01-24 |
Family
ID=62024925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018547656A Active JP7211621B2 (en) | 2016-10-24 | 2017-10-23 | Image generation device and image generation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7211621B2 (en) |
WO (1) | WO2018079490A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7178081B2 (en) * | 2018-07-31 | 2022-11-25 | 清一 中島 | medical drone system |
JP2020053774A (en) * | 2018-09-25 | 2020-04-02 | 株式会社リコー | Imaging apparatus and image recording method |
JP7268369B2 (en) * | 2019-01-30 | 2023-05-08 | 株式会社リコー | Imaging system, development system, imaging method, and program |
JP7211191B2 (en) * | 2019-03-25 | 2023-01-24 | 株式会社大林組 | hole wall imaging device |
JP2020187227A (en) * | 2019-05-13 | 2020-11-19 | 株式会社アーキジオ | Omnidirectional image capturing device |
US20220262094A1 (en) * | 2019-05-22 | 2022-08-18 | Nippon Telegraph And Telephone Corporation | Image processing method, image processing device, and program |
GB2584470A (en) * | 2019-06-05 | 2020-12-09 | Schleyer Jonathan | Camera systems |
KR102313795B1 (en) * | 2020-04-10 | 2021-10-18 | (주)인펙비전 | Video stabilization method based on SURF for enhancing accuracy and reliability |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001111934A (en) | 1999-10-04 | 2001-04-20 | Olympus Optical Co Ltd | Electronic camera system |
JP2007043225A (en) | 2005-07-29 | 2007-02-15 | Univ Of Electro-Communications | Picked-up processing apparatus and picked-up processing method |
JP2008118495A (en) | 2006-11-07 | 2008-05-22 | Matsushita Electric Ind Co Ltd | Imaging apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104234A (en) * | 2005-10-04 | 2007-04-19 | Canon Inc | Imaging apparatus |
-
2017
- 2017-10-23 JP JP2018547656A patent/JP7211621B2/en active Active
- 2017-10-23 WO PCT/JP2017/038196 patent/WO2018079490A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001111934A (en) | 1999-10-04 | 2001-04-20 | Olympus Optical Co Ltd | Electronic camera system |
JP2007043225A (en) | 2005-07-29 | 2007-02-15 | Univ Of Electro-Communications | Picked-up processing apparatus and picked-up processing method |
JP2008118495A (en) | 2006-11-07 | 2008-05-22 | Matsushita Electric Ind Co Ltd | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2018079490A1 (en) | 2018-05-03 |
JPWO2018079490A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7211621B2 (en) | Image generation device and image generation program | |
CN108615248B (en) | Method, device and equipment for relocating camera attitude tracking process and storage medium | |
JP5024410B2 (en) | 3D modeling apparatus, 3D modeling method, and program | |
EP3007038B1 (en) | Interaction with three-dimensional video | |
CN106464804B (en) | Imaging system, imaging device, computer program and system | |
JP6919334B2 (en) | Image processing device, image processing method, program | |
JP6515813B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
CN106846409B (en) | Calibration method and device of fisheye camera | |
WO2016155377A1 (en) | Picture display method and device | |
WO2019164498A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
JP2017208619A (en) | Image processing apparatus, image processing method, program and imaging system | |
US8965105B2 (en) | Image processing device and method | |
JP2012068861A (en) | Ar processing unit, ar processing method and program | |
CN107967665B (en) | Image processing method and image processing apparatus | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
CN112543343A (en) | Live broadcast picture processing method and device based on live broadcast with wheat and electronic equipment | |
US20090059018A1 (en) | Navigation assisted mosaic photography | |
JP2019110434A (en) | Image processing apparatus, image processing system, and program | |
WO2019116942A1 (en) | Generation device, generation method and program for three-dimensional model | |
CN114511447A (en) | Image processing method, device, equipment and computer storage medium | |
CN113450254A (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
CN111263037B (en) | Image processing device, imaging device, video playback system, method, and program | |
CN110675349B (en) | Endoscopic imaging method and device | |
CN114782470B (en) | Three-dimensional panoramic recognition positioning method of alimentary canal, storage medium and equipment | |
WO2017179136A1 (en) | Entire celestial sphere camera robot altitude adjusting system, entire celestial sphere camera robot altitude adjusting method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7211621 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |