JP7211621B2 - Image generation device and image generation program - Google Patents

Image generation device and image generation program Download PDF

Info

Publication number
JP7211621B2
JP7211621B2 JP2018547656A JP2018547656A JP7211621B2 JP 7211621 B2 JP7211621 B2 JP 7211621B2 JP 2018547656 A JP2018547656 A JP 2018547656A JP 2018547656 A JP2018547656 A JP 2018547656A JP 7211621 B2 JP7211621 B2 JP 7211621B2
Authority
JP
Japan
Prior art keywords
image
frame
feature points
moving
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018547656A
Other languages
Japanese (ja)
Other versions
JPWO2018079490A1 (en
Inventor
英樹 小池
正和 中澤
一輝 下澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Publication of JPWO2018079490A1 publication Critical patent/JPWO2018079490A1/en
Application granted granted Critical
Publication of JP7211621B2 publication Critical patent/JP7211621B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Description

本発明は、画像生成装置、および画像生成プログラムに関する。 The present invention relates to an image generation device and an image generation program.

従来、回転する物体に、カメラを組み合わせて、物体から見た周囲の映像を得る画像生成装置が知られている(例えば、非特許文献1等参照)。 2. Description of the Related Art Conventionally, there has been known an image generation device that combines a rotating object with a camera to obtain an image of the surroundings as seen from the object (see, for example, Non-Patent Document 1).

Jonas Pfeil,Kristain Hildebrand,Carsten Gremzow,Bernd Bickel,and Marc Alexa.Throwable panoramic ball camera. In SIGGRAPH Asia 2011 Emerging Technologies,SA’11,pp.4:1-4:2Jonas Pfeil, Kristain Hildebrand, Carsten Gremzow, Bernd Bickel, and Marc Alexa.Throwable panoramic ball camera. In SIGGRAPH Asia 2011 Emerging Technologies, SA’11, pp.4:1-4:2

しかしながら、このような従来の画像生成装置では、物体の回転の程度によってカメラの姿勢も変化し、視線が不安定になる。このため、安定した画像を得るため、視点を固定したいが、視点がぶれて生成された動画が見ずらくなってしまう。
また、静止画を連結する手法では、先の画像へ再生箇所がジャンプしてしまい、一瞬動きが止まったり、ある画像から次の画像に映像が飛んで連続していない不自然な映像になってしまういわゆるコマ落ちが発生する場合もある。
However, in such a conventional image generation device, the orientation of the camera changes depending on the degree of rotation of the object, making the line of sight unstable. Therefore, in order to obtain a stable image, it is desired to fix the viewpoint, but the moving image generated by the blurring of the viewpoint becomes difficult to watch.
Also, in the method of connecting still images, the playback part jumps to the previous image, and the movement stops for a moment, or the image jumps from one image to the next, resulting in an unnatural image that is not continuous. In some cases, so-called dropped frames may occur.

そこで、本発明は、視点を同一方向に固定して、安定した画像から見やすい動画を生成できる画像生成装置、および画像生成プログラムを提供することを課題としている。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image generation apparatus and an image generation program capable of generating an easy-to-view moving image from stable images by fixing the viewpoint in the same direction.

本発明に係る画像生成装置は、移動する物体に装着される撮像部と、撮像部で取得された画像に基づき、同一視点方向の動画を生成する際、画像中に存在する特徴点を捉えて、移動後の画像中の特徴点と一致させることにより、移動量を演算して、移動量で画像を戻すことを繰り返して動画のフレームを連続させる制御部とを備えることを特徴としている。 The image generating apparatus according to the present invention captures feature points present in the image when generating a moving image in the same viewpoint direction based on the image captured by the image capturing unit attached to a moving object and the image capturing unit. and a control unit that calculates the amount of movement by matching the feature points in the image after the movement, repeats returning the image by the amount of movement, and continues the frames of the moving image.

本発明によれば、視点が同一方向に固定されて安定した画像が良好な動画を生成することができる。 According to the present invention, it is possible to generate a moving image in which the viewpoint is fixed in the same direction and the stable image is good.

画像生成装置の構成を示す模式的なブロック図である。1 is a schematic block diagram showing the configuration of an image generation device; FIG. 画像生成装置のうち、撮像部が設けられたボールの構成を示す斜視図である。1 is a perspective view showing a configuration of a ball provided with an imaging section in an image generating device; FIG. 画像生成装置の記憶部に格納される情報を示す模式的なブロック図である。3 is a schematic block diagram showing information stored in a storage unit of the image generation device; FIG. 画像生成装置の制御部の構成を示す模式的なブロック図である。4 is a schematic block diagram showing the configuration of a control section of the image generation device; FIG. 正距円筒図法を示す図である。FIG. 10 is a diagram showing an equirectangular projection; 変形例の画像生成装置で、撮像部が設けられたボールの構成を示す分解斜視図である。FIG. 11 is an exploded perspective view showing the configuration of a ball provided with an imaging unit in the image generation device of the modification; 画像生成装置に用いられる画像生成プログラムのフローチャートである。4 is a flowchart of an image generation program used in the image generation device; 画像生成装置で、特徴点を抽出する様子を示す概念図である。FIG. 2 is a conceptual diagram showing how feature points are extracted by an image generating device; 画像生成装置で、特徴点を照合させる様子を示す概念図である。FIG. 10 is a conceptual diagram showing how feature points are collated in an image generating device; 画像生成装置で、姿勢変化を推定する様子を示す概念図である。FIG. 10 is a conceptual diagram showing how an image generation device estimates a posture change. 画像生成装置で、姿勢を修正する様子を示す概念図である。FIG. 10 is a conceptual diagram showing how the image generating device corrects the posture; 変形例の画像生成装置で、全天球カメラを内蔵したボールの構成を示す模式的な分解斜視図である。FIG. 12 is a schematic exploded perspective view showing the configuration of a ball with a built-in omnidirectional camera in the image generation device of the modification. 他の実施形態の画像生成装置に用いるカプセル内視鏡の全体図である。FIG. 11 is an overall view of a capsule endoscope used in an image generating device of another embodiment; カプセル内視鏡の使用態様を示す模式的な概念図である。FIG. 2 is a schematic conceptual diagram showing how a capsule endoscope is used; 一般的なカプセル内視鏡で撮像された映像の一例を示す図である。FIG. 4 is a diagram showing an example of an image captured by a general capsule endoscope; 2つのカメラによって撮影された画像の一例を示す模式的な概念図である。FIG. 2 is a schematic conceptual diagram showing an example of images captured by two cameras; 特徴点マッチングが成功した一例を示す模式的な概念図である。FIG. 11 is a schematic conceptual diagram showing an example of successful feature point matching; 特徴点マッチングが失敗した一例を示す模式的な概念図である。FIG. 11 is a schematic conceptual diagram showing an example in which feature point matching has failed; 図15に対応する補完された映像の一例を示す図である。FIG. 16 is a diagram showing an example of an interpolated video corresponding to FIG. 15; 欠落したフレームを補完する様子を説明する模式的な概念図である。FIG. 4 is a schematic conceptual diagram illustrating how missing frames are complemented; 不完全な魚眼画像から全天球の画像に変換したことを説明する模式的な概念図である。FIG. 10 is a schematic conceptual diagram illustrating conversion from an imperfect fisheye image to an omnidirectional image; エラーフレームが発生した場合に、修正により復帰したフレームの様子を説明する模式的な概念図である。FIG. 4 is a schematic conceptual diagram for explaining how a frame is restored by correction when an error frame occurs. 他の実施形態の画像生成プログラムの一実施例を示し、左側の画像が比較のために示す既存手法においてエラー後、意味のない画像が流れる様子を示す模式的な概念図である。右側の画像は、改良された様子を示し、フレームにエラーフレームが発生しても、修正により復帰したフレームの様子を説明する模式的な概念図である。FIG. 10 is a schematic conceptual diagram showing an example of an image generation program of another embodiment, and showing a state in which a meaningless image flows after an error in the existing method shown in the image on the left for comparison. The image on the right side is a schematic conceptual diagram showing the improved state, and explaining the state of the frame recovered by correction even if an error frame occurs in the frame. 実施形態の画像生成装置に用いられる画像生成プログラムのフローチャートである。4 is a flowchart of an image generation program used in the image generation device of the embodiment; 他の実施形態の画像生成プログラムで、上から1行目は、撮像された映像を連続させたフレームを示し、2行目は、特徴点を抽出する工程の後、特徴点を照合させる工程を示し、3行目は、比較のために従来の画像生成プログラムを用いて安定化させた後のフレームを、4行目は、この実施形態の画像生成プログラムを用いて安定化させた後フレームを示すものである。In the image generation program of another embodiment, the first line from the top shows frames in which captured images are continuous, and the second line shows the step of matching the feature points after the step of extracting the feature points. Row 3 shows the frames after stabilization using the conventional image generation program for comparison, and Row 4 shows the frames after stabilization using the image generation program of this embodiment. is shown. 実施形態の変形例1のクレーン車を説明する斜視図である。It is a perspective view explaining the crane truck of the modification 1 of embodiment. 他の実施形態の変形例2のドローン(無人機)を説明する斜視図である。It is a perspective view explaining the drone (unmanned aerial vehicle) of the modification 2 of other embodiment. 他の実施形態の変形例3の釣り竿を説明する斜視図である。It is a perspective view explaining the fishing rod of the modification 3 of other embodiment.

本発明の実施形態について、図1乃至図12を参照して詳細に示す。説明において、同一の要素には同一の番号を付し、重複する説明は省略する。 Embodiments of the present invention are illustrated in detail with reference to FIGS. 1-12. In the description, the same elements are given the same numbers, and overlapping descriptions are omitted.

図1は、実施形態の画像生成装置Sの構成を説明する模式的なブロック図である。
実施形態の画像生成装置Sは、撮像部1と、制御を行うPC(パーソナルコンピュータ:制御部)2と、物体に装着されるカメラ4とを備えている。
FIG. 1 is a schematic block diagram illustrating the configuration of an image generation device S according to an embodiment.
The image generation device S of the embodiment includes an imaging unit 1, a PC (personal computer: control unit) 2 for control, and a camera 4 attached to an object.

このうち、図2に示すように、物体としてのボール3は、回転運動を伴って移動する撮像部1を設けている。撮像部1は、表面の球面に均等または、ほぼ均等に複数台のカメラ4(ここでは、X=6台)を有している。
カメラ4には、それぞれレンズ5が設けられていて、各レンズ5は、それぞれ外方に向けて配置されている。これにより、カメラ4は、ボール3の周囲の全ての空間を撮影可能な全天球型のカメラとして機能することができる。
Among them, as shown in FIG. 2, a ball 3 as an object is provided with an imaging unit 1 that moves with rotational motion. The imaging unit 1 has a plurality of cameras 4 (here, X=6) evenly or almost evenly on the spherical surface of the surface.
Each camera 4 is provided with a lens 5, and each lens 5 is arranged facing outward. Thereby, the camera 4 can function as an omnidirectional camera capable of photographing the entire space around the ball 3 .

すなわち、実施形態のボール3に設けられた6台のカメラ4では、撮影した動画が全天球動画となり、全天球動画は、全方向(ボール3を中心に360°)の情報を撮影することができる。
従って、全天球動画は、どの方向の視点でも、たとえば、移動方向正面や、移動方向の背面など、視界の切れ目を生じさせることがない。ここでは、6台のカメラ4で撮影しているが、1枚の全天球映像が得られれば、X=何台のカメラであっても構わない。
That is, with the six cameras 4 provided on the ball 3 of the embodiment, the captured video is an omnidirectional video, and the omnidirectional video captures information in all directions (360° centering on the ball 3). be able to.
Therefore, the omnidirectional moving image does not cause any break in the field of view, such as the front in the moving direction or the back in the moving direction, regardless of the viewpoint in any direction. Here, six cameras 4 are used for photographing, but X may be any number of cameras as long as one omnidirectional image can be obtained.

また、図1のPC2は、通信インターフェース部10と、カメラ4によって撮影された情報およびプログラムなどを記憶する記憶部11と、通信インターフェース部10で受信した画像に基づき、同一視点方向の動画を生成する制御部12と、制御部12で演算された動画を出力して表示するモニタからなる表示部13と、キーボード等の入力部20とを有している。 The PC 2 in FIG. 1 also includes a communication interface unit 10, a storage unit 11 for storing information and programs captured by the camera 4, and based on images received by the communication interface unit 10, generates moving images in the same viewpoint direction. a display unit 13 including a monitor for outputting and displaying the moving image calculated by the control unit 12; and an input unit 20 such as a keyboard.

この通信インターフェース部10は、ネットワーク100に接続されて、送受信を行うとともに、ボール3のカメラ4によって撮影されたデータを受信可能とする通信手段を含む。
そして、通信インターフェース部10は、ブルートゥース(登録商標)などの無線通信により、回転を含む移動しているボール3から送られてくる画像の信号を受信可能に構成されている。なお、ここでは、無線通信の一例として、ブルートゥースを挙げたが、特にこれに限らず、ボール3から送られてくる画像を受信可能であれば、他の無線通信規格に基づく通信手段を用いてもよい。
The communication interface unit 10 is connected to the network 100 to perform transmission and reception, and includes communication means capable of receiving data photographed by the camera 4 of the ball 3 .
The communication interface unit 10 is configured to be able to receive image signals sent from the moving ball 3 including rotation through wireless communication such as Bluetooth (registered trademark). Here, Bluetooth is used as an example of wireless communication, but it is not limited to this, and communication means based on other wireless communication standards can be used as long as the image sent from the ball 3 can be received. good too.

記憶部11は、揮発性メモリ、不揮発性メモリを有して構成されている。このうち、揮発性メモリとしては、スタティック・ランダム・アクセス・メモリ(SRAM)とダイナミック・ランダム・アクセス・メモリ(DRAM)を含む。また、BIOS、プログラムコードおよびシステムソフトウェアなどは、不揮発性メモリに格納される。不揮発性メモリは、リードオンリィメモリ(ROM)、EPROM、EEPROM、フラッシュメモリ、磁気記憶媒体、コンパクトディスクなどの光学ディスクを含む。 The storage unit 11 is configured with a volatile memory and a nonvolatile memory. Volatile memory includes static random access memory (SRAM) and dynamic random access memory (DRAM). In addition, BIOS, program code, system software, etc. are stored in non-volatile memory. Non-volatile memory includes read-only memory (ROM), EPROM, EEPROM, flash memory, magnetic storage media, and optical disks such as compact disks.

そして、この実施形態の記憶部11には、図3に示すように、動画11a、特徴点画像11b、数式11c、姿勢変換行列11dが随時、呼び出し可能に格納されている。 As shown in FIG. 3, the storage unit 11 of this embodiment stores a moving image 11a, a feature point image 11b, an equation 11c, and a posture transformation matrix 11d so that they can be called at any time.

図4に示すように、制御部12は、CPU(CentralProcessingUnit)などにより主に構成されていて、記憶部11に記憶されたプログラムまたは、ネットワーク100からダウンロードされたアプリケーションプログラムを実行する。これにより、制御部12は、カメラ4から送られてくる画像の情報を演算して、動画を生成するように構成されている。動画は、表示部13に出力されて表示される(図1参照)。 As shown in FIG. 4 , the control unit 12 is mainly composed of a CPU (Central Processing Unit) or the like, and executes programs stored in the storage unit 11 or application programs downloaded from the network 100 . Thereby, the control unit 12 is configured to calculate the image information sent from the camera 4 and generate a moving image. The moving image is output and displayed on the display unit 13 (see FIG. 1).

制御部12は、6台のカメラ4から動画を取得する取得部12aを備えている。この取得部12aでは、1枚の全天球の画像41を生成する。
さらに、制御部12は、次にこの1枚の全天球の画像41から、n枚(nは任意の自然数、π/n、ここでは6枚であるがカメラ4の台数とは関連がない。)の回転画像を生成する分割部12bと、低緯度の部分の特徴点を抽出する抽出部12cと、n枚の画像を1枚の全体画像に統合する統合部12dとを備える。さらに、制御部12は、一致度を算出する算出部12eと、姿勢の推定を行う生成部12fと、生成された画像を出力する出力部12gとを備えている。
The control unit 12 includes an acquisition unit 12 a that acquires moving images from the six cameras 4 . This acquisition unit 12a generates a single omnidirectional image 41 .
Further, the control unit 12 next selects n images (n is an arbitrary natural number, π/n, 6 images here, but is not related to the number of cameras 4) from this one omnidirectional image 41 . ), an extraction unit 12c for extracting feature points in low latitude portions, and an integration unit 12d for integrating n images into one overall image. Further, the control unit 12 includes a calculation unit 12e that calculates the matching degree, a generation unit 12f that estimates the posture, and an output unit 12g that outputs the generated image.

すなわち、制御部12は、動画を生成する際、画像中に存在する特徴点を捉えて、移動後の画像中の特徴点と一致させることにより、移動量を演算して、姿勢を修正することにより動画のフレームを連続させる。ここで、特徴点とは、たとえば画素値の変化が他の箇所よりも大きい若しくはまれに小さい箇所で、他の箇所との差異が明確な部分を示す。
まず、取得部12aで動画が取得されると、分割部12bにて1枚の全天球の画像41から、n枚の回転画像(π/nずつ回転)が生成される(図8中の回転画像42a~47a参照)。
That is, when generating a moving image, the control unit 12 captures the feature points present in the image and matches them with the feature points in the image after movement, thereby calculating the amount of movement and correcting the posture. makes the video frames continuous. Here, the feature point is, for example, a portion where the change in pixel value is larger or rarely smaller than that of other portions, and indicates a portion where the difference from other portions is clear.
First, when a moving image is acquired by the acquiring unit 12a, n rotated images (rotated by π/n) are generated from one omnidirectional image 41 by the dividing unit 12b. See rotated images 42a-47a).

抽出部12cは、SIFT(Scale-InvariantFeatureTransform)を用いて各フレームから特徴点を抽出する。SIFTは、画像のスケールや回転に対して不変な特徴点を求めるアルゴリズムである。このSIFTは、様々な強さで平滑化した画像の差分からDoG(Difference-of-Gaussian)画像を生成して、ガウス方向の値の変化、すなわち画像に強さの異なるぼかしを適用した場合の画素値の変化を基に特徴点を抽出する。 The extraction unit 12c extracts feature points from each frame using SIFT (Scale-Invariant Feature Transform). SIFT is an algorithm for finding feature points that are invariant to the scale and rotation of an image. This SIFT generates a DoG (Difference-of-Gaussian) image from the difference of images smoothed with various intensities, and measures the change in value in the Gaussian direction, i. Feature points are extracted based on changes in pixel values.

図5は、球面座標を表している。また、図6は、正距円筒図法による全天球画像座標を表している。正距円筒図法によって表された画像は経線と緯線とが直角を成し、等間隔の経度と緯度とをもって交差するという性質を有する。しかしながら、球面上では、これらは等間隔に配置されていない。よって、表示部13にて全天球画像を2次元の画像として表示すると、低緯度領域では、情報が正しく表示されるが、高緯度領域では、情報が経度方向に引き伸ばされて歪みが発生する。このため、高緯度領域では、特徴点を取得することができなかったり、特徴量が正確に抽出できない場合がある。
このため、抽出部12cは、n枚すべてに対し、低緯度の部分だけを使って特徴点抽出を行う。
なお、この実施形態では、特徴点の抽出にSIFTを用いたが、SIFTに代えてSURFやAKAZEなどの他のアルゴリズムを用いて特徴点を抽出してもよい。
FIG. 5 represents spherical coordinates. Also, FIG. 6 shows omnidirectional image coordinates by the equirectangular projection method. An image represented by an equirectangular projection has the property that longitudes and latitudes form right angles and intersect at equally spaced longitudes and latitudes. However, on the spherical surface they are not evenly spaced. Therefore, when the omnidirectional image is displayed as a two-dimensional image on the display unit 13, the information is correctly displayed in the low latitude area, but the information is stretched in the longitude direction and distorted in the high latitude area. For this reason, in high latitude regions, it may be impossible to obtain feature points or accurately extract feature amounts.
Therefore, the extracting unit 12c performs feature point extraction using only the low latitude portions for all n images.
Although SIFT is used to extract feature points in this embodiment, other algorithms such as SURF and AKAZE may be used instead of SIFT to extract feature points.

そして、統合部12dは、n枚の回転画像の抽出結果を用いて、特徴点をもつ1枚の画像を作る。これらの動作は、各時刻におけるフレームに対して行われる。
また、算出部12eは、前のフレームと現在のフレームの特徴点を用いて特徴点照合を行い、姿勢変換行列Rを求める。
制御部12は、特徴点が画像周縁の歪みの多い部分にある場合、同一視点方向の周縁の歪の少ない部分である低緯度の部分に画像を移動させてから、特徴点を一致させる。
生成部12fは、姿勢変換行列Rを用いて現在のフレーム画像を前のフレームの画像に戻す。出力部12gは、画像をモニタ等の表示部13に出力する。
Then, the integration unit 12d creates one image having feature points using the extraction results of the n rotated images. These operations are performed for frames at each time.
Further, the calculation unit 12e performs feature point matching using the feature points of the previous frame and the current frame, and obtains the posture transformation matrix R. FIG.
If the feature point is located in a portion of the periphery of the image with much distortion, the control unit 12 moves the image to a portion of low latitude, which is a portion of the periphery with less distortion in the same viewpoint direction, and then matches the feature points.
The generation unit 12f uses the posture transformation matrix R to restore the current frame image to the previous frame image. The output unit 12g outputs the image to the display unit 13 such as a monitor.

表示部13は、制御部12で生成された同一視点方向の動画を出力して表示する。
そして、カメラ4によって撮影された3次元の全方位の画像は、表示部13によって、2次元の画像としてリアルタイムで表示される。
The display unit 13 outputs and displays the moving image in the same viewpoint direction generated by the control unit 12 .
The three-dimensional omnidirectional image captured by the camera 4 is displayed in real time as a two-dimensional image by the display section 13 .

この際、カメラ4によって構成される全天球カメラは、カメラモデルとしてカメラを中心とする3次元球面を想定すると、3次元球面の経緯度(θ,φ)と、正距円筒図法による全天球画像座標(u,v)との関係は以下のようになる。
u=w/2π・(θ+π) (-π≦θ<π)…(1)
v=h/π・(φ+π/2) (-π/2≦θ<π/2)…(2)
ただし、wは画像の幅、hは画像の高さである。
At this time, assuming a three-dimensional spherical surface centered on the camera as a camera model, the omnidirectional camera configured by the camera 4 has the latitude and longitude (θ, φ) of the three-dimensional spherical surface and the all-sky image by the equirectangular projection. The relationship with spherical image coordinates (u, v) is as follows.
u=w/2π・(θ+π) (−π≦θ<π) (1)
v=h/π·(φ+π/2) (−π/2≦θ<π/2) (2)
However, w is the width of the image, and h is the height of the image.

次に、実施形態の画像生成装置Sの画像処理について、図7に示すフローチャートに沿って、図8~図11を参照しつつ、説明する。
カメラ4によって撮影されたデータに基づいて画像処理が開始されると、ステップS0では、取得部12aで画像が取得される。ステップS1では、特徴点を抽出するため、撮像部1で撮像された動画の画像中に存在する特徴点を捉える(図8参照)。
Next, image processing of the image generation device S of the embodiment will be described along the flowchart shown in FIG. 7 and with reference to FIGS. 8 to 11. FIG.
When the image processing is started based on the data photographed by the camera 4, the image is obtained by the obtaining unit 12a in step S0. In step S1, in order to extract the feature points, the feature points present in the moving image captured by the imaging unit 1 are captured (see FIG. 8).

ここで、まず全天球画像からの特徴点と特徴量との抽出方法について説明する。前述したように正距円筒図法で示された全天球画像は、低緯度領域のみ情報が正しく表示され、高緯度領域では、画像41のように情報に歪が生じている。
そして、情報が正しく表示される低緯度領域内の特徴点を抽出することにより、姿勢修正に用いる特徴点照合(マッチング)に対応させることができる。
Here, first, a method of extracting feature points and feature amounts from an omnidirectional image will be described. As described above, in the omnidirectional image represented by the equirectangular projection, the information is correctly displayed only in the low latitude area, and the information is distorted like the image 41 in the high latitude area.
By extracting feature points in the low latitude region where information is correctly displayed, feature point matching (matching) used for posture correction can be performed.

この実施形態の制御部12の取得部12a(図4参照)は、特徴点を抽出したい注目する領域が高緯度にあるときは、注目する領域を球面の回転によって、移動方向前方の同一視点方向の周縁の歪の少ない低緯度の領域へ移動させる。
すなわち、制御部12は、各時刻において図8に示す全天球の画像41を1枚撮影して生成する(original)。この全天球の画像41から分割部12b(図4参照)は、回転画像42~47をn枚(π/nより)、生成する。回転画像42a~47aは、π/6(n枚の値は任意に決められる)ずつ回転させて、ここでは、6枚(π/6なので6枚)、生成される。
そして、抽出部12cは、この6枚の回転画像42a~47aのそれぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出を行う。さらに、この実施形態では、統合部12dがこれらの6枚から得られた特徴点をまとめて全体画像49の特徴点とする。この結果、original画像において歪みの影響の少ない特徴点が抽出される。
When the region of interest from which feature points are to be extracted is at a high latitude, the acquisition unit 12a (see FIG. 4) of the control unit 12 of this embodiment rotates the region of interest in the direction of the same viewpoint forward in the moving direction by rotating the spherical surface. Move to a lower latitude region with less peripheral distortion.
That is, the control unit 12 captures and generates one omnidirectional image 41 shown in FIG. 8 at each time (original). From this omnidirectional image 41, the dividing unit 12b (see FIG. 4) generates n rotated images 42 to 47 (from π/n). The rotated images 42a to 47a are rotated by π/6 (the value of n images is arbitrarily determined), and here, 6 images (6 because π/6) are generated.
Then, the extraction unit 12c extracts feature points using only the low latitude portions with little image distortion in each of the six rotated images 42a to 47a. Furthermore, in this embodiment, the integration unit 12 d puts together the feature points obtained from these six images and uses them as the feature points of the entire image 49 . As a result, feature points that are less affected by distortion are extracted from the original image.

このように、特徴点と特徴量とを抽出する前に、球面の回転によって注目する領域を低緯度の領域へと移動する。すなわち、カメラ4の座標系のX軸周りに適切な量だけ回転させることにより、擬似的に高緯度領域を低緯度へ移動させることができる。
たとえば、図8中、回転画像42a~47aに示すように高緯度に存在した注目する領域は、移動方向と同一の視点方向の周縁の歪の少ない低緯度の領域に移動して、低緯度の領域に存在するのと同様に正確に特徴点と特徴量とを抽出することが可能となる。
In this way, before extracting feature points and feature quantities, the area of interest is moved to a lower latitude area by rotating the spherical surface. That is, by rotating the coordinate system of the camera 4 by an appropriate amount around the X-axis, the high latitude area can be pseudo-moved to the low latitude.
For example, in FIG. 8, as shown in rotated images 42a to 47a, a region of interest existing at a high latitude is moved to a low latitude region with less peripheral distortion in the viewpoint direction which is the same as the moving direction. It is possible to extract feature points and feature quantities as accurately as if they exist in .

特徴点は低緯度領域で抽出するため、抽出した特徴点の座標と元の画像とにおける特徴点のあるべき座標は異なる。このため、生成部12f(図4参照)で推定された姿勢に基づいて、特徴点と特徴量とを抽出するために行った回転と逆の回転を特徴点の座標に適用する。これにより、元の画像における特徴点の座標に修正することができる。 Since the feature points are extracted in a low latitude region, the coordinates of the extracted feature points are different from the coordinates of the feature points in the original image. Therefore, based on the orientation estimated by the generation unit 12f (see FIG. 4), the rotation opposite to the rotation performed to extract the feature points and feature amounts is applied to the coordinates of the feature points. As a result, the coordinates of the feature points in the original image can be corrected.

ステップS2では、算出部12e(図4参照)にて特徴点照合が行われる(図9参照)。特徴点照合は、特徴点が画像周縁の歪みの多い部分にあると判定すると、同一視点方向の周縁の歪の少ない部分に画像を移動させてから、移動前の画像中の特徴点と移動後の画像中の特徴点と一致させる。
ここでは、フレームtの特徴点とフレーム(t+1)の特徴点とが照合されているものが示されている。図中2つのフレームt,フレーム(t+1)に跨る直線は、同一であると推定される特徴点同士を結んだものである。
各フレームの特徴点と特徴量とは、低緯度に移動された特徴点から正確に抽出されているため、照合結果の信頼性が向上している。
In step S2, feature point collation is performed by the calculation unit 12e (see FIG. 4) (see FIG. 9). In the feature point collation, when it is determined that the feature point is located in a portion of the periphery of the image with much distortion, the image is moved to a portion of the periphery of the image with less distortion in the same viewpoint direction. match the feature points in the image of
Here, the feature points of frame t and the feature points of frame (t+1) are collated. In the figure, a straight line extending over two frames t and (t+1) connects feature points that are presumed to be the same.
Since the feature points and feature amounts of each frame are accurately extracted from feature points that have been moved to low latitudes, the reliability of matching results is improved.

ステップS3では、算出部12e(図4参照)にて姿勢変化の推定が行われる(図10参照)。ここでは、得られた照合情報から、基本行列Eを、回転と並進とに分解して、カメラ4の姿勢変化の姿勢変換行列Rを求める。
すなわち、全天球画像上で抽出した特徴点の座標を正規化画像座標へ変換する。たとえば、照合の結果を用いて8点アルゴリズムによって2つのフレームの撮影時のカメラ間の基本行列Eを推定する。なお、ロバストに推定するためにRANSACやLMedsを用いるとなおよい。
このように、基本行列Eを、回転と並進とに分解することにより、2つのフレーム間の回転行列と並進ベクトルとが得られる姿勢変換行列Rとなる。このため、姿勢変換行列Rにより2つのフレーム間のカメラ4の姿勢変化が求められる。
In step S3, the posture change is estimated by the calculator 12e (see FIG. 4) (see FIG. 10). Here, from the collation information obtained, the basic matrix E is decomposed into rotation and translation, and an orientation conversion matrix R for the orientation change of the camera 4 is obtained.
That is, the coordinates of the feature points extracted on the omnidirectional image are converted into normalized image coordinates. For example, the result of matching is used to estimate the fundamental matrix E between the cameras when the two frames were taken by an 8-point algorithm. It is more preferable to use RANSAC or LMeds for robust estimation.
By decomposing the fundamental matrix E into rotation and translation in this way, an orientation transformation matrix R is obtained that provides a rotation matrix and a translation vector between two frames. Therefore, the posture change of the camera 4 between two frames can be obtained from the posture transformation matrix R. FIG.

ステップS4では、生成部12f(図4参照)にて姿勢修正が行われる(図11(a)参照)。ここでは、各フレームごとの姿勢変化を示す姿勢変換行列Rが得られたことから、これらの積として任意のフレームの姿勢を修正して、フレームF1からフレームFnまでの全ての隣接フレーム間の姿勢変化を計算する。
すなわち、初期フレームから始めて現フレームまでの全ての隣接するフレーム間で、姿勢変換行列Rを推定する。
そして、それらの総乗は、図11(b)に示すように初期のフレームと現在のフレームとの姿勢変化を表す回転行列であるとみなせる。
これにより、現在のフレームに対してその姿勢変換行列R(n-1)(nはフレーム数)、を作用させることにより、現在のフレームを初期のフレームの視点に連続させることができる。
In step S4, posture correction is performed by the generator 12f (see FIG. 4) (see FIG. 11A). Here, since the attitude transformation matrix R indicating the attitude change for each frame is obtained, the attitude of an arbitrary frame is corrected as the product of these, and the attitude of all adjacent frames from frame F1 to frame Fn is calculated. Calculate change.
That is, the pose transformation matrix R is estimated between all adjacent frames starting from the initial frame to the current frame.
Then, the sum of them can be regarded as a rotation matrix representing the posture change between the initial frame and the current frame as shown in FIG. 11(b).
As a result, the current frame can be made continuous with the viewpoint of the initial frame by applying the attitude transformation matrix R(n-1) (n is the number of frames) to the current frame.

この実施形態では、初期フレームと現在のフレームとの間で直接、姿勢を推定しない。
これには、以下の理由が存在する。すなわち、(i)隣接するフレーム間の時間差は微小である。このため、特徴点の移動量も微小に限られる。これにより、3次元球面上で移動量の大きい特徴点同士の照合をフィルタリングできる。(ii)隣接するフレーム間の時間差は微小である。よって、シーンは静的である。(iii)隣接するフレーム間の時間差は微小である。したがって、並進による特徴点の見え方に変化はない。
In this embodiment, we do not estimate the pose directly between the initial frame and the current frame.
There are the following reasons for this. (i) the time difference between adjacent frames is minute; Therefore, the amount of movement of the feature point is also limited to a small amount. This makes it possible to filter matching between feature points with a large amount of movement on the three-dimensional spherical surface. (ii) the time difference between adjacent frames is minute; The scene is therefore static. (iii) the time difference between adjacent frames is minute; Therefore, there is no change in how the feature points appear due to translation.

ステップS5では、次のフレームがあるか否かが判定される。ステップS5にて、次のフレームがある場合(ステップS5にてYes)、ステップS2に戻り、特徴点の抽出が継続して行われる。また、ステップS5にて、次のフレームがない場合(ステップS5にてNo)、制御部12は、処理を終了する。 At step S5, it is determined whether or not there is a next frame. If there is a next frame in step S5 (Yes in step S5), the process returns to step S2 to continue extraction of feature points. Further, in step S5, if there is no next frame (No in step S5), the control unit 12 terminates the process.

次に、この実施形態の画像生成装置Sの作用効果について説明する。
この実施形態の画像生成装置Sでは、特徴点照合ステップS2にて、特徴点が画像周縁の歪みの多い部分にあると判定すると、同一視点方向の周縁の歪の少ない部分に画像を移動させてから、移動前の画像中の特徴点と移動後の画像中の特徴点と一致させる。
このため、カメラ4を設けたボール3が高速で回転していても、6枚の回転画像42a~47aのそれぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出を行うことができる。したがって、抽出された特徴点および特徴量の精度を良好なものとすることができる。
そして、この精度の良好な特徴点の情報に基づいて正確な移動量を算出して、姿勢修正を行うことにより、隣接するフレーム間を繋げることができる。このため、フレーム間は円滑に連続して、視点が固定されて安定した動画を生成できる。しかも、生成された動画は、回転して移動するボール3の周囲を全て撮影した見えない部分の存在しない、安定した動画を得られる。このため、スポーツや、医療、災害現場等、様々な分野に用いることができる。
Next, the effects of the image generation device S of this embodiment will be described.
In the image generation device S of this embodiment, when it is determined in the feature point collation step S2 that the feature point is located in a portion of the periphery of the image with much distortion, the image is moved to a portion of the periphery with less distortion in the same viewpoint direction. , the feature points in the image before movement are matched with the feature points in the image after movement.
Therefore, even if the ball 3 on which the camera 4 is mounted rotates at high speed, it is possible to perform feature point extraction using only the low latitude portions with little image distortion in each of the six rotated images 42a to 47a. can. Therefore, it is possible to improve the accuracy of the extracted feature points and feature amounts.
Adjacent frames can be connected by calculating an accurate amount of movement based on the information of feature points with high accuracy and correcting the posture. Therefore, it is possible to generate a stable moving image with smooth continuity between frames and a fixed viewpoint. In addition, the generated moving image can be a stable moving image in which the surroundings of the ball 3 that rotates and moves are all photographed and there is no hidden portion. Therefore, it can be used in various fields such as sports, medicine, and disaster sites.

また、この実施形態では、複数のレンズ5を組み合わせた全天球型のカメラ4を用いたので、移動方向正面や、移動方向の背面など、どの方向の視点にもフレームの切れ目を生じさせることなく、視野が連続した動画を生成することができる。 In addition, in this embodiment, since the omnidirectional camera 4 that combines a plurality of lenses 5 is used, it is possible to create a break in the frame at any viewpoint in any direction, such as the front in the moving direction or the back in the moving direction. It is possible to generate a moving image with a continuous field of view.

さらに、この実施形態では、図8に示すように、1枚撮影された全天球の画像41から、π/6ずつ回転させた6枚の回転画像42a~47aを生成して、それぞれにおいて画像の歪みの少ない低緯度の部分だけを使って特徴点抽出が行なわれている。このため、さらに、歪みの影響の少ない多数の特徴点が全体画像49の特徴点としてまとめられる。従って、隣接フレーム間の姿勢変化を計算する際にも、移動量の推定の精度を向上させることが出来、さらに動画の視点の位置を安定させることができる。 Furthermore, in this embodiment, as shown in FIG. 8, six rotated images 42a to 47a are generated by rotating a single omnidirectional image 41 by π/6. Feature point extraction is performed using only low-latitude portions with little distortion. For this reason, a large number of feature points that are less affected by distortion are grouped together as feature points of the entire image 49 . Therefore, even when calculating the posture change between adjacent frames, it is possible to improve the accuracy of estimating the amount of movement and stabilize the position of the viewpoint of the moving image.

<実施例>
図12は、実施形態の変形例の画像生成装置Sで、撮像部としての全天球カメラ14が内蔵されたボール30の構成を示す分解斜視図である。なお、前記実施形態と同一乃至均等な部分については、説明を省略する。
この変形例のボール30は、中空半球形状の透明アクリル樹脂製の一対のドーム31,32を係合させて、外形形状が球体となるように構成されている。
ボール30の内部には、固定用円形板15が設けられている。固定用円形板15は、ドーム31,32の内側面31a,32aに、移動不能となるように固定されている。そして、固定用円形板15の一部には、全天球カメラ14を固定する装着孔16が開口されている。
<Example>
FIG. 12 is an exploded perspective view showing the configuration of a ball 30 in which an omnidirectional camera 14 as an imaging unit is built in an image generation device S according to a modification of the embodiment. Note that descriptions of the same or equivalent portions as those of the above embodiment will be omitted.
The ball 30 of this modified example is constructed so that a pair of hollow hemispherical transparent acrylic resin domes 31 and 32 are engaged to form a spherical outer shape.
A fixing circular plate 15 is provided inside the ball 30 . The fixing circular plate 15 is fixed to the inner side surfaces 31a and 32a of the domes 31 and 32 so as not to move. A mounting hole 16 for fixing the omnidirectional camera 14 is opened in a part of the fixing circular plate 15 .

また、この変形例の全天球カメラ14は、箱型の筺体14aの表,裏両側面14bに、それぞれに撮影可能画角が180度以上、好ましくは約270度程度の2つのレンズ14c,14cが設けられている。そして、固定用円形板15の装着孔16に筺体14aを嵌着させた状態で、ドーム31,32の略中心に、2つのレンズ14c,14cが配置されるように構成されている。
このため、この全天球カメラ14は、2つのレンズの画像を合成することにより、周囲を360度撮影した全天球の画像を生成できる。
In addition, the omnidirectional camera 14 of this modification has two lenses 14c each having a photographable angle of view of 180 degrees or more, preferably about 270 degrees, on both front and back sides 14b of a box-shaped housing 14a. 14c is provided. Two lenses 14c and 14c are arranged substantially at the center of the domes 31 and 32 with the housing 14a fitted in the mounting hole 16 of the fixing circular plate 15. As shown in FIG.
Therefore, the omnidirectional camera 14 can generate a 360-degree omnidirectional image by synthesizing the images of the two lenses.

このように構成された変形例の全天球カメラ14では、表,裏両側面14bに設けられた2つのレンズ14cによって、周囲を360度撮影することが可能である。このため、この変形例の全天球カメラ14では、実施形態の作用効果に加えて、さらに少ないカメラの台数で、どの方向にも切れ目なく、動画のフレームを連続させて、一定の方向に視線を安定させた動画を円滑に生成することができる。 In the omnidirectional camera 14 of the modified example configured in this manner, the two lenses 14c provided on the front and back side surfaces 14b are capable of photographing the surroundings at 360 degrees. For this reason, in the omnidirectional camera 14 of this modified example, in addition to the effects of the embodiment, the number of cameras is even smaller, the video frames are continuous in any direction, and the line of sight is displayed in a fixed direction. can be smoothly generated.

<他の実施形態>
図13~図22は、他の実施形態として、医療用のカプセル内視鏡80に本発明の画像生成装置および画像生成プログラムを適用したものを示している。
近年,医療分野では、図13に示すように、魚眼レンズ83,83を有して、広範囲を撮影可能なカメラ82,82を両端に内蔵しているカプセル内視鏡80が普及してきた。カプセル内視鏡80は、図14に示すように被験者kの嚥下により消化器官内を流下させながら周囲の器官を内側から撮像する。これにより、身体の内部が容易に確認できる。
<Other embodiments>
13 to 22 show, as another embodiment, a medical capsule endoscope 80 to which the image generating device and image generating program of the present invention are applied.
In recent years, in the medical field, as shown in FIG. 13, a capsule endoscope 80 having fisheye lenses 83, 83 and built-in cameras 82, 82 capable of photographing a wide range at both ends has become popular. As shown in FIG. 14, the capsule endoscope 80 images the surrounding organs from the inside while flowing down the inside of the digestive organ by swallowing of the subject k. This makes it easy to see inside the body.

一方で、カプセル内視鏡80はいくつか問題点を抱えている。たとえば、二つのカメラ82,82から得られた映像を同時に観察することができない問題点がある。
この問題点に対して、カメラ82,82から得られた映像から全天球動画を生成することにより、施術者は、二つの映像の位置関係を一目で認識できるようになる。
On the other hand, the capsule endoscope 80 has some problems. For example, there is a problem that the images obtained from the two cameras 82, 82 cannot be observed at the same time.
To solve this problem, by generating an omnidirectional moving image from the images obtained from the cameras 82, 82, the practitioner can recognize the positional relationship between the two images at a glance.

しかしながら、この際、カプセル内視鏡80は体内で回転しながら進むため、単純に全天球動画を生成したとしても、カプセル内視鏡80がどのように進んでいるのかがわかりにくい。
このため、カプセル内視鏡80から得られた映像に対して、前記実施形態にて説明した全天球動画を安定化させる手法を応用することで、この課題を解決する。
However, at this time, since the capsule endoscope 80 advances while rotating inside the body, it is difficult to understand how the capsule endoscope 80 advances even if an omnidirectional moving image is simply generated.
Therefore, this problem is solved by applying the method of stabilizing the omnidirectional moving image described in the above embodiment to the image obtained from the capsule endoscope 80 .

そこで、他の実施形態の構成を説明すると、図13に示すように、カプセル内視鏡80は、小型のカメラ82,82を内蔵したカプセル型の内視鏡のことである。カプセル内視鏡80は、片側のみ、または両端に一つずつ、撮像部としての小型カメラをつけた形式のものが存在する。
このうち、この実施形態では、両側に小型のカメラ82,82を有するカプセル内視鏡を用いて説明する。この形式のカプセル内視鏡80は、円筒状の筒部材84の軸方向両端に、それぞれ小型のカメラ82,82が装着されている。
筒部材84の軸方向の各端部には、ほぼ半球状を呈して透明のオプティカルドーム86,86が端部の開口を塞ぐように装着されている。そして、各カメラ82は、それぞれ端部に装着されたオプティカルドーム86により覆われている。
Therefore, to explain the configuration of another embodiment, as shown in FIG. 13, a capsule endoscope 80 is a capsule endoscope incorporating small cameras 82,82. Capsule endoscopes 80 are available in a form in which a small camera is attached as an imaging unit on only one side or on each of both ends.
Of these, this embodiment will be described using a capsule endoscope having small cameras 82, 82 on both sides. In this type of capsule endoscope 80, small cameras 82, 82 are attached to both axial ends of a cylindrical tubular member 84, respectively.
Transparent optical domes 86, 86 having a substantially hemispherical shape are attached to the ends of the cylindrical member 84 in the axial direction so as to block the openings of the ends. Each camera 82 is covered by an optical dome 86 attached to each end.

筒部材84の各端部に設けられているカメラ82,82は、2つ合わせて360度に近い全天球映像を撮影することができる。
そして、この撮影された映像は、カプセル内視鏡80に内蔵された無線送信装置によって、被験者kに取り付けられたレコーダ87(図14)に送信される。レコーダ87は、被験者kの身体に取り付けられたセンサ88に接続されている。レコーダ87では、前記した実施形態と同様に制御部12(図1参照)によって演算された動画が表示部13のモニタに出力される。施術者は、レコーダ87に送られてくる画像を、表示部13を通じて被験者の身体の外方で見ることができる。
この際、センサ88による位置情報と撮影された動画とが結びつけられていて、体内の位置が特定されるようにしてもよい。
The two cameras 82, 82 provided at each end of the cylindrical member 84 are capable of photographing an almost 360-degree omnidirectional image.
Then, the photographed image is transmitted to the recorder 87 (FIG. 14) attached to the subject k by the wireless transmission device built in the capsule endoscope 80 . The recorder 87 is connected to a sensor 88 attached to the subject k's body. In the recorder 87, the moving image calculated by the control section 12 (see FIG. 1) is output to the monitor of the display section 13 in the same manner as in the above embodiment. The operator can view the image sent to the recorder 87 from the outside of the subject's body through the display unit 13 .
At this time, the position information from the sensor 88 may be associated with the captured moving image to specify the position inside the body.

<画像欠落への対処>
発明者らが提案した前記実施形態の全天球動画安定化手法では、ボールに取り付けられたカメラによって撮影された全天球映像から、回転成分を除去して視点を固定する。
回転しながら移動するという点で前記実施形態のボールカメラと、この実施形態のカプセル内視鏡80とは、共通している。
そこで、このカプセル内視鏡80に前記実施形態の安定化方法を適用すると、回転しながら移動するカプセル内視鏡80の映像を施術者が見やすいよう安定化させることができる。
<Dealing with missing images>
In the omnidirectional video stabilization method of the embodiment proposed by the inventors, the rotation component is removed from the omnidirectional video captured by the camera attached to the ball, and the viewpoint is fixed.
The ball camera of the above embodiment and the capsule endoscope 80 of this embodiment have in common that they move while rotating.
Therefore, if the stabilization method of the embodiment is applied to the capsule endoscope 80, the image of the capsule endoscope 80 that moves while rotating can be stabilized so that the operator can easily see it.

図13に示すように、この実施形態のカプセル内視鏡80は、軸線L上に180度反対側を向く2つの小型のカメラ82,82を配置している。全天球画像は、これらの2つのカメラ82,82で撮影される魚眼画像を正距円筒図法やキューブマップ法などによって変換することで作られる。
しかしながら、カプセル内視鏡80の映像は、図15に示すように、完全な円形の魚眼映像(円周魚眼の影像)ではなく、対角線魚眼の影像であるため、上下左右の部分a~dが切取られてしまう。
また、それぞれのカメラの画角angは約172度となり、0~4度、176度~180度の部分は撮影されていない。このため、単に2つのカメラ82,82の画像を合せただけでは、360度の撮影画像を得ることができない。
As shown in FIG. 13, the capsule endoscope 80 of this embodiment has two small cameras 82, 82 on the axis L that face 180 degrees in opposite directions. The omnidirectional image is created by transforming the fisheye image captured by these two cameras 82, 82 using the equirectangular projection method, the cube map method, or the like.
However, as shown in FIG. 15, the image of the capsule endoscope 80 is not a perfect circular fisheye image (circumferential fisheye image) but a diagonal fisheye image. ~d is cut off.
Also, the angle of view ang of each camera is approximately 172 degrees, and the portions of 0 to 4 degrees and 176 to 180 degrees are not photographed. Therefore, simply combining the images of the two cameras 82, 82 cannot obtain a 360-degree photographed image.

さらに、カプセル内視鏡80に内蔵されたそれぞれのカメラ82,82は、常に同期しながら撮影しているのではなく、それぞれが独立して撮影している。つまり、2つのカメラ82,82で撮影された画像のタイムスタンプが一致していない。このため、容易に全天球画像を作ることができない。 Furthermore, the respective cameras 82, 82 built into the capsule endoscope 80 do not always take images while synchronizing, but each takes images independently. That is, the time stamps of the images captured by the two cameras 82, 82 do not match. Therefore, it is not possible to easily create an omnidirectional image.

使用したカプセル内視鏡80は、バッテリの容量を考慮し断続的に撮影していたり、上述したように移動速度によってフレームレートを変化させながら撮影している。たとえば、消化管内でのカプセル内視鏡80の移動が遅い場合は、毎秒4枚、速い場合には、毎秒35枚というように、カプセル内視鏡80の移動速度に合わせて枚数が調整されながら撮影される。
このため、一部のフレームが欠損する場合がある。
The capsule endoscope 80 used intermittently takes pictures in consideration of the capacity of the battery, or takes pictures while changing the frame rate according to the movement speed as described above. For example, if the movement of the capsule endoscope 80 in the digestive tract is slow, 4 sheets per second, and if it moves quickly, 35 sheets per second. be filmed.
As a result, some frames may be lost.

また、カプセル内視鏡80は、内臓という狭い空間で、内臓の内壁面に接触しながら撮影している。このため、画像が全体的に暗く鮮明ではない。よって、撮影された映像は、撮影開始から撮影終了まで完全に連続した映像とはならない。
ところで、視点固定アルゴリズムでは、フレーム間で特徴点マッチングを行う。このため、全天球動画を作る上で画像の特徴点が得られるか否かは、画像を安定させるために大きく影響する。
In addition, the capsule endoscope 80 captures images in a narrow space of internal organs while being in contact with the inner wall surface of the internal organs. Therefore, the image is dark and not sharp as a whole. Therefore, the shot image does not become a completely continuous image from the start of shooting to the end of shooting.
By the way, in the fixed viewpoint algorithm, feature point matching is performed between frames. Therefore, whether or not the characteristic points of the image can be obtained in creating an omnidirectional moving image has a great influence on the stability of the image.

たとえば、図16に示すように、画像番号としては前方のカメラ82が撮影した映像のフレームがF1.F3.F5・・・と奇数番号で、後方のカメラ82が撮影した映像のフレームがF2.F4.F6・・・のように偶数番号となっている。図16では、フレームレートが一定ではない場合に、途中のフレームが欠損していることを表している。 For example, as shown in FIG. 16, as the image number, the frame of the video imaged by the front camera 82 is F1. F3. F5 . . . are odd numbers, and F2. F4. They are even numbers such as F6. FIG. 16 shows that some frames are lost when the frame rate is not constant.

前記実施形態のアルゴリズムを用いた安定化の手法では、フレーム間の特徴点マッチングが行なわれ、姿勢変化が求められた後、回転行列と並進ベクトルとに分解される。
そして、基準フレームからの累積回転行列を現在のフレームにかけることで画像を修正している。この操作を全てのフレームに対して行うことで全天球動画の視点を固定することが可能となる。
しかしながら、このアルゴリズムでは、基準フレームからの姿勢変化を累積回転行列で修正しているため、途中のフレーム間での姿勢変化の推定に失敗してしまうとそれ以降の特徴点のマッチングが行えず、画像を修正できなくなってしまう虞があった。
たとえば、前記実施形態の画像生成装置では、フレーム間の特徴点マッチングのマッチング数がある閾値以下になった場合に姿勢推定が失敗したと判定している。
In the stabilization method using the algorithm of the above-described embodiment, feature point matching between frames is performed, and after the posture change is obtained, it is decomposed into a rotation matrix and a translation vector.
The image is then modified by multiplying the current frame by the cumulative rotation matrix from the reference frame. By performing this operation for all frames, it becomes possible to fix the viewpoint of the omnidirectional video.
However, since this algorithm corrects the posture change from the reference frame using the cumulative rotation matrix, if the posture change estimation fails in the middle of the frame, matching of feature points cannot be performed thereafter. There was a possibility that the image could not be corrected.
For example, in the image generation device of the above-described embodiment, it is determined that pose estimation has failed when the number of matchings in feature point matching between frames is equal to or less than a certain threshold.

Rijをframe i とframe j 間の姿勢変化とすると、次の式1にて表される。 Assuming that Rij is the change in posture between frame i and frame j, it is expressed by the following equation (1).

式1formula 1

Figure 0007211621000001
図17は、特徴点マッチングが成功した一例を示す模式的な概念図である。また、図18は、特徴点マッチングが失敗した一例を示す模式的な概念図である。
Figure 0007211621000001
FIG. 17 is a schematic conceptual diagram showing an example of successful feature point matching. Also, FIG. 18 is a schematic conceptual diagram showing an example in which feature point matching fails.

本実施形態は、フレームの欠損および2つのカメラ82,82の非同期といった問題を解決するため、途中のフレームを補完し、両側のカメラ82,82で撮影したフレーム数を同じとすることで擬似的に連続した魚眼映像(擬似円周魚眼の画像)としている。すなわち、欠損しているフレームと前のフレームとを入れ替える。これにより、欠落しているフレーム部分が円滑に接続されて、擬似的に連続した魚眼映像を得られる。
この際、具体的に制御部12は、それぞれのカメラ82,82で撮影された画像同士のタイムスタンプが合っておらず、それを合わせるのは困難であると判断すると、同じ番号のフレームは、同じ時刻で撮影されたものとして処理を行うように構成されている。
In this embodiment, in order to solve the problem of missing frames and asynchronization of the two cameras 82, 82, the intermediate frames are interpolated and the number of frames captured by the cameras 82, 82 on both sides is the same to simulate a pseudo image. A continuous fisheye image (pseudo circular fisheye image). That is, replace the missing frame with the previous frame. As a result, the missing frame portions are smoothly connected to obtain a pseudo-continuous fisheye image.
At this time, when the control unit 12 specifically determines that the time stamps of the images captured by the respective cameras 82, 82 do not match and it is difficult to match the time stamps, the frames with the same number are It is configured to perform processing assuming that the images were taken at the same time.

図15を参照しながら説明すると、このように、不完全な魚眼画像から全天球画像への変換を行うため、図15の画像では、1つのカメラ82の画角が180度より小さく(たとえば172度)、上下左右に切り取られた部分a~dを有している。
そこで、図19に示すように、仮想的に画角が180度の円として扱うことにより、正距円筒図法を用いて変換することができる。
Referring to FIG. 15, in order to convert an imperfect fisheye image into an omnidirectional image, the angle of view of one camera 82 is smaller than 180 degrees in the image of FIG. for example, 172 degrees), and has portions a to d cut vertically and horizontally.
Therefore, as shown in FIG. 19, by treating the image as a circle having a virtual angle of view of 180 degrees, it is possible to convert using the equirectangular projection method.

図19は、欠落したフレームを補完した様子を説明する模式的な概念図である。
図19では、撮影画像の部分a~dの境界線から外側の円までの間は死角の黒い画像として扱う。このため、図15の画像では、欠落していた上下左右の部分a~dが黒い画像で補完されている。全天球画像に変換した場合に周囲に現れる黒い帯は、この箇所が変換されたものである。図20は、欠落したフレームを補完する様子を説明する模式的な概念図である。
図21は、不完全な魚眼画像から全天球の画像に変換したことを説明する模式的な概念図である。カメラ82で撮影された状態の生データから全天球画像を作成する具体的な手順としては、(1)生データから時刻情報など不要な箇所を切り取る。(2)同じ時刻で撮影されたと仮定した2枚の魚眼画像の欠落する部分を補完後、左右に並べて1枚の画像にする。(3)正距円筒図法で全天球画像に変換する。(1)~(3)の処理を全てのフレームに対して行う。そして、フレーム間を連結することで全天球動画に変換することができる。
FIG. 19 is a schematic conceptual diagram for explaining how missing frames are complemented.
In FIG. 19, the area from the boundary line of parts a to d of the photographed image to the outer circle is treated as a black image with blind spots. Therefore, in the image of FIG. 15, the missing upper, lower, left, and right portions a to d are complemented with black images. The black band that appears around the image when converted to an omnidirectional image is the result of this conversion. FIG. 20 is a schematic conceptual diagram illustrating how missing frames are complemented.
FIG. 21 is a schematic conceptual diagram illustrating conversion from an incomplete fisheye image to an omnidirectional image. As a specific procedure for creating an omnidirectional image from the raw data captured by the camera 82, (1) cut out unnecessary portions such as time information from the raw data. (2) After interpolating missing portions of two fish-eye images assumed to have been taken at the same time, the two images are arranged side by side to form one image. (3) Transform into an omnidirectional image using equirectangular projection. The processes (1) to (3) are performed for all frames. Then, by linking the frames, it can be converted into an omnidirectional moving image.

<特徴点照合処理>
特徴点を結びつけて連続させる際に、欠落した画像が存在すると、円滑な動画を得にくい。そこで、フレームの欠落する部分を修正により復帰させる。
図22は、フレームにエラーフレームが発生した場合に、修正により復帰したフレームの様子を説明する模式的な概念図である。
全天球動画安定化手法のアルゴリズムでは、特徴点マッチングが失敗すると意味のある映像としては、そこで終了してしまう(図22中右上部分参照)という問題点があった(以下、失敗した時点でのフレームをエラーフレームと呼ぶ)。
この実施形態の画像生成装置では、この問題を解決するために、特徴点マッチングが失敗したら、そこで、累積回転行列を単位行列で初期化し、次のフレームを基点として処理を再び開始するように、前記実施形態のボールカメラを改良してカプセル内視鏡80に適用した。
なお、エラーフレームと前フレーム間の回転行列も単位行列で初期化するため、基点フレームの視点はプログラムを開始した時点のフレームの視点とは異なる。つまり、マッチングが失敗する度に視点はエラーフレームの視点に固定されてしまう。
<Feature point matching process>
If there are missing images when linking and connecting feature points, it is difficult to obtain a smooth moving image. Therefore, the missing portion of the frame is restored by correction.
FIG. 22 is a schematic conceptual diagram for explaining how a frame is recovered by correction when an error frame occurs in the frame.
The algorithm of the omnidirectional video stabilization method has a problem that if the feature point matching fails, the meaningful video ends there (see the upper right part of Fig. 22). frame is called an error frame).
In order to solve this problem, the image generating apparatus of this embodiment initializes the cumulative rotation matrix with a unit matrix and starts the process again with the next frame as the base point if the feature point matching fails. The ball camera of the embodiment is improved and applied to the capsule endoscope 80. FIG.
Since the rotation matrix between the error frame and the previous frame is also initialized with the unit matrix, the viewpoint of the base frame is different from the viewpoint of the frame when the program is started. That is, every time matching fails, the viewpoint is fixed to the viewpoint of the error frame.

次に、この実施形態のカプセル内視鏡80を用いた画像生成装置の実施例について説明する。
使用したカプセル内視鏡80は、画角は172×2度,フレームレートは移動速度に応じて変化し、毎秒4フレームから35フレームで、大腸粘膜を撮影することができる大腸カプセル内視鏡を用いた。カプセル内視鏡80に用いるカメラ82,82の非同期やフレームが欠損しているという問題点は、フレームレートを一定にすることにより解決してもよい。
Next, an example of an image generating apparatus using the capsule endoscope 80 of this embodiment will be described.
The capsule endoscope 80 used had an angle of view of 172×2 degrees and a frame rate that varied according to the moving speed, and was capable of imaging the large intestine mucosa at 4 to 35 frames per second. Using. Problems such as the desynchronization of the cameras 82 and 82 used in the capsule endoscope 80 and the lack of frames may be solved by making the frame rate constant.

カプセル内視鏡80は、画角が172×2度であるため、死角が存在する。全天球動画に変換した際に3つの部分に別れてしまっているため、わかりにくいが、ある程度視点は固定されていると判断した。
しかし,明らかに誤った推定により不自然に修正されている箇所もあり完全とは言えない。また、特徴点マッチングが失敗して回転行列が得られなかった場合には,次のフレームを基点として処理を再実行することができた。
Since the capsule endoscope 80 has an angle of view of 172×2 degrees, there is a blind spot. It is difficult to understand because it was divided into three parts when converted to spherical video, but I judged that the viewpoint was fixed to some extent.
However, it cannot be said to be complete because there are some parts that have been corrected unnaturally due to clearly incorrect assumptions. Also, if the feature point matching failed and the rotation matrix could not be obtained, the process could be re-executed using the next frame as the base point.

この結果を図23に示す。図23は、比較例の画像を左側に示している。この比較例では、既存手法においてエラー後、意味のない画像が流れる様子である。また、図23中右側の画像が本実施形態のカプセル内視鏡80を用いた画像生成装置の画像生成プログラムで、エラー後も回転を推定できるように改良された様子を示す模式的な概念図である。
しかしながら、このように修正により連続させても、マッチングが失敗したと判断されるのは回転行列が得られなかった時のみであり、誤った推定で得られた回転行列によって不正確な回転が行われた際には検知することができない。
このため、誤った回転をしたまま処理が進んでしまうことがあった。
The results are shown in FIG. FIG. 23 shows the image of the comparative example on the left. In this comparative example, meaningless images flow after an error in the existing method. The image on the right side of FIG. 23 is a schematic conceptual diagram showing how the image generation program of the image generation device using the capsule endoscope 80 of the present embodiment is improved so that the rotation can be estimated even after an error. is.
However, even with this correction, the matching is judged to have failed only when the rotation matrix is not obtained, and the rotation matrix obtained by erroneous estimation causes an incorrect rotation. It cannot be detected when it is broken.
For this reason, the process may proceed with an erroneous rotation.

このように、視点固定アルゴリズムをカプセル内視鏡80に適用した結果、いくつかの問題点が見つかった。
1つ目に、死角が多く動画自体が見にくいという点である。今回は不完全な魚眼画像から全天球画像を作成したため死角が多かった。これは、カプセル内視鏡80の性能の向上により画角が180度以上のものを2つ使用できれば、撮影できる範囲が広がり、死角のない完全な全天球画像を作ることができる。すなわち、完全な全天球画像であれば、2つの魚眼映像のつながりが分かるため、視認しやすい。
As a result of applying the fixed viewpoint algorithm to the capsule endoscope 80 in this manner, several problems were found.
The first is that there are many blind spots and it is difficult to see the video itself. This time, there were many blind spots because the omnidirectional image was created from an imperfect fisheye image. If two capsule endoscopes 80 with an angle of view of 180 degrees or more can be used by improving the performance of the capsule endoscope 80, the range that can be photographed will be widened, and a complete omnidirectional image without blind spots can be created. That is, if the image is a complete omnidirectional image, the connection between the two fisheye images can be seen, making it easy to visually recognize.

これに対して本実施形態の画像生成装置では、図15および図19に示すように、死角となる上下左右の部分a~dが黒い画像で補完されている。
これにより、完全な全天球画像でなくとも、2つの魚眼映像のつながりが分かりやすくなった。
On the other hand, in the image generating apparatus of this embodiment, as shown in FIGS. 15 and 19, the upper, lower, left, and right blind spots a to d are complemented with black images.
This makes it easier to understand the connection between two fisheye images, even if they are not perfect omnidirectional images.

2つ目は、特徴点マッチングによる誤った推定やマッチング数が少ないために回転が推定できないという点である。特徴点マッチングは画像中に特徴点が多いほど成功しやすい。しかしながら、カプセル内視鏡80の映像の様に内臓に密着した状態で撮影されるものでは、暗く特徴点が少ない画像となる。このような場合は、特徴点が検出できず誤推定や失敗となる可能性が高い。
また、内臓のように周囲の状況が常に変化する映像ではカメラが回転したものと判断され、誤推定の原因になると考えられる。
The second point is that rotation cannot be estimated due to erroneous estimation due to feature point matching and a small number of matchings. Feature point matching is more likely to succeed as the number of feature points in the image increases. However, an image taken in close contact with the internal organs, such as the image of the capsule endoscope 80, is a dark image with few feature points. In such a case, there is a high possibility that the feature points cannot be detected, resulting in erroneous estimation or failure.
In addition, in the case of an image in which the surrounding situation is constantly changing, such as internal organs, it is determined that the camera has rotated, which may cause erroneous estimation.

次に、図24のフローチャートおよび図25に沿って画像生成装置の処理について説明する。なお、前記実施形態の図7と同一乃至均等な部分については、説明を省略する。
図24のフローチャート中、ステップS00~ステップS12までは、前記実施形態のステップS0~ステップS2までと同様に、取得された画像(ステップS00)のフレーム(ステップS10)から特徴点を抽出(ステップS11)して、次のフレームと特徴点の照合(ステップS12)を行う(図25中第1行目および第2行目参照)。
Next, processing of the image generation device will be described with reference to the flowchart of FIG. 24 and FIG. Note that the description of the same or equivalent parts as those in FIG. 7 of the above embodiment will be omitted.
In the flowchart of FIG. 24, steps S00 to S12 extract feature points from the frame (step S10) of the acquired image (step S00) (step S11 ), and the next frame and feature points are compared (step S12) (see the first and second lines in FIG. 25).

ステップS16では、照合が失敗したかあるいは成功したかの判定を行う。ステップS16で照合が成功した場合は、次のステップS13に進み(ステップS16にてNO)、ステップS16で照合が失敗した場合は、ステップS10に戻り(ステップS16にてYES)、フレームの取得を行う。 In step S16, it is determined whether collation has failed or succeeded. If the collation succeeds in step S16, the process proceeds to the next step S13 (NO in step S16), and if the collation fails in step S16, the process returns to step S10 (YES in step S16) to acquire the frame. conduct.

ステップS13~ステップS15までは、前記実施形態のステップS3~ステップS5までと同様に、姿勢変化の推定が行われ(図10参照)、結果を用いて8点アルゴリズムによって2つのフレームから得られる姿勢変換行列Rを用いて、ステップS14では、姿勢修正が行われる。 In steps S13 to S15, as in steps S3 to S5 of the above embodiment, posture change estimation is performed (see FIG. 10), and the results are used to determine the posture obtained from two frames by an 8-point algorithm. Using the transformation matrix R, posture correction is performed in step S14.

図25の第3行目に示す従来の安定化手法では、照合の失敗が生じるとフレーム間の結びつけが行えず、そのフレームの集合で無意味な画像E1,E2…が、処理が終了するまで継続して生成されてしまう。
これに対して、図25の第4行目に示すこの実施形態の安定化終了では、照合の失敗が生じると、取得されている画像の次のフレームの画像G1を用いて、エラーした画像E1を補完する。
取得された次のフレームの画像G1が照合可能である場合、特徴点を一致させて、姿勢を修正する安定化処理を継続できる。なお、照合が成功しない場合は、照合が成功するまでステップS10を繰り返す。
このため、取得した画像に不連続点があっても、直ちに次のフレームへ照合が成功するフレームが割り当てられて、エラーから復帰する。したがって、照合が失敗した場合でもフレームの切れ目が目立たない安定した見やすい画像が得られる。
In the conventional stabilization method shown in the third line of FIG. 25, if the matching fails, the frames cannot be linked, and the meaningless images E1, E2, . . . It is continuously generated.
In contrast, in the end of stabilization of this embodiment, shown in the fourth row of FIG. Complement the
If the acquired image G1 of the next frame can be matched, the feature points can be matched and the stabilization process for correcting the posture can be continued. If the collation is not successful, step S10 is repeated until the collation is successful.
Therefore, even if there is a point of discontinuity in the acquired image, the next frame is immediately assigned a frame for which matching is successful, thereby recovering from the error. Therefore, even if collation fails, a stable and easy-to-view image with inconspicuous frame breaks can be obtained.

ステップS15では、前記実施形態のステップS5と同様に、次のフレームがあるか否かが判定される。ステップS15にて、次のフレームがある場合(ステップS15にてYes)、ステップS10に戻り、特徴点の抽出が継続して行われる(ステップS11~ステップS12)。また、ステップS15にて、次のフレームがない場合(ステップS15にてNo)、前記実施形態と同様に制御部12は、処理を終了する。 In step S15, it is determined whether or not there is a next frame, as in step S5 of the above embodiment. If there is a next frame in step S15 (Yes in step S15), the process returns to step S10, and extraction of feature points is continued (steps S11 and S12). Also, in step S15, if there is no next frame (No in step S15), the control unit 12 terminates the process as in the above embodiment.

次に、この実施形態の画像生成装置の作用効果について説明する。この実施形態の画像生成装置では、カプセル内視鏡80で撮影された映像を全天球映像に変換し、視点固定のアルゴリズムを適用した。
そして、元のアルゴリズムでは特徴点マッチングに失敗するとそれ以降は修正できないという問題点(図22中右上部分参照)があったが、この実施形態の画像生成装置の画像生成プログラムのように基点フレームを更新することで失敗した後も視点を固定して、エラーから復帰して、画像を継続すること(図22中右下部分参照)ができた。
なお、失敗する度に視点が変わってしまうことを防止するため、カルマンフィルタなどを用いて回転行列を推定するなどを行うとさらに望ましい。
Next, the effects of the image generation device of this embodiment will be described. In the image generating apparatus of this embodiment, the image captured by the capsule endoscope 80 is converted into an omnidirectional image, and a viewpoint-fixing algorithm is applied.
In the original algorithm, there was a problem that if the feature point matching failed, it could not be corrected thereafter (see the upper right part in FIG. 22). By updating, even after a failure, it was possible to fix the viewpoint, recover from the error, and continue the image (see the lower right part in FIG. 22).
It is more desirable to estimate the rotation matrix using a Kalman filter or the like in order to prevent the viewpoint from changing every time it fails.

また、内視鏡映像に死角が存在する場合は、カプセル内視鏡80の性能の向上により画角が180度以上のものを2つ使用することにより、撮影可能な範囲を広げて、死角のない完全な全天球画像を作るようにしてもよい。 Also, if there is a blind spot in the endoscopic image, by using two capsule endoscopes with an angle of view of 180 degrees or more by improving the performance of the capsule endoscope 80, the range that can be photographed is widened and the blind spot is eliminated. Alternatively, a complete omnidirectional image may be created.

さらに、カプセル内視鏡80によって撮影される映像自体が暗い場合には、LED照光装置の補助光を使用したり、あるいはISO感度を高感度なものに変更する等、カプセル内視鏡80に用いるカメラ82の性能を向上させるとなおよい。 Furthermore, if the image itself captured by the capsule endoscope 80 is dark, the capsule endoscope 80 can use auxiliary light from an LED illumination device, or change the ISO sensitivity to a higher one. It is even better if the performance of the camera 82 is improved.

<変形例1>
図26は、実施形態の変形例1のクレーン車50を示している。このクレーン車50は、アーム部51の先端から延出されるワイヤ52の一端にフック部材53が吊り下げられている。そして、このフック部材53に、前記実施形態のボール3等が係止され、運転席54から離間した位置まで延伸されたアーム部51の先端から、ボール3を下降させることができる。
これにより、災害現場等により人が入れない空間にボール3を侵入させて、内部の様子を安定した画像で撮影することができる。
<Modification 1>
FIG. 26 shows a crane truck 50 of Modification 1 of the embodiment. The crane truck 50 has a hook member 53 suspended from one end of a wire 52 extending from the tip of an arm portion 51 . The hook member 53 engages the ball 3 or the like of the above-described embodiment, and the ball 3 can be lowered from the tip of the arm portion 51 extended to a position separated from the driver's seat 54 .
As a result, the ball 3 can enter a space where people cannot enter due to a disaster site or the like, and the state of the interior can be photographed with a stable image.

<変形例2>
図27は、実施形態の変形例2のドローン(無人機)60を示している。ドローン60の機体中央部下面側61には、前記実施形態のボール3または、他の実施形態のカプセル内視鏡80と同等のカメラ62が装着されていて、操縦者から離間した位置でドローン60の周囲の様子を安定した画像で撮影することができる。
ドローン60は、遠隔操作が可能であるため、オペレータは、災害現場から離れていても現場の様子を詳細に撮影することができ、二次災害を防止できる。
<Modification 2>
FIG. 27 shows a drone (unmanned aerial vehicle) 60 of Modification 2 of the embodiment. A camera 62 equivalent to the ball 3 of the above-described embodiment or the capsule endoscope 80 of another embodiment is attached to the lower surface 61 of the drone 60 at the center of the drone 60, and the drone 60 is positioned at a distance from the operator. It is possible to shoot a stable image of the surroundings.
Since the drone 60 can be remotely controlled, the operator can take detailed pictures of the site even if the operator is away from the disaster site, thereby preventing secondary disasters.

<変形例3>
図28は、実施形態の変形例3の釣り竿70である。ロッド71の手もとに固定されているリール72は、複数のガイド73通して、釣り糸74が繰り出されている。釣り糸74の先端には、実施形態のボール3または、他の実施形態のカプセル内視鏡80と同等のカメラ75が装着されている。
そして、ロッド71を握る地上の者から離間した位置で、釣り糸74の先端のカメラ75を降ろして、水中の様子を安定した画像で撮影することができる。
<Modification 3>
FIG. 28 shows a fishing rod 70 of modification 3 of the embodiment. A fishing line 74 is let out through a plurality of guides 73 from a reel 72 fixed to the hand of a rod 71 . A camera 75 equivalent to the ball 3 of the embodiment or the capsule endoscope 80 of another embodiment is attached to the tip of the fishing line 74 .
Then, the camera 75 at the tip of the fishing line 74 is lowered at a position away from the person on the ground holding the rod 71, and the state of the water can be photographed with a stable image.

以上、本実施形態に係る画像生成装置S、および画像生成プログラムについて詳述してきたが、本発明はこれらの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能であることは言うまでもない。 Although the image generation device S and the image generation program according to the present embodiment have been described in detail above, the present invention is not limited to these embodiments, and can be changed as appropriate without departing from the scope of the present invention. It goes without saying that

例えば、本実施形態では、撮影された1枚の全天球の画像41からπ/6ずつ回転させた6枚の回転画像42a~47aを生成している。しかしながら、特にこれに限らない。たとえば、π/4又はπ/8ずつ回転させた4枚又は8枚の画像等、回転角度が相違する1枚または複数の画像をどのような回転方向の角度の間隔で用いてもよく、それぞれにおいて画像の歪みの少ない低緯度の部分を使って特徴点の抽出が行なえるものであればよい。 For example, in the present embodiment, six rotated images 42a to 47a are generated by rotating a photographed omnidirectional image 41 by π/6. However, it is not particularly limited to this. For example, one or more images with different rotation angles, such as 4 or 8 images rotated by π/4 or π/8, may be used at any angular interval in the direction of rotation. It is sufficient if the feature point can be extracted using the low latitude portion of the image with little distortion.

さらに、実施形態では、6台のカメラ4によって、また変形例では、2台に相当する2つのレンズ14cを有する全天球カメラ14によって、撮像部1を構成している。しかしながら特にこれに限らない。たとえば、1又は2台以上の複数のカメラを用いて撮像部1を構成してもよく、撮影した動画が全天球動画となり、全天球動画は、好ましくは全方向の情報を記録することができるものであれば、カメラの数量、形状および組み合わせが特に限定されるものではない。 Furthermore, in the embodiment, six cameras 4 constitute the imaging unit 1, and in the modified example, the omnidirectional camera 14 having two lenses 14c corresponding to two units constitutes the imaging unit 1. FIG. However, it is not particularly limited to this. For example, the imaging unit 1 may be configured using a plurality of cameras, one or two or more. The number, shape and combination of cameras are not particularly limited as long as they can

たとえば、前記他の実施形態では、図13に示すように、魚眼レンズ83,83を有していて、広範囲を撮影可能なカメラ82,82を両端に内蔵しているカプセル内視鏡80を用いているが、特にこれに限らない。たとえば、一方側または他方側とのうち、少なくとも何れか一方にカメラ82が設けられていて、広範囲を撮影可能なカメラ82,82であれば、魚眼レンズ83以外の広角レンズであってもよく、カメラ82やレンズの形状、数量、および材質が特に限定されるものではない。 For example, in the other embodiment, as shown in FIG. 13, a capsule endoscope 80 having fisheye lenses 83, 83 and built-in cameras 82, 82 capable of photographing a wide range at both ends is used. Yes, but not limited to this. For example, a wide-angle lens other than the fisheye lens 83 may be used as long as the camera 82 is provided on at least one of the one side and the other side and the cameras 82, 82 are capable of photographing a wide range. The shape, quantity, and material of 82 and lenses are not particularly limited.

また、実施形態および変形例では、撮像部1を装着する物体としてボール3,30を用いているが、特にこれに限らない。たとえば、回転移動可能な立方体のフレームの各面に全天球カメラを装着してもよい。また、ラグビーボールのような楕円球であってもよい。このように、回転運動を伴い移動する物体の形状は、球形に限定されるものではない。 Also, in the embodiment and the modified example, the balls 3 and 30 are used as the objects on which the imaging unit 1 is mounted, but the objects are not limited to this. For example, an omnidirectional camera may be attached to each surface of a cubic frame that can rotate and move. Alternatively, it may be an oval ball such as a rugby ball. Thus, the shape of an object that moves with rotational motion is not limited to a spherical shape.

そして、実施形態の画像生成装置Sでは、ボールが同時に、回転運動する場合および並進運動する場合について説明してきたが特にこれに限らず、回転運動または並進運動のうち、少なくとも何れか一方を行うものであればよい。 In the image generation device S of the embodiment, the case where the ball simultaneously performs rotational motion and translational motion has been described, but the present invention is not limited to this, and at least one of rotational motion and translational motion is performed. If it is

1 撮像部
3,30 ボール
4 カメラ
5,14c レンズ
10 通信インターフェース部
11 記憶部
12 制御部
13 表示部
14 全天球カメラ(カメラ)
14a 筺体
15 固定用円形板
16 装着孔
20 入力部
31 ドーム
80 カプセル内視鏡
82 小型のカメラ(撮像部)
100 ネットワーク
1 imaging unit 3, 30 ball 4 camera 5, 14c lens 10 communication interface unit 11 storage unit 12 control unit 13 display unit 14 omnidirectional camera (camera)
14a Housing 15 Circular plate for fixing 16 Mounting hole 20 Input unit 31 Dome 80 Capsule endoscope 82 Small camera (imaging unit)
100 network

Claims (11)

移動する物体に装着される撮像部と、
前記撮像部で取得された画像に基づき、同一視点方向の動画を生成する際、前記撮像部が移動する際の移動前後の画像中、前記撮像部が移動する前のフレームtの画像中に存在する特徴点を捉えて、前記撮像部が移動した後のフレーム(t+1)の画像中の特徴点と一致させることにより、移動量を演算して、当該移動量で画像を戻す姿勢修正を繰り返して動画のフレームを連続させる制御部と、
を備えた画像生成装置であって、
前記制御部は、各時刻におけるフレームに対して、一のステップで、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正し、その後、前記一のステップの次のステップで、前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合するとともに、姿勢変化を推定する算出部と、前記推定された姿勢変化から、前記姿勢修正を行う生成部と、を有することを特徴とする画像生成装置。
an imaging unit attached to a moving object;
When generating a moving image in the same viewpoint direction based on the images acquired by the imaging unit, the By matching the feature points in the image of the frame (t+1) after the movement of the imaging unit, the amount of movement is calculated, and the posture correction is repeated to return the image by the amount of movement. a control unit that consecutively frames moving images;
An image generation device comprising:
The control unit rotates a high latitude region to a low latitude region in one step for a frame at each time, extracts a feature point from the low latitude region, and reversely rotates the coordinates of the feature point. to the coordinates in the original image of the high latitude region, and then in the next step of the first step, the feature points extracted from the previous frame and the feature points extracted from the current frame are compared with each other. 1. An image generating apparatus comprising: a calculation unit for estimating a change in posture; and a generation unit for correcting the posture based on the estimated change in posture.
前記算出部は、前記特徴点照合で全天球画像から生成された二次元の回転画像を用いて、特徴点が画像周縁の歪みの多い高緯度領域にある場合、同一視点方向の周縁の歪の少ない低緯度領域に画像を移動させてから、特徴点を一致させることを特徴とする請求項1に記載の画像生成装置。 The calculation unit uses the two-dimensional rotated image generated from the omnidirectional image in the feature point collation, and if the feature point is located in a high latitude region with much distortion of the image periphery, the distortion of the periphery in the same viewpoint direction 2. The image generating apparatus according to claim 1, wherein after moving the image to a low latitude area, the feature points are matched. 前記物体は、回転運動を伴い移動することを特徴とする請求項1に記載の画像生成装置。 2. The image generating apparatus according to claim 1, wherein the object moves with rotational motion. 前記物体は、並進運動を伴い移動することを特徴とする請求項1に記載の画像生成装置。 2. The image generating apparatus according to claim 1, wherein the object moves with translational motion. 前記撮像部は、全天球型カメラに設けられていることを特徴とする請求項1に記載の画像生成装置。 2. The image generating apparatus according to claim 1, wherein said imaging unit is provided in an omnidirectional camera. 前記撮像部は、カプセル内視鏡の一方側または他方側とのうち、少なくとも何れか一方に設けられていることを特徴とする請求項1に記載の画像生成装置。 2. The image generating apparatus according to claim 1, wherein the imaging unit is provided on at least one of one side and the other side of the capsule endoscope. 前記制御部は、欠落したエラーフレームを、前記エラーフレームの前のフレームと入れ替えて補完することを特徴とする請求項1に記載の画像生成装置。 2. The image generation apparatus according to claim 1, wherein the control unit replaces the missing error frame with a frame preceding the error frame to complement the missing error frame. 前記制御部は、周囲が欠落したエラーフレームの画像のうち、周囲の欠落した部分を黒い画像で補完することを特徴とする請求項7に記載の画像生成装置。 8. The image generating apparatus according to claim 7, wherein the control unit complements a missing peripheral portion of the image of the error frame having a missing peripheral portion with a black image. 移動する物体に設けられて、前記移動する物体の周囲を撮影する撮像部と、
前記撮像部で取得された動画から前記撮像部が移動する際の移動量を演算して、動画のフレームを連続させる制御部と、を備えた画像生成装置に実行させるための画像生成プログラムであって、
前記画像生成装置に、前記撮像部で撮像された動画の画像中に存在する特徴点を捉える特徴点抽出ステップと、
各時刻におけるフレームに対して、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正する修正ステップと、
前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合する特徴点照合ステップと、
移動量を演算して、当該移動量で画像を戻すことを繰り返して動画のフレームを連続させるステップと、を実行させるための画像生成プログラム。
an imaging unit provided on a moving object for capturing an image of the surroundings of the moving object;
an image generation program for causing an image generation device to execute , comprising: a control unit that calculates a movement amount when the imaging unit moves from a moving image acquired by the imaging unit, and continues frames of the moving image; hand,
a feature point extracting step of catching feature points present in an image of a moving image captured by the imaging unit in the image generation device ;
A high latitude area is rotated to a low latitude area for a frame at each time, a feature point is extracted from the low latitude area, and the coordinates of the feature point are reversely rotated to coordinates in the original image of the high latitude area. a correction step that corrects to
a feature point matching step of matching feature points extracted from a previous frame with feature points extracted from a current frame;
An image generation program for executing a step of calculating a movement amount and repeating moving images back by the movement amount to continue frames of a moving image.
移動する物体の周囲を撮影した動画から前記移動する物体の移動量を演算して、動画のフレームを連続させる、画像生成装置に実行させるための画像生成プログラムであって、
前記画像生成装置に、前記動画の画像中に存在する特徴点を捉える特徴点抽出ステップと、
各時刻におけるフレームに対して、高緯度領域を低緯度領域に回転移動させて、前記低緯度領域から特徴点を抽出し、当該特徴点の座標を逆の回転で元の前記高緯度領域の画像における座標に修正する修正ステップと、
前のフレームから抽出された特徴点と現在のフレームから抽出された特徴点とを照合する特徴点照合ステップと、
移動量を演算して、前記移動量で画像を戻すことを繰り返して動画のフレームを連続させるステップと、を実行させるための画像生成プログラム。
An image generating program to be executed by an image generating device for calculating the amount of movement of a moving object from a moving image of the surroundings of the moving object and making the frames of the moving image continuous,
a feature point extracting step of catching feature points present in the image of the moving image in the image generation device ;
A high latitude area is rotated to a low latitude area for a frame at each time, a feature point is extracted from the low latitude area, and the coordinates of the feature point are reversely rotated to coordinates in the original image of the high latitude area. a correction step that corrects to
a feature point matching step of matching feature points extracted from a previous frame with feature points extracted from a current frame;
An image generation program for executing a step of calculating a movement amount and repeating moving images back by the movement amount to continue frames of a moving image.
前記画像生成装置に、照合が失敗したかあるいは成功したかの判定を行う照合判定ステップと、
照合が失敗した場合に、照合が成功するフレームの取得を行うフレーム取得ステップと、
を実行させるための請求項9または10に記載の画像生成プログラム。
a collation determination step of determining whether collation has failed or succeeded in the image generation device ;
a frame acquisition step of acquiring a frame for which matching is successful if matching fails;
11. The image generating program according to claim 9 or 10, for executing
JP2018547656A 2016-10-24 2017-10-23 Image generation device and image generation program Active JP7211621B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016208049 2016-10-24
JP2016208049 2016-10-24
PCT/JP2017/038196 WO2018079490A1 (en) 2016-10-24 2017-10-23 Image generation device and image generation program

Publications (2)

Publication Number Publication Date
JPWO2018079490A1 JPWO2018079490A1 (en) 2019-09-19
JP7211621B2 true JP7211621B2 (en) 2023-01-24

Family

ID=62024925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547656A Active JP7211621B2 (en) 2016-10-24 2017-10-23 Image generation device and image generation program

Country Status (2)

Country Link
JP (1) JP7211621B2 (en)
WO (1) WO2018079490A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7178081B2 (en) * 2018-07-31 2022-11-25 清一 中島 medical drone system
JP2020053774A (en) * 2018-09-25 2020-04-02 株式会社リコー Imaging apparatus and image recording method
JP7268369B2 (en) * 2019-01-30 2023-05-08 株式会社リコー Imaging system, development system, imaging method, and program
JP7211191B2 (en) * 2019-03-25 2023-01-24 株式会社大林組 hole wall imaging device
JP2020187227A (en) * 2019-05-13 2020-11-19 株式会社アーキジオ Omnidirectional image capturing device
US20220262094A1 (en) * 2019-05-22 2022-08-18 Nippon Telegraph And Telephone Corporation Image processing method, image processing device, and program
GB2584470A (en) * 2019-06-05 2020-12-09 Schleyer Jonathan Camera systems
KR102313795B1 (en) * 2020-04-10 2021-10-18 (주)인펙비전 Video stabilization method based on SURF for enhancing accuracy and reliability

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111934A (en) 1999-10-04 2001-04-20 Olympus Optical Co Ltd Electronic camera system
JP2007043225A (en) 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
JP2008118495A (en) 2006-11-07 2008-05-22 Matsushita Electric Ind Co Ltd Imaging apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104234A (en) * 2005-10-04 2007-04-19 Canon Inc Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111934A (en) 1999-10-04 2001-04-20 Olympus Optical Co Ltd Electronic camera system
JP2007043225A (en) 2005-07-29 2007-02-15 Univ Of Electro-Communications Picked-up processing apparatus and picked-up processing method
JP2008118495A (en) 2006-11-07 2008-05-22 Matsushita Electric Ind Co Ltd Imaging apparatus

Also Published As

Publication number Publication date
WO2018079490A1 (en) 2018-05-03
JPWO2018079490A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7211621B2 (en) Image generation device and image generation program
CN108615248B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
JP5024410B2 (en) 3D modeling apparatus, 3D modeling method, and program
EP3007038B1 (en) Interaction with three-dimensional video
CN106464804B (en) Imaging system, imaging device, computer program and system
JP6919334B2 (en) Image processing device, image processing method, program
JP6515813B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CN106846409B (en) Calibration method and device of fisheye camera
WO2016155377A1 (en) Picture display method and device
WO2019164498A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
US8965105B2 (en) Image processing device and method
JP2012068861A (en) Ar processing unit, ar processing method and program
CN107967665B (en) Image processing method and image processing apparatus
JP2020053774A (en) Imaging apparatus and image recording method
CN112543343A (en) Live broadcast picture processing method and device based on live broadcast with wheat and electronic equipment
US20090059018A1 (en) Navigation assisted mosaic photography
JP2019110434A (en) Image processing apparatus, image processing system, and program
WO2019116942A1 (en) Generation device, generation method and program for three-dimensional model
CN114511447A (en) Image processing method, device, equipment and computer storage medium
CN113450254A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN111263037B (en) Image processing device, imaging device, video playback system, method, and program
CN110675349B (en) Endoscopic imaging method and device
CN114782470B (en) Three-dimensional panoramic recognition positioning method of alimentary canal, storage medium and equipment
WO2017179136A1 (en) Entire celestial sphere camera robot altitude adjusting system, entire celestial sphere camera robot altitude adjusting method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230104

R150 Certificate of patent or registration of utility model

Ref document number: 7211621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150