JP7393179B2 - Photography equipment - Google Patents
Photography equipment Download PDFInfo
- Publication number
- JP7393179B2 JP7393179B2 JP2019193712A JP2019193712A JP7393179B2 JP 7393179 B2 JP7393179 B2 JP 7393179B2 JP 2019193712 A JP2019193712 A JP 2019193712A JP 2019193712 A JP2019193712 A JP 2019193712A JP 7393179 B2 JP7393179 B2 JP 7393179B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- resolution
- images
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 59
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 27
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 239000000571 coke Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、狭隘部に適した撮影装置に関する。 The present invention relates to a photographing device suitable for narrow spaces.
トンネルや狭い路地、室内、狭い凹部を有する構造物、間隔が狭い2枚の壁に挟まれた空間をはじめとする狭隘部において、その周辺や内部構造(以下、被写体という)を撮影したい場合がある。狭隘部においては、カメラと被写体との距離を十分にとることができないため、カメラと被写体とを正対させると、広角なレンズを用いた場合であっても、被写体の一部分がカメラに写らない状況が生じうる。 When you want to photograph the surrounding area or internal structure (hereinafter referred to as the subject) in a narrow space such as a tunnel, a narrow alley, a room, a structure with a narrow recess, or a space between two closely spaced walls. be. In a narrow space, it is not possible to maintain a sufficient distance between the camera and the subject, so if the camera and subject are directly facing each other, even if a wide-angle lens is used, part of the subject may not be captured by the camera. Situations may arise.
特許文献8には、被写体に沿ってカメラを移動しながら、被写体を近くで斜め方向から撮影し、撮影画像から被写体を含む部分をクロップし、正面から撮影した画像に変換し、変換後の画像を、走査方向にならって順に繋げて合成する技術が開示される。この手法によれば、カメラを被写体に正対させた場合に比べて視野を広くすることができる。 Patent Document 8 discloses that while moving a camera along the subject, the subject is photographed from a close angle, the portion including the subject is cropped from the photographed image, the image is converted to an image photographed from the front, and the converted image is Disclosed is a technique for sequentially connecting and synthesizing the images in the scanning direction. According to this method, the field of view can be made wider than when the camera is directly facing the subject.
特許文献8に記載の技術であっても、高さ方向の撮影範囲が十分でない状況が生じうる。この問題を解決するアプローチとして、カメラを高さ方向(ピッチング方向)にチルトさせながら撮影を行い、複数の画像を合成する方法が考えられる。しかしながらこの方法では、カメラをチルトさせる必要があるため、撮影装置全体が構造的に複雑となる。また、複数回の撮影が必要となるため、時間がかかる。 Even with the technique described in Patent Document 8, a situation may arise where the photographing range in the height direction is insufficient. One possible approach to solving this problem is to take pictures while tilting the camera in the height direction (pitching direction) and combine multiple images. However, this method requires the camera to be tilted, which makes the entire photographing device structurally complex. Furthermore, it is time-consuming because it requires multiple shootings.
この問題を解決する別のアプローチとして、異なる方向を向いた、あるいは高さが異なる位置に配置された複数のカメラを設けて撮影する方法が考えられる。しかしながらこの場合、複数のカメラが必要となるため、システムが複雑化し、またコストが高くなる。 Another approach to solving this problem is to use multiple cameras facing different directions or placed at different heights to take pictures. However, in this case, multiple cameras are required, which complicates the system and increases cost.
本発明は係る課題に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、狭隘部に適した撮影装置の提供にある。 The present invention has been made in view of the above problems, and one exemplary objective of a certain aspect of the present invention is to provide an imaging device suitable for narrow spaces.
本発明のある態様は、狭隘部の側方の正面視画像を生成する撮影装置に関する。撮影装置は、狭隘部を奥行き方向に移動しながら撮影するカメラと、注視部分とカメラが相対的に遠いときのカメラの画像における注視部分の像と、注視部分とカメラが相対的に近いときのカメラの画像における注視部分の像との相関から導かれた学習済みモデルを有しており、実動作中に、カメラから順次出力されるカメラ画像にもとづいて、正面視画像を生成する画像処理部と、を備える。 One aspect of the present invention relates to an imaging device that generates a lateral front-view image of a narrow area. The imaging device has a camera that takes pictures while moving in the depth direction of a narrow space, and an image of the focused area in the camera image when the focused area and the camera are relatively far, and an image of the focused area when the focused area and the camera are relatively close. An image processing unit that has a trained model derived from the correlation with the image of the gazed part in the camera image, and generates a front-view image based on the camera images sequentially output from the camera during actual operation. and.
画像処理部は、カメラ画像から所定領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度画像を生成し、カメラの移動にともない順次生成される高解像度画像を合成し、正面視画像を生成してもよい。 The image processing unit crops a predetermined area from the camera image, inputs the cropped image to a trained model to generate a high-resolution image, and synthesizes the high-resolution images that are sequentially generated as the camera moves to create a front-view image. An image may also be generated.
画像処理部は、異なる時刻において撮影されたカメラ画像のペアの一方に含まれ、他方に含まれない第1領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度部分画像を生成し、高解像度部分画像を、カメラ画像のペアの他方の第2領域の画像と結合して、高解像度画像を生成し、カメラの移動にともない順次生成される高解像度画像を合成し、正面視画像を生成してもよい。 The image processing unit crops a first region included in one of the pair of camera images taken at different times but not included in the other, and inputs the cropped image to the trained model to generate a high-resolution partial image. Then, the high-resolution partial image is combined with the image of the second region of the other camera image pair to generate a high-resolution image, and the high-resolution images sequentially generated as the camera moves are combined to create a front-view image. An image may also be generated.
画像処理部は、異なる時刻において撮影された複数のカメラ画像を含む画像セットにもとづいて高解像度画像を生成してもよい。 The image processing unit may generate a high-resolution image based on an image set including a plurality of camera images taken at different times.
画像セットに含まれる複数のカメラ画像それぞれについて、異なる位置に所定領域が定められており、画像処理部は、各カメラ画像から対応する所定領域をクロップし、クロップした画像を学習済みモデルに入力して高解像度中間画像を生成し、複数のカメラ画像について得られた複数の高解像度中間画像を合成して、高解像度画像を生成してもよい。 A predetermined region is defined at a different position for each of the plurality of camera images included in the image set, and the image processing unit crops the corresponding predetermined region from each camera image and inputs the cropped image to the trained model. A high-resolution intermediate image may be generated by combining a plurality of high-resolution intermediate images obtained for a plurality of camera images to generate a high-resolution image.
高解像度画像は、ベクトルデータであってもよい。 The high resolution image may be vector data.
なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 Note that arbitrary combinations of the above-mentioned constituent elements and mutual substitution of constituent elements and expressions of the present invention among methods, devices, systems, etc. are also effective as aspects of the present invention.
本発明によれば、狭隘部に適した撮影装置を提供できる。 According to the present invention, it is possible to provide a photographing device suitable for narrow spaces.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below based on preferred embodiments with reference to the drawings. Identical or equivalent components, members, and processes shown in each drawing are designated by the same reference numerals, and redundant explanations will be omitted as appropriate. Further, the embodiments are illustrative rather than limiting the invention, and all features and combinations thereof described in the embodiments are not necessarily essential to the invention.
図1(a)は、実施の形態に係る撮影装置100の撮影対象を説明する図である。撮影装置100の撮影対象は狭隘部2(この例では道路)の側方である。撮影装置100は、狭隘部2を奥行き方向に進行しながら、両側あるいは片側を撮影する。以下では、説明の簡潔化と理解の容易化のため、撮影装置100の左側方に着目して説明する。
FIG. 1A is a diagram illustrating an object to be photographed by the photographing
図1(b)は、撮影装置100の出力である最終画像IMGfを示す図である。最終画像IMGfは、狭隘部の側方(ここでは左側方)の正面視画像であり、狭隘部2の左側に存在する複数の物体OBJ1~OBJ3が含まれている。
FIG. 1(b) is a diagram showing the final image IMGf that is the output of the
図2は、実施の形態に係る撮影装置100のブロック図である。撮影装置100は、カメラ110および画像処理部120を備える。カメラ110は、撮影装置100の進行方向正面に向けられている。あるいは左側方のみを測定する場合には、カメラ110は左側にわずかに傾けて配置してもよい。
FIG. 2 is a block diagram of the
カメラ110は、狭隘部を奥行き方向に移動しながら、連続的に撮影を行う。カメラ110は、スチルカメラであってもよいし、ビデオカメラであってもよい。
The
図3(a)は、カメラの移動を説明する図である。図3(a)には、狭隘部2を横から見た様子が示される。図3(b)、(c)は、図3(a)のカメラの視点A,Bにおいて得られる2枚のカメラ画像IMG_A,IMG_Bを示す図である。
FIG. 3(a) is a diagram illustrating movement of the camera. FIG. 3(a) shows the
中央の物体OBJ2(この例ではビル)に着目する。手前側の視点Aから写した画像IMG_Aには、物体OBJ2の正面の全体が写っているが、そのサイズは小さいため、物体OBJ2の解像度は低いといえる。 Focus is on the central object OBJ2 (a building in this example). The image IMG_A taken from the viewpoint A on the near side shows the entire front of the object OBJ2, but since its size is small, it can be said that the resolution of the object OBJ2 is low.
より被写体である物体OBJ2に近い視点Bから写した画像IMG_Bには、物体OBJ2が、画像IMG_Aよりも大きく、その細部まで高解像度で写っている。ただし物体OBJ2の正面の全体は写っていない。 In the image IMG_B taken from a viewpoint B closer to the object OBJ2, which is the subject, the object OBJ2 is larger than the image IMG_A, and its details are shown in high resolution. However, the entire front of object OBJ2 is not captured.
実施の形態に係る撮影装置100の画像処理を説明する前に、いくつかの比較技術を説明する。
Before explaining the image processing of the
第1比較技術では、被写体(注視部分)に近い位置で撮影した画像から、当該被写体を含む領域(図3(b)、(c)の領域RGN1)をクロップして、それを正面視変換して合成する。図4(a)は、第1比較技術において得られる正面視画像を示す図である。第1比較技術では、高解像度な正面視画像を得ることができるが、被写体の上側が欠けることとなる。 In the first comparison technique, from an image taken at a position close to the subject (attention point), a region including the subject (region RGN1 in FIGS. 3(b) and 3(c)) is cropped and converted into a front view. and synthesize. FIG. 4(a) is a diagram showing a front view image obtained in the first comparison technique. With the first comparison technique, a high-resolution front-view image can be obtained, but the upper side of the subject is missing.
第2比較技術では、被写体から遠い位置で撮影した画像から、被写体の全体が写っている領域(図3(b),(c)の領域RGN2)をクロップして、それを正面視変換して、合成する。図4(b)は、第2比較技術において得られる正面視画像を示す図である。第2比較技術では、被写体の正面の全体を観察できるが、正面視変換により画像が引き伸ばされるため解像度が低下し、ピンボケのようにエッジや輪郭が滲んで見える。 In the second comparison technique, an area where the entire object is captured (region RGN2 in FIGS. 3(b) and (c)) is cropped from an image taken at a far position from the object, and it is converted to a front view. , synthesize. FIG. 4(b) is a diagram showing a front view image obtained in the second comparison technique. With the second comparison technique, the entire front of the subject can be observed, but the image is stretched by front view conversion, so the resolution decreases and edges and contours appear blurred, as if out of focus.
図2に戻り、本実施の形態における画像処理について説明する。画像処理部120は、カメラ110の出力にもとづいて最終画像IMGfを生成する。画像処理部120は、CPU(Central Processing Unit)などの演算処理手段と、ソフトウェアプログラムの組み合わせで実装することができる。
Returning to FIG. 2, image processing in this embodiment will be described. The
画像処理部120には、機械学習によって予め生成された学習済みモデル122が実装される。学習済みモデル122の機械学習について説明する。学習済みモデル122は、画像の超解像処理に利用される。
The
超解像処理は、学習データを必要としない古典的な手法(たとえばbilinear法、Lanczos法)などを用いてもよいが、その場合、精度が問題となる。そこで本実施の形態では、非特許文献1に開示されるA+法や、非特許文献2に開示されるSRCNN法などの、学習ベースの手法を採用するものとする。A+法は、学習データから、スパース辞書と呼ばれる学習モデルを構築する手法である。SRCNN法は、深層学習を使った手法である。学習画像としては、汎用コーパスを用いてもよいし、独自に用意してよい。学習済みモデル122の学習には、低解像度画像と高解像度画像のペアが必要となるが、しばしば用いられるのが、高解像度画像とそれを上述の古典的手法を用いて低解像度化した画像である。低解像度画像に対応する高解像度画像の拡大率は事前に定めた値(仮にrとする)を用いる。
Super-resolution processing may use classical methods that do not require training data (eg, bilinear method, Lanczos method), but in that case, accuracy becomes a problem. Therefore, in this embodiment, a learning-based method such as the A+ method disclosed in
一方、学習データとして、撮影装置100が使用される環境、あるいはそれと近い環境で入手した画像を用いることもできる。図5は、学習を説明する図である。学習段階において、カメラ110を移動させながら複数のサンプル画像SIを撮影する。このサンプル画像SIが、学習データとして使用される。狭隘部に存在するある物体あるいは部分(注視部分という)は、異なる位置から撮影された複数のサンプル画像に、異なるサイズで異なる位置に写る。
On the other hand, images obtained in the environment in which the photographing
図5において、X#とY#(#=1,2,…)は、同じ注視部分を含む領域を表している。ある注視部分に着目したときに、注視部分とカメラが相対的に遠いときのサンプル画像を第1画像と称する。また同じ注視部分とカメラが相対的に遠いときのサンプル画像を第2画像と称する。学習済みモデルは、第1画像における注視部分の像X#と、第2画像における注視部分の像Y#の相関にもとづいて導かれる。像X#は、注視部分の広範囲かつ低解像度な画像であり、像Y#は、注視部分の狭範囲かつ、高解像な画像である。学習済みモデル122は、XからYへの変換処理を実行するものと把握できる。この変換処理を写像fで表す。
Y#=f(X#)
上述のように、像X#、Y#のペアは、幅が1ピクセルの一次元画像(ベクトル)であってもよい。この場合、像Y#の高さ(ピクセル数)は、像X#の高さ(ピクセル数)のr倍である。
In FIG. 5, X # and Y # (#=1, 2, . . . ) represent regions including the same gaze portion. When focusing on a certain gazing area, a sample image obtained when the gazing area and the camera are relatively far apart is referred to as a first image. Further, a sample image obtained when the same gaze point and the camera are relatively far apart is referred to as a second image. The trained model is derived based on the correlation between the image X # of the part of interest in the first image and the image Y # of the part of interest in the second image. The image X # is a wide-range, low-resolution image of the gazed area, and the image Y # is a high-resolution image of a narrow-gazing area. The learned
Y # =f(X # )
As mentioned above, the pair of images X # , Y # may be a one-dimensional image (vector) with a width of one pixel. In this case, the height (number of pixels) of image Y # is r times the height (number of pixels) of image X # .
像X#、Y#のペアを、幅が2ピクセル以上の二次元画像とする場合、それらの形状は異なっていてもよい。なぜならカメラの光学系によって同じ被写体までの距離や位置に応じてパースが付くため、それらの形状は異なって撮影されるからである。 When the pair of images X # and Y # is a two-dimensional image with a width of 2 pixels or more, their shapes may be different. This is because the camera's optical system creates a perspective depending on the distance and position to the same subject, so the shapes of the subjects are photographed differently.
複数のサンプル画像から、複数の注視部分それぞれについて、像X#とY#のペアを学習器に入力することにより、学習済みモデルとして、変換器Y=f(X)を得ることができる。画像処理部120においては、超解像処理に加えて、デノイジング処理を施してもよい。
By inputting a pair of images X # and Y # from a plurality of sample images to a learning device for each of a plurality of gaze parts, a transformer Y=f(X) can be obtained as a trained model. The
図2に戻る。画像処理部120は、撮影装置100の動作中に、カメラ110の出力画像から、所定領域をクロップし、所定領域に含まれる低解像度画像を、学習済みモデルである変換器に入力する。その結果、所定領域全体を超解像処理した画像(高解像度画像)が得られる。図6(a)、(b)は、超解像処理を説明する図である。図6(a)は、一次元の低解像度画像IMGlを入力する場合を示す。高解像度画像IMGhは、カメラの位置が、注視部分に近づいたときに得られる画像を推定したものと把握でき、その高さh’は、低解像度画像IMGlの高さhのr倍(r>1)である。
Return to Figure 2. The
図6(b)は、二次元の低解像度画像を入力する場合であり、高解像度画像IMGhの高さh’は、低解像度画像IMGlの高さhのr倍である。高解像度画像IMGhの幅w’は、低解像度画像IMGlの幅wと等しくてもよいし、それより大きくてもよい。 FIG. 6B shows a case where a two-dimensional low resolution image is input, and the height h' of the high resolution image IMGh is r times the height h of the low resolution image IMGl. The width w' of the high resolution image IMGh may be equal to or larger than the width w of the low resolution image IMGl.
図2に戻る。画像処理部120は、カメラ110の移動にともなって順次生成される高解像度画像を結合し、正面視画像である最終画像IMGfを生成する。
Return to Figure 2. The
以上が撮影装置100の構成である。続いてその動作を説明する。図7(a)~(c)は、撮影装置100の動作を説明する図である。図7(a)は、ある時刻において得られたカメラ110の出力画像を示す。画像処理部120は、図7(a)の画像の中から、所定領域RGNcを抽出する。この例では、所定領域RGNcの横幅は2ピクセル以上であり、クロップされる低解像度画像は、二次元画像データであるが、所定領域RGNcの横幅を1ピクセルとして、低解像度画像を一次元ベクトルデータとしてもよい。
The above is the configuration of the photographing
図7(b)は、領域RGNc内の画像データを、学習済みモデル122に入力して得られる高解像度画像IMGhを示す。比較のために、図3(c)の画像IMG_Bのフレームを一点鎖線で示す。この高解像度画像IMGhは、画像IMG_Bのフレームからはみ出した部分についても、ディテールが豊富である。
FIG. 7B shows a high-resolution image IMGh obtained by inputting the image data in the region RGNc to the learned
図7(c)は、図7(b)の高解像度画像IMGhを、正面視変換した画像IMGgを示す。図7(a)~(c)の処理を、カメラの位置を変えながら、言い換えると異なる時刻において得られたカメラ画像に対して繰り返すことで、複数の正面視高解像度画像IMGgが生成される。そしてそれらを結合することにより、図1(b)の最終画像IMGfを得ることができる。 FIG. 7(c) shows an image IMGg obtained by converting the high-resolution image IMGh of FIG. 7(b) in front view. A plurality of front-view high-resolution images IMGg are generated by repeating the processes in FIGS. 7A to 7C for camera images obtained at different times while changing the camera position. By combining them, the final image IMGf shown in FIG. 1(b) can be obtained.
続いて、撮影装置100の具体的な構成を、実施例を参照して説明する。
Next, a specific configuration of the photographing
図8は、実施例に係る撮影装置200のブロック図である。撮影装置200は、画像撮影部202、入力画像決定部204、鮮明化処理部206、正面視画像合成部208、画像出力部210を備える。
FIG. 8 is a block diagram of the
入力画像決定部204は、画像の取得手段であり、図2のカメラ110に対応する。入力画像決定部204は、カメラと、カメラを移動させる手段、カメラの位置あるいは移動距離を取得する手段、カメラの姿勢を制御する手段などを含みうる。入力画像決定部204が撮影した画像は、位置情報とともに、入力画像決定部204に入力される。
The input
入力画像決定部204、鮮明化処理部206、正面視画像合成部208は、図2の画像処理部120に対応付けることができる。
The input
入力画像決定部204は、画像撮影部202において得られた画像および位置情報を受け、入力された画像の一部分(図7(b)の所定領域RGNcに相当、以下、選択領域という)を選択し、それを出力する。選択領域は、カメラから遠くに位置する比較的広い範囲を撮影した領域であり、カメラから遠すぎて鮮明度(実効的な解像度)が低い領域である。選択領域は、線状(ベクトル)であってもよいし、幅をもった領域(画像)であってもよい。選択領域の画像データは、位置情報とともに鮮明化処理部206に供給される。
The input
鮮明化処理部206は、入力画像決定部204からの選択領域を受け、鮮明度を高めた画像を出力する。「鮮明化」とは、超解像処理のように、画像を拡大する機能や、ノイズを除去する機能(デノイジング)を含む。超解像処理の場合、選択領域がベクトルデータの場合は、その要素数を定数倍したサイズのベクトルを出力とする。選択領域が幅を持つ二次元画像データの場合は、縦方向と横方向のピクセル数を定数倍したサイズの画像を出力するものとする。鮮明化処理部206の出力は、高解像化された画像(一次元のベクトルあるいは二次元画像)およびその位置情報を含む。高解像度画像を生成する手段としては、図2の学習済みモデル122を用いることができる。
The sharpening
図9(a)、(b)は、正面視画像合成部208の処理を説明する図である。正面視画像合成部208は、鮮明化処理部206から出力される高解像度画像を、それとともに出力された位置情報を利用して繋ぎ合わせて、1枚の大きな最終画像IMGfを生成する。高解像度画像が一次元画像(ベクトル)である場合には、図9(a)に示すように、複数の高解像度画像L1~Lnを横方向に結合すればよい。高解像度画像が二次元画像である場合には、図9(b)に示すように、のりしろ部4を設けて貼り合わせてもよい。この場合、のりしろ部4での画素値は、対応する画素の平均値を用いたり、最大値を用いてもよい。この処理によって、正面視画像を得ることができる。貼り合わせ処理の結果、接合部において異様なエッジなどが生じる場合、それを滑らかにする後処理を行ってもよく、たとえばガウシアンフィルタやウィーナーフィルタなどを用いることができる。
FIGS. 9A and 9B are diagrams illustrating the processing of the front-view
なお、貼り合わせの前処理、あるいは後処理として、正面視した画像に近づけるために、カメラの位置情報補正などの変換処理を行ってもよい。 Note that as pre-processing or post-processing for pasting, conversion processing such as camera position information correction may be performed in order to approximate the image viewed from the front.
図8に戻る画像出力部210は、正面視画像合成部208によって得られた最終画像IMGfを出力する。画像出力部210は、ディスプレイを備え、最終画像IMGfをユーザに視覚的に提示してもよい。画像出力部210は、拡大縮小機能を有してもよい。また、最終画像が複数存在するような場合には、それらを同時に表示する機能、それらを択一的に表示する機能を備えてもよい。最終画像のサイズが大きい場合には、スライドバーなどのGUI(Graphical User Interface)によって、表示部分を変化させるようにしてもよい。
Returning to FIG. 8, the
また、画像出力部210は、ユーザにとって関心がある部分(たとえば異常部分や損傷部分)にマーカー付して強調表示する機能を有してもよい。またユーザが関心を持つ部分の位置情報を計算し、その値を表示する機能を有してもよい。なお、画像出力部210は、最終画像IMGfのデータを、記憶媒体に保存してもよい。
Further, the
図10は、ディスプレイのユーザインタフェースを示す図である。ディスプレイ300の領域302には、カメラの出力画像が表示される。この領域302と付随して、再生、停止、巻き戻しのボタン306が設けられており、領域302に表示する画像(あるいはフレーム)を制御できるようになっている。
FIG. 10 is a diagram showing the user interface of the display. In
領域302には、マーキング308が表示可能となっている。マーキング308は、ユーザが指定する領域であり、マーキング308の表示の有無は、マーキングボタン310によって制御可能である。たとえば撮影装置200が診断装置である場合には、マーキング308で囲まれる領域が、異常検出処理の対象となり、領域内の異常箇所や損傷箇所が検出される。
A marking 308 can be displayed in the
領域310には、画像処理によって得られた最終画像IMGfが表示される。領域310は、複数のコラム312に分割されてもよい。たとえば、複数のコラム312には、最終画像IMGfの異なる部分を選択的に表示してもよい。また、狭隘部の右側と左側の両方の正面視画像を生成する場合には、複数のコラム312の一方に左側面の最終画像を、他方に右側面の最終画像を表示してもよい。コラム312に、最終画像の全体が表示できない場合には、スライドバー314を表示するようにして、表示範囲をユーザが選択できるようにしてもよい。スライドバー314に加えて、あるいはそれに代えて、画像を拡大、縮小するためのボタンを追加してもよい。
In
領域310にも、マーキング316が表示可能であり、マーキング316の表示部(つまり310)は、ボタン320,322によって拡大、縮小の制御が可能となっている。
A marking 316 can also be displayed in the
以上が撮影装置200の構成である。撮影装置200によれば、広い範囲が撮影された正面視画像を生成することができ、人間が目視で画像中のどこに何が存在するのかを発見することが容易となる。さらに歪みが殆どないため、どこに何が存在するかを、画像認識処理により自動的に見つけることが容易となる。したがって、撮影装置200の出力を利用した、目視処理や自動画像認識処理の精度を向上できる。
The above is the configuration of the photographing
撮影装置100や撮影装置200の用途は特に限定されないが、トンネルや土管、コークス炉など、測定対象が細長く、カメラを壁面に正対させることができない場合、設置することが困難な場合に広く適用できる。
The use of the photographing
以上、本発明を実施例にもとづいて説明した。本発明は上記実施形態に限定されず、種々の設計変更が可能であり、様々な変形例が可能であること、またそうした変形例も本発明の範囲にあることは、当業者に理解されるところである。以下、こうした変形例を説明する。 The present invention has been described above based on examples. It will be understood by those skilled in the art that the present invention is not limited to the above embodiments, and that various design changes and modifications are possible, and that such modifications also fall within the scope of the present invention. By the way. Hereinafter, such modified examples will be explained.
(変形例1)
これまでの超解像処理では、ひとつの注視部分の高解像度画像を、1枚の画像を利用して生成したが、変形例1では、異なる距離で撮影された複数のカメラ画像のセットを利用して、ひとつの注視部分の高解像度画像を生成する。図11は、変形例1に係る超解像処理を説明する図である。図11には、異なる時刻において得られる、言い換えると、同じ注視部分を異なる距離から撮影した複数(この例では3枚)のカメラ画像が示される。複数のカメラ画像それぞれに対して、同じ注視部分を包含するように、固有の領域が定められている。各カメラ画像から、固有の領域の画像をクロップし、3枚の低解像度画像IMGl1~IMGl3が生成される。3枚の低解像度画像IMGl1~IMGl3に超解像処理を施すことにより、3枚の高解像度中間画像IMGh1~IMGh3が得られる。3枚の高解像度中間画像IMGh1~IMGh3を合成し、1枚の高解像度画像IMGhが生成される。
(Modification 1)
In previous super-resolution processing, a high-resolution image of a single gaze area was generated using a single image, but in modification example 1, a set of multiple camera images taken at different distances was used. Then, a high-resolution image of a single gaze area is generated. FIG. 11 is a diagram illustrating super-resolution processing according to
(変形例2)
図12は、変形例2に係る超解像処理を説明する図である。図6(a)、(b)の超解像処理では、クロップする領域が、注視部分の全体を含むように定められていた。これに対して図12の変形例では、注視部分の一部をクロップして、超解像処理を施す。図12の左側は、注視部分400から遠いときに得られる画像を、図12の右側は、注視部分400に近いときに得られる画像を示す。図12の画像中、符号402はカメラが注視部分に近づいたときに、フレームアウトする部分を表す。この変形例では、この部分402をクロップし、クロップした画像に超解像処理を施す。その結果、カメラが注視部分に近接したときにフレームアウトする部分の高解像度な画像部分(高解像度部分画像)404が得られる。また、カメラが注視部分に近接したときに得られる画像にフレームインしている注視部分の範囲406が選択され、2つの部分404と406を結合することにより、高解像度画像IMGhを生成できる。
(Modification 2)
FIG. 12 is a diagram illustrating super-resolution processing according to
2 狭隘部
100 撮影装置
110 カメラ
120 画像処理部
122 学習済みモデル
200 撮影装置
202 画像撮影部
204 入力画像決定部
206 鮮明化処理部
208 正面視画像合成部
210 画像出力部
2
Claims (6)
前記狭隘部を奥行き方向に移動しながら撮影するカメラと、
学習段階で導かれた学習済みモデルにもとづく変換器を有し、実動作中に、前記カメラから順次出力されるカメラ画像にもとづいて、前記正面視画像を生成する画像処理部と、
を備え、
前記学習済みモデルは、学習段階において前記カメラを奥行き方向に移動しながら撮影された複数のサンプル画像のうち、所定の第1部分に狭隘部に存在する物体あるいは部分である注視部分が写っている第1画像と、所定の第2部分に前記注視部分が写っている、第1画像よりも奥側で撮影された第2画像と、のペアを利用して、前記第1画像の前記注視部分の像Xと前記第2画像の前記注視部分の像Yとの相関から導かれたものであり、前記学習済みモデルにもとづく変換器は、前記像Xから前記像Yへの変換を実行可能に構成され、
前記画像処理部は、前記実動作中に、前記カメラ画像から所定領域をクロップし、クロップした画像を前記変換器に入力して前記所定領域を高さ方向について高解像度処理した高解像度画像を生成し、前記カメラの移動にともない生成される複数の前記高解像度画像を合成し、前記正面視画像を生成することを特徴とする撮影装置。 An imaging device that generates a lateral front view image of a narrow space,
a camera that photographs the narrow area while moving in the depth direction;
an image processing unit that has a converter based on the trained model derived in the learning stage and generates the front-view image based on camera images sequentially output from the camera during actual operation;
Equipped with
In the trained model, a gazed area, which is an object or part existing in a narrow area, is captured in a predetermined first part of a plurality of sample images taken while moving the camera in the depth direction during the learning stage. Using a pair of a first image and a second image photographed on the back side of the first image in which the gazed area is reflected in a predetermined second part, the gazed area of the first image is is derived from the correlation between the image X of configured,
The image processing unit crops a predetermined region from the camera image during the actual operation, inputs the cropped image to the converter, and generates a high-resolution image in which the predetermined region is subjected to high-resolution processing in the height direction. The photographing device is characterized in that the plurality of high-resolution images generated as the camera moves are combined to generate the front-view image .
前記画像処理部は、前記カメラの移動にともない順次生成される前記高解像度画像を横方向に結合し、前記正面視画像を生成することを特徴とする請求項1に記載の撮影装置。 The predetermined area includes the first portion and is longer than the first portion in the height direction,
The photographing device according to claim 1 , wherein the image processing unit laterally combines the high-resolution images that are sequentially generated as the camera moves to generate the front-view image .
前記画像処理部は、 The image processing unit includes:
前記カメラが移動しながら撮影したカメラ画像のうちのひとつから前記所定領域をクリップして前記変換器に入力して高解像度な第1画像部分を生成し、 clipping the predetermined area from one of the camera images taken while the camera is moving and inputting it to the converter to generate a high-resolution first image portion;
前記カメラが移動しながら撮影したカメラ画像のうち、前記第2部分に前記注視部分が写っている別のカメラ画像から、前記注視部分の範囲を選択して第2画像部分を生成し、generating a second image portion by selecting a range of the gazed portion from another camera image in which the gazed portion is captured in the second portion among camera images taken while the camera is moving;
前記第1画像部分と前記第2画像部分とを高さ方向に連結して前記高解像度画像を生成し、 generating the high-resolution image by connecting the first image portion and the second image portion in the height direction;
前記カメラの移動にともない複数の生成される前記高解像度画像を合成し、前記正面視画像を生成することを特徴とする請求項1に記載の撮影装置。The imaging device according to claim 1, wherein the front-view image is generated by combining a plurality of the high-resolution images generated as the camera moves.
前記画像処理部は、各カメラ画像から対応する所定領域をクロップし、クロップした画像を前記学習済みモデルに入力して高解像度中間画像を生成し、
前記複数のカメラ画像について得られた複数の高解像度中間画像を合成して、前記高解像度画像を生成することを特徴とする請求項4に記載の撮影装置。 For each of the plurality of camera images included in the image set, predetermined areas are defined at different positions in which the same object should be captured ,
The image processing unit crops a corresponding predetermined region from each camera image, inputs the cropped image to the trained model, and generates a high-resolution intermediate image;
The photographing device according to claim 4, wherein the high-resolution image is generated by combining a plurality of high-resolution intermediate images obtained for the plurality of camera images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019193712A JP7393179B2 (en) | 2019-10-24 | 2019-10-24 | Photography equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019193712A JP7393179B2 (en) | 2019-10-24 | 2019-10-24 | Photography equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021069032A JP2021069032A (en) | 2021-04-30 |
JP7393179B2 true JP7393179B2 (en) | 2023-12-06 |
Family
ID=75637687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019193712A Active JP7393179B2 (en) | 2019-10-24 | 2019-10-24 | Photography equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7393179B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018167966A1 (en) | 2017-03-17 | 2018-09-20 | マクセル株式会社 | Ar display device and ar display method |
-
2019
- 2019-10-24 JP JP2019193712A patent/JP7393179B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018167966A1 (en) | 2017-03-17 | 2018-09-20 | マクセル株式会社 | Ar display device and ar display method |
Also Published As
Publication number | Publication date |
---|---|
JP2021069032A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8294748B2 (en) | Panorama imaging using a blending map | |
JP4912117B2 (en) | Imaging device with tracking function | |
US20120147224A1 (en) | Imaging apparatus | |
JP4196216B2 (en) | Image composition system, image composition method and program | |
EP3048787B1 (en) | Image processing apparatus, image pickup apparatus, image processing method, program, and storage medium | |
US20110141226A1 (en) | Panorama imaging based on a lo-res map | |
US20110141224A1 (en) | Panorama Imaging Using Lo-Res Images | |
US20110141225A1 (en) | Panorama Imaging Based on Low-Res Images | |
JP2016024489A (en) | Image processing apparatus, imaging device, image processing method, and program | |
JP6656035B2 (en) | Image processing apparatus, imaging apparatus, and control method for image processing apparatus | |
JP6234401B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6604908B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6494402B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP5151922B2 (en) | Pixel position correspondence specifying system, pixel position correspondence specifying method, and pixel position correspondence specifying program | |
JP7393179B2 (en) | Photography equipment | |
RU2647645C1 (en) | Method of eliminating seams when creating panoramic images from video stream of frames in real-time | |
JP5925109B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP3924576B2 (en) | Three-dimensional measurement method and apparatus by photogrammetry | |
RU2626551C1 (en) | Method for generating panoramic images from video stream of frames in real time mode | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP5563390B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6545229B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM | |
JP2009042900A (en) | Imaging device and image selection device | |
JP2020150448A (en) | Image pickup apparatus, control method therefor, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393179 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |