JP6579706B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6579706B2
JP6579706B2 JP2015198137A JP2015198137A JP6579706B2 JP 6579706 B2 JP6579706 B2 JP 6579706B2 JP 2015198137 A JP2015198137 A JP 2015198137A JP 2015198137 A JP2015198137 A JP 2015198137A JP 6579706 B2 JP6579706 B2 JP 6579706B2
Authority
JP
Japan
Prior art keywords
image
still image
still
designation
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015198137A
Other languages
Japanese (ja)
Other versions
JP2017073620A (en
Inventor
忠之 伊藤
忠之 伊藤
陽 佐々木
陽 佐々木
隆浩 古明地
隆浩 古明地
直樹 森川
直樹 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2015198137A priority Critical patent/JP6579706B2/en
Publication of JP2017073620A publication Critical patent/JP2017073620A/en
Application granted granted Critical
Publication of JP6579706B2 publication Critical patent/JP6579706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、パノラマ画像の処理に関する。   The present invention relates to panoramic image processing.

視線の方向が異なる複数の静止画像を組み合わせてパノラマ画像と称されるより広角な画像を得る技術が知られている(特許文献1を参照)。   A technique for obtaining a wider-angle image called a panoramic image by combining a plurality of still images having different line-of-sight directions is known (see Patent Document 1).

特開2014−155168号公報JP 2014-155168 A

パノラマ画像は、特定の視点を中心とした投影球面を設定し、その内周面に複数の画像を投影することで作成される。この際、隣接する画像同士が一部重複するようにすることで、複数の画像が合成され、パノラマ画像が得られる。パノラマ画像を構成する各画像の視点が一致していれば、原理的に画像間のつながりの不連続性や画像の歪みは生じない。しかしながら、合成の対象となる複数の画像の視点が一致しているとは限らない。例えば、複数のカメラを備えた全周カメラの場合、物理的に各カメラの視点の位置を一致させることができないので、厳密に見ると画像同士のつなぎ目の部分でのズレ、および画像全体で見た場合の歪みが存在する。   A panoramic image is created by setting a projection spherical surface centered on a specific viewpoint and projecting a plurality of images on the inner peripheral surface thereof. At this time, a plurality of images are combined and a panoramic image is obtained by making the adjacent images partially overlap each other. If the viewpoints of the images constituting the panoramic image are coincident, in principle there is no discontinuity in the connection between the images or image distortion. However, the viewpoints of a plurality of images to be combined do not always match. For example, in the case of an omnidirectional camera equipped with a plurality of cameras, the viewpoint position of each camera cannot be physically matched. There is distortion in the case of.

このような背景において、本発明は、複数の画像を合成することでパノラマ画像を得る技術における異なるカメラ間の視点の違いに起因する問題を解決することを課題とする。   In such a background, an object of the present invention is to solve a problem caused by a difference in viewpoint between different cameras in a technique for obtaining a panoramic image by combining a plurality of images.

請求項1に記載の発明は、異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付部と、前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成部と、前記合成画像の中の特定の位置の指定を受け付ける指定受付部と、前記指定受付部で受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択部とを備え、前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理装置である。
According to the first aspect of the present invention, there is provided an image data receiving unit that receives image data of a first still image and image data of a second still image in which overlapping objects are captured from different viewpoints, and the first still image, A composite image forming unit that projects the second still image onto a projection sphere to form a composite image, a designation receiving unit that accepts designation of a specific position in the composite image, and the designation accepting unit A selection unit that selects one of the first still image and the second still image including a designated position, and a viewpoint of the first still image, a viewpoint of the second still image, and the projection sphere The centers of the image processing apparatuses are located at different positions .

請求項1に記載の発明によれば、合成画像(パノラマ画像)が表示されている状態において、特定の部分が指定されると、当該部分を含む単写真画像(パノラマ画像を構成する複数の静止画像の一つ)が選択される。単写真画像は、パノラマ画像における画像のつなぎ目の問題がないので、パノラマ画像におけるズレの問題が解消される。請求項1では、2つの静止画像が対象とされているが、複数ある静止画像に含まれる2つの画像を対象として請求項1を適用できる。したがって、対象となる静止画像は、3以上であってもよい。   According to the first aspect of the present invention, when a specific part is designated in a state where the composite image (panoramic image) is displayed, a single photograph image including the part (a plurality of still images constituting the panoramic image) is displayed. One of the images) is selected. Since the single photograph image does not have a problem of joints in the panoramic image, the problem of misalignment in the panoramic image is solved. In claim 1, two still images are targeted. However, claim 1 can be applied to two images included in a plurality of still images. Therefore, the target still image may be three or more.

請求項2に記載の発明は、請求項1に記載の発明において、前記選択部は、前記第1の静止画像および前記第2の静止画像における前記投影球の中心から見た前記特定の位置の方向に近い画像の向きを有する方を選択することを特徴とする。請求項2に記載の発明によれば、指定された特定の位置が画面中のより中央に近い位置にある静止画像(単写真画像)が選択される。なお、画像の向きは、静止画像の画面に垂直な方向として定義される。なお、等価な定義として、当該静止画像の視点と当該静止画像の画面中心を結ぶ線の延長方向を画像の向きとして定義することもできる。   According to a second aspect of the present invention, in the first aspect of the invention, the selection unit is configured to determine the specific position of the first still image and the second still image as viewed from the center of the projection sphere. One having an image orientation close to the direction is selected. According to the second aspect of the present invention, a still image (single photograph image) in which the specified specific position is closer to the center of the screen is selected. The orientation of the image is defined as a direction perpendicular to the still image screen. As an equivalent definition, an extension direction of a line connecting the viewpoint of the still image and the screen center of the still image can be defined as the orientation of the image.

請求項3に記載の発明は、請求項1または2に記載の発明において、前記第1の静止画像または前記第2の静止画像を表示装置に表示する制御を行う表示制御部を備え、前記第1の静止画像と前記第2の静止画像とは重複する部分があり、前記表示制御部は、前記第1の静止画像が表示されている状況において、前記重複する部分における特定の位置が指定された場合に、当該指定された位置が前記第1の静止画像の中心より、前記第2の静止画像の中心に近い場合に、前記第2の静止画像を表示させることを特徴とする。   A third aspect of the present invention includes the display control unit according to the first or second aspect of the present invention, further comprising a display control unit that performs control to display the first still image or the second still image on a display device. One still image and the second still image have an overlapping portion, and the display control unit specifies a specific position in the overlapping portion in a situation where the first still image is displayed. If the designated position is closer to the center of the second still image than the center of the first still image, the second still image is displayed.

請求項3に記載の発明によれば、視線の変化に伴う静止画像(単写真画像)の切り替えが行われる。そしてその際、着目点がより中心にある静止画像の選択が行なわれる。   According to the third aspect of the present invention, switching of a still image (single photograph image) accompanying a change in line of sight is performed. At that time, a still image having a focus point at the center is selected.

請求項4に記載の発明は、異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成ステップと、前記合成画像の中の特定の位置の指定を受け付ける指定受付ステップと、前記指定受付ステップで受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択ステップとを備え、前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理方法である。
According to a fourth aspect of the present invention, there is provided an image data receiving step of receiving image data of a first still image and image data of a second still image obtained by capturing an overlapping object from different viewpoints; and the first still image, The composite image forming step of forming the composite image by projecting the second still image onto the projection sphere, the specification receiving step for receiving the specification of a specific position in the composite image, and the specification receiving step A selection step of selecting one of the first still image or the second still image including a designated position, and a viewpoint of the first still image, a viewpoint of the second still image, and the projection sphere Are the image processing methods at different positions .

請求項5に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータに異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成ステップと、前記合成画像の中の特定の位置の指定を受け付ける指定受付ステップと、前記指定受付ステップで受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択ステップとを実行させ、前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理用プログラムである。
According to a fifth aspect of the present invention, there is provided a program for causing a computer to read and execute the image data of the first still image and the image data of the second still image obtained by capturing images of overlapping objects from different viewpoints. A receiving image data receiving step, a composite image forming step of forming the composite image by projecting the first still image and the second still image onto a projection sphere, and designation of a specific position in the composite image a designation accepting step of accepting, either to execute a selecting step of selecting the first still image and the second still image including the designated position accepted by the designation accepting step, the first still image The viewpoint, the viewpoint of the second still image, and the center of the projection sphere are image processing programs at different positions .

本発明によれば、複数の画像を合成することでパノラマ画像を得る技術における異なるカメラ間の視点の違いに起因する問題を解決できる。   According to the present invention, it is possible to solve a problem caused by a difference in viewpoint between different cameras in a technique for obtaining a panoramic image by combining a plurality of images.

パノラマ画像の原理図である。It is a principle diagram of a panoramic image. パノラマ画像から単写真画像への切り替えの原理を示す原理図である。It is a principle figure which shows the principle of the switch from a panoramic image to a single photograph image. 画像処理装置のブロック図である。It is a block diagram of an image processing device. パノラマ画像と点群のデータとを重ねた合成画像の一例を示す図面代用写真である。It is a drawing substitute photograph showing an example of a composite image in which a panoramic image and point cloud data are superimposed. 処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a process. 単写真画像の切り替えの原理を示す原理図である。It is a principle figure which shows the principle of switching of a single photograph image. 単写真画像の切り替えの原理を示す原理図である。It is a principle figure which shows the principle of switching of a single photograph image. 単写真画像の切り替えの原理を示す原理図である。It is a principle figure which shows the principle of switching of a single photograph image. パノラマ画像における視線を動かした場合における表示画像の変化を示す原理図である。It is a principle figure which shows the change of a display image when the eyes | visual_axis in a panoramic image is moved. 表示倍率の変えた表示画像の一例を示す図面代用写真である。It is a drawing substitute photograph which shows an example of the display image which changed display magnification.

1.第1の実施形態
(概要)
まず、視点が異なる複数の画像同士を合成した際に生じる問題について説明する。図1には、位置(視点)が異なる3つのカメラを用いて一部が重複する静止画像を3枚撮影し、それを投影球の内周面に投影してパノラマ画像を作成する場合の原理が示されている。ここで、パノラマ画像の基となる静止画像を単写真画像という。単写真画像は、各カメラが撮影した静止画像であり、複数の単写真画像を合成することでパノラマ画像が得られる。例えば、図1の場合、3台のカメラがあり、3枚の単写真画像が撮影され、3枚の単写真画像を合成することでパノラマ画像が得られている。投影球は、仮想的に設定されるもので、実際にそこに球面状の投影面があるとの設定の基に投影画像が形成される。
1. First embodiment (outline)
First, a problem that occurs when a plurality of images with different viewpoints are combined will be described. FIG. 1 shows the principle in the case where three still images partially overlapping using three cameras with different positions (viewpoints) are taken and projected onto the inner peripheral surface of a projection sphere to create a panoramic image. It is shown. Here, the still image that is the basis of the panoramic image is referred to as a single photograph image. A single photo image is a still image taken by each camera, and a panoramic image can be obtained by combining a plurality of single photo images. For example, in the case of FIG. 1, there are three cameras, three single photograph images are taken, and a panoramic image is obtained by combining the three single photograph images. The projection sphere is virtually set, and a projection image is formed based on the setting that there is actually a spherical projection surface.

図1の場合、パノラマ画像の視点は、投影球の中心になるが、パノラマ画像を構成する3枚の画像のそれぞれの視点は、投影球の中心に一致しない。したがって、厳密に見ると、像の歪みが発生する。また、2枚の画像の重複部分において、像のズレが発生する。パノラマ画像を周囲の大凡の展望を得るための画像として用いる場合、上記の現象は大きな問題とならないが、画像を用いた計測や画像に基づく図面の作成といった作業を行う場合、上記の現象が問題となる。   In the case of FIG. 1, the viewpoint of the panoramic image is the center of the projection sphere, but the viewpoints of the three images constituting the panoramic image do not coincide with the center of the projection sphere. Therefore, when viewed strictly, image distortion occurs. In addition, image misalignment occurs in the overlapping portion of the two images. When a panoramic image is used as an image for obtaining a general view of the surroundings, the above phenomenon is not a big problem. However, when a work such as measurement using an image or creation of a drawing based on the image is performed, the above phenomenon is a problem. It becomes.

そこで、上記の問題を解決する方法として、パノラマ画像の中の特定の点や領域が指定された場合に、指定された点や領域を含む単写真(パノラマ画像を構成する複数の静止画像の中の1枚)を選択し、当該単写真画像に表示を切り替える。この場合、パノラマ画像の視点(投影球の中心)から当該単写真画像を撮影した視点へと視点が変更される。単写真は、上述したパノラマ画像を得るための画像合成に伴う像の歪み、ズレといった問題がないので計測等の利用に耐える画像が得られる。   Therefore, as a method for solving the above problem, when a specific point or region in the panoramic image is specified, a single photograph including the specified point or region (in the plural still images constituting the panoramic image). And switch the display to the single photograph image. In this case, the viewpoint is changed from the viewpoint of the panoramic image (the center of the projection sphere) to the viewpoint at which the single photograph image is taken. A single photograph is free from problems such as image distortion and misalignment associated with image synthesis for obtaining the panoramic image described above, so that an image that can be used for measurement or the like can be obtained.

図2には、図1のパノラマ画像から単写真画像に切り替えた状態が示されている。この場合、図1における視線の方向が検出され、その方向に最も近い視線(向き)を有する単写真画像が選択される。図2には、その際に視点がC0→C1に変更され、パノラマ画像から単写真画像への変更(切替)が行なわれた状態が示されている。   FIG. 2 shows a state where the panoramic image of FIG. 1 is switched to a single photograph image. In this case, the direction of the line of sight in FIG. 1 is detected, and a single photograph image having the line of sight (orientation) closest to that direction is selected. FIG. 2 shows a state in which the viewpoint is changed from C0 to C1 and the panorama image is changed (switched) to the single photograph image.

(ハードウェアの構成)
図3には、実施形態のブロック図が示されている。図3には、画像処理装置100、全周カメラ200、レーザスキャナ300および表示装置400が示されている。
(Hardware configuration)
FIG. 3 shows a block diagram of the embodiment. FIG. 3 shows an image processing apparatus 100, an all-around camera 200, a laser scanner 300, and a display apparatus 400.

画像処理装置100は、コンピュータとして機能し、後述する機能部を有する。全周カメラ200は、全方位撮影用多眼カメラであり、上方と周囲360°の撮影を行う。この例において、全周カメラ200は、6台のカメラを備えている。6台のカメラの内、5台のカメラは、水平方向に向けられ鉛直上方から見て等角な角度位置(72°毎)に配置されている。また、残りの1台のカメラは、鉛直上方(仰角90°)に向けられている。これら6台のカメラは、画角(撮影範囲)が一部重複するように設定されている。この6台のカメラから得られる静止画像を合成することでパノラマ画像が得られる。   The image processing apparatus 100 functions as a computer and has a function unit described later. The omnidirectional camera 200 is a multi-lens camera for omnidirectional photography, and shoots 360 degrees above and around. In this example, the all-around camera 200 includes six cameras. Of the six cameras, five cameras are disposed at equiangular angular positions (every 72 °) as viewed from above in the horizontal direction. The remaining one camera is directed vertically upward (elevation angle 90 °). These six cameras are set so that the angles of view (shooting ranges) partially overlap. A panoramic image is obtained by combining still images obtained from the six cameras.

全周カメラ200において、各カメラの向きと位置の相対位置関係は予め調べられ、既知となっている。また、物理的な問題から、各カメラの視点(投影中心)の位置は一致していない。全周カメラについては、例えば、特開2012−204982号公報や特開2014−71860号公報に記載されている。全周カメラ200として市販品を用いることもできる。市販されている全周カメラとしては、Point Grey社製の商品名Ladybug3等がある。なお、全周カメラの代わりに回転機構を有するカメラを用いて撮影方向の違う複数の静止画像を得、この複数の静止画像を合成してパノラマ画像を得る形態も利用可能である。勿論、パノラマ画像は、全周画像に限定されず、特定の角度範囲におけるものであってもよい。全周カメラ200から異なる方向を撮影した複数の静止画像の画像データは、画像処理装置100に送られる。   In the all-round camera 200, the relative positional relationship between the orientation and position of each camera is examined in advance and is known. Also, due to physical problems, the position of the viewpoint (projection center) of each camera does not match. The all-round camera is described in, for example, Japanese Patent Application Laid-Open Nos. 2012-204982 and 2014-71860. A commercially available product can also be used as the all-round camera 200. Examples of commercially available all-around cameras include the product name Ladybug 3 manufactured by Point Gray. It is also possible to use a form in which a plurality of still images having different shooting directions are obtained using a camera having a rotation mechanism instead of the all-around camera, and a panoramic image is obtained by combining the plurality of still images. Of course, the panoramic image is not limited to the all-round image, and may be in a specific angle range. Image data of a plurality of still images taken from different directions from the omnidirectional camera 200 is sent to the image processing apparatus 100.

6台のカメラは、特定のタイミングで同時に静止画像を撮影する。撮影は、特定の時間間隔でもって行なうことも可能である。例えば、時差をもって6台のカメラを順次動作させ、得られた画像を合成することで全周画像を得ることも可能である。また、動画を撮影する形態も可能である。動画を撮影する場合、動画を構成するフレーム画像(例えば、1秒間に30枚撮影されるフレーム画像)が静止画像として取り扱われる。   The six cameras capture still images at a specific timing. Photographing can also be performed at specific time intervals. For example, it is also possible to obtain an all-round image by sequentially operating six cameras with a time difference and synthesizing the obtained images. Moreover, the form which image | photographs a moving image is also possible. When shooting a moving image, frame images constituting the moving image (for example, frame images captured 30 images per second) are handled as still images.

レーザスキャナ300は、対象物にレーザ光を照射し、その反射光を検出することで、対象物までの方向と距離を検出する。レーザスキャナ300は、レーザ照射部と反射光受光部を上下左右に首を振るように動かしながら、全周カメラ200の撮影範囲と同じ範囲のレーザスキャンを行う。レーザスキャナについては、特開2008―268004号公報や2010−151682号公報に記載されている。   The laser scanner 300 irradiates the object with laser light and detects the reflected light, thereby detecting the direction and distance to the object. The laser scanner 300 performs laser scanning in the same range as the shooting range of the all-around camera 200 while moving the laser irradiation unit and the reflected light receiving unit up and down and left and right. The laser scanner is described in Japanese Patent Application Laid-Open Nos. 2008-268004 and 2010-151682.

レーザスキャナ300と全周カメラ200の位置関係と向きの関係は予め取得されており、既知である。レーザスキャナ300が取得する点群位置データの座標系は、絶対座標系であってもよい、相対座標系におけるものであってもよい。絶対座標系というのは、GNSS等を用いて測定した位置を記述する座標系である。相対座標系というのは、全周カメラ200の機械中心やその他適当な位置を原点として記述される座標系である。   The positional relationship and orientation relationship between the laser scanner 300 and the all-around camera 200 are acquired in advance and are known. The coordinate system of the point cloud position data acquired by the laser scanner 300 may be an absolute coordinate system or a relative coordinate system. The absolute coordinate system is a coordinate system that describes a position measured using GNSS or the like. The relative coordinate system is a coordinate system described with the machine center of the all-round camera 200 and other appropriate positions as the origin.

表示装置400は、液晶ディスプレイ等の画像表示装置である。表示装置400として、タブレットやパーソナルコンピュータのディスプレイを利用することができる。表示装置400には、画像処理装置100で処理された画像のデータが送られ、その画像の表示が行なわれる。   The display device 400 is an image display device such as a liquid crystal display. As the display device 400, a display of a tablet or a personal computer can be used. Image data processed by the image processing apparatus 100 is sent to the display device 400, and the image is displayed.

図3には、画像処理装置100が備える各機能部が示されている。画像処理装置100は、CPU、電子メモリやハードディスク装置等の各種の記憶装置、各種の演算回路、インターフェース回路を備え、後述する機能を実行するコンピュータとしての機能を有している。画像処理装置100は、画像データ受付部101、パノラマ画像形成部102、指定受付部103、視線検出部104、単写真画像選択部105、表示画像制御部106、点群位置データ取得部107、画像と点群画像の合成部108および三次元位置算出部109を備えている。   FIG. 3 shows functional units included in the image processing apparatus 100. The image processing apparatus 100 includes a CPU, various storage devices such as an electronic memory and a hard disk device, various arithmetic circuits, and an interface circuit, and has a function as a computer that executes functions to be described later. The image processing apparatus 100 includes an image data receiving unit 101, a panoramic image forming unit 102, a designation receiving unit 103, a line-of-sight detection unit 104, a single photograph image selection unit 105, a display image control unit 106, a point cloud position data acquisition unit 107, an image And a point cloud image synthesis unit 108 and a three-dimensional position calculation unit 109.

これらの機能部は、ソフトウェア的な構成(プログラムがCPUによって実行されることで実現される構成)であってもよいし、専用の回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の回路によって構成された機能部が混在していてもよい。例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)などの電子回路の1または複数の組み合わせにより構成されている。   These functional units may have a software configuration (a configuration realized by executing a program by a CPU) or may be configured by a dedicated circuit. Moreover, the function part comprised by software and the function part comprised by the circuit for exclusive use may be mixed. For example, each functional unit shown in the figure is composed of one or more combinations of electronic circuits such as a PLD (Programmable Logic Device) such as a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array). It is configured.

画像処理装置100を構成する各機能部を専用のハードウェアで構成するのか、CPUにおけるプログラムの実行によりソフトウェア的に構成するのかは、要求される演算速度、コスト、消費電力等を勘案して決定される。例えば、特定の機能部をFPGAで構成すれば、処理速度の上では優位であるが高コストとなる。他方で、CPUでプログラムを実行することで特定の機能部を実現する構成は、ハードウェア資源を節約できるので、コスト的に優位となる。しかしながら、CPUで機能部を実現する場合、処理速度は、専用のハードウェアに比較して見劣りする。また、CPUで機能部を実現する場合、複雑な演算に対応できない場合もあり得る。なお、機能部を専用のハードウェアで構成することとソフトウェア的に構成することは、上述した違いはあるが、特定の機能を実現するという観点からは、等価である。   Whether each functional unit constituting the image processing apparatus 100 is configured by dedicated hardware or software by executing a program in the CPU is determined in consideration of required calculation speed, cost, power consumption, and the like. Is done. For example, if a specific functional unit is configured with FPGA, it is advantageous in terms of processing speed but is expensive. On the other hand, a configuration in which a specific functional unit is realized by executing a program by the CPU can save hardware resources, and is advantageous in terms of cost. However, when the functional unit is realized by the CPU, the processing speed is inferior to that of dedicated hardware. Further, when the functional unit is realized by the CPU, it may not be able to cope with complicated calculations. It should be noted that the configuration of the functional unit with dedicated hardware and the configuration with software are equivalent from the viewpoint of realizing a specific function, although there are the differences described above.

以下、画像処理装置100が備える各機能部について説明する。画像データ受付部101は、全周カメラ200が撮影した静止画像の画像データを受け付ける。具体的には、全周カメラ200が備える6台のカメラが撮影した静止画像の画像データが画像データ受付部101で受け付けられる。この6台のカメラが撮影した静止画像のそれぞれが単写真画像となる。   Hereinafter, each functional unit included in the image processing apparatus 100 will be described. The image data receiving unit 101 receives image data of a still image taken by the omnidirectional camera 200. Specifically, the image data receiving unit 101 receives image data of still images taken by six cameras included in the all-around camera 200. Each of the still images taken by these six cameras becomes a single photograph image.

パノラマ画像形成部102は、投影球を設定し、この投影球の内周面に画像データ受付部101が受け付けた6枚の静止画像(単写真画像)を投影する。この投影球への投影により、6枚の静止画像が合成されたパノラマ画像が得られる。このパノラマ画像は、投影球の中心から見る状態となる。投影球の半径は、予め定めた特定の値あるいは無限遠が採用される。投影球の中心の位置は、例えば全周カメラ200の機械的な重心の位置やその他扱いやすい位置が採用される。   The panorama image forming unit 102 sets a projection sphere, and projects six still images (single photograph images) received by the image data receiving unit 101 on the inner peripheral surface of the projection sphere. By projecting onto the projection sphere, a panoramic image obtained by synthesizing six still images is obtained. This panoramic image is viewed from the center of the projection sphere. A predetermined specific value or infinity is adopted as the radius of the projection sphere. As the position of the center of the projection sphere, for example, the position of the mechanical center of gravity of the all-round camera 200 and other easily manageable positions are employed.

指定受付部103は、パノラマ画像形成部102で形成した合成画像(パノラマ画像)における着目点の指定を受け付ける。例えば、重複する対象を撮影した2枚の静止画像を合成したパノラマ画像があり、そのパノラマ画像がPC(パーソナルコンピュータ)の画面上に表示されている場合を考える。この場合、ユーザは、当該PCのGUI(グラフィカル・ユーザ・インターフェース)を操作して、拡大表示したい点を注目点として指定する。この操作内容に係るデータの受け付けが指定受付部103において行われる。   The designation receiving unit 103 receives the designation of the point of interest in the composite image (panoramic image) formed by the panoramic image forming unit 102. For example, consider a case where there is a panoramic image obtained by synthesizing two still images taken of overlapping objects, and the panoramic image is displayed on a PC (personal computer) screen. In this case, the user operates a GUI (graphical user interface) of the PC to designate a point to be enlarged and displayed as an attention point. The designation accepting unit 103 accepts data related to the operation content.

視線検出部104は、投影球の中心(パノラマ画像の視点)から指定受付部103が受け付けた着目点への視線を検出する。この例では、投影球の中心から着目点へのベクトルを算出する。全周カメラ200を構成する各カメラの外部標定要素の相対的な関係は予め既知であるので、投影球の中心から投影球の内周面上で指定された着目点へのベクトルを算出することができる。具体的には、まず、投影球面上における着目点の座標を取得する。次に投影球面の中心と取得した着目点の座標位置とを結ぶベクトルを設定する。このベクトルがパノラマ画像における着目点への視線となる。   The line-of-sight detection unit 104 detects the line of sight from the center of the projection sphere (the viewpoint of the panoramic image) to the point of interest received by the designation receiving unit 103. In this example, a vector from the center of the projection sphere to the point of interest is calculated. Since the relative relationship of the external orientation elements of the cameras constituting the all-round camera 200 is known in advance, a vector from the center of the projection sphere to the point of interest designated on the inner circumferential surface of the projection sphere is calculated. Can do. Specifically, first, the coordinates of the point of interest on the projection sphere are acquired. Next, a vector connecting the center of the projection sphere and the acquired coordinate position of the target point is set. This vector is the line of sight to the point of interest in the panoramic image.

単写真画像選択部105は、視線検出部104が検出した視線に最も近い視線を有した単写真画像を選択する。単写真画像の視線は、当該単写真画像の画面に垂直な方向として取得される。単写真画像の視線は、当該単写真画像の視点から当該単写真画像の画角の中心(撮影視野の中心)に向かう方向として取得してもよい。   The single photograph image selection unit 105 selects a single photograph image having a line of sight closest to the line of sight detected by the line of sight detection unit 104. The line of sight of the single photograph image is acquired as a direction perpendicular to the screen of the single photograph image. The line of sight of the single photograph image may be acquired as a direction from the viewpoint of the single photograph image toward the center of the angle of view of the single photograph image (the center of the field of view).

単写真画像選択部105では、以下の処理が行なわれる。まず、複数ある単写真画像それぞれの視線の方向を取得する。次に、パノラマ画像における着目点への視線の方向と単写真画像における着目点への視線の方向とを比較し、着目点への視線の方向に最も近い視線の方向を有した単写真画像を選択する。パノラマ画像の視点と単写真画像の視点とは異なるが、その差は、着目点までの距離に比較して小さいので、上記の処理により、着目点が極力画角の中心に近い位置にある単写真画像が選択される。   The single photograph image selection unit 105 performs the following processing. First, the direction of the line of sight of each of a plurality of single photograph images is acquired. Next, the direction of the line of sight to the point of interest in the panoramic image is compared with the direction of the line of sight to the point of interest in the single photograph image, and a single photograph image having the line of sight closest to the direction of the line of sight to the point of interest is obtained. select. Although the viewpoint of the panoramic image is different from the viewpoint of the single-photo image, the difference is small compared to the distance to the point of interest. Therefore, the above processing causes the point of interest to be as close to the center of the angle of view as possible. A photographic image is selected.

表示画像制御部106は、パノラマ画像形成部102が作成したパノラマ画像と単写真画像選択部105が選択した単写真画像の一方または両方の画像データを表示装置400に表示させるための制御を行う。画像表示の形態としては、パノラマ画像と単写真画像の内のユーザが選択した方の画像を表示する形態、画面を分割し両方を表示する形態が挙げられる。また、表示画像制御部106は、単写真画像の切り替えに係る制御を行う。   The display image control unit 106 performs control for causing the display device 400 to display one or both of the panoramic image created by the panoramic image forming unit 102 and the single photo image selected by the single photo image selection unit 105. As a form of image display, there are a form of displaying a panoramic image and a single photograph image which is selected by the user, and a form of dividing both screens and displaying both. The display image control unit 106 performs control related to switching of single photograph images.

点群位置データ取得部107は、レーザスキャナ300が計測した三次元点群位置データを取得する。画像と点群画像の合成部108は、パノラマ画像と三次元点群位置データとを合成した画像(画像と点群の合成画像)を作成する。   The point cloud position data acquisition unit 107 acquires 3D point cloud position data measured by the laser scanner 300. The image and point cloud image combining unit 108 generates an image (image and point cloud combined image) by combining the panoramic image and the three-dimensional point cloud position data.

点群位置データでは、レーザスキャナ300から見た点群を構成する各点の方向が判るので、レーザスキャナ300から見た各点を投影球の内周面に投影すると、その投影点を画素とした点群画像(点群により構成された2次元画像)が作成できる。この点群画像は、点で構成された画像であり、通常の静止画像と同様に扱うことができる。   In the point cloud position data, since the direction of each point constituting the point cloud viewed from the laser scanner 300 is known, when each point viewed from the laser scanner 300 is projected onto the inner peripheral surface of the projection sphere, the projected point is defined as a pixel. A point cloud image (two-dimensional image composed of point clouds) can be created. This point cloud image is an image composed of points and can be handled in the same manner as a normal still image.

ここで、全周カメラ200とレーザスキャナ300の相対位置関係と相対的な向きの関係は予め取得され既知である。よって、全周カメラ200を構成する6台のカメラの画像を合成する方法と同じ方法で、全周カメラ200のカメラが撮影した静止画像と上記の点群画像とは重ね合わせることができる。この原理により、全周カメラ200が撮影した複数の静止画像を組み合わせることで得られるパノラマ画像と上記の点群画像とを重ね合わせることができ、カメラが撮影した画像から得たパノラマ画像と点群のデータとを重ねた合成画像が得られる。この処理が画像と点群画像の合成部108において行われる。画像と点群画像を重ねた合成画像の一例を図4に示す。   Here, the relative positional relationship and the relative orientation relationship between the all-round camera 200 and the laser scanner 300 are acquired in advance and known. Therefore, the still image photographed by the camera of the omnidirectional camera 200 and the above point cloud image can be superimposed by the same method as the method of synthesizing the images of the six cameras constituting the omnidirectional camera 200. Based on this principle, a panoramic image obtained by combining a plurality of still images captured by the all-around camera 200 and the above point cloud image can be superimposed, and a panoramic image obtained from the image captured by the camera and the point cloud A composite image obtained by superimposing the data is obtained. This processing is performed in the image and point cloud image combining unit 108. An example of a composite image obtained by superimposing an image and a point cloud image is shown in FIG.

三次元位置取得部109は、指定受付部103で指定された点(着目点)の三次元位置を点群位置データに基づいて取得する。具体的には、指定受付部103で指定された着目点の画面上の位置に対応する点群位置データの点が図4に例示される画像と点群の合成画像から取得される。そしてこの取得した点の三次元座標位置を点群位置データ取得部107が取得した点群位置データから取得する。なお、着目点に対応する点がない場合は、(1)近傍の点を選択し、その点の三次元位置を取得、(2)近傍の点の複数を選択し、その三次元位置の平均値を取得、(3)近傍の点の複数を選択し、更にそこから三次元位置が近い複数の点を選択し、その平均値を取得、といった方法で着目点の三次元座標の値を取得する。   The three-dimensional position acquisition unit 109 acquires the three-dimensional position of the point (point of interest) designated by the designation receiving unit 103 based on the point cloud position data. Specifically, the point of the point cloud position data corresponding to the position on the screen of the point of interest designated by the designation receiving unit 103 is acquired from the combined image of the image and the point cloud illustrated in FIG. The three-dimensional coordinate position of the acquired point is acquired from the point group position data acquired by the point group position data acquisition unit 107. If there is no point corresponding to the point of interest, (1) a nearby point is selected and the three-dimensional position of that point is acquired, (2) a plurality of neighboring points are selected, and the average of the three-dimensional positions is selected. Get the value, (3) Get the value of the 3D coordinates of the point of interest by selecting a plurality of nearby points, then selecting the points that are close to the 3D position, and obtaining the average value To do.

(処理の一例)
以下、図3の画像処理装置100で実行される処理の手順の一例を説明する。以下において説明する処理を実行するプログラムは、画像処理装置100内の記憶領域や適当な外部記憶媒体に記憶され、画像処理装置100によって実行される。
(Example of processing)
Hereinafter, an example of a procedure of processing executed by the image processing apparatus 100 in FIG. 3 will be described. A program for executing the processing described below is stored in a storage area in the image processing apparatus 100 or an appropriate external storage medium, and is executed by the image processing apparatus 100.

図5は、処理の手順の一例を示すフローチャートである。処理が開始されると、全周カメラ200が撮影した画像データの受け付けが行なわれる(ステップS101)。この処理では、全周カメラ200が備える6台のカメラが撮影した6枚の単写真画像の画像データの取得が行なわれる。この処理は、画像データ受付部101において行われる。   FIG. 5 is a flowchart illustrating an example of a processing procedure. When the processing is started, image data taken by the all-around camera 200 is accepted (step S101). In this process, image data of six single photograph images photographed by the six cameras included in the all-round camera 200 is acquired. This process is performed in the image data receiving unit 101.

次に、6枚の単写真画像を合成したパノラマ画像を作成する(ステップS102)。この処理では、投影球を設定し、その内周面に各単写真画像を投影し、パノラマ画像を作成する。この処理は、パノラマ画像形成部102において行われる。パノラマ画像を作成したら、その画像データを表示装置400に送り、パノラマ画像を表示装置400に表示する(ステップS103)。   Next, a panoramic image is created by synthesizing six single photograph images (step S102). In this process, a projection sphere is set, and each single photograph image is projected onto the inner peripheral surface thereof to create a panoramic image. This process is performed in the panoramic image forming unit 102. When the panorama image is created, the image data is sent to the display device 400, and the panorama image is displayed on the display device 400 (step S103).

表示装置400にパノラマ画像を表示している状態において、ユーザによりパノラマ画像上の特定の点が着目点として指定されるとステップS104の判定がYESとなり、ステップS105に進む。ユーザによる着目点の指定がない場合、ステップS103で表示したパノラマ画像の表示が継続される。   When the user designates a specific point on the panoramic image as a point of interest while the panoramic image is displayed on the display device 400, the determination in step S104 is YES, and the process proceeds to step S105. If the user does not specify the point of interest, the panoramic image displayed in step S103 is continuously displayed.

ステップS105では、指定受付部104が受け付けた着目点への視線の方向(投影球の中心から着目点への方向)が検出される(ステップS105)。この処理は、視線検出部104において行われる。パノラマ画像における着目点への視線の方向を検出したら、この視線の方向に最も近い視線の方向を有する単写真画像を選択する(ステップS106)。   In step S105, the direction of the line of sight to the point of interest received by the designation receiving unit 104 (the direction from the center of the projection sphere to the point of interest) is detected (step S105). This process is performed in the line-of-sight detection unit 104. When the direction of the line of sight to the point of interest in the panoramic image is detected, a single photograph image having the line of sight closest to the direction of the line of sight is selected (step S106).

この処理では、パノラマ画像上で指定された着目点への投影球中心からの方向が第1の方向として特定される。そして、各単写真画像の視点から画面中心への方向、言い換えると当該単写真画像の画面に垂直な方向が第2の方向として取得される。ここで、第2の方向は、複数(この場合は6枚)ある単写真画像毎にあるので、その中から、第1の方向に最も近い第2の方向を有する単写真画像が選択される。   In this process, the direction from the center of the projection sphere to the point of interest designated on the panoramic image is specified as the first direction. Then, the direction from the viewpoint of each single photograph image to the center of the screen, in other words, the direction perpendicular to the screen of the single photograph image is acquired as the second direction. Here, since there are a plurality of (6 in this case) single photograph images, the second direction is selected from among the single photograph images having the second direction closest to the first direction. .

次に、ステップS106で選択した単写真画像の表示を行う(ステップS107)。この処理により、ステップS103で表示されたパノラマ画像からステップS106で選択された単写真画像への切り替えが行なわれる。次に、ユーザからのパノラマ画像への切り替えの指示が行なわれたか否か、が判定され(ステップS108)、パノラマ画像への切り替えの指示があれば、ステップS103以下の再度実行し、そうでなければステップS109に進む。   Next, the single photograph image selected in step S106 is displayed (step S107). By this processing, switching from the panoramic image displayed in step S103 to the single photograph image selected in step S106 is performed. Next, it is determined whether or not an instruction for switching to a panoramic image has been issued from the user (step S108). If there is an instruction to switch to a panoramic image, the process is executed again from step S103 onward. If so, the process proceeds to step S109.

ステップS107で表示された単写真画像の画面上でユーザにより着目点の指定位置が変更され、当該指定位置が表示画面の端に近づいた場合、ステップS109の判定がYESとなり、この時点で表示されている単写真画像に隣接する単写真画像に表示を切り替える(ステップS110)。この処理では、まずその時点で表示している単写真画像(単写真画像1)における着目点が隣接する単写真画像(単写真画像2)とオーバーラップする部分にあるのか否かが判定される。そして、着目点が当該オーバーラップ部分にある場合、着目点と画面中心からの距離が近いのが、単写真画像1なのか単写真画像2なのかを判定し、着目点と画面中心からの距離が近いのが単写真画像2である場合は、ステップS109の判定がYESとなり、単写真画像2に表示が切り替わる(ステップS110)。着目点と画面中心からの距離が近いのが単写真画像1である場合は、ステップS108の前の段階に戻り、ステップS107で表示された単写真画像がそのまま表示される。   When the designated position of the point of interest is changed by the user on the single photograph image screen displayed in step S107 and the designated position approaches the end of the display screen, the determination in step S109 is YES, and this is displayed at this time. The display is switched to the single photo image adjacent to the single photo image being displayed (step S110). In this processing, first, it is determined whether or not the point of interest in the single photograph image (single photograph image 1) displayed at that time is in a portion overlapping with the adjacent single photograph image (single photograph image 2). . When the focus point is in the overlap portion, it is determined whether the focus point and the center of the screen are close to the single photograph image 1 or the single photograph image 2, and the distance between the focus point and the center of the screen is determined. When the single photograph image 2 is close to, the determination in step S109 is YES, and the display is switched to the single photograph image 2 (step S110). If the single photograph image 1 is close to the point of interest from the screen center, the process returns to the stage before step S108, and the single photograph image displayed in step S107 is displayed as it is.

以下、図面を参照してステップS109からステップS110の処理の一例を説明する。図6にはカメラ1が撮影した単写真画像が表示された状態が示されている。図6において着目点の位置が図の時計回り方向に移動し、着目点がカメラ1とカメラ2における撮影範囲のオーバーラップ部分に移動した状態が図7に示されている。   Hereinafter, an example of the processing from step S109 to step S110 will be described with reference to the drawings. FIG. 6 shows a state in which a single photograph image taken by the camera 1 is displayed. FIG. 7 shows a state in which the position of the point of interest has moved in the clockwise direction in FIG. 6 and the point of interest has moved to the overlapping portion of the shooting range of the camera 1 and the camera 2 in FIG.

図7の状態では、着目点がカメラ1の撮影範囲の中心に近いので、カメラ1が撮影した単写真画像が依然として表示されている。そして、図7の状態から更に着目点が時計回り方向に移動した状態が図8に示されている。図8の場合、着目点がカメラ1の撮影範囲の中心よりもカメラ2の画角(撮影範囲)の中心に近いので、カメラ2が撮影した単写真画像に表示像が切り替わる。この場合、着目点の移動に伴い、カメラ1が撮影した単写真画像からカメラ2が撮影した単写真画像へと表示装置400に表示されている画像が切り替わる。この場合、画像の切り替わりに対応して視点の位置が変更される。   In the state of FIG. 7, since the point of interest is close to the center of the shooting range of the camera 1, the single photograph image taken by the camera 1 is still displayed. FIG. 8 shows a state where the point of interest further moves in the clockwise direction from the state of FIG. In the case of FIG. 8, the point of interest is closer to the center of the angle of view (shooting range) of the camera 2 than the center of the shooting range of the camera 1, so that the display image is switched to a single photograph image taken by the camera 2. In this case, with the movement of the point of interest, the image displayed on the display device 400 is switched from the single photo image taken by the camera 1 to the single photo image taken by the camera 2. In this case, the position of the viewpoint is changed corresponding to the switching of images.

(パノラマ表示における表示範囲の変更)
表示装置400にパノラマ画像の全体を映し出すことは現実的ではなく、通常は、パノラマ画像の一部が表示装置400に表示される。図9には、その場合の一例が示されている。この場合、着目点は、表示された画面の中央に設定される。表示範囲を変更すると、着目点が球面上で動き、表示される範囲が変更される。図9の例では、パノラマ画像上で表示される範囲が移動する。この場合、視点の位置の変更は発生しない。
(Change of display range in panorama display)
It is not realistic to display the entire panoramic image on the display device 400, and usually a part of the panoramic image is displayed on the display device 400. FIG. 9 shows an example of such a case. In this case, the point of interest is set at the center of the displayed screen. When the display range is changed, the point of interest moves on the spherical surface, and the displayed range is changed. In the example of FIG. 9, the range displayed on the panoramic image moves. In this case, the viewpoint position does not change.

(表示倍率を変更した場合の実例)
図10(A)には、低倍率なパノラマ表示の一例が示されている。図10(A)には、パノラマ表示で問題となる像のズレが現れている。図10(B)には、図10(A)の状態で表示倍率を高めた場合が示されている。この場合もパノラマ表示で問題となる像のズレが現れている。図10(C)には、図10(B)のパノラマ表示において、その中央の付近に着目し、その着目点を含む単写真表示に切り替え、されに画像を拡大した場合が示されている。図10(C)から分かるように、パノラマ画像から単写真表示に切り替えることで、パノラマ画像で問題となる像のズレが解消される。なお、図10(C)の画像の全体がぼけているのは、カメラの性能の問題であり、より解像度の高いカメラを用いれば、鮮明な画像が得られる。
(Example when the display magnification is changed)
FIG. 10A shows an example of a low-magnification panoramic display. In FIG. 10A, an image shift that becomes a problem in the panorama display appears. FIG. 10B shows a case where the display magnification is increased in the state of FIG. In this case as well, the image shift that is a problem in the panorama display appears. FIG. 10 (C) shows a case where, in the panoramic display of FIG. 10 (B), attention is paid to the vicinity of the center, switching to single photograph display including the point of interest, and enlargement of the image. As can be seen from FIG. 10C, by switching from the panoramic image to the single photo display, the image shift that is a problem in the panoramic image is eliminated. Note that the entire image in FIG. 10C is blurred because of camera performance, and a clearer image can be obtained by using a camera with higher resolution.

(その他)
着目点の指定を受け付ける別の方法として、パノラマ画像をタッチパネルディスプレイに表示し、タッチペン等の当該ディスプレイへの接触により、着目点の指定を受け付ける方法が挙げられる。また、着目点の指定を受け付ける別の方法として、パノラマ画像を見ているユーザの視線を検出し、更にその視線と当該パノラマ画像の画像面との交点を検出し、その位置を指定位置として受け付ける方法が挙げられる。視線を検出する技術については、例えば、特開2015−118579号公報に記載されている。
(Other)
As another method for accepting designation of a point of interest, there is a method of displaying a panoramic image on a touch panel display and accepting designation of the point of interest by touching the display such as a touch pen. As another method for receiving the designation of the point of interest, the line of sight of the user who is viewing the panoramic image is detected, the intersection of the line of sight and the image plane of the panoramic image is detected, and the position is accepted as the designated position. A method is mentioned. The technique for detecting the line of sight is described in, for example, Japanese Patent Laid-Open No. 2015-118579.

Claims (5)

異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付部と、
前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成部と、
前記合成画像の中の特定の位置の指定を受け付ける指定受付部と、
前記指定受付部で受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択部と
を備え、
前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理装置。
An image data receiving unit that receives the image data of the first still image and the image data of the second still image obtained by capturing an overlapping target from different viewpoints;
A composite image forming unit that projects the first still image and the second still image onto a projection sphere to form a composite image;
A designation accepting unit that accepts designation of a specific position in the composite image;
A selection unit that selects one of the first still image and the second still image including the designated position received by the designation receiving unit;
The image processing device in which the viewpoint of the first still image, the viewpoint of the second still image, and the center of the projection sphere are at different positions .
前記選択部は、前記第1の静止画像および前記第2の静止画像における前記投影球の中心から見た前記特定の位置の方向に近い画像の向きを有する方を選択することを特徴とする請求項1に記載の画像処理装置。   The selection unit selects a direction having an image orientation close to a direction of the specific position viewed from a center of the projection sphere in the first still image and the second still image. Item 8. The image processing apparatus according to Item 1. 前記第1の静止画像または前記第2の静止画像を表示装置に表示する制御を行う表示制御部を備え、
前記第1の静止画像と前記第2の静止画像とは重複する部分があり、
前記表示制御部は、
前記第1の静止画像が表示されている状況において、
前記重複する部分における特定の位置が指定された場合に、当該指定された位置が前記第1の静止画像の中心より、前記第2の静止画像の中心に近い場合に、前記第2の静止画像を表示させることを特徴とする請求項1または2に記載の画像処理装置。
A display control unit that performs control to display the first still image or the second still image on a display device;
The first still image and the second still image have an overlapping portion,
The display control unit
In the situation where the first still image is displayed,
When a specific position in the overlapping portion is specified, the second still image is determined when the specified position is closer to the center of the second still image than the center of the first still image. The image processing apparatus according to claim 1, wherein the image processing apparatus is displayed.
異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、
前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成ステップと、
前記合成画像の中の特定の位置の指定を受け付ける指定受付ステップと、
前記指定受付ステップで受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択ステップと
を備え、
前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理方法。
An image data accepting step for accepting image data of a first still image and image data of a second still image obtained by imaging an overlapping target from different viewpoints;
A composite image forming step of projecting the first still image and the second still image onto a projection sphere to form a composite image;
A designation accepting step for accepting designation of a specific position in the composite image;
A selection step of selecting one of the first still image or the second still image including the designated position received in the designation receiving step,
An image processing method in which the viewpoint of the first still image, the viewpoint of the second still image, and the center of the projection sphere are at different positions .
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータに
異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、
前記第1の静止画像と前記第2の静止画像とを投影球に投影して合成画像を形成する合成画像形成ステップと、
前記合成画像の中の特定の位置の指定を受け付ける指定受付ステップと、
前記指定受付ステップで受け付けた指定位置を含む前記第1の静止画像または前記第2の静止画像の一方を選択する選択ステップと
を実行させ、
前記第1の静止画像の視点、前記第2の静止画像の視点、および前記投影球の中心は、それぞれ異なる位置にある画像処理用プログラム。
A program that is read and executed by a computer,
An image data accepting step for accepting image data of a first still image and image data of a second still image obtained by imaging an overlapping target from different viewpoints;
A composite image forming step of projecting the first still image and the second still image onto a projection sphere to form a composite image;
A designation accepting step for accepting designation of a specific position in the composite image;
Selecting one of the first still image and the second still image including the designated position accepted in the designation accepting step; and
An image processing program in which the viewpoint of the first still image, the viewpoint of the second still image, and the center of the projection sphere are at different positions .
JP2015198137A 2015-10-06 2015-10-06 Image processing apparatus, image processing method, and image processing program Active JP6579706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015198137A JP6579706B2 (en) 2015-10-06 2015-10-06 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015198137A JP6579706B2 (en) 2015-10-06 2015-10-06 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2017073620A JP2017073620A (en) 2017-04-13
JP6579706B2 true JP6579706B2 (en) 2019-09-25

Family

ID=58538402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198137A Active JP6579706B2 (en) 2015-10-06 2015-10-06 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6579706B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6792253B2 (en) * 2017-06-08 2020-11-25 ナーブ株式会社 Image display device, image display method, and image display program
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104335569B (en) * 2012-06-11 2017-08-25 索尼电脑娱乐公司 Image forming apparatus and image generating method
JP6256872B2 (en) * 2013-12-24 2018-01-10 パナソニックIpマネジメント株式会社 Endoscope system
JP6335395B2 (en) * 2015-09-30 2018-05-30 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2017073620A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6615545B2 (en) Image processing apparatus, image processing method, and image processing program
KR102187146B1 (en) Dual-aperture zoom digital camera with automatic adjustable tele field of view
JP6484349B2 (en) Camera rig and 3D image capture
US11195253B2 (en) Equatorial stitching of hemispherical images in a spherical image capture system
CN106803884B (en) Image processing apparatus
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
JP6167703B2 (en) Display control device, program, and recording medium
CN106133794B (en) Information processing method, information processing apparatus, and program
WO2015180659A1 (en) Image processing method and image processing device
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP6223169B2 (en) Information processing apparatus, information processing method, and program
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
JP6579706B2 (en) Image processing apparatus, image processing method, and image processing program
US8908012B2 (en) Electronic device and method for creating three-dimensional image
CN110796690B (en) Image matching method and image matching device
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP2019008494A (en) Image processing device
JP2014165866A (en) Image processing device, control method therefor and program
JP2018032991A (en) Image display unit, image display method and computer program for image display
TWI672950B (en) Image device capable of compensating image variation
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP6257798B2 (en) Image processing apparatus and image processing method
US10176615B2 (en) Image processing device, image processing method, and image processing program
JP6879350B2 (en) Image display systems, image display devices, image display methods, and programs
US20230300315A1 (en) Information processing apparatus, information processing method, program, and display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6579706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250