JP2018124832A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2018124832A
JP2018124832A JP2017017023A JP2017017023A JP2018124832A JP 2018124832 A JP2018124832 A JP 2018124832A JP 2017017023 A JP2017017023 A JP 2017017023A JP 2017017023 A JP2017017023 A JP 2017017023A JP 2018124832 A JP2018124832 A JP 2018124832A
Authority
JP
Japan
Prior art keywords
image
child
group
photographed
parent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017017023A
Other languages
Japanese (ja)
Other versions
JP6774348B2 (en
Inventor
與那覇 誠
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017017023A priority Critical patent/JP6774348B2/en
Publication of JP2018124832A publication Critical patent/JP2018124832A/en
Application granted granted Critical
Publication of JP6774348B2 publication Critical patent/JP6774348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, an image processing method, and a program that can quickly and accurately perform an operation of grouping for each inspection target in a group of photographed images where a plurality of photographing objects are photographed and a plurality of photographed images exist for each photographing object.SOLUTION: An image processing device 200 groups a photographed image group including photographed images of a plurality of objects to be photographed into groups for each object to be photographed. The image processing device 200 includes an image input unit 201 that the photographed image group is input, a parent image receiving unit 203 that receives designation of a parent image representing a whole image of the object to be photographed, a child image specifying unit 205 that specifies a child image of the object obtained by photographing a part of the object of the parent image to be photographed, and a group generation unit 207 that generates a group composed of a parent image and a child image that have photographed a same object to be photographed or a group composed of the child images for each of the objects to be photographed.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に複数の撮影対象の撮影画像を含む撮影画像群を撮影対象毎に分類する技術に関する。   The present invention relates to an image processing device, an image processing method, and a program, and more particularly to a technique for classifying a captured image group including captured images of a plurality of shooting targets for each shooting target.

従来より、複数の撮影画像で構成された撮影画像群において、撮影画像の検索、または撮影画像をグループ分けするグルーピングに関する技術が提案されている。   2. Description of the Related Art Conventionally, there has been proposed a technique related to grouping for searching for a captured image or grouping captured images in a captured image group composed of a plurality of captured images.

例えば特許文献1には、データベースに保存された画像に対して、色彩および形状の物理的構成要素の他に、人間が視覚的に類似しているか否かの判断に関する記号を付与して、画像検索に使用する技術が提案されている。   For example, in Patent Document 1, in addition to physical components of color and shape, a symbol related to whether or not a human is visually similar is assigned to an image stored in a database, and the image Techniques used for searching have been proposed.

また例えばフォトブックおよびフォトアルバムを作成する技術においては、ユーザが入力する複数のイベントにおいて撮影された撮影画像を含む撮影画像群に対して、各撮影画像の撮影時刻に関する情報に基づいて、イベント毎に画像をグルーピングする技術が適用されている。   Further, for example, in the technique of creating a photo book and a photo album, for each captured image group including captured images captured at a plurality of events input by the user, for each event based on information regarding the captured time of each captured image. A technique for grouping images is applied.

特開2004−334594号公報JP 2004-334594 A

近年、建造物の点検作業に撮影画像が利用されることが多くなった。点検作業において撮影画像が利用される場合には、各点検対象について撮影箇所や撮影条件を変更して複数回の撮影が行われる。すなわち、複数の点検対象の各点検対象毎に、撮影箇所および撮影条件を変更して、撮影画像が取得される。このように、複数の点検対象のうち点検対象毎に複数枚の撮影画像を取得すると、膨大な枚数の撮影画像で構成された撮影画像群が生成されることになる。   In recent years, photographed images are often used for building inspection work. When a photographed image is used in the inspection work, photographing is performed a plurality of times by changing photographing locations and photographing conditions for each inspection target. That is, a captured image is acquired by changing the shooting location and shooting conditions for each of the plurality of inspection targets. As described above, when a plurality of photographed images are acquired for each inspection object among the plurality of inspection objects, a photographed image group composed of an enormous number of photographed images is generated.

具体例として橋梁の床版の点検を行う場合には、格間ごとに床版を撮影していくが、格間の全体像を撮影し且つ格間の損傷箇所はズームアップして撮影するなどして、一つの格間(撮影対象)に対して複数の撮影画像が取得される。また、橋梁の点検では複数の格間に関して点検を行うので、点検者(ユーザ)は複数の撮影対象の多数の撮影画像で構成された撮影画像群を得ることになる。そして点検者は、撮影画像を点検に利用するためには、得られた撮影画像群を点検対象である格間の床版(撮影対象)毎にグルーピングする必要がある。   As a specific example, when checking the floor slab of a bridge, the floor slab is photographed for each gap, but the entire image of the gap is photographed, and the damaged part of the gap is zoomed in and photographed. Then, a plurality of photographed images are acquired for one space (photographing target). In addition, since the bridge is inspected with respect to a plurality of spaces, the inspector (user) obtains a photographed image group composed of a large number of photographed images of a plurality of photographing objects. In order to use the photographed image for inspection, the inspector needs to group the obtained photographed image group for each floor slab (photographing target) to be inspected.

この撮影対象毎にグルーピングする作業は、従来より点検者が視覚で判断して手動で行われる場合が多かった。   The grouping operation for each photographing target has been conventionally performed manually by an inspector visually.

しかしながら、点検者が手動でグルーピングを行う場合にはグルーピングに時間を要してしまい、点検対象が多数ある場合にはグルーピングの作業に膨大な時間を要してしまう場合があった。また点検者の手動でのグルーピングでは、人為的な誤りにより、正しいグルーピング結果を得ることができない場合がある。   However, when the inspector manually performs grouping, it takes time for the grouping, and when there are a large number of inspection targets, the grouping operation may take a huge amount of time. In addition, in the manual grouping by the inspector, a correct grouping result may not be obtained due to human error.

ここで点検を行う場合に取得される撮影画像群を構成する各撮影画像は、上述したフォトブックおよびフォトアルバムのようにイベント毎に撮影時刻が大きく異なる場合が少なく、単純に撮影画像が有する撮影時刻の違いだけで、点検対象毎にグルーピングすることは難しい場合が多い。   Here, each of the captured images constituting the captured image group acquired in the case of inspection is unlikely to have a significantly different shooting time for each event as in the above-described photo book and photo album, and the captured images simply have. In many cases, it is difficult to group by inspection object only by the difference in time.

また特許文献1には、撮影対象毎に、データベースに保存されている画像群を迅速に且つ正確にグルーピングすることには言及されていない。   Further, Patent Document 1 does not mention that a group of images stored in a database is quickly and accurately grouped for each photographing target.

本発明はこのような事情に鑑みてなされたもので、その目的は、複数の撮影対象を撮影し且つ各撮影対象に対して複数の撮影画像が存在する撮影画像群において、点検対象毎にグルーピングする作業を迅速に且つ正確に行うことができる画像処理装置、画像処理方法、およびプログラムを提供することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to group each inspection object in a photographed image group in which a plurality of photographed objects are photographed and a plurality of photographed images exist for each photographed object. It is an object to provide an image processing apparatus, an image processing method, and a program that can perform a work to be performed quickly and accurately.

上記目的を達成するために、本発明の一の態様である画像処理装置は、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理装置であって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力部と、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付部と、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定部と、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成部と、を備える。   In order to achieve the above object, an image processing apparatus according to one aspect of the present invention is an image processing apparatus that groups a group of captured images including captured images of a plurality of shooting targets into groups for each shooting target, An image input for inputting a photographed image group including one or a plurality of first images first photographed for each photographing object and a plurality of second images photographed second under photographing conditions different from the first photographing. Based on the received image characteristics of the parent image and the image characteristics of the second image based on the received image characteristics of the parent image and the parent image receiving section. A child image specifying unit that specifies a second image obtained by shooting a part of the shooting target as a child image, and a group composed of a parent image and a child image obtained by shooting the same shooting target for each of the shooting targets; or Consists of child images And a group generator to generate a group.

本態様によれば、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群を撮影対象ごとに、画像特徴の親子関係によりグループ分け(グルーピング)することができる。すなわち、親画像受付部により、撮影対象の全体像を表す親画像の指定が受け付けられ、子画像特定部により、その指定された親画像の画像特徴に基づいて同一の撮影対象の一部を撮影した子画像が特定され、同一の撮影対象を撮影した親画像および子画像、または同一の撮影対象を撮影した子画像で構成されるグループが生成される。これにより本態様は、親画像の画像特徴と子画像の画像特徴とに基づいて、撮影画像群を撮影対象毎にグルーピングするので、撮影画像群のグルーピングをより迅速に且つ正確に行うことができる。   According to this aspect, the captured image group includes one or a plurality of first images that are first captured for each of the capturing targets, and a plurality of second images that are captured second under a capturing condition different from the first capturing. Can be grouped according to the parent-child relationship of image features for each subject. That is, the parent image accepting unit accepts designation of a parent image representing the entire image to be photographed, and the child image identifying unit photographs a part of the same photographing object based on the image characteristics of the designated parent image. A child image is identified, and a group composed of a parent image and a child image obtained by photographing the same photographing object or a child image obtained by photographing the same photographing object is generated. Thus, according to the present aspect, the captured image group is grouped for each imaging target based on the image feature of the parent image and the image feature of the child image, so that the grouping of the captured image group can be performed more quickly and accurately. .

好ましくは、親画像受付部は、撮影対象を分割撮影した複数の第1画像を親画像として受け付け、子画像特定部は、親画像として受け付けた複数の第1画像を合成処理して撮影対象の全体像を表す一枚の画像に合成し、一枚の画像の画像特徴と第2画像の画像特徴とに基づいて、子画像を特定する。   Preferably, the parent image receiving unit receives a plurality of first images obtained by dividing and shooting the shooting target as a parent image, and the child image specifying unit performs a synthesis process on the plurality of first images received as the parent image to obtain a shooting target. A single image representing the whole image is synthesized and a child image is specified based on the image characteristics of the single image and the image characteristics of the second image.

本態様によれば、親画像受付部により、撮影対象を分割撮影した複数の第1画像が親画像として受け付けられ、子画像特定部により、受け付けられた複数の親画像を撮影対象の全体像を表す一枚の画像に合成して、合成された一枚の画像の画像特徴に基づいて、子画像が特定される。これにより本態様は、撮影対象が大きく分割撮影された場合であっても、分割撮影された画像を合成して合成した画像の画像特徴に基づいて子画像が特定されるので、撮影画像群の正確なグルーピングを行うことができる。   According to this aspect, the parent image receiving unit receives a plurality of first images obtained by dividing and shooting the shooting target as parent images, and the child image specifying unit displays the received plurality of parent images as a whole image of the shooting target. A child image is identified based on the image characteristics of the single image that is combined with the single image that is represented. As a result, even if the subject to be photographed is divided and photographed largely, the child images are identified based on the image features of the images obtained by compositing the separately photographed images. Accurate grouping can be performed.

好ましくは、子画像特定部は、第2画像と親画像との特徴点を抽出し、抽出した特徴点の対応関係に基づいて、子画像を特定する。   Preferably, the child image specifying unit extracts a feature point between the second image and the parent image, and specifies the child image based on the correspondence relationship between the extracted feature points.

本態様によれば、子画像特定部により、第2画像と親画像との特徴点が抽出され、抽出された特徴点の対応関係に基づいて子画像が特定されるので、本態様は、正確に撮影画像群のグルーピングを行うことができる。   According to this aspect, the feature point between the second image and the parent image is extracted by the child image specifying unit, and the child image is specified based on the correspondence relationship between the extracted feature points. In addition, grouping of photographed image groups can be performed.

好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影された時刻に関する情報を有し、子画像特定部は、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された第2画像を子画像の子候補画像とし、子候補画像から子画像を特定する。   Preferably, each of the plurality of photographed images constituting the photographed image group has information regarding the photographing time, and the child image specifying unit is photographed after or before the time when the parent image of one group is photographed. The processed second image is set as a child candidate image of the child image, and the child image is specified from the child candidate image.

本態様によれば、撮影画像群を構成する撮影画像の各々が撮影された時刻に関する情報を有する場合において、子画像特定部により、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された第2画像を子画像の子候補画像とし、子候補画像から子画像を特定する。これにより本態様は、子画像特定部による子画像の特定が、子候補画像のうちから行われるので、正確に且つ迅速に撮影画像群のグルーピングを行うことができる。   According to this aspect, in the case where each of the captured images constituting the captured image group has information regarding the time at which the captured images are captured, the child image specifying unit performs the time after or before the time at which the parent image of one group is captured. The taken second image is used as a child candidate image of the child image, and the child image is specified from the child candidate image. As a result, in this aspect, the child image is specified from the child candidate images by the child image specifying unit, so that the group of captured image groups can be accurately and quickly performed.

好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影された時刻に関する情報を有し、子画像特定部は、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された第2画像を第1グループの子画像の子候補画像とし、子候補画像から子画像を特定する。   Preferably, each of the plurality of photographed images constituting the photographed image group has information related to the photographed time, and the child image specifying unit includes the time when the parent image of the first group is photographed and the second group of images. The second image taken between the time when the parent image was taken is taken as the child candidate image of the first group of child images, and the child image is specified from the child candidate image.

本態様によれば、撮影画像群を構成する撮影画像の各々が撮影された時刻に関する情報を有する場合において、子画像特定部により、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された第2画像を第1グループの子画像の子候補画像とし、子候補画像から子画像が特定される。これにより本態様は、子画像特定部による子画像の特定が、子候補画像のうちから行われるので、正確に且つ迅速に撮影画像群のグルーピングを行うことができる。   According to this aspect, when each of the captured images constituting the captured image group has information regarding the time at which the captured image was captured, the time at which the parent image of the first group was captured by the child image specifying unit, and the second group The second image taken between the time when the parent image is taken is set as a child candidate image of the child image of the first group, and the child image is specified from the child candidate image. As a result, in this aspect, the child image is specified from the child candidate images by the child image specifying unit, so that the group of captured image groups can be accurately and quickly performed.

好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影条件に関する情報を有し、親画像受付部は、撮影条件に基づいて撮影画像群の中から第1画像を抽出し、抽出された第1画像の中から、親画像を受け付ける。   Preferably, each of the plurality of photographed images constituting the photographed image group has information regarding the photographing condition, and the parent image receiving unit extracts and extracts the first image from the photographed image group based on the photographing condition. A parent image is received from the first images.

本態様によれば、撮影画像群を構成する複数の撮影画像の各々が撮影条件に関する情報を有する場合において、親画像受付部により、撮影条件に基づいて撮影画像群の中から第1画像を抽出し、抽出された第1画像の中から、親画像を受け付ける。これにより本態様は、親画像として選択される候補である第1画像を抽出して、その抽出された第1画像の中から、親画像の選択が受け付けられるので、迅速に且つ正確な撮影画像群のグルーピングを行うことができる。   According to this aspect, when each of the plurality of captured images constituting the captured image group has information regarding the capturing condition, the parent image receiving unit extracts the first image from the captured image group based on the capturing condition. The parent image is received from the extracted first image. Thereby, since this aspect extracts the 1st image which is a candidate selected as a parent image, and selection of a parent image is received from the extracted 1st image, a quick and accurate picked-up image is received. Group grouping can be performed.

好ましくは、撮影画像群は、撮影画像の撮影対象が他の撮影対象に変わることを示す目印画像を含み、撮影画像群を構成する複数の撮影画像および目印画像の各々は、撮影された時刻に関する情報を有し、親画像受付部は、目印画像が撮影された直後または直前に撮影された第1画像を親画像として受け付ける。   Preferably, the photographed image group includes a landmark image indicating that the photographing target of the photographed image is changed to another photographing target, and each of the plurality of photographed images and the landmark image constituting the photographed image group relates to a time when the photographed image is photographed. The parent image receiving unit receives the first image taken immediately after or immediately before the landmark image is taken as a parent image.

本態様によれば、撮影画像群が撮影画像の撮影対象が他の撮影対象に変わることを示す目印画像を含み、且つ、撮影画像群を構成する複数の撮影画像および目印画像の各々は撮影された時刻に関する情報を有する場合に、親画像受付部により、目印画像が撮影された直後または直前に撮影された第1画像を親画像として受け付ける。これにより本態様は、目印画像の直前または直後の第1画像を、親画像として自動的に受け付けるので、迅速に且つ正確な撮影画像群のグルーピングを行うことができる。   According to this aspect, the captured image group includes a landmark image indicating that the captured object of the captured image is changed to another captured object, and each of the plurality of captured images and the landmark image constituting the captured image group is captured. When there is information regarding the time, the parent image accepting unit accepts the first image photographed immediately after or just before the landmark image is photographed as the parent image. Thus, according to the present aspect, the first image immediately before or immediately after the landmark image is automatically accepted as the parent image, so that it is possible to quickly and accurately group the captured image group.

好ましくは、画像処理装置は、グループ生成部で生成されたグループごとに親画像および子画像を表示部に表示させる表示制御部と、子画像の修正指示を受け付ける修正指示受付部と、を備え、グループ生成部は、修正指示に基づいてグループを再び生成する。   Preferably, the image processing apparatus includes a display control unit that causes the display unit to display a parent image and a child image for each group generated by the group generation unit, and a correction instruction reception unit that receives a correction instruction for the child image. The group generation unit generates the group again based on the correction instruction.

本態様によれば、表示制御部により、グループ生成部で生成されたグループごとに親画像および子画像を表示部に表示させ、修正指示受付部により、子画像の修正指示を受け付け、グループ生成部により、修正指示に基づいてグループが再び生成される。これにより本態様は、正確な撮影画像群のグルーピングを行うことができる。   According to this aspect, the display control unit displays the parent image and the child image on the display unit for each group generated by the group generation unit, the correction instruction receiving unit receives the child image correction instruction, and the group generation unit Thus, the group is generated again based on the correction instruction. Thereby, this aspect can perform accurate grouping of the photographed image group.

好ましくは、画像処理装置は、グループを構成する複数の子画像を、画像合成の対象画像として特定する合成対象特定部を備える。   Preferably, the image processing apparatus includes a compositing target specifying unit that specifies a plurality of child images constituting the group as image compositing target images.

好ましくは、画像処理装置は、合成対象特定部で特定された画像合成の対象画像を画像合成する子画像合成部を備える。   Preferably, the image processing apparatus includes a child image synthesis unit that performs image synthesis on the target image for image synthesis specified by the synthesis target specifying unit.

本態様によれば、子画像合成部により、画像合成の対象画像を画像合成するので、グルーピングの結果が有効に利用される。   According to this aspect, since the child image composition unit composites the target images for image composition, the grouping result is effectively used.

本発明の他の態様である画像処理方法は、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理方法であって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力ステップと、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定ステップと、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成ステップと、を含む。   An image processing method according to another aspect of the present invention is an image processing method for grouping photographed image groups including photographed images of a plurality of photographing objects into groups for each photographing object, wherein the first photographing is performed for each of the photographing objects. An image input step in which a captured image group including a single image or a plurality of first images and a plurality of second images captured under a photographing condition different from the first photographing is input; Based on the received parent image receiving step and the received image characteristics of the parent image and the image characteristics of the second image, a part of the shooting target of the parent image is captured. A child image specifying step for specifying the second image as a child image, and for each of the shooting targets, a group consisting of a parent image and a child image obtained by shooting the same shooting target, or a group consisting of child images Including a group generating step of generating.

本発明の他の態様である画像処理方法をコンピュータに実行させるプログラムは、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理方法をコンピュータに実行させるプログラムであって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力ステップと、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定ステップと、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成ステップと、を含む。   A program that causes a computer to execute an image processing method according to another aspect of the present invention is a program that causes a computer to execute an image processing method that groups a group of captured images including captured images of a plurality of shooting targets into groups for each shooting target. A captured image group including one or a plurality of first images captured for each of the capturing targets and a plurality of second images captured under a capturing condition different from the first capturing is input. Based on the received image feature, the parent image accepting step for accepting any one of the first images as a parent image representing the whole image to be photographed, and the image features of the accepted parent image and the second image. A child image specifying step of specifying a second image obtained by shooting a part of the parent image shooting target as a child image, and shooting the same shooting target for each of the shooting targets Including a group generating step of generating a group consisting group or a child image, and a parent image and child images, a.

本発明によれば、親画像受付部により、撮影対象の全体像を表す親画像の指定が受け付けられ、子画像特定部により、その指定された親画像の画像特徴に基づいて同一の撮影対象の一部を撮影した子画像が特定され、同一の撮影対象を撮影した親画像および子画像、または同一の撮影対象を撮影した子画像で構成されるグループが生成されるので、撮影画像群のグルーピングをより迅速に且つ正確に行うことができる。   According to the present invention, the parent image accepting unit accepts designation of a parent image representing the entire image to be photographed, and the child image specifying unit accepts the same photographing object based on the image characteristics of the designated parent image. A group of photographed images is grouped because a child image obtained by capturing a part is identified and a group consisting of a parent image and a child image obtained by photographing the same object or a child image obtained by photographing the same object is generated. Can be performed more quickly and accurately.

橋梁の構造を示す斜視図であり、橋梁を下から見た斜視図である。It is the perspective view which shows the structure of a bridge, and is the perspective view which looked at the bridge from the bottom. コンピュータの外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of a computer. コンピュータの外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of a computer. コンピュータのシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of a computer. 画像処理装置が備える機能を示すブロック図である。It is a block diagram which shows the function with which an image processing apparatus is provided. 格間を広角撮影した撮影画像を概念的に示す図である。It is a figure which shows notionally the picked-up image which image | photographed the space between wide angles. 撮影対象である格間を分割撮影した場合の広角画像に関して説明する図である。It is a figure explaining the wide-angle image at the time of carrying out the division | segmentation imaging | photography of the space which is imaging | photography object. 目印画像の一例を概念的に示す図である。It is a figure which shows an example of a mark image notionally. 格間を望遠撮影した望遠画像を概念的に示す図である。It is a figure which shows notionally the telephoto image which telephotographed the space. 撮影画像群を示す図であるIt is a figure which shows a picked-up image group. グルーピング結果に関して示す図である。It is a figure shown regarding a grouping result. グルーピング結果に関して示す図である。It is a figure shown regarding a grouping result. グルーピング結果に関して示す図である。It is a figure shown regarding a grouping result. グルーピング結果に関して示す図である。It is a figure shown regarding a grouping result. 画像処理装置の動作を示すフロー図である。It is a flowchart which shows operation | movement of an image processing apparatus. 画像処理装置の機能を示すブロック図である。It is a block diagram which shows the function of an image processing apparatus. 子画像の修正に関して説明する図である。It is a figure explaining correction of a child image. 子画像の修正に関して説明する図である。It is a figure explaining correction of a child image. 画像処理装置の機能を示すブロック図である。It is a block diagram which shows the function of an image processing apparatus. グルーピングされた複数の子画像の画像合成について説明する図である。It is a figure explaining the image composition of a plurality of grouped child images.

以下、添付図面にしたがって本発明の画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described with reference to the accompanying drawings.

本発明では複数の撮影対象を撮影した撮影画像で構成された撮影画像群を撮影対象毎にグルーピングすることができる。ここで、撮影対象は特に限定されるものではないが、例えば構造物または建造物の定期点検を撮影画像を使用して行う場合の撮影対象があげられる。以下の説明では、具体例として橋梁1(図1)の点検を行う場合に、複数の格間(格間の床版6)を撮影した撮影画像で構成された撮影画像群U(図10)のグルーピングに関して説明する。   In the present invention, it is possible to group a photographic image group composed of photographic images obtained by photographing a plurality of photographic subjects for each photographic subject. Here, the object to be imaged is not particularly limited, but examples include an object to be imaged when a periodic inspection of a structure or a building is performed using a captured image. In the following description, when the bridge 1 (FIG. 1) is inspected as a specific example, a captured image group U (FIG. 10) configured by captured images obtained by capturing a plurality of spaces (a floor slab 6). The grouping will be described.

図1は、撮影対象(点検対象)である構造物の一つである橋梁の構造を示す斜視図であり、橋梁を下から見た斜視図である。   FIG. 1 is a perspective view showing a structure of a bridge that is one of structures to be imaged (inspected), and is a perspective view of the bridge as viewed from below.

図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有し、これらがボルト、リベットまたは溶接により連結されて構成されている。また、主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。   A bridge 1 shown in FIG. 1 has a main girder 2, a cross girder 3, a counter tilting structure 4, and a horizontal structure 5, which are connected by bolts, rivets or welding. In addition, a floor slab 6 for driving a vehicle or the like is provided on the upper portion of the main beam 2 or the like. The floor slab 6 is generally made of reinforced concrete.

主桁2は、橋台または橋脚の間に渡され、床版6上の車輌等の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4および横構5は、それぞれ風および地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。   The main girder 2 is a member that is passed between the abutment or the pier and supports the load of the vehicle or the like on the floor slab 6. The cross beam 3 is a member that connects the main beams 2 in order to support the load by the plurality of main beams 2. The anti-tilt frame 4 and the horizontal frame 5 are members for connecting the main girders 2 to each other in order to resist lateral loads of wind and earthquake, respectively.

橋梁1の点検を行う場合には、例えば格間ごとに撮影画像を取得して、ヒビ割れ等の損傷箇所があるか否かを点検する。ここで格間とは、床版6が対向する2つの主桁2および対向する2つの横桁3または対傾構4により区切られた空間のことである。   When the bridge 1 is inspected, for example, a photographed image is acquired for each space to inspect whether there is a damaged portion such as a crack. Here, the space is a space defined by the two main girders 2 facing each other and the two cross beams 3 facing each other.

次に、本発明の画像処理装置を備えるコンピュータ300に関して説明する。   Next, the computer 300 provided with the image processing apparatus of the present invention will be described.

図2および図3はコンピュータ300の外観構成を示す斜視図であり、図2は正面斜視図、図3は背面斜視図である。   2 and 3 are perspective views showing an external configuration of the computer 300, FIG. 2 is a front perspective view, and FIG. 3 is a rear perspective view.

コンピュータ300は、図2および図3に示すように、タブレット型のコンピュータで構成される。コンピュータ300は、矩形の輪郭を有する平板状の筐体301を備え、その筐体301に表示部326と入力部328とを兼ねたタッチパネルディスプレイ302、操作ボタン303、スピーカー304、内蔵カメラ305、外部接続端子306等を備えて構成される。   As shown in FIGS. 2 and 3, the computer 300 is configured by a tablet computer. The computer 300 includes a flat housing 301 having a rectangular outline, and the housing 301 includes a touch panel display 302 that also serves as a display unit 326 and an input unit 328, operation buttons 303, a speaker 304, a built-in camera 305, an external device. A connection terminal 306 and the like are provided.

図4は、コンピュータ300のシステム構成を示すブロック図である。   FIG. 4 is a block diagram illustrating a system configuration of the computer 300.

図4に示すように、コンピュータ300は、コンピュータ300の全体の動作を制御するCPU(Central Processing Unit)310を備え、このCPU310にシステムバス312を介して、メインメモリ314、不揮発性メモリ316、モバイル通信部318、無線LAN通信部320、近距離無線通信部322、有線通信部324、表示部326、入力部328、キー入力部330、音声処理部332、画像処理部334等が接続されて構成される。   As shown in FIG. 4, the computer 300 includes a CPU (Central Processing Unit) 310 that controls the overall operation of the computer 300. A main memory 314, a nonvolatile memory 316, a mobile device is connected to the CPU 310 via a system bus 312. A communication unit 318, a wireless LAN communication unit 320, a short-range wireless communication unit 322, a wired communication unit 324, a display unit 326, an input unit 328, a key input unit 330, an audio processing unit 332, an image processing unit 334, and the like are connected. Is done.

CPU310は、不揮発性メモリ316に記憶された動作プログラム(OS(Operating System)、および、そのOS上で動作するアプリケーションプログラム)、および、定型データ等を読み出し、メインメモリ314に展開して、当動作プログラムを実行することにより、このコンピュータ全体の動作を制御する制御部として機能する。   The CPU 310 reads out an operation program (OS (Operating System) and application program that operates on the OS), standard data, and the like stored in the non-volatile memory 316, expands them in the main memory 314, and performs this operation. By executing the program, it functions as a control unit that controls the operation of the entire computer.

メインメモリ314は、たとえば、RAM(Random Access Memory)で構成され、CPU310のワークメモリとして機能する。   The main memory 314 is constituted by a RAM (Random Access Memory), for example, and functions as a work memory for the CPU 310.

不揮発性メモリ316は、たとえば、フラッシュEEPROM(EEPROM:Electrically Erasable Programmable Read Only Memory)で構成され、上述した動作プログラムや各種定型データを記憶する。また、不揮発性メモリ316は、コンピュータ300の記憶部として機能し、各種データを記憶する。   The nonvolatile memory 316 is configured by, for example, a flash EEPROM (EEPROM: Electrically Erasable Programmable Read Only Memory), and stores the above-described operation program and various fixed data. The nonvolatile memory 316 functions as a storage unit of the computer 300 and stores various data.

モバイル通信部318は、IMT−2000規格(International Mobile Telecommunication-2000)に準拠した第3世代移動通信システム、および、IMT−Advance規格(International Mobile Telecommunications-Advanced)に準拠した第4世代移動通信システムに基づき、アンテナ318Aを介して、最寄りの図示しない基地局との間でデータの送受を実行する。   The mobile communication unit 318 is a third generation mobile communication system compliant with the IMT-2000 standard (International Mobile Telecommunication-2000) and a fourth generation mobile communication system compliant with the IMT-Advanced standard (International Mobile Telecommunications-Advanced). Based on this, data is transmitted to and received from the nearest base station (not shown) via the antenna 318A.

無線LAN通信部320は、アンテナ320Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN通信規格(たとえば、例えばIEEE802.11a/b/g/n規格)に従った無線LAN通信を行う。   The wireless LAN communication unit 320 uses a predetermined wireless LAN communication standard (for example, IEEE802.11a / b / g / n standard) between the wireless LAN access point and an external device capable of wireless LAN communication via the antenna 320A. ) To perform wireless LAN communication.

近距離無線通信部322は、アンテナ322Aを介して、たとえばクラス2(半径約10m内)の範囲内にある他のBluetooth(登録商標)規格の機器とデータの送受を実行する。   The short-range wireless communication unit 322 transmits / receives data to / from another Bluetooth (registered trademark) device within the range of, for example, class 2 (within a radius of about 10 m) via the antenna 322A.

有線通信部324は、外部接続端子306を介してケーブルで接続された外部機器との間で所定の通信規格に従った通信を行う。たとえば、USB通信を行う。   The wired communication unit 324 performs communication according to a predetermined communication standard with an external device connected via a cable via the external connection terminal 306. For example, USB communication is performed.

表示部326は、タッチパネルディスプレイ302のディスプレイ部分を構成するカラーLCD(liquid crystal display)パネルと、その駆動回路と、で構成され、各種画像を表示する。   The display unit 326 includes a color LCD (liquid crystal display) panel that constitutes a display part of the touch panel display 302 and a driving circuit thereof, and displays various images.

入力部328は、タッチパネルディスプレイ302のタッチパネル部分を構成する。入力部328は、透明電極を用いてカラーLCDパネルと一体的に構成される。入力部328は、点検者のタッチ操作に対応した2次元の位置座標情報を生成して出力する。   The input unit 328 constitutes a touch panel portion of the touch panel display 302. The input unit 328 is configured integrally with the color LCD panel using a transparent electrode. The input unit 328 generates and outputs two-dimensional position coordinate information corresponding to the inspector's touch operation.

キー入力部330は、コンピュータ300の筐体301に備えられた複数の操作ボタン303と、その駆動回路と、で構成される。   The key input unit 330 includes a plurality of operation buttons 303 provided on the casing 301 of the computer 300 and a drive circuit thereof.

音声処理部332は、システムバス312を介して与えられるデジタル音声データをアナログ化してスピーカー304から出力する。   The audio processing unit 332 converts the digital audio data provided via the system bus 312 into an analog signal and outputs it from the speaker 304.

画像処理部334は、撮影レンズおよびイメージセンサーを備えた内蔵カメラ305から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。   The image processing unit 334 digitizes an analog image signal output from the built-in camera 305 provided with a photographing lens and an image sensor, performs necessary signal processing, and outputs it.

<第1の実施形態>
次に、画像処理装置200が備える機能に関して説明する。
<First Embodiment>
Next, functions provided in the image processing apparatus 200 will be described.

図5は、画像処理装置200が備える機能を示すブロック図である。なお、画像処理装置200はコンピュータ300に設けられており、画像処理装置200の各機能はコンピュータ300により実現されている。   FIG. 5 is a block diagram illustrating functions provided in the image processing apparatus 200. The image processing apparatus 200 is provided in the computer 300, and each function of the image processing apparatus 200 is realized by the computer 300.

画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、およびグループ生成部207を備える。   The image processing apparatus 200 includes an image input unit 201, a parent image reception unit 203, a child image specification unit 205, and a group generation unit 207.

画像入力部201には、撮影対象毎にグループ分け(グルーピング)される撮影画像群Uが入力される。ここで、撮影画像群Uは、複数の撮影対象について、撮影対象毎に複数の撮影画像を含む。具体的には、画像入力部201には、撮影対象の各々について広角撮影(第1撮影)された単数または複数の広角画像(第1画像)100(図6参照)と、望遠撮影(第2撮影)された複数の望遠画像(第2画像)110(図9参照)とを含む撮影画像群Uが入力される。ここで広角撮影と望遠撮影とは撮影条件のうちの焦点距離が異なり、広角画像100は焦点距離が短い条件で広角撮影が行われており、望遠画像110は焦点距離が長い条件で望遠撮影が行われている。   The image input unit 201 receives a captured image group U that is grouped for each subject. Here, the photographed image group U includes a plurality of photographed images for each photographing object with respect to a plurality of photographing objects. Specifically, the image input unit 201 includes one or a plurality of wide-angle images (first images) 100 (see FIG. 6) that have been subjected to wide-angle imaging (first imaging), and telephoto imaging (second imaging). A photographed image group U including a plurality of photographed telephoto images (second images) 110 (see FIG. 9) is input. Here, the wide-angle shooting and the telephoto shooting have different focal lengths in the shooting conditions. The wide-angle image 100 is wide-angle shot under a short focal length, and the telephoto image 110 is telephoto shot under a long focal length. Has been done.

親画像受付部203は、広角画像100のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける。すなわち、親画像受付部203は、点検者から撮影対象の全体像が写っている広角画像100について、親画像としての指定を受け付ける。例えば親画像受付部203は、表示部326に表示された撮影画像群Uまたは広角画像100が点検者により選択されることにより、広角画像100についての親画像として指定を受け付ける。   The parent image receiving unit 203 receives one of the wide-angle images 100 as a parent image representing the entire image to be captured. That is, the parent image receiving unit 203 receives a designation as a parent image for the wide-angle image 100 in which the entire image to be photographed is captured from the inspector. For example, the parent image receiving unit 203 receives a designation as a parent image for the wide-angle image 100 when the photographed image group U or the wide-angle image 100 displayed on the display unit 326 is selected by the inspector.

ここで、広角画像100に関して説明する。図6は、格間を広角撮影した画像(広角画像100)を概念的に示す図である。   Here, the wide-angle image 100 will be described. FIG. 6 is a diagram conceptually showing an image (wide-angle image 100) obtained by photographing the space at a wide angle.

橋梁1の点検を行う場合には、床版6を格間毎に点検が行われる場合が多い。この場合には、格間の全体像を広角撮影(第1撮影)により捉えた広角画像100が取得される。広角画像100は、横桁3と主桁2とで囲まれた範囲(格間)の床版6が撮影対象であり、格間の全体像が撮影されている。実際に橋梁1の点検を行う場合には、複数の格間についてそれぞれ広角画像100が取得される。   When the bridge 1 is inspected, the floor slab 6 is often inspected at intervals. In this case, a wide-angle image 100 obtained by capturing the entire image of the interlace by wide-angle shooting (first shooting) is acquired. In the wide-angle image 100, the floor slab 6 in a range (a space) surrounded by the horizontal beam 3 and the main beam 2 is an object to be imaged, and the entire image of the space is captured. When actually inspecting the bridge 1, wide-angle images 100 are acquired for a plurality of spaces, respectively.

また親画像受付部203は、撮影対象を分割撮影した複数の広角画像100を親画像として受け付けてもよい。すなわち、撮影対象が大きく広角撮影した場合であっても撮影対象の全体像を一枚の撮影画像内に収めることができない場合には、分割撮影されることになるが、親画像受付部203は分割撮影された広角画像100を親画像として受け付けてよい。この場合には、子画像特定部205は、親画像として受け付けた複数の広角画像100を合成処理して撮影対象の全体像を表す一枚の画像に合成し、一枚の画像の画像特徴と望遠画像110の画像特徴とに基づいて、子画像を特定する。   Further, the parent image receiving unit 203 may receive a plurality of wide-angle images 100 obtained by dividing and shooting the shooting target as parent images. In other words, even when the subject is large and wide-angle photography is performed, if the whole image of the subject cannot be accommodated in one photographed image, the divided images are taken. The wide-angle image 100 that has been divided and photographed may be accepted as a parent image. In this case, the child image specifying unit 205 combines the plurality of wide-angle images 100 received as the parent image into a single image representing the entire image to be photographed, and the image features of the single image. A child image is specified based on the image characteristics of the telephoto image 110.

図7は、撮影対象である格間を分割撮影した場合の広角画像100に関して説明する図である。   FIG. 7 is a diagram for explaining the wide-angle image 100 when the space to be imaged is divided and imaged.

撮影対象である格間Hが大きい場合には、分割撮影をして分割広角画像101A、分割広角画像101B、および分割広角画像101Cが取得される。そして親画像受付部203は、親画像として分割広角画像101A、分割広角画像101B、および分割広角画像101Cの指定を受け付ける。この場合、子画像特定部205は、分割広角画像101A、分割広角画像101B、および分割広角画像101Cを合成したのちに合成画像(親画像)の画像特徴に基づいて子画像の特定を行う。   When the space H to be imaged is large, divided shooting is performed, and a divided wide-angle image 101A, a divided wide-angle image 101B, and a divided wide-angle image 101C are acquired. The parent image receiving unit 203 receives designation of the divided wide-angle image 101A, the divided wide-angle image 101B, and the divided wide-angle image 101C as the parent image. In this case, the child image specifying unit 205 combines the divided wide-angle image 101A, the divided wide-angle image 101B, and the divided wide-angle image 101C, and then specifies the child image based on the image characteristics of the combined image (parent image).

また、親画像受付部203は、画像入力部201に入力される撮影画像群Uを構成する複数の撮影画像の各々が撮影条件に関する情報を有する場合には、撮影条件に基づいて撮影画像群Uの中から広角画像100を抽出し、抽出された広角画像100の中から、親画像を受け付けてもよい。すなわち、撮影画像群Uを構成する撮影画像の各々が撮影条件(焦点距離)に関する情報を有し、その撮影条件から広角画像100を抽出し、抽出された広角画像100を表示部326に表示して点検者が親画像の選択をして、親画像受付部203は親画像の指定を受け付けてもよい。   Further, when each of the plurality of captured images constituting the captured image group U input to the image input unit 201 has information regarding the shooting conditions, the parent image receiving unit 203 is based on the shooting conditions. The wide-angle image 100 may be extracted from the image, and the parent image may be received from the extracted wide-angle image 100. That is, each of the photographed images constituting the photographed image group U has information related to the photographing condition (focal length), and the wide-angle image 100 is extracted from the photographing condition, and the extracted wide-angle image 100 is displayed on the display unit 326. Then, the inspector may select the parent image, and the parent image receiving unit 203 may receive the designation of the parent image.

また、親画像受付部203は、画像入力部201に入力される撮影画像群Uが撮影対象が変わることを示す目印画像112を含み、且つ、撮影画像群Uを構成する複数の撮影画像および目印画像112の各々が撮影された時刻に関する情報を有する場合には、親画像受付部203は、目印画像112が撮影された直後または直前に撮影された広角画像を親画像として受け付けてもよい。すなわち、親画像受付部203は、撮影画像群Uが目印画像112を含む場合には、目印画像112の直後または直前の広角画像100を親画像として自動的または手動により受け付けてもよい。具体的には図10で示された撮影画像群Uにおいて、目印画像112の直後の広角画像100を親画像として指定する。   In addition, the parent image receiving unit 203 includes a landmark image 112 indicating that the subject to be photographed is changed in the photographed image group U input to the image input unit 201 and includes a plurality of photographed images and landmarks constituting the photographed image group U. When each of the images 112 has information regarding the time at which the image 112 was captured, the parent image receiving unit 203 may receive a wide-angle image captured immediately after or just before the landmark image 112 is captured as the parent image. That is, when the captured image group U includes the landmark image 112, the parent image accepting unit 203 may automatically or manually accept the wide-angle image 100 immediately after or just before the landmark image 112 as the parent image. Specifically, in the captured image group U shown in FIG. 10, the wide-angle image 100 immediately after the landmark image 112 is designated as the parent image.

ここで目印画像112に関して説明する。図8は、撮影画像群Uに含まれる目印画像112の一例を概念的に示す図である。目印画像112は、撮影対象が切り替わることを示すために撮影される画像である。すなわち、橋梁1の点検を行う場合には、多数の格間を撮影することになるが、目印画像112によって、前または後でどの格間を撮影しているのか分かるようにする。図8に示された目印画像112では、格間の番号を書いたプレートが撮影されている。   Here, the landmark image 112 will be described. FIG. 8 is a diagram conceptually illustrating an example of the landmark image 112 included in the captured image group U. The landmark image 112 is an image photographed to show that the photographing object is switched. That is, when the bridge 1 is inspected, a large number of gaps are photographed, but the landmark image 112 can be used to identify which gap is photographed before or after. In the landmark image 112 shown in FIG. 8, the plate with the number of the case is photographed.

なお、目印画像112の他の例としては、橋梁1の名前または部材番号が書かれたプレートを撮影した画像、およびレンズカバーをしたまま撮影した真っ黒な画像があげられる。また目印画像112は、撮影画像群Uに含まれる場合もあるし、撮影画像群Uに含まれない場合もある。   Other examples of the mark image 112 include an image obtained by photographing a plate on which the name or member number of the bridge 1 is written, and a black image obtained by photographing with the lens cover. The mark image 112 may be included in the captured image group U or may not be included in the captured image group U.

図5に戻って、子画像特定部205は、受け付けた親画像の画像特徴と望遠画像110の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した望遠画像110を子画像として特定する。すなわち、子画像特定部205は、点検者からの指定を受けた親画像の画像特徴と望遠画像110の画像特徴と相関関係(一致度)を算出し、子画像を特定する。具体的には子画像特定部205は、望遠画像110と親画像との特徴点を抽出し、抽出した親画像と望遠画像110の特徴点の一致度が所定の値(閾値)よりも高い望遠画像110を子画像として特定する。子画像特定部205が行う、親画像の画像特徴および望遠画像110の特徴点の抽出、および親画像の画像特徴および望遠画像110の特徴点の相関関係の算出は公知の画像処理技術が適用される。   Returning to FIG. 5, the child image specifying unit 205 uses, as a child image, the telephoto image 110 obtained by capturing a part of the subject of the parent image based on the received image feature of the parent image and the image feature of the telephoto image 110. Identify. That is, the child image specifying unit 205 calculates the correlation (degree of coincidence) between the image feature of the parent image and the image feature of the telephoto image 110 that have been designated by the inspector, and specifies the child image. Specifically, the child image specifying unit 205 extracts feature points between the telephoto image 110 and the parent image, and the telephoto image has a degree of matching between the feature points of the parent image and the telephoto image 110 higher than a predetermined value (threshold value). The image 110 is specified as a child image. A known image processing technique is applied to the extraction of the image features of the parent image and the feature points of the telephoto image 110 and the calculation of the correlation between the image features of the parent image and the feature points of the telephoto image 110 performed by the child image specifying unit 205. The

なお画像間の拡大縮小、回転および照明変化等に強いロバストな局所特徴量として、SIFT (Scale-invariant feature transform)特徴量、SURF (Speed-Upped Robust Feature)特徴量、およびAKAZE (Accelerated KAZE)特徴量が知られている。   In addition, SIFT (Scale-invariant feature transform) feature, SURF (Speed-Upped Robust Feature) feature, and AKAZE (Accelerated KAZE) feature are robust local features that are strong against scaling, rotation, and illumination changes between images. The amount is known.

ここで望遠画像110に関して説明する。図9は、格間を望遠撮影した望遠画像110を概念的に示す図である。点検検査を行う場合には、格間を広角撮影しただけでは検出できないヒビ割れがある場合や、ヒビ割れをより詳細に分析したい場合に、望遠撮影を行って拡大した撮影対象の像を取得する。また、望遠画像110は、格間の全域にわたって取得されてもよいし、格間のある箇所のみ取得されてもよい。   Here, the telephoto image 110 will be described. FIG. 9 is a diagram conceptually showing a telephoto image 110 obtained by telephoto shooting the space. When performing inspections, if there are cracks that cannot be detected just by taking a wide-angle image of the gap, or if you want to analyze cracks in more detail, perform telephoto shooting to obtain an enlarged image of the subject to be shot. . Moreover, the telephoto image 110 may be acquired over the whole area of a case, or only a location with a case may be acquired.

また子画像特定部205は、撮影画像群Uを構成する複数の撮影画像の各々が撮影された時刻に関する情報を有する場合には、子画像特定部205は、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された望遠画像110を子画像の子候補画像とし、子候補画像から子画像を特定してもよい。具体的には図10で示された撮影画像群Uにおいて、P1またはP2で示した親画像が撮影された時刻以降または時刻以前に撮影された望遠画像を子候補画像として、子画像を特定してもよい。これにより、子画像特定部205は、撮影画像群Uの全ての撮影画像または全ての望遠画像110について特徴点を抽出して親画像との対応関係を調べる必要はなく、親画像が撮影された時刻以降または時刻以前に撮影された望遠画像110を子画像の子候補画像とし、その子候補画像のみに対して特徴点を抽出して対応関係を調べてもよい。   In addition, when the child image specifying unit 205 has information regarding the time when each of the plurality of captured images constituting the captured image group U is captured, the child image specifying unit 205 captures the parent image of one group. The telephoto image 110 taken after or before the time may be used as a child candidate image of the child image, and the child image may be specified from the child candidate image. Specifically, in the photographed image group U shown in FIG. 10, a child image is specified by using a telephoto image photographed after or before the time when the parent image represented by P1 or P2 is photographed as a child candidate image. May be. Thereby, the child image specifying unit 205 does not need to extract the feature points of all the captured images of the captured image group U or all the telephoto images 110 and check the correspondence relationship with the parent image, and the parent image is captured. The telephoto image 110 taken after or before the time may be used as a child candidate image of the child image, and feature points may be extracted for only the child candidate image to check the correspondence.

また子画像特定部205は、撮影画像群Uを構成する複数の撮影画像の各々が撮影された時刻に関する情報を有する場合には、子画像特定部205は、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された望遠画像110を第1グループの子画像の子候補画像とし、子候補画像から子画像を特定する第1グループの子画像として特定してもよい。具体的には図10で示された撮影画像群Uにおいて、P1とP2で示された親画像の間に撮影された望遠画像110をP1の広角画像を親画像とするグループの子候補画像としてもよい。これにより、子画像特定部205は、撮影画像群Uの全ての撮影画像または全ての望遠画像110について特徴点を抽出して親画像との対応関係を調べる必要はなく、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された望遠画像110を第1グループの子画像として特定してもよい。   Further, when the child image specifying unit 205 has information regarding the time at which each of the plurality of captured images constituting the captured image group U is captured, the child image specifying unit 205 captures the first group of parent images. A telephoto image 110 taken between the time when the second group parent image was taken as a child candidate image of the first group child image, and identifying the child image from the child candidate image It may be specified as a child image. Specifically, in the captured image group U shown in FIG. 10, the telephoto image 110 captured between the parent images indicated by P1 and P2 is used as a child candidate image of a group having the wide-angle image of P1 as the parent image. Also good. As a result, the child image specifying unit 205 does not need to extract the feature points of all the captured images or all the telephoto images 110 in the captured image group U and check the correspondence relationship with the parent image. The telephoto image 110 captured between the time when the first image is captured and the time when the second group parent image is captured may be specified as a child image of the first group.

グループ生成部207は、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成する。グループ生成部207で生成されたグループは、撮影対象毎に親画像と子画像とで構成されるグループ、または撮影対象毎に子画像で構成されるグループである。具体的には、撮影対象が格間の床版6である場合には、格間毎に広角画像100および望遠画像110、または格間毎の望遠画像110のグループが生成される。   The group generation unit 207 generates, for each of the shooting targets, a group composed of a parent image and a child image captured from the same shooting target, or a group composed of child images. The group generated by the group generation unit 207 is a group configured by a parent image and a child image for each shooting target, or a group configured by a child image for each shooting target. Specifically, when the subject to be imaged is the floor slab 6 of the case, a group of the wide-angle image 100 and the telephoto image 110 or the telephoto image 110 of each case is generated for each case.

<撮影画像群のグルーピング>
次に、撮影画像群Uおよびグルーピング結果を具体例を使って説明する。
<Grouping of photographed images>
Next, the captured image group U and the grouping result will be described using specific examples.

図10は、橋梁1の点検作業において撮影された撮影画像から構成される撮影画像群Uを示す図である。図10では、撮影画像群Uを構成する一部の複数の撮影画像を示している。撮影画像群Uは、撮影対象である格間の広角画像100、床版6の望遠画像110、および目印画像112で構成されている。なお、広角画像100、望遠画像110、および目印画像112は、撮影された順番に画像番号として「DSCF34○○」が付されており、撮影された順番に配列されている。また、撮影画像群Uを構成する複数の撮影画像の各々は、撮影された時刻に関する情報、および撮影条件(例えば焦点距離)の情報を有する。なお、図10中でP1で示されている広角画像100は、第1グループの親画像として指定され、P2で示されている広角画像100は第2グループの親画像として指定される。親画像の指定は、例えば撮影画像群Uまたは広角画像100のサムネイル表示を表示部326に表示させて、点検者がそのサムネイル表示を選択することで行われる。   FIG. 10 is a diagram showing a photographed image group U composed of photographed images photographed in the inspection work for the bridge 1. In FIG. 10, a part of a plurality of captured images constituting the captured image group U is illustrated. The photographed image group U is composed of a wide-angle image 100 that is a subject to be photographed, a telephoto image 110 of the floor slab 6, and a landmark image 112. The wide-angle image 100, the telephoto image 110, and the landmark image 112 are assigned “DSCF34OO” as an image number in the order of shooting, and are arranged in the order of shooting. In addition, each of the plurality of captured images constituting the captured image group U includes information regarding the time at which the captured image was captured, and information regarding capturing conditions (for example, focal length). Note that the wide-angle image 100 indicated by P1 in FIG. 10 is designated as the first group of parent images, and the wide-angle image 100 indicated by P2 is designated as the second group of parent images. The designation of the parent image is performed by, for example, displaying a thumbnail display of the captured image group U or the wide-angle image 100 on the display unit 326 and selecting the thumbnail display by the inspector.

図11から図14は、親画像受付部203で受け付けられた親画像、および子画像特定部205で特定された子画像に関して示す図である。図11および図12は第1グループ、図13および図14は第2グループの親画像および子画像が示されている。   FIGS. 11 to 14 are diagrams showing the parent image received by the parent image receiving unit 203 and the child image specified by the child image specifying unit 205. 11 and 12 show the first group, and FIGS. 13 and 14 show the second group of parent images and child images.

図11は、第1グループの親画像として指定された広角画像100を示す図である。この場合、撮影対象を分割撮影した複数の広角画像を親画像として受け付ける。すなわち、親画像受付部203は、格間を4分割して撮影した広角画像100を第1グループの親画像として受け付ける。   FIG. 11 is a diagram showing the wide-angle image 100 designated as the parent image of the first group. In this case, a plurality of wide-angle images obtained by separately shooting the shooting target are accepted as parent images. That is, the parent image receiving unit 203 receives the wide-angle image 100 captured by dividing the case into four as the first group parent image.

図12は、撮影画像群Uにおいて、第1グループの子画像として特定された望遠画像110を示している。図11で指定された親画像の画像特徴と望遠画像110の各々の画像特徴とに基づいて、子画像特定部205により、撮影画像群Uから子画像が特定されている。   FIG. 12 shows a telephoto image 110 specified as a child image of the first group in the photographed image group U. A child image is specified from the photographed image group U by the child image specifying unit 205 based on the image feature of the parent image and the image features of the telephoto image 110 specified in FIG.

図13は、撮影画像群Uにおいて、第1グループの親画像として指定された広角画像100である。この場合、親画像受付部203は、格間を3分割して撮影した広角画像100を第2グループの親画像として受け付ける。   FIG. 13 shows a wide-angle image 100 designated as the parent image of the first group in the photographed image group U. In this case, the parent image receiving unit 203 receives the wide-angle image 100 captured by dividing the space into three as the second group parent image.

図14は、撮影画像群Uにおいて、第1グループの子画像として特定された望遠画像110を示している。図13で指定された親画像の画像特徴と望遠画像110の各々の画像特徴とに基づいて、撮影画像群Uから子画像が特定されている。   FIG. 14 shows a telephoto image 110 specified as a child image of the first group in the photographed image group U. A child image is identified from the captured image group U based on the image feature of the parent image and the image features of the telephoto image 110 specified in FIG.

図15は、画像処理装置200の動作を示すフロー図である。   FIG. 15 is a flowchart showing the operation of the image processing apparatus 200.

先ず画像入力部201に、撮影画像群Uが入力される(画像入力ステップ:ステップS10)。撮影画像群Uの入力は、コンピュータ300の有線通信部324、モバイル通信部318、無線LAN通信部320、または近距離無線通信部322を介して行われる。その後親画像受付部203において、広角画像100のうち第1グループの親画像の指定を受け付ける(親画像受付ステップ:ステップS12)。例えば点検者が、表示部326に表示された撮影画像群Uのサムネイル表示を選択することにより、親画像の指定が行われる。そして、子画像特定部205により、望遠画像110において子画像が特定される(子画像特定ステップ:ステップS14)。例えば子画像特定部205は、公知の画像処理技術により対応点検出を行い、親画像の画像特徴と撮影画像群Uに含まれる望遠画像110の画像特徴とのマッチングを算出し、マッチングが良いものを子画像として特定する。その後、グループ生成部207により、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループが生成される(グループ生成ステップ:ステップS16)。   First, the captured image group U is input to the image input unit 201 (image input step: step S10). The input of the captured image group U is performed via the wired communication unit 324, the mobile communication unit 318, the wireless LAN communication unit 320, or the short-range wireless communication unit 322 of the computer 300. Thereafter, the parent image receiving unit 203 receives the designation of the parent image of the first group in the wide-angle image 100 (parent image receiving step: step S12). For example, when the inspector selects the thumbnail display of the photographed image group U displayed on the display unit 326, the parent image is designated. Then, the child image specifying unit 205 specifies a child image in the telephoto image 110 (child image specifying step: step S14). For example, the child image specifying unit 205 detects corresponding points using a known image processing technique, calculates the matching between the image feature of the parent image and the image feature of the telephoto image 110 included in the photographed image group U, and has good matching Is identified as a child image. Thereafter, the group generation unit 207 generates a group composed of a parent image and a child image obtained by photographing the same photographing target or a group composed of the child images (group generation step: step S16).

上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU310、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。   In the above embodiment, the hardware structure of a processing unit that executes various processes is the following various processors. The various processors are programmable processors that can change the circuit configuration after manufacturing, such as a CPU 310, which is a general-purpose processor that functions as various processing units by executing software (programs), and an FPGA (Field Programmable Gate Array). A dedicated electric circuit that is a processor having a circuit configuration designed exclusively for executing specific processing such as a logic device (PLD) and an application specific integrated circuit (ASIC) is included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPU310とFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータ300に代表されるように、1つ以上のCPU310とソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。   One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of CPU 310 and FPGA). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer 300 such as a client or server, one processor is configured with a combination of one or more CPUs 310 and software, There is a form in which this processor functions as a plurality of processing units. Secondly, as represented by System On Chip (SoC), etc., there is a form of using a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip. is there. As described above, various processing units are configured using one or more of the various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。   Further, the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

<第2の実施形態>
次に、本発明の第2の実施形態に関して説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.

図16は、本実施形態の画像処理装置200の機能を示すブロック図である。本実施形態の画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、グループ生成部207、表示制御部209、および修正指示受付部211を備える。なお、図5で説明を行った箇所は、同じ符号を付し説明は省略する。   FIG. 16 is a block diagram illustrating functions of the image processing apparatus 200 according to the present embodiment. The image processing apparatus 200 according to the present embodiment includes an image input unit 201, a parent image receiving unit 203, a child image specifying unit 205, a group generating unit 207, a display control unit 209, and a correction instruction receiving unit 211. In addition, the part demonstrated in FIG. 5 attaches | subjects the same code | symbol, and abbreviate | omits description.

表示制御部209は、グループ生成部207で生成されたグループごとに親画像および子画像を表示部326に表示させる。表示制御部209が行うグループの表示形態は、特に限定されない。例えば表示制御部209は、グループごとに親画像および子画像のサムネイル画像を表示する。   The display control unit 209 causes the display unit 326 to display a parent image and a child image for each group generated by the group generation unit 207. The display form of the group performed by the display control unit 209 is not particularly limited. For example, the display control unit 209 displays a thumbnail image of a parent image and a child image for each group.

修正指示受付部211は、子画像の修正指示を受け付ける。例えば、表示制御部209が表示部326に表示させる子画像のサムネイル画像を、点検者が選択することにより、修正指示受付部211は子画像の修正指示を受け付ける。   The correction instruction receiving unit 211 receives a child image correction instruction. For example, when the inspector selects a thumbnail image of a child image displayed on the display unit 326 by the display control unit 209, the correction instruction receiving unit 211 receives a child image correction instruction.

グループ生成部207は、修正指示受付部211が受け付けた修正指示に基づいてグループを再び生成する。具体的には、グループ生成部207は、修正指示受付部211が受け付けた修正指示に基づいて、グループから子画像を削除したり追加したりする。   The group generation unit 207 generates a group again based on the correction instruction received by the correction instruction reception unit 211. Specifically, the group generation unit 207 deletes or adds a child image from the group based on the correction instruction received by the correction instruction reception unit 211.

図17および図18は、子画像の修正に関して説明する図である。図17は第1グループの子画像特定部205により特定された子画像のサムネイルがタッチパネルディスプレイ302に表示されており、図18は第2グループの子画像特定部205により特定された子画像のサムネイルがタッチパネルディスプレイ302に表示されている。点検者は、タッチパネルディスプレイ302のサムネイル画像を確認して、グループを構成する画像としては不適切と判断し選択して、グループから除外する。   17 and 18 are diagrams for explaining the correction of the child image. 17 shows a thumbnail of the child image specified by the child image specifying unit 205 of the first group on the touch panel display 302, and FIG. 18 shows a thumbnail of the child image specified by the child image specifying unit 205 of the second group. Is displayed on the touch panel display 302. The inspector confirms the thumbnail images on the touch panel display 302, determines that the images constituting the group are inappropriate, and selects them to exclude them from the group.

図17に示した場合では、第1グループの子画像として、目印画像112Bは不適切ではない。すなわち点検者はタッチパネルディスプレイ302に表示された第1グループの子画像のサムネイル画像を確認して、目印画像112Bが混じっていることを認識し、目印画像112Bを選択して修正指示受付部211を介して第1グループの子画像の修正指示を行う。なお、目印画像112Bは、第1グループの親画像との相関関係(例えば、特徴点を抽出して対応点を検出を行った結果)が目印画像112Bは極端に低いので、この相関関係を点検者に報知することにより、点検者に不適切な画像を選択させてもよい。そして、修正指示受付部211は目印画像112Bが選択された指示を受け付け、グループ生成部207は目印画像112Bを除いた新たなグループを生成する。   In the case shown in FIG. 17, the mark image 112B is not inappropriate as the child image of the first group. That is, the inspector confirms the thumbnail image of the first group of child images displayed on the touch panel display 302, recognizes that the landmark image 112B is mixed, selects the landmark image 112B, and selects the correction instruction reception unit 211. Through the first group child image correction instruction. It should be noted that the mark image 112B has an extremely low correlation with the parent image of the first group (for example, the result of extracting the feature points and detecting the corresponding points), and the mark image 112B is extremely low. By informing the person in charge, the inspector may select an inappropriate image. Then, the correction instruction receiving unit 211 receives an instruction for selecting the mark image 112B, and the group generation unit 207 generates a new group excluding the mark image 112B.

図18に示した場合では、第2グループの子画像として、望遠画像110Mは不適切である。例えば望遠画像110Mは、撮影に失敗した画像であったり、余分な撮影をした画像である。したがって、点検者は、タッチパネルディスプレイ302に表示された第2グループの子画像のサムネイル画像を確認して、望遠画像110Mを選択する。なお、例えば望遠画像110Mの画質が良くない場合には、第2グループの親画像との相関関係は悪い結果となる。   In the case shown in FIG. 18, the telephoto image 110M is inappropriate as a child image of the second group. For example, the telephoto image 110M is an image that has failed to be captured or an image that has been excessively captured. Therefore, the inspector confirms the thumbnail images of the second group of child images displayed on the touch panel display 302 and selects the telephoto image 110M. For example, when the image quality of the telephoto image 110M is not good, the correlation with the parent image of the second group is bad.

<第3の実施形態>
次に、本発明の第3の実施形態に関して説明する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described.

図19は、本実施形態の画像処理装置200の機能を示すブロック図である。本実施形態の画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、グループ生成部207、合成対象特定部213、および子画像合成部215を備える。   FIG. 19 is a block diagram illustrating functions of the image processing apparatus 200 according to the present embodiment. The image processing apparatus 200 of this embodiment includes an image input unit 201, a parent image receiving unit 203, a child image specifying unit 205, a group generating unit 207, a compositing target specifying unit 213, and a child image combining unit 215.

合成対象特定部213は、グループを構成する複数の子画像を、画像合成の対象画像として特定する。撮影画像群Uのグルーピング結果を画像合成することにより、有効なグルーピング結果の利用を行うことができる。例えば、橋梁1の点検をする場合においては、望遠画像110を合成することにより、点検報告書の掲載、および損傷箇所の位置の特定を効率的に行うことができる。   The compositing target specifying unit 213 specifies a plurality of child images constituting the group as target images for image compositing. By grouping the grouping results of the captured image group U, effective grouping results can be used. For example, when the bridge 1 is inspected, the inspection report can be posted and the position of the damaged portion can be efficiently identified by compositing the telephoto image 110.

子画像合成部215は、合成対象特定部213で特定された画像合成の対象画像を画像合成する。すなわち、子画像合成部215は、合成対象特定部213で合成対象として特定された子画像について画像合成を行う。なお、子画像合成部215が行う画像合成は、公知の画像合成技術が適用される。   The child image composition unit 215 performs image composition on the target image for image composition specified by the composition target specifying unit 213. That is, the child image composition unit 215 performs image composition on the child image specified as the composition target by the composition target specifying unit 213. Note that a known image composition technique is applied to the image composition performed by the child image composition unit 215.

図20は、グルーピングされた複数の子画像の画像合成について説明する図である。   FIG. 20 is a diagram illustrating image composition of a plurality of grouped child images.

グループ生成部207で生成されたグループにおいて子画像として特定された望遠画像110が、合成対象特定部213により、合成対象として特定される。合成対象特定部213は、グルーピングされた望遠画像110について全てを合成対象としてもよいし、点検者から指定を受け付けた望遠画像110について合成対象としてもよい。その後、子画像合成部215は、合成対象として特定された子画像(望遠画像110)の合成を行う。図20に示された場合には、合成対象として特定された望遠画像110を合成することにより、撮影対象(格間の床版6)の全体像が写った合成画像115が得られる。なお、合成画像115としては、撮影対象の全体像が写ったものに限定されず、撮影対象の一部が写った合成画像115でもよい。   The telephoto image 110 specified as a child image in the group generated by the group generation unit 207 is specified as a synthesis target by the synthesis target specification unit 213. The compositing target specifying unit 213 may set all of the grouped telephoto images 110 as a compositing target, or may select the telephoto image 110 received a designation from the inspector as a compositing target. Thereafter, the child image composition unit 215 performs composition of the child image (telephoto image 110) specified as the composition target. In the case shown in FIG. 20, by synthesizing the telephoto image 110 specified as the synthesis target, a synthesized image 115 in which the entire image of the photographing target (the floor slab 6) is captured is obtained. Note that the composite image 115 is not limited to the whole image of the subject to be photographed, and may be a composite image 115 in which a part of the subject is photographed.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。   The example of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.

1 橋梁
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
100 広角画像
101A〜101C 分割広角画像
110 望遠画像
112 目印画像
115 合成画像
200 画像処理装置
201 画像入力部
203 親画像受付部
205 子画像特定部
207 グループ生成部
209 表示制御部
211 修正指示受付部
213 合成対象特定部
215 子画像合成部
300 コンピュータ
301 筐体
302 タッチパネルディスプレイ
303 操作ボタン
304 スピーカー
305 内蔵カメラ
306 外部接続端子
310 CPU
312 システムバス
314 メインメモリ
316 不揮発性メモリ
318 モバイル通信部
318A アンテナ
320 無線LAN通信部
320A アンテナ
322 近距離無線通信部
322A アンテナ
324 有線通信部
326 表示部
328 入力部
330 キー入力部
332 音声処理部
334 画像処理部
ステップS10〜ステップS16 画像処理方法
DESCRIPTION OF SYMBOLS 1 Bridge 2 Main girder 3 Horizontal girder 4 Counter-tilt structure 5 Horizontal composition 6 Floor slab 100 Wide-angle image 101A-101C Divided wide-angle image 110 Telephoto image 112 Mark image 115 Composite image 200 Image processing apparatus 201 Image input part 203 Parent image reception part 205 Child Image identification unit 207 Group generation unit 209 Display control unit 211 Correction instruction reception unit 213 Composition target identification unit 215 Child image synthesis unit 300 Computer 301 Case 302 Touch panel display 303 Operation button 304 Speaker 305 Built-in camera 306 External connection terminal 310 CPU
312 System bus 314 Main memory 316 Non-volatile memory 318 Mobile communication unit 318A Antenna 320 Wireless LAN communication unit 320A Antenna 322 Short-range wireless communication unit 322A Antenna 324 Wired communication unit 326 Display unit 328 Input unit 330 Key input unit 332 Audio processing unit 334 Image Processing Unit Step S10 to Step S16 Image Processing Method

Claims (12)

複数の撮影対象の撮影画像を含む撮影画像群を、前記撮影対象ごとのグループにグルーピングする画像処理装置であって、
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力部と、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付部と、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定部と、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成部と、
を備える画像処理装置。
An image processing apparatus that groups a group of captured images including captured images of a plurality of shooting targets into groups for each of the shooting targets,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input unit,
A parent image receiving unit that receives one of the first images as a parent image representing the whole image of the shooting target;
A child image specifying unit for specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
For each of the shooting targets, a group formed by the parent image and the child image that shot the same shooting target, or a group generation unit that generates a group formed by the child image,
An image processing apparatus comprising:
前記親画像受付部は、前記撮影対象を分割撮影した複数の前記第1画像を前記親画像として受け付け、
前記子画像特定部は、前記親画像として受け付けた複数の前記第1画像を合成処理して前記撮影対象の前記全体像を表す一枚の画像に合成し、前記一枚の画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記子画像を特定する請求項1に記載の画像処理装置。
The parent image receiving unit receives a plurality of the first images obtained by dividing and shooting the shooting target as the parent image,
The child image specifying unit combines the plurality of first images received as the parent image into one image representing the whole image of the shooting target, and includes image characteristics of the one image. The image processing apparatus according to claim 1, wherein the child image is specified based on an image feature of the second image.
前記子画像特定部は、前記第2画像と前記親画像との特徴点を抽出し、前記抽出した前記特徴点の対応関係に基づいて、前記子画像を特定する請求項1または2に記載の画像処理装置。   The said child image specific | specification part extracts the feature point of the said 2nd image and the said parent image, and specifies the said child image based on the correspondence of the extracted said feature point. Image processing device. 前記撮影画像群を構成する複数の前記撮影画像の各々は、撮影された時刻に関する情報を有し、
前記子画像特定部は、一つのグループの前記親画像が撮影された前記時刻以降または前記時刻以前に撮影された前記第2画像を前記子画像の子候補画像とし、前記子候補画像から前記子画像を特定する請求項1から3のいずれか1項に記載の画像処理装置。
Each of the plurality of photographed images constituting the photographed image group has information regarding the time of photographing,
The child image specifying unit sets the second image taken after or before the time when the parent image of one group is taken as a child candidate image of the child image, and determines the child image from the child candidate image. The image processing apparatus according to claim 1, wherein an image is specified.
前記撮影画像群を構成する複数の前記撮影画像の各々は、撮影された時刻に関する情報を有し、
前記子画像特定部は、第1グループの前記親画像が撮影された時刻と、第2グループの前記親画像が撮影された時刻との間に撮影された前記第2画像を前記第1グループの前記子画像の子候補画像とし、前記子候補画像から前記子画像を特定する請求項1から3のいずれか1項に記載の画像処理装置。
Each of the plurality of photographed images constituting the photographed image group has information regarding the time of photographing,
The child image specifying unit may include the second image captured between the time when the parent image of the first group is captured and the time when the parent image of the second group is captured. The image processing apparatus according to claim 1, wherein the child image is a child candidate image of the child image, and the child image is specified from the child candidate image.
前記撮影画像群を構成する複数の前記撮影画像の各々は、前記撮影条件に関する情報を有し、
前記親画像受付部は、前記撮影条件に基づいて前記撮影画像群の中から前記第1画像を抽出し、前記抽出された前記第1画像の中から、前記親画像を受け付ける請求項1から5のいずれか1項に記載の画像処理装置。
Each of the plurality of photographed images constituting the photographed image group has information related to the photographing conditions,
6. The parent image receiving unit extracts the first image from the photographed image group based on the photographing condition, and accepts the parent image from the extracted first image. The image processing apparatus according to any one of the above.
前記撮影画像群は、前記撮影画像の前記撮影対象が他の前記撮影対象に変わることを示す目印画像を含み、
前記撮影画像群を構成する複数の前記撮影画像および前記目印画像の各々は、撮影された時刻に関する情報を有し、
前記親画像受付部は、前記目印画像が撮影された直後または直前に撮影された前記第1画像を前記親画像を受け付ける請求項1から6のいずれか1項に記載の画像処理装置。
The photographed image group includes a landmark image indicating that the photographing object of the photographed image is changed to another photographing object,
Each of the plurality of photographed images and landmark images constituting the photographed image group has information regarding the time of photographing,
7. The image processing apparatus according to claim 1, wherein the parent image receiving unit receives the parent image for the first image taken immediately after or immediately before the landmark image is taken.
前記グループ生成部で生成された前記グループごとに前記親画像および前記子画像を表示部に表示させる表示制御部と、
前記子画像の修正指示を受け付ける修正指示受付部と、を備え、
前記グループ生成部は、前記修正指示に基づいて前記グループを再び生成する請求項1から7のいずれか1項に記載の画像処理装置。
A display control unit that causes the display unit to display the parent image and the child image for each group generated by the group generation unit;
A correction instruction receiving unit that receives a correction instruction for the child image,
The image processing apparatus according to claim 1, wherein the group generation unit generates the group again based on the correction instruction.
前記グループを構成する複数の前記子画像を、画像合成の対象画像として特定する合成対象特定部を備える請求項1から8のいずれか1項に記載の画像処理装置。   9. The image processing apparatus according to claim 1, further comprising: a compositing target specifying unit that specifies the plurality of child images constituting the group as target images for image compositing. 前記合成対象特定部で特定された前記画像合成の対象画像を画像合成する子画像合成部を備える請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, further comprising a child image synthesis unit that synthesizes the target image of the image synthesis specified by the synthesis target specifying unit. 複数の撮影対象の撮影画像を含む撮影画像群を、前記撮影対象ごとのグループにグルーピングする画像処理方法であって、
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力ステップと、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定ステップと、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成ステップと、
を含む画像処理方法。
An image processing method for grouping photographed image groups including photographed images of a plurality of photographing objects into groups for each of the photographing objects,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input step,
A parent image receiving step of receiving any one of the first images as a parent image representing the whole image of the photographing target;
A child image specifying step of specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
A group generation step of generating a group composed of the parent image and the child image obtained by photographing the same photographing object for each of the photographing objects, or a group composed of the child images;
An image processing method including:
複数の撮影対象の撮影画像を含む撮影画像群を、前記撮影対象ごとのグループにグルーピングする画像処理方法をコンピュータに実行させるプログラムであって、
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力ステップと、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定ステップと、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成ステップと、
を含む画像処理方法をコンピュータに実行させるプログラム。
A program for causing a computer to execute an image processing method for grouping captured image groups including captured images of a plurality of capturing targets into groups for each of the capturing targets,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input step,
A parent image receiving step of receiving any one of the first images as a parent image representing the whole image of the photographing target;
A child image specifying step of specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
A group generation step of generating a group composed of the parent image and the child image obtained by photographing the same photographing object for each of the photographing objects, or a group composed of the child images;
A program for causing a computer to execute an image processing method including:
JP2017017023A 2017-02-01 2017-02-01 Image processing equipment and programs Active JP6774348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017017023A JP6774348B2 (en) 2017-02-01 2017-02-01 Image processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017017023A JP6774348B2 (en) 2017-02-01 2017-02-01 Image processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2018124832A true JP2018124832A (en) 2018-08-09
JP6774348B2 JP6774348B2 (en) 2020-10-21

Family

ID=63109627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017017023A Active JP6774348B2 (en) 2017-02-01 2017-02-01 Image processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6774348B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06292052A (en) * 1993-04-02 1994-10-18 Sharp Corp Still picture image pickup device
JP2007164258A (en) * 2005-12-09 2007-06-28 Kurabo Ind Ltd Image synthesizing device and method
JP2007272604A (en) * 2006-03-31 2007-10-18 Omron Corp Information processor and information processing method, and program
US20100128919A1 (en) * 2008-11-25 2010-05-27 Xerox Corporation Synchronizing image sequences
JP2013020475A (en) * 2011-07-12 2013-01-31 Sony Corp Information processing apparatus, information processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06292052A (en) * 1993-04-02 1994-10-18 Sharp Corp Still picture image pickup device
JP2007164258A (en) * 2005-12-09 2007-06-28 Kurabo Ind Ltd Image synthesizing device and method
JP2007272604A (en) * 2006-03-31 2007-10-18 Omron Corp Information processor and information processing method, and program
US20100128919A1 (en) * 2008-11-25 2010-05-27 Xerox Corporation Synchronizing image sequences
JP2013020475A (en) * 2011-07-12 2013-01-31 Sony Corp Information processing apparatus, information processing method and program

Also Published As

Publication number Publication date
JP6774348B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
CN108965742B (en) Special-shaped screen display method and device, electronic equipment and computer readable storage medium
JP4912117B2 (en) Imaging device with tracking function
JP6609057B2 (en) Image processing device
US8897539B2 (en) Using images to create measurements of structures through the videogrammetric process
EP2339292A1 (en) Three-dimensional measurement apparatus and method thereof
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
JP2017198671A (en) Image processor and image processing method
JP6805351B2 (en) Damage data editing equipment, damage data editing methods, and programs
JP6775054B2 (en) Inspection support device
KR20160117143A (en) Method, device and system for generating an indoor two dimensional plan view image
JP2016212784A (en) Image processing apparatus and image processing method
JP2016220145A (en) Image analyzer, image analysis method and program
WO2021014775A1 (en) Image display device, method, and program
WO2020158726A1 (en) Image processing device, image processing method, and program
US20230237641A1 (en) Inspection support device for structure, inspection support method for structure, and program
JP6774348B2 (en) Image processing equipment and programs
US11729494B2 (en) Information processing apparatus, control method therefor, and storage medium
CN112288672A (en) Tumor detection method and tumor detection device
JP6779368B2 (en) Image processing equipment, image processing methods, and programs
JP7340434B2 (en) Reinforcement inspection system, reinforcement inspection method, and reinforcement inspection program
JP4321251B2 (en) Apparatus and method for generating and displaying composite image
US9721371B2 (en) Systems and methods for stitching metallographic and stereoscopic images
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
JP2018014572A (en) Information processing apparatus, image processing system, and program
CN111862106B (en) Image processing method, computer device and storage medium based on light field semantics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200812

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200820

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201002

R150 Certificate of patent or registration of utility model

Ref document number: 6774348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250