JP2018124832A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2018124832A JP2018124832A JP2017017023A JP2017017023A JP2018124832A JP 2018124832 A JP2018124832 A JP 2018124832A JP 2017017023 A JP2017017023 A JP 2017017023A JP 2017017023 A JP2017017023 A JP 2017017023A JP 2018124832 A JP2018124832 A JP 2018124832A
- Authority
- JP
- Japan
- Prior art keywords
- image
- child
- group
- photographed
- parent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に複数の撮影対象の撮影画像を含む撮影画像群を撮影対象毎に分類する技術に関する。 The present invention relates to an image processing device, an image processing method, and a program, and more particularly to a technique for classifying a captured image group including captured images of a plurality of shooting targets for each shooting target.
従来より、複数の撮影画像で構成された撮影画像群において、撮影画像の検索、または撮影画像をグループ分けするグルーピングに関する技術が提案されている。 2. Description of the Related Art Conventionally, there has been proposed a technique related to grouping for searching for a captured image or grouping captured images in a captured image group composed of a plurality of captured images.
例えば特許文献1には、データベースに保存された画像に対して、色彩および形状の物理的構成要素の他に、人間が視覚的に類似しているか否かの判断に関する記号を付与して、画像検索に使用する技術が提案されている。 For example, in Patent Document 1, in addition to physical components of color and shape, a symbol related to whether or not a human is visually similar is assigned to an image stored in a database, and the image Techniques used for searching have been proposed.
また例えばフォトブックおよびフォトアルバムを作成する技術においては、ユーザが入力する複数のイベントにおいて撮影された撮影画像を含む撮影画像群に対して、各撮影画像の撮影時刻に関する情報に基づいて、イベント毎に画像をグルーピングする技術が適用されている。 Further, for example, in the technique of creating a photo book and a photo album, for each captured image group including captured images captured at a plurality of events input by the user, for each event based on information regarding the captured time of each captured image. A technique for grouping images is applied.
近年、建造物の点検作業に撮影画像が利用されることが多くなった。点検作業において撮影画像が利用される場合には、各点検対象について撮影箇所や撮影条件を変更して複数回の撮影が行われる。すなわち、複数の点検対象の各点検対象毎に、撮影箇所および撮影条件を変更して、撮影画像が取得される。このように、複数の点検対象のうち点検対象毎に複数枚の撮影画像を取得すると、膨大な枚数の撮影画像で構成された撮影画像群が生成されることになる。 In recent years, photographed images are often used for building inspection work. When a photographed image is used in the inspection work, photographing is performed a plurality of times by changing photographing locations and photographing conditions for each inspection target. That is, a captured image is acquired by changing the shooting location and shooting conditions for each of the plurality of inspection targets. As described above, when a plurality of photographed images are acquired for each inspection object among the plurality of inspection objects, a photographed image group composed of an enormous number of photographed images is generated.
具体例として橋梁の床版の点検を行う場合には、格間ごとに床版を撮影していくが、格間の全体像を撮影し且つ格間の損傷箇所はズームアップして撮影するなどして、一つの格間(撮影対象)に対して複数の撮影画像が取得される。また、橋梁の点検では複数の格間に関して点検を行うので、点検者(ユーザ)は複数の撮影対象の多数の撮影画像で構成された撮影画像群を得ることになる。そして点検者は、撮影画像を点検に利用するためには、得られた撮影画像群を点検対象である格間の床版(撮影対象)毎にグルーピングする必要がある。 As a specific example, when checking the floor slab of a bridge, the floor slab is photographed for each gap, but the entire image of the gap is photographed, and the damaged part of the gap is zoomed in and photographed. Then, a plurality of photographed images are acquired for one space (photographing target). In addition, since the bridge is inspected with respect to a plurality of spaces, the inspector (user) obtains a photographed image group composed of a large number of photographed images of a plurality of photographing objects. In order to use the photographed image for inspection, the inspector needs to group the obtained photographed image group for each floor slab (photographing target) to be inspected.
この撮影対象毎にグルーピングする作業は、従来より点検者が視覚で判断して手動で行われる場合が多かった。 The grouping operation for each photographing target has been conventionally performed manually by an inspector visually.
しかしながら、点検者が手動でグルーピングを行う場合にはグルーピングに時間を要してしまい、点検対象が多数ある場合にはグルーピングの作業に膨大な時間を要してしまう場合があった。また点検者の手動でのグルーピングでは、人為的な誤りにより、正しいグルーピング結果を得ることができない場合がある。 However, when the inspector manually performs grouping, it takes time for the grouping, and when there are a large number of inspection targets, the grouping operation may take a huge amount of time. In addition, in the manual grouping by the inspector, a correct grouping result may not be obtained due to human error.
ここで点検を行う場合に取得される撮影画像群を構成する各撮影画像は、上述したフォトブックおよびフォトアルバムのようにイベント毎に撮影時刻が大きく異なる場合が少なく、単純に撮影画像が有する撮影時刻の違いだけで、点検対象毎にグルーピングすることは難しい場合が多い。 Here, each of the captured images constituting the captured image group acquired in the case of inspection is unlikely to have a significantly different shooting time for each event as in the above-described photo book and photo album, and the captured images simply have. In many cases, it is difficult to group by inspection object only by the difference in time.
また特許文献1には、撮影対象毎に、データベースに保存されている画像群を迅速に且つ正確にグルーピングすることには言及されていない。 Further, Patent Document 1 does not mention that a group of images stored in a database is quickly and accurately grouped for each photographing target.
本発明はこのような事情に鑑みてなされたもので、その目的は、複数の撮影対象を撮影し且つ各撮影対象に対して複数の撮影画像が存在する撮影画像群において、点検対象毎にグルーピングする作業を迅速に且つ正確に行うことができる画像処理装置、画像処理方法、およびプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to group each inspection object in a photographed image group in which a plurality of photographed objects are photographed and a plurality of photographed images exist for each photographed object. It is an object to provide an image processing apparatus, an image processing method, and a program that can perform a work to be performed quickly and accurately.
上記目的を達成するために、本発明の一の態様である画像処理装置は、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理装置であって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力部と、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付部と、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定部と、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成部と、を備える。 In order to achieve the above object, an image processing apparatus according to one aspect of the present invention is an image processing apparatus that groups a group of captured images including captured images of a plurality of shooting targets into groups for each shooting target, An image input for inputting a photographed image group including one or a plurality of first images first photographed for each photographing object and a plurality of second images photographed second under photographing conditions different from the first photographing. Based on the received image characteristics of the parent image and the image characteristics of the second image based on the received image characteristics of the parent image and the parent image receiving section. A child image specifying unit that specifies a second image obtained by shooting a part of the shooting target as a child image, and a group composed of a parent image and a child image obtained by shooting the same shooting target for each of the shooting targets; or Consists of child images And a group generator to generate a group.
本態様によれば、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群を撮影対象ごとに、画像特徴の親子関係によりグループ分け(グルーピング)することができる。すなわち、親画像受付部により、撮影対象の全体像を表す親画像の指定が受け付けられ、子画像特定部により、その指定された親画像の画像特徴に基づいて同一の撮影対象の一部を撮影した子画像が特定され、同一の撮影対象を撮影した親画像および子画像、または同一の撮影対象を撮影した子画像で構成されるグループが生成される。これにより本態様は、親画像の画像特徴と子画像の画像特徴とに基づいて、撮影画像群を撮影対象毎にグルーピングするので、撮影画像群のグルーピングをより迅速に且つ正確に行うことができる。 According to this aspect, the captured image group includes one or a plurality of first images that are first captured for each of the capturing targets, and a plurality of second images that are captured second under a capturing condition different from the first capturing. Can be grouped according to the parent-child relationship of image features for each subject. That is, the parent image accepting unit accepts designation of a parent image representing the entire image to be photographed, and the child image identifying unit photographs a part of the same photographing object based on the image characteristics of the designated parent image. A child image is identified, and a group composed of a parent image and a child image obtained by photographing the same photographing object or a child image obtained by photographing the same photographing object is generated. Thus, according to the present aspect, the captured image group is grouped for each imaging target based on the image feature of the parent image and the image feature of the child image, so that the grouping of the captured image group can be performed more quickly and accurately. .
好ましくは、親画像受付部は、撮影対象を分割撮影した複数の第1画像を親画像として受け付け、子画像特定部は、親画像として受け付けた複数の第1画像を合成処理して撮影対象の全体像を表す一枚の画像に合成し、一枚の画像の画像特徴と第2画像の画像特徴とに基づいて、子画像を特定する。 Preferably, the parent image receiving unit receives a plurality of first images obtained by dividing and shooting the shooting target as a parent image, and the child image specifying unit performs a synthesis process on the plurality of first images received as the parent image to obtain a shooting target. A single image representing the whole image is synthesized and a child image is specified based on the image characteristics of the single image and the image characteristics of the second image.
本態様によれば、親画像受付部により、撮影対象を分割撮影した複数の第1画像が親画像として受け付けられ、子画像特定部により、受け付けられた複数の親画像を撮影対象の全体像を表す一枚の画像に合成して、合成された一枚の画像の画像特徴に基づいて、子画像が特定される。これにより本態様は、撮影対象が大きく分割撮影された場合であっても、分割撮影された画像を合成して合成した画像の画像特徴に基づいて子画像が特定されるので、撮影画像群の正確なグルーピングを行うことができる。 According to this aspect, the parent image receiving unit receives a plurality of first images obtained by dividing and shooting the shooting target as parent images, and the child image specifying unit displays the received plurality of parent images as a whole image of the shooting target. A child image is identified based on the image characteristics of the single image that is combined with the single image that is represented. As a result, even if the subject to be photographed is divided and photographed largely, the child images are identified based on the image features of the images obtained by compositing the separately photographed images. Accurate grouping can be performed.
好ましくは、子画像特定部は、第2画像と親画像との特徴点を抽出し、抽出した特徴点の対応関係に基づいて、子画像を特定する。 Preferably, the child image specifying unit extracts a feature point between the second image and the parent image, and specifies the child image based on the correspondence relationship between the extracted feature points.
本態様によれば、子画像特定部により、第2画像と親画像との特徴点が抽出され、抽出された特徴点の対応関係に基づいて子画像が特定されるので、本態様は、正確に撮影画像群のグルーピングを行うことができる。 According to this aspect, the feature point between the second image and the parent image is extracted by the child image specifying unit, and the child image is specified based on the correspondence relationship between the extracted feature points. In addition, grouping of photographed image groups can be performed.
好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影された時刻に関する情報を有し、子画像特定部は、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された第2画像を子画像の子候補画像とし、子候補画像から子画像を特定する。 Preferably, each of the plurality of photographed images constituting the photographed image group has information regarding the photographing time, and the child image specifying unit is photographed after or before the time when the parent image of one group is photographed. The processed second image is set as a child candidate image of the child image, and the child image is specified from the child candidate image.
本態様によれば、撮影画像群を構成する撮影画像の各々が撮影された時刻に関する情報を有する場合において、子画像特定部により、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された第2画像を子画像の子候補画像とし、子候補画像から子画像を特定する。これにより本態様は、子画像特定部による子画像の特定が、子候補画像のうちから行われるので、正確に且つ迅速に撮影画像群のグルーピングを行うことができる。 According to this aspect, in the case where each of the captured images constituting the captured image group has information regarding the time at which the captured images are captured, the child image specifying unit performs the time after or before the time at which the parent image of one group is captured. The taken second image is used as a child candidate image of the child image, and the child image is specified from the child candidate image. As a result, in this aspect, the child image is specified from the child candidate images by the child image specifying unit, so that the group of captured image groups can be accurately and quickly performed.
好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影された時刻に関する情報を有し、子画像特定部は、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された第2画像を第1グループの子画像の子候補画像とし、子候補画像から子画像を特定する。 Preferably, each of the plurality of photographed images constituting the photographed image group has information related to the photographed time, and the child image specifying unit includes the time when the parent image of the first group is photographed and the second group of images. The second image taken between the time when the parent image was taken is taken as the child candidate image of the first group of child images, and the child image is specified from the child candidate image.
本態様によれば、撮影画像群を構成する撮影画像の各々が撮影された時刻に関する情報を有する場合において、子画像特定部により、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された第2画像を第1グループの子画像の子候補画像とし、子候補画像から子画像が特定される。これにより本態様は、子画像特定部による子画像の特定が、子候補画像のうちから行われるので、正確に且つ迅速に撮影画像群のグルーピングを行うことができる。 According to this aspect, when each of the captured images constituting the captured image group has information regarding the time at which the captured image was captured, the time at which the parent image of the first group was captured by the child image specifying unit, and the second group The second image taken between the time when the parent image is taken is set as a child candidate image of the child image of the first group, and the child image is specified from the child candidate image. As a result, in this aspect, the child image is specified from the child candidate images by the child image specifying unit, so that the group of captured image groups can be accurately and quickly performed.
好ましくは、撮影画像群を構成する複数の撮影画像の各々は、撮影条件に関する情報を有し、親画像受付部は、撮影条件に基づいて撮影画像群の中から第1画像を抽出し、抽出された第1画像の中から、親画像を受け付ける。 Preferably, each of the plurality of photographed images constituting the photographed image group has information regarding the photographing condition, and the parent image receiving unit extracts and extracts the first image from the photographed image group based on the photographing condition. A parent image is received from the first images.
本態様によれば、撮影画像群を構成する複数の撮影画像の各々が撮影条件に関する情報を有する場合において、親画像受付部により、撮影条件に基づいて撮影画像群の中から第1画像を抽出し、抽出された第1画像の中から、親画像を受け付ける。これにより本態様は、親画像として選択される候補である第1画像を抽出して、その抽出された第1画像の中から、親画像の選択が受け付けられるので、迅速に且つ正確な撮影画像群のグルーピングを行うことができる。 According to this aspect, when each of the plurality of captured images constituting the captured image group has information regarding the capturing condition, the parent image receiving unit extracts the first image from the captured image group based on the capturing condition. The parent image is received from the extracted first image. Thereby, since this aspect extracts the 1st image which is a candidate selected as a parent image, and selection of a parent image is received from the extracted 1st image, a quick and accurate picked-up image is received. Group grouping can be performed.
好ましくは、撮影画像群は、撮影画像の撮影対象が他の撮影対象に変わることを示す目印画像を含み、撮影画像群を構成する複数の撮影画像および目印画像の各々は、撮影された時刻に関する情報を有し、親画像受付部は、目印画像が撮影された直後または直前に撮影された第1画像を親画像として受け付ける。 Preferably, the photographed image group includes a landmark image indicating that the photographing target of the photographed image is changed to another photographing target, and each of the plurality of photographed images and the landmark image constituting the photographed image group relates to a time when the photographed image is photographed. The parent image receiving unit receives the first image taken immediately after or immediately before the landmark image is taken as a parent image.
本態様によれば、撮影画像群が撮影画像の撮影対象が他の撮影対象に変わることを示す目印画像を含み、且つ、撮影画像群を構成する複数の撮影画像および目印画像の各々は撮影された時刻に関する情報を有する場合に、親画像受付部により、目印画像が撮影された直後または直前に撮影された第1画像を親画像として受け付ける。これにより本態様は、目印画像の直前または直後の第1画像を、親画像として自動的に受け付けるので、迅速に且つ正確な撮影画像群のグルーピングを行うことができる。 According to this aspect, the captured image group includes a landmark image indicating that the captured object of the captured image is changed to another captured object, and each of the plurality of captured images and the landmark image constituting the captured image group is captured. When there is information regarding the time, the parent image accepting unit accepts the first image photographed immediately after or just before the landmark image is photographed as the parent image. Thus, according to the present aspect, the first image immediately before or immediately after the landmark image is automatically accepted as the parent image, so that it is possible to quickly and accurately group the captured image group.
好ましくは、画像処理装置は、グループ生成部で生成されたグループごとに親画像および子画像を表示部に表示させる表示制御部と、子画像の修正指示を受け付ける修正指示受付部と、を備え、グループ生成部は、修正指示に基づいてグループを再び生成する。 Preferably, the image processing apparatus includes a display control unit that causes the display unit to display a parent image and a child image for each group generated by the group generation unit, and a correction instruction reception unit that receives a correction instruction for the child image. The group generation unit generates the group again based on the correction instruction.
本態様によれば、表示制御部により、グループ生成部で生成されたグループごとに親画像および子画像を表示部に表示させ、修正指示受付部により、子画像の修正指示を受け付け、グループ生成部により、修正指示に基づいてグループが再び生成される。これにより本態様は、正確な撮影画像群のグルーピングを行うことができる。 According to this aspect, the display control unit displays the parent image and the child image on the display unit for each group generated by the group generation unit, the correction instruction receiving unit receives the child image correction instruction, and the group generation unit Thus, the group is generated again based on the correction instruction. Thereby, this aspect can perform accurate grouping of the photographed image group.
好ましくは、画像処理装置は、グループを構成する複数の子画像を、画像合成の対象画像として特定する合成対象特定部を備える。 Preferably, the image processing apparatus includes a compositing target specifying unit that specifies a plurality of child images constituting the group as image compositing target images.
好ましくは、画像処理装置は、合成対象特定部で特定された画像合成の対象画像を画像合成する子画像合成部を備える。 Preferably, the image processing apparatus includes a child image synthesis unit that performs image synthesis on the target image for image synthesis specified by the synthesis target specifying unit.
本態様によれば、子画像合成部により、画像合成の対象画像を画像合成するので、グルーピングの結果が有効に利用される。 According to this aspect, since the child image composition unit composites the target images for image composition, the grouping result is effectively used.
本発明の他の態様である画像処理方法は、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理方法であって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力ステップと、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定ステップと、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成ステップと、を含む。 An image processing method according to another aspect of the present invention is an image processing method for grouping photographed image groups including photographed images of a plurality of photographing objects into groups for each photographing object, wherein the first photographing is performed for each of the photographing objects. An image input step in which a captured image group including a single image or a plurality of first images and a plurality of second images captured under a photographing condition different from the first photographing is input; Based on the received parent image receiving step and the received image characteristics of the parent image and the image characteristics of the second image, a part of the shooting target of the parent image is captured. A child image specifying step for specifying the second image as a child image, and for each of the shooting targets, a group consisting of a parent image and a child image obtained by shooting the same shooting target, or a group consisting of child images Including a group generating step of generating.
本発明の他の態様である画像処理方法をコンピュータに実行させるプログラムは、複数の撮影対象の撮影画像を含む撮影画像群を、撮影対象ごとのグループにグルーピングする画像処理方法をコンピュータに実行させるプログラムであって、撮影対象の各々について第1撮影された単数または複数の第1画像と、第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む撮影画像群が入力される画像入力ステップと、第1画像のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、受け付けた親画像の画像特徴と第2画像の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した第2画像を子画像として特定する子画像特定ステップと、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成するグループ生成ステップと、を含む。 A program that causes a computer to execute an image processing method according to another aspect of the present invention is a program that causes a computer to execute an image processing method that groups a group of captured images including captured images of a plurality of shooting targets into groups for each shooting target. A captured image group including one or a plurality of first images captured for each of the capturing targets and a plurality of second images captured under a capturing condition different from the first capturing is input. Based on the received image feature, the parent image accepting step for accepting any one of the first images as a parent image representing the whole image to be photographed, and the image features of the accepted parent image and the second image. A child image specifying step of specifying a second image obtained by shooting a part of the parent image shooting target as a child image, and shooting the same shooting target for each of the shooting targets Including a group generating step of generating a group consisting group or a child image, and a parent image and child images, a.
本発明によれば、親画像受付部により、撮影対象の全体像を表す親画像の指定が受け付けられ、子画像特定部により、その指定された親画像の画像特徴に基づいて同一の撮影対象の一部を撮影した子画像が特定され、同一の撮影対象を撮影した親画像および子画像、または同一の撮影対象を撮影した子画像で構成されるグループが生成されるので、撮影画像群のグルーピングをより迅速に且つ正確に行うことができる。 According to the present invention, the parent image accepting unit accepts designation of a parent image representing the entire image to be photographed, and the child image specifying unit accepts the same photographing object based on the image characteristics of the designated parent image. A group of photographed images is grouped because a child image obtained by capturing a part is identified and a group consisting of a parent image and a child image obtained by photographing the same object or a child image obtained by photographing the same object is generated. Can be performed more quickly and accurately.
以下、添付図面にしたがって本発明の画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described with reference to the accompanying drawings.
本発明では複数の撮影対象を撮影した撮影画像で構成された撮影画像群を撮影対象毎にグルーピングすることができる。ここで、撮影対象は特に限定されるものではないが、例えば構造物または建造物の定期点検を撮影画像を使用して行う場合の撮影対象があげられる。以下の説明では、具体例として橋梁1(図1)の点検を行う場合に、複数の格間(格間の床版6)を撮影した撮影画像で構成された撮影画像群U(図10)のグルーピングに関して説明する。 In the present invention, it is possible to group a photographic image group composed of photographic images obtained by photographing a plurality of photographic subjects for each photographic subject. Here, the object to be imaged is not particularly limited, but examples include an object to be imaged when a periodic inspection of a structure or a building is performed using a captured image. In the following description, when the bridge 1 (FIG. 1) is inspected as a specific example, a captured image group U (FIG. 10) configured by captured images obtained by capturing a plurality of spaces (a floor slab 6). The grouping will be described.
図1は、撮影対象(点検対象)である構造物の一つである橋梁の構造を示す斜視図であり、橋梁を下から見た斜視図である。 FIG. 1 is a perspective view showing a structure of a bridge that is one of structures to be imaged (inspected), and is a perspective view of the bridge as viewed from below.
図1に示す橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有し、これらがボルト、リベットまたは溶接により連結されて構成されている。また、主桁2等の上部には、車輌等が走行するための床版6が打設されている。床版6は、鉄筋コンクリート製のものが一般的である。
A bridge 1 shown in FIG. 1 has a
主桁2は、橋台または橋脚の間に渡され、床版6上の車輌等の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支持するため、主桁2を連結する部材である。対傾構4および横構5は、それぞれ風および地震の横荷重に抵抗するため、主桁2を相互に連結する部材である。
The
橋梁1の点検を行う場合には、例えば格間ごとに撮影画像を取得して、ヒビ割れ等の損傷箇所があるか否かを点検する。ここで格間とは、床版6が対向する2つの主桁2および対向する2つの横桁3または対傾構4により区切られた空間のことである。
When the bridge 1 is inspected, for example, a photographed image is acquired for each space to inspect whether there is a damaged portion such as a crack. Here, the space is a space defined by the two
次に、本発明の画像処理装置を備えるコンピュータ300に関して説明する。
Next, the
図2および図3はコンピュータ300の外観構成を示す斜視図であり、図2は正面斜視図、図3は背面斜視図である。
2 and 3 are perspective views showing an external configuration of the
コンピュータ300は、図2および図3に示すように、タブレット型のコンピュータで構成される。コンピュータ300は、矩形の輪郭を有する平板状の筐体301を備え、その筐体301に表示部326と入力部328とを兼ねたタッチパネルディスプレイ302、操作ボタン303、スピーカー304、内蔵カメラ305、外部接続端子306等を備えて構成される。
As shown in FIGS. 2 and 3, the
図4は、コンピュータ300のシステム構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a system configuration of the
図4に示すように、コンピュータ300は、コンピュータ300の全体の動作を制御するCPU(Central Processing Unit)310を備え、このCPU310にシステムバス312を介して、メインメモリ314、不揮発性メモリ316、モバイル通信部318、無線LAN通信部320、近距離無線通信部322、有線通信部324、表示部326、入力部328、キー入力部330、音声処理部332、画像処理部334等が接続されて構成される。
As shown in FIG. 4, the
CPU310は、不揮発性メモリ316に記憶された動作プログラム(OS(Operating System)、および、そのOS上で動作するアプリケーションプログラム)、および、定型データ等を読み出し、メインメモリ314に展開して、当動作プログラムを実行することにより、このコンピュータ全体の動作を制御する制御部として機能する。
The
メインメモリ314は、たとえば、RAM(Random Access Memory)で構成され、CPU310のワークメモリとして機能する。
The
不揮発性メモリ316は、たとえば、フラッシュEEPROM(EEPROM:Electrically Erasable Programmable Read Only Memory)で構成され、上述した動作プログラムや各種定型データを記憶する。また、不揮発性メモリ316は、コンピュータ300の記憶部として機能し、各種データを記憶する。
The
モバイル通信部318は、IMT−2000規格(International Mobile Telecommunication-2000)に準拠した第3世代移動通信システム、および、IMT−Advance規格(International Mobile Telecommunications-Advanced)に準拠した第4世代移動通信システムに基づき、アンテナ318Aを介して、最寄りの図示しない基地局との間でデータの送受を実行する。
The
無線LAN通信部320は、アンテナ320Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN通信規格(たとえば、例えばIEEE802.11a/b/g/n規格)に従った無線LAN通信を行う。
The wireless
近距離無線通信部322は、アンテナ322Aを介して、たとえばクラス2(半径約10m内)の範囲内にある他のBluetooth(登録商標)規格の機器とデータの送受を実行する。
The short-range
有線通信部324は、外部接続端子306を介してケーブルで接続された外部機器との間で所定の通信規格に従った通信を行う。たとえば、USB通信を行う。
The
表示部326は、タッチパネルディスプレイ302のディスプレイ部分を構成するカラーLCD(liquid crystal display)パネルと、その駆動回路と、で構成され、各種画像を表示する。
The
入力部328は、タッチパネルディスプレイ302のタッチパネル部分を構成する。入力部328は、透明電極を用いてカラーLCDパネルと一体的に構成される。入力部328は、点検者のタッチ操作に対応した2次元の位置座標情報を生成して出力する。
The
キー入力部330は、コンピュータ300の筐体301に備えられた複数の操作ボタン303と、その駆動回路と、で構成される。
The
音声処理部332は、システムバス312を介して与えられるデジタル音声データをアナログ化してスピーカー304から出力する。
The
画像処理部334は、撮影レンズおよびイメージセンサーを備えた内蔵カメラ305から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。
The
<第1の実施形態>
次に、画像処理装置200が備える機能に関して説明する。
<First Embodiment>
Next, functions provided in the
図5は、画像処理装置200が備える機能を示すブロック図である。なお、画像処理装置200はコンピュータ300に設けられており、画像処理装置200の各機能はコンピュータ300により実現されている。
FIG. 5 is a block diagram illustrating functions provided in the
画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、およびグループ生成部207を備える。
The
画像入力部201には、撮影対象毎にグループ分け(グルーピング)される撮影画像群Uが入力される。ここで、撮影画像群Uは、複数の撮影対象について、撮影対象毎に複数の撮影画像を含む。具体的には、画像入力部201には、撮影対象の各々について広角撮影(第1撮影)された単数または複数の広角画像(第1画像)100(図6参照)と、望遠撮影(第2撮影)された複数の望遠画像(第2画像)110(図9参照)とを含む撮影画像群Uが入力される。ここで広角撮影と望遠撮影とは撮影条件のうちの焦点距離が異なり、広角画像100は焦点距離が短い条件で広角撮影が行われており、望遠画像110は焦点距離が長い条件で望遠撮影が行われている。
The
親画像受付部203は、広角画像100のうちのいずれかを撮影対象の全体像を表す親画像として受け付ける。すなわち、親画像受付部203は、点検者から撮影対象の全体像が写っている広角画像100について、親画像としての指定を受け付ける。例えば親画像受付部203は、表示部326に表示された撮影画像群Uまたは広角画像100が点検者により選択されることにより、広角画像100についての親画像として指定を受け付ける。
The parent
ここで、広角画像100に関して説明する。図6は、格間を広角撮影した画像(広角画像100)を概念的に示す図である。
Here, the wide-
橋梁1の点検を行う場合には、床版6を格間毎に点検が行われる場合が多い。この場合には、格間の全体像を広角撮影(第1撮影)により捉えた広角画像100が取得される。広角画像100は、横桁3と主桁2とで囲まれた範囲(格間)の床版6が撮影対象であり、格間の全体像が撮影されている。実際に橋梁1の点検を行う場合には、複数の格間についてそれぞれ広角画像100が取得される。
When the bridge 1 is inspected, the
また親画像受付部203は、撮影対象を分割撮影した複数の広角画像100を親画像として受け付けてもよい。すなわち、撮影対象が大きく広角撮影した場合であっても撮影対象の全体像を一枚の撮影画像内に収めることができない場合には、分割撮影されることになるが、親画像受付部203は分割撮影された広角画像100を親画像として受け付けてよい。この場合には、子画像特定部205は、親画像として受け付けた複数の広角画像100を合成処理して撮影対象の全体像を表す一枚の画像に合成し、一枚の画像の画像特徴と望遠画像110の画像特徴とに基づいて、子画像を特定する。
Further, the parent
図7は、撮影対象である格間を分割撮影した場合の広角画像100に関して説明する図である。
FIG. 7 is a diagram for explaining the wide-
撮影対象である格間Hが大きい場合には、分割撮影をして分割広角画像101A、分割広角画像101B、および分割広角画像101Cが取得される。そして親画像受付部203は、親画像として分割広角画像101A、分割広角画像101B、および分割広角画像101Cの指定を受け付ける。この場合、子画像特定部205は、分割広角画像101A、分割広角画像101B、および分割広角画像101Cを合成したのちに合成画像(親画像)の画像特徴に基づいて子画像の特定を行う。
When the space H to be imaged is large, divided shooting is performed, and a divided wide-
また、親画像受付部203は、画像入力部201に入力される撮影画像群Uを構成する複数の撮影画像の各々が撮影条件に関する情報を有する場合には、撮影条件に基づいて撮影画像群Uの中から広角画像100を抽出し、抽出された広角画像100の中から、親画像を受け付けてもよい。すなわち、撮影画像群Uを構成する撮影画像の各々が撮影条件(焦点距離)に関する情報を有し、その撮影条件から広角画像100を抽出し、抽出された広角画像100を表示部326に表示して点検者が親画像の選択をして、親画像受付部203は親画像の指定を受け付けてもよい。
Further, when each of the plurality of captured images constituting the captured image group U input to the
また、親画像受付部203は、画像入力部201に入力される撮影画像群Uが撮影対象が変わることを示す目印画像112を含み、且つ、撮影画像群Uを構成する複数の撮影画像および目印画像112の各々が撮影された時刻に関する情報を有する場合には、親画像受付部203は、目印画像112が撮影された直後または直前に撮影された広角画像を親画像として受け付けてもよい。すなわち、親画像受付部203は、撮影画像群Uが目印画像112を含む場合には、目印画像112の直後または直前の広角画像100を親画像として自動的または手動により受け付けてもよい。具体的には図10で示された撮影画像群Uにおいて、目印画像112の直後の広角画像100を親画像として指定する。
In addition, the parent
ここで目印画像112に関して説明する。図8は、撮影画像群Uに含まれる目印画像112の一例を概念的に示す図である。目印画像112は、撮影対象が切り替わることを示すために撮影される画像である。すなわち、橋梁1の点検を行う場合には、多数の格間を撮影することになるが、目印画像112によって、前または後でどの格間を撮影しているのか分かるようにする。図8に示された目印画像112では、格間の番号を書いたプレートが撮影されている。
Here, the
なお、目印画像112の他の例としては、橋梁1の名前または部材番号が書かれたプレートを撮影した画像、およびレンズカバーをしたまま撮影した真っ黒な画像があげられる。また目印画像112は、撮影画像群Uに含まれる場合もあるし、撮影画像群Uに含まれない場合もある。
Other examples of the
図5に戻って、子画像特定部205は、受け付けた親画像の画像特徴と望遠画像110の画像特徴とに基づいて、親画像の撮影対象の一部を撮影した望遠画像110を子画像として特定する。すなわち、子画像特定部205は、点検者からの指定を受けた親画像の画像特徴と望遠画像110の画像特徴と相関関係(一致度)を算出し、子画像を特定する。具体的には子画像特定部205は、望遠画像110と親画像との特徴点を抽出し、抽出した親画像と望遠画像110の特徴点の一致度が所定の値(閾値)よりも高い望遠画像110を子画像として特定する。子画像特定部205が行う、親画像の画像特徴および望遠画像110の特徴点の抽出、および親画像の画像特徴および望遠画像110の特徴点の相関関係の算出は公知の画像処理技術が適用される。
Returning to FIG. 5, the child
なお画像間の拡大縮小、回転および照明変化等に強いロバストな局所特徴量として、SIFT (Scale-invariant feature transform)特徴量、SURF (Speed-Upped Robust Feature)特徴量、およびAKAZE (Accelerated KAZE)特徴量が知られている。 In addition, SIFT (Scale-invariant feature transform) feature, SURF (Speed-Upped Robust Feature) feature, and AKAZE (Accelerated KAZE) feature are robust local features that are strong against scaling, rotation, and illumination changes between images. The amount is known.
ここで望遠画像110に関して説明する。図9は、格間を望遠撮影した望遠画像110を概念的に示す図である。点検検査を行う場合には、格間を広角撮影しただけでは検出できないヒビ割れがある場合や、ヒビ割れをより詳細に分析したい場合に、望遠撮影を行って拡大した撮影対象の像を取得する。また、望遠画像110は、格間の全域にわたって取得されてもよいし、格間のある箇所のみ取得されてもよい。
Here, the
また子画像特定部205は、撮影画像群Uを構成する複数の撮影画像の各々が撮影された時刻に関する情報を有する場合には、子画像特定部205は、一つのグループの親画像が撮影された時刻以降または時刻以前に撮影された望遠画像110を子画像の子候補画像とし、子候補画像から子画像を特定してもよい。具体的には図10で示された撮影画像群Uにおいて、P1またはP2で示した親画像が撮影された時刻以降または時刻以前に撮影された望遠画像を子候補画像として、子画像を特定してもよい。これにより、子画像特定部205は、撮影画像群Uの全ての撮影画像または全ての望遠画像110について特徴点を抽出して親画像との対応関係を調べる必要はなく、親画像が撮影された時刻以降または時刻以前に撮影された望遠画像110を子画像の子候補画像とし、その子候補画像のみに対して特徴点を抽出して対応関係を調べてもよい。
In addition, when the child
また子画像特定部205は、撮影画像群Uを構成する複数の撮影画像の各々が撮影された時刻に関する情報を有する場合には、子画像特定部205は、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された望遠画像110を第1グループの子画像の子候補画像とし、子候補画像から子画像を特定する第1グループの子画像として特定してもよい。具体的には図10で示された撮影画像群Uにおいて、P1とP2で示された親画像の間に撮影された望遠画像110をP1の広角画像を親画像とするグループの子候補画像としてもよい。これにより、子画像特定部205は、撮影画像群Uの全ての撮影画像または全ての望遠画像110について特徴点を抽出して親画像との対応関係を調べる必要はなく、第1グループの親画像が撮影された時刻と、第2グループの親画像が撮影された時刻との間に撮影された望遠画像110を第1グループの子画像として特定してもよい。
Further, when the child
グループ生成部207は、撮影対象の各々について、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループを生成する。グループ生成部207で生成されたグループは、撮影対象毎に親画像と子画像とで構成されるグループ、または撮影対象毎に子画像で構成されるグループである。具体的には、撮影対象が格間の床版6である場合には、格間毎に広角画像100および望遠画像110、または格間毎の望遠画像110のグループが生成される。
The
<撮影画像群のグルーピング>
次に、撮影画像群Uおよびグルーピング結果を具体例を使って説明する。
<Grouping of photographed images>
Next, the captured image group U and the grouping result will be described using specific examples.
図10は、橋梁1の点検作業において撮影された撮影画像から構成される撮影画像群Uを示す図である。図10では、撮影画像群Uを構成する一部の複数の撮影画像を示している。撮影画像群Uは、撮影対象である格間の広角画像100、床版6の望遠画像110、および目印画像112で構成されている。なお、広角画像100、望遠画像110、および目印画像112は、撮影された順番に画像番号として「DSCF34○○」が付されており、撮影された順番に配列されている。また、撮影画像群Uを構成する複数の撮影画像の各々は、撮影された時刻に関する情報、および撮影条件(例えば焦点距離)の情報を有する。なお、図10中でP1で示されている広角画像100は、第1グループの親画像として指定され、P2で示されている広角画像100は第2グループの親画像として指定される。親画像の指定は、例えば撮影画像群Uまたは広角画像100のサムネイル表示を表示部326に表示させて、点検者がそのサムネイル表示を選択することで行われる。
FIG. 10 is a diagram showing a photographed image group U composed of photographed images photographed in the inspection work for the bridge 1. In FIG. 10, a part of a plurality of captured images constituting the captured image group U is illustrated. The photographed image group U is composed of a wide-
図11から図14は、親画像受付部203で受け付けられた親画像、および子画像特定部205で特定された子画像に関して示す図である。図11および図12は第1グループ、図13および図14は第2グループの親画像および子画像が示されている。
FIGS. 11 to 14 are diagrams showing the parent image received by the parent
図11は、第1グループの親画像として指定された広角画像100を示す図である。この場合、撮影対象を分割撮影した複数の広角画像を親画像として受け付ける。すなわち、親画像受付部203は、格間を4分割して撮影した広角画像100を第1グループの親画像として受け付ける。
FIG. 11 is a diagram showing the wide-
図12は、撮影画像群Uにおいて、第1グループの子画像として特定された望遠画像110を示している。図11で指定された親画像の画像特徴と望遠画像110の各々の画像特徴とに基づいて、子画像特定部205により、撮影画像群Uから子画像が特定されている。
FIG. 12 shows a
図13は、撮影画像群Uにおいて、第1グループの親画像として指定された広角画像100である。この場合、親画像受付部203は、格間を3分割して撮影した広角画像100を第2グループの親画像として受け付ける。
FIG. 13 shows a wide-
図14は、撮影画像群Uにおいて、第1グループの子画像として特定された望遠画像110を示している。図13で指定された親画像の画像特徴と望遠画像110の各々の画像特徴とに基づいて、撮影画像群Uから子画像が特定されている。
FIG. 14 shows a
図15は、画像処理装置200の動作を示すフロー図である。
FIG. 15 is a flowchart showing the operation of the
先ず画像入力部201に、撮影画像群Uが入力される(画像入力ステップ:ステップS10)。撮影画像群Uの入力は、コンピュータ300の有線通信部324、モバイル通信部318、無線LAN通信部320、または近距離無線通信部322を介して行われる。その後親画像受付部203において、広角画像100のうち第1グループの親画像の指定を受け付ける(親画像受付ステップ:ステップS12)。例えば点検者が、表示部326に表示された撮影画像群Uのサムネイル表示を選択することにより、親画像の指定が行われる。そして、子画像特定部205により、望遠画像110において子画像が特定される(子画像特定ステップ:ステップS14)。例えば子画像特定部205は、公知の画像処理技術により対応点検出を行い、親画像の画像特徴と撮影画像群Uに含まれる望遠画像110の画像特徴とのマッチングを算出し、マッチングが良いものを子画像として特定する。その後、グループ生成部207により、同一の撮影対象を撮影した親画像と子画像とで構成されるグループ、または子画像で構成されるグループが生成される(グループ生成ステップ:ステップS16)。
First, the captured image group U is input to the image input unit 201 (image input step: step S10). The input of the captured image group U is performed via the wired
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU310、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
In the above embodiment, the hardware structure of a processing unit that executes various processes is the following various processors. The various processors are programmable processors that can change the circuit configuration after manufacturing, such as a
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPU310とFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータ300に代表されるように、1つ以上のCPU310とソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
<第2の実施形態>
次に、本発明の第2の実施形態に関して説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
図16は、本実施形態の画像処理装置200の機能を示すブロック図である。本実施形態の画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、グループ生成部207、表示制御部209、および修正指示受付部211を備える。なお、図5で説明を行った箇所は、同じ符号を付し説明は省略する。
FIG. 16 is a block diagram illustrating functions of the
表示制御部209は、グループ生成部207で生成されたグループごとに親画像および子画像を表示部326に表示させる。表示制御部209が行うグループの表示形態は、特に限定されない。例えば表示制御部209は、グループごとに親画像および子画像のサムネイル画像を表示する。
The
修正指示受付部211は、子画像の修正指示を受け付ける。例えば、表示制御部209が表示部326に表示させる子画像のサムネイル画像を、点検者が選択することにより、修正指示受付部211は子画像の修正指示を受け付ける。
The correction
グループ生成部207は、修正指示受付部211が受け付けた修正指示に基づいてグループを再び生成する。具体的には、グループ生成部207は、修正指示受付部211が受け付けた修正指示に基づいて、グループから子画像を削除したり追加したりする。
The
図17および図18は、子画像の修正に関して説明する図である。図17は第1グループの子画像特定部205により特定された子画像のサムネイルがタッチパネルディスプレイ302に表示されており、図18は第2グループの子画像特定部205により特定された子画像のサムネイルがタッチパネルディスプレイ302に表示されている。点検者は、タッチパネルディスプレイ302のサムネイル画像を確認して、グループを構成する画像としては不適切と判断し選択して、グループから除外する。
17 and 18 are diagrams for explaining the correction of the child image. 17 shows a thumbnail of the child image specified by the child
図17に示した場合では、第1グループの子画像として、目印画像112Bは不適切ではない。すなわち点検者はタッチパネルディスプレイ302に表示された第1グループの子画像のサムネイル画像を確認して、目印画像112Bが混じっていることを認識し、目印画像112Bを選択して修正指示受付部211を介して第1グループの子画像の修正指示を行う。なお、目印画像112Bは、第1グループの親画像との相関関係(例えば、特徴点を抽出して対応点を検出を行った結果)が目印画像112Bは極端に低いので、この相関関係を点検者に報知することにより、点検者に不適切な画像を選択させてもよい。そして、修正指示受付部211は目印画像112Bが選択された指示を受け付け、グループ生成部207は目印画像112Bを除いた新たなグループを生成する。
In the case shown in FIG. 17, the
図18に示した場合では、第2グループの子画像として、望遠画像110Mは不適切である。例えば望遠画像110Mは、撮影に失敗した画像であったり、余分な撮影をした画像である。したがって、点検者は、タッチパネルディスプレイ302に表示された第2グループの子画像のサムネイル画像を確認して、望遠画像110Mを選択する。なお、例えば望遠画像110Mの画質が良くない場合には、第2グループの親画像との相関関係は悪い結果となる。
In the case shown in FIG. 18, the
<第3の実施形態>
次に、本発明の第3の実施形態に関して説明する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described.
図19は、本実施形態の画像処理装置200の機能を示すブロック図である。本実施形態の画像処理装置200は、画像入力部201、親画像受付部203、子画像特定部205、グループ生成部207、合成対象特定部213、および子画像合成部215を備える。
FIG. 19 is a block diagram illustrating functions of the
合成対象特定部213は、グループを構成する複数の子画像を、画像合成の対象画像として特定する。撮影画像群Uのグルーピング結果を画像合成することにより、有効なグルーピング結果の利用を行うことができる。例えば、橋梁1の点検をする場合においては、望遠画像110を合成することにより、点検報告書の掲載、および損傷箇所の位置の特定を効率的に行うことができる。
The compositing
子画像合成部215は、合成対象特定部213で特定された画像合成の対象画像を画像合成する。すなわち、子画像合成部215は、合成対象特定部213で合成対象として特定された子画像について画像合成を行う。なお、子画像合成部215が行う画像合成は、公知の画像合成技術が適用される。
The child
図20は、グルーピングされた複数の子画像の画像合成について説明する図である。 FIG. 20 is a diagram illustrating image composition of a plurality of grouped child images.
グループ生成部207で生成されたグループにおいて子画像として特定された望遠画像110が、合成対象特定部213により、合成対象として特定される。合成対象特定部213は、グルーピングされた望遠画像110について全てを合成対象としてもよいし、点検者から指定を受け付けた望遠画像110について合成対象としてもよい。その後、子画像合成部215は、合成対象として特定された子画像(望遠画像110)の合成を行う。図20に示された場合には、合成対象として特定された望遠画像110を合成することにより、撮影対象(格間の床版6)の全体像が写った合成画像115が得られる。なお、合成画像115としては、撮影対象の全体像が写ったものに限定されず、撮影対象の一部が写った合成画像115でもよい。
The
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 The example of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
1 橋梁
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
100 広角画像
101A〜101C 分割広角画像
110 望遠画像
112 目印画像
115 合成画像
200 画像処理装置
201 画像入力部
203 親画像受付部
205 子画像特定部
207 グループ生成部
209 表示制御部
211 修正指示受付部
213 合成対象特定部
215 子画像合成部
300 コンピュータ
301 筐体
302 タッチパネルディスプレイ
303 操作ボタン
304 スピーカー
305 内蔵カメラ
306 外部接続端子
310 CPU
312 システムバス
314 メインメモリ
316 不揮発性メモリ
318 モバイル通信部
318A アンテナ
320 無線LAN通信部
320A アンテナ
322 近距離無線通信部
322A アンテナ
324 有線通信部
326 表示部
328 入力部
330 キー入力部
332 音声処理部
334 画像処理部
ステップS10〜ステップS16 画像処理方法
DESCRIPTION OF SYMBOLS 1
312
Claims (12)
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力部と、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付部と、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定部と、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成部と、
を備える画像処理装置。 An image processing apparatus that groups a group of captured images including captured images of a plurality of shooting targets into groups for each of the shooting targets,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input unit,
A parent image receiving unit that receives one of the first images as a parent image representing the whole image of the shooting target;
A child image specifying unit for specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
For each of the shooting targets, a group formed by the parent image and the child image that shot the same shooting target, or a group generation unit that generates a group formed by the child image,
An image processing apparatus comprising:
前記子画像特定部は、前記親画像として受け付けた複数の前記第1画像を合成処理して前記撮影対象の前記全体像を表す一枚の画像に合成し、前記一枚の画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記子画像を特定する請求項1に記載の画像処理装置。 The parent image receiving unit receives a plurality of the first images obtained by dividing and shooting the shooting target as the parent image,
The child image specifying unit combines the plurality of first images received as the parent image into one image representing the whole image of the shooting target, and includes image characteristics of the one image. The image processing apparatus according to claim 1, wherein the child image is specified based on an image feature of the second image.
前記子画像特定部は、一つのグループの前記親画像が撮影された前記時刻以降または前記時刻以前に撮影された前記第2画像を前記子画像の子候補画像とし、前記子候補画像から前記子画像を特定する請求項1から3のいずれか1項に記載の画像処理装置。 Each of the plurality of photographed images constituting the photographed image group has information regarding the time of photographing,
The child image specifying unit sets the second image taken after or before the time when the parent image of one group is taken as a child candidate image of the child image, and determines the child image from the child candidate image. The image processing apparatus according to claim 1, wherein an image is specified.
前記子画像特定部は、第1グループの前記親画像が撮影された時刻と、第2グループの前記親画像が撮影された時刻との間に撮影された前記第2画像を前記第1グループの前記子画像の子候補画像とし、前記子候補画像から前記子画像を特定する請求項1から3のいずれか1項に記載の画像処理装置。 Each of the plurality of photographed images constituting the photographed image group has information regarding the time of photographing,
The child image specifying unit may include the second image captured between the time when the parent image of the first group is captured and the time when the parent image of the second group is captured. The image processing apparatus according to claim 1, wherein the child image is a child candidate image of the child image, and the child image is specified from the child candidate image.
前記親画像受付部は、前記撮影条件に基づいて前記撮影画像群の中から前記第1画像を抽出し、前記抽出された前記第1画像の中から、前記親画像を受け付ける請求項1から5のいずれか1項に記載の画像処理装置。 Each of the plurality of photographed images constituting the photographed image group has information related to the photographing conditions,
6. The parent image receiving unit extracts the first image from the photographed image group based on the photographing condition, and accepts the parent image from the extracted first image. The image processing apparatus according to any one of the above.
前記撮影画像群を構成する複数の前記撮影画像および前記目印画像の各々は、撮影された時刻に関する情報を有し、
前記親画像受付部は、前記目印画像が撮影された直後または直前に撮影された前記第1画像を前記親画像を受け付ける請求項1から6のいずれか1項に記載の画像処理装置。 The photographed image group includes a landmark image indicating that the photographing object of the photographed image is changed to another photographing object,
Each of the plurality of photographed images and landmark images constituting the photographed image group has information regarding the time of photographing,
7. The image processing apparatus according to claim 1, wherein the parent image receiving unit receives the parent image for the first image taken immediately after or immediately before the landmark image is taken.
前記子画像の修正指示を受け付ける修正指示受付部と、を備え、
前記グループ生成部は、前記修正指示に基づいて前記グループを再び生成する請求項1から7のいずれか1項に記載の画像処理装置。 A display control unit that causes the display unit to display the parent image and the child image for each group generated by the group generation unit;
A correction instruction receiving unit that receives a correction instruction for the child image,
The image processing apparatus according to claim 1, wherein the group generation unit generates the group again based on the correction instruction.
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力ステップと、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定ステップと、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成ステップと、
を含む画像処理方法。 An image processing method for grouping photographed image groups including photographed images of a plurality of photographing objects into groups for each of the photographing objects,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input step,
A parent image receiving step of receiving any one of the first images as a parent image representing the whole image of the photographing target;
A child image specifying step of specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
A group generation step of generating a group composed of the parent image and the child image obtained by photographing the same photographing object for each of the photographing objects, or a group composed of the child images;
An image processing method including:
前記撮影対象の各々について第1撮影された単数または複数の第1画像と、前記第1撮影とは異なる撮影条件で第2撮影された複数の第2画像とを含む前記撮影画像群が入力される画像入力ステップと、
前記第1画像のうちのいずれかを前記撮影対象の全体像を表す親画像として受け付ける親画像受付ステップと、
前記受け付けた前記親画像の画像特徴と前記第2画像の画像特徴とに基づいて、前記親画像の前記撮影対象の一部を撮影した前記第2画像を子画像として特定する子画像特定ステップと、
前記撮影対象の各々について、同一の前記撮影対象を撮影した前記親画像と前記子画像とで構成されるグループ、または前記子画像で構成されるグループを生成するグループ生成ステップと、
を含む画像処理方法をコンピュータに実行させるプログラム。 A program for causing a computer to execute an image processing method for grouping captured image groups including captured images of a plurality of capturing targets into groups for each of the capturing targets,
The photographed image group including one or a plurality of first images photographed for each of the photographing objects and a plurality of second images photographed second under photographing conditions different from the first photographing is input. An image input step,
A parent image receiving step of receiving any one of the first images as a parent image representing the whole image of the photographing target;
A child image specifying step of specifying, as a child image, the second image obtained by shooting a part of the shooting target of the parent image based on the received image feature of the parent image and the image feature of the second image; ,
A group generation step of generating a group composed of the parent image and the child image obtained by photographing the same photographing object for each of the photographing objects, or a group composed of the child images;
A program for causing a computer to execute an image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017023A JP6774348B2 (en) | 2017-02-01 | 2017-02-01 | Image processing equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017023A JP6774348B2 (en) | 2017-02-01 | 2017-02-01 | Image processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124832A true JP2018124832A (en) | 2018-08-09 |
JP6774348B2 JP6774348B2 (en) | 2020-10-21 |
Family
ID=63109627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017017023A Active JP6774348B2 (en) | 2017-02-01 | 2017-02-01 | Image processing equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6774348B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06292052A (en) * | 1993-04-02 | 1994-10-18 | Sharp Corp | Still picture image pickup device |
JP2007164258A (en) * | 2005-12-09 | 2007-06-28 | Kurabo Ind Ltd | Image synthesizing device and method |
JP2007272604A (en) * | 2006-03-31 | 2007-10-18 | Omron Corp | Information processor and information processing method, and program |
US20100128919A1 (en) * | 2008-11-25 | 2010-05-27 | Xerox Corporation | Synchronizing image sequences |
JP2013020475A (en) * | 2011-07-12 | 2013-01-31 | Sony Corp | Information processing apparatus, information processing method and program |
-
2017
- 2017-02-01 JP JP2017017023A patent/JP6774348B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06292052A (en) * | 1993-04-02 | 1994-10-18 | Sharp Corp | Still picture image pickup device |
JP2007164258A (en) * | 2005-12-09 | 2007-06-28 | Kurabo Ind Ltd | Image synthesizing device and method |
JP2007272604A (en) * | 2006-03-31 | 2007-10-18 | Omron Corp | Information processor and information processing method, and program |
US20100128919A1 (en) * | 2008-11-25 | 2010-05-27 | Xerox Corporation | Synchronizing image sequences |
JP2013020475A (en) * | 2011-07-12 | 2013-01-31 | Sony Corp | Information processing apparatus, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6774348B2 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108965742B (en) | Special-shaped screen display method and device, electronic equipment and computer readable storage medium | |
JP4912117B2 (en) | Imaging device with tracking function | |
JP6609057B2 (en) | Image processing device | |
US8897539B2 (en) | Using images to create measurements of structures through the videogrammetric process | |
EP2339292A1 (en) | Three-dimensional measurement apparatus and method thereof | |
JP2007129709A (en) | Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system | |
JP2017198671A (en) | Image processor and image processing method | |
JP6805351B2 (en) | Damage data editing equipment, damage data editing methods, and programs | |
JP6775054B2 (en) | Inspection support device | |
KR20160117143A (en) | Method, device and system for generating an indoor two dimensional plan view image | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
JP2016220145A (en) | Image analyzer, image analysis method and program | |
WO2021014775A1 (en) | Image display device, method, and program | |
WO2020158726A1 (en) | Image processing device, image processing method, and program | |
US20230237641A1 (en) | Inspection support device for structure, inspection support method for structure, and program | |
JP6774348B2 (en) | Image processing equipment and programs | |
US11729494B2 (en) | Information processing apparatus, control method therefor, and storage medium | |
CN112288672A (en) | Tumor detection method and tumor detection device | |
JP6779368B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7340434B2 (en) | Reinforcement inspection system, reinforcement inspection method, and reinforcement inspection program | |
JP4321251B2 (en) | Apparatus and method for generating and displaying composite image | |
US9721371B2 (en) | Systems and methods for stitching metallographic and stereoscopic images | |
JP7044331B2 (en) | Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges | |
JP2018014572A (en) | Information processing apparatus, image processing system, and program | |
CN111862106B (en) | Image processing method, computer device and storage medium based on light field semantics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200812 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200812 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200820 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6774348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |