JP2019082853A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2019082853A
JP2019082853A JP2017209768A JP2017209768A JP2019082853A JP 2019082853 A JP2019082853 A JP 2019082853A JP 2017209768 A JP2017209768 A JP 2017209768A JP 2017209768 A JP2017209768 A JP 2017209768A JP 2019082853 A JP2019082853 A JP 2019082853A
Authority
JP
Japan
Prior art keywords
information
polarization
image
determination
imaging target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017209768A
Other languages
Japanese (ja)
Inventor
雄也 山田
Takeya Yamada
雄也 山田
岡本 拓也
Takuya Okamoto
拓也 岡本
福田 直晃
Naoaki Fukuda
直晃 福田
誠 藤吉
Makoto Fujiyoshi
誠 藤吉
隆文 大渕
Takafumi Obuchi
隆文 大渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Original Assignee
Hitachi Zosen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp filed Critical Hitachi Zosen Corp
Priority to JP2017209768A priority Critical patent/JP2019082853A/en
Priority to PCT/JP2018/039936 priority patent/WO2019087976A1/en
Publication of JP2019082853A publication Critical patent/JP2019082853A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

To improve determination accuracy, and to expand determinable objects.SOLUTION: An information processing device (1) comprises: a complexity information acquisition unit (104) which acquires complexity information of an imaging object; an image information acquisition unit (103) which acquires image information of the imaging object; a polarization information acquisition unit (105) which acquires polarization information of the imaging object; and a fuzzy inference unit (107) which determines prescribed determination items related to the imaging object on the basis of each information.SELECTED DRAWING: Figure 1

Description

本発明は、画像解析によって、所定の判定事項を判定する情報処理装置等に関する。   The present invention relates to an information processing apparatus or the like that determines predetermined determination items by image analysis.

従来から、画像解析によって所定の判定事項を判定する技術の開発が進められている。例えば、下記の特許文献1には、食品の画像を撮像し、撮像した画像に2値化処理等を施して、食品に混入した異物を検出する技術が開示されている。   2. Description of the Related Art Conventionally, development of techniques for determining predetermined determination items by image analysis has been advanced. For example, Patent Document 1 below discloses a technique for capturing an image of food, performing binarization processing or the like on the captured image, and detecting foreign matter mixed in the food.

特表2008−541007号公報(2008年11月20日公表)JP 2008-541007 gazette (announced on November 20, 2008)

しかしながら、上述のような従来技術には、判定精度の向上および判定可能な対象の拡張について、改善の余地がある。例えば、食品には、プラスチック、ガラス、あるいはビニール等の透明な異物が混入する可能性がある。しかし、このような異物の存在は通常の撮像画像では認識し難いため、特許文献1の技術ではこのような異物を検出対象とすることができないか、または検出対象とすることができたとしても検出精度が低くなってしまうおそれがある。また、特許文献1の技術では、形状に微細な差異を有する異物を互いに識別すること等は難しい。   However, in the prior art as described above, there is room for improvement in the improvement of the determination accuracy and the expansion of the target that can be determined. For example, food may be contaminated with transparent foreign matter such as plastic, glass or vinyl. However, since the presence of such foreign matter is difficult to recognize in a normal captured image, the technique of Patent Document 1 can not or can not detect such foreign matter. The detection accuracy may be lowered. Moreover, in the technique of Patent Document 1, it is difficult to distinguish foreign particles having minute differences in shape from each other.

本発明の一態様は、画像解析によって所定の判定事項を判定する情報処理装置において、判定精度の向上および判定可能な対象の拡張を実現することを目的とする。   An aspect of the present invention aims to realize improvement in determination accuracy and expansion of a target that can be determined in an information processing apparatus that determines predetermined determination items by image analysis.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得部と、上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得部と、上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得部と、上記複雑度情報と、上記画像情報と、上記偏光情報とに基づいて上記撮像対象に関する所定の判定事項を判定する判定部と、を備えている。   In order to solve the above-mentioned subject, information processor concerning one mode of the present invention acquires complexity information which shows a degree of complexity of shape of the above-mentioned imaging object from a picture which picturized imaging object An acquisition unit, an image information acquisition unit for acquiring image information indicating at least one of the shape and the color of the imaging object from the image of the imaging object, and polarization information from the polarization image of the imaging object And a determination unit that determines a predetermined determination item regarding the imaging target based on the polarization information acquisition unit, the complexity information, the image information, and the polarization information.

また、上記の課題を解決するために、本発明の一態様に係る情報処理方法は、情報処理装置による情報処理方法であって、撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得ステップと、上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得ステップと、上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得ステップと、上記複雑度情報と、上記画像情報と、上記偏光情報と、を用いて上記撮像対象に関する所定の判定事項を判定する判定ステップと、を含む。   Further, in order to solve the above problems, an information processing method according to an aspect of the present invention is an information processing method by an information processing apparatus, and the complexity of the shape of the imaging target from an image obtained by imaging the imaging target A complexity information acquisition step of acquiring complexity information indicating the degree of image; an image information acquisition step of acquiring image information indicating at least one of the shape and the color of the imaging object from the image obtained by imaging the imaging object; A predetermined determination item regarding the imaging target is determined using a polarization information acquisition step of acquiring polarization information from a polarization image obtained by imaging the imaging target, the complexity information, the image information, and the polarization information. And a determination step.

本発明の一態様によれば、従来技術と比べて、判定精度を向上し、判定可能な対象を拡張することができる。   According to one aspect of the present invention, the determination accuracy can be improved and the target that can be determined can be expanded compared to the prior art.

本発明の実施形態1に係る情報処理装置の要部構成の一例を示すブロック図である。It is a block diagram showing an example of the principal part composition of the information processor concerning Embodiment 1 of the present invention. 本発明の実施形態1の撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging target of Embodiment 1 of this invention, and its imaging method. 上記情報処理装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said information processing apparatus performs. 図3のS6で行われる判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination processing performed by S6 of FIG. 本発明の実施形態1におけるファジィ推論の一例を示す図である。It is a figure which shows an example of the fuzzy inference in Embodiment 1 of this invention. 画像情報と偏光情報と複雑度情報とを用いたファジィ推論により判定する判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the determination processing determined by fuzzy inference using image information, polarization information, and complexity information. 画像情報に対応するメンバシップ関数の例を示す図である。It is a figure which shows the example of the membership function corresponding to image information. 画像情報と偏光情報と複雑度情報とを用いた判定処理のパターンを示す図である。It is a figure which shows the pattern of the determination processing using image information, polarization information, and complexity information. 本発明の実施形態2における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 2 of this invention, and its imaging method. 本発明の実施形態3における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 3 of this invention, and its imaging method. ごみピット内を撮像した撮像画像と偏光画像の例を示す図である。It is a figure which shows the example of the captured image and polarization image which imaged the inside of the refuse pit. 本発明の実施形態4における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 4 of this invention, and its imaging method. 本発明の実施形態5における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 5 of this invention, and its imaging method. 本発明の実施形態6における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 6 of this invention, and its imaging method. 図12のカメラにより撮像された画像の例を示す図である。It is a figure which shows the example of the image imaged with the camera of FIG. 本発明の実施形態7における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging target in Embodiment 7 of this invention, and its imaging method. 路面を撮像した偏光画像において、偏光情報が特徴的な領域をマーキングした例を示す図である。It is a figure which shows the example which marked the area | region where polarization information is characteristic in the polarization image which imaged the road surface. 本発明の実施形態8における撮像対象とその撮像方法の一例を示す図である。It is a figure which shows an example of the imaging object in Embodiment 8 of this invention, and its imaging method.

〔実施形態1〕
以下、本発明の一実施形態について、図1から図6に基づいて詳細に説明する。
Embodiment 1
Hereinafter, an embodiment of the present invention will be described in detail based on FIGS. 1 to 6.

〔装置構成〕
図1は、本発明の実施形態1に係る情報処理装置1の要部構成の一例を示すブロック図である。情報処理装置1は、撮像対象を撮像した画像に基づいて所定の判定事項を判定する装置である。情報処理装置1は、例えばパーソナルコンピュータのような計算装置であってもよい。情報処理装置1は、据え置き型の装置であっても、携帯型の装置であってもよい。また、情報処理装置1は、上記の判定以外の機能を備えていてもよく、この場合、上記判定が主な機能であってもよく、他の機能が主な機能であってもよい。
〔Device configuration〕
FIG. 1 is a block diagram showing an example of the main configuration of the information processing apparatus 1 according to the first embodiment of the present invention. The information processing apparatus 1 is an apparatus that determines a predetermined determination item based on an image obtained by imaging an imaging target. The information processing device 1 may be, for example, a computing device such as a personal computer. The information processing device 1 may be a stationary device or a portable device. In addition, the information processing apparatus 1 may have a function other than the above determination. In this case, the above determination may be a main function, or another function may be a main function.

図示のように、情報処理装置1は、情報処理装置1の各部を統括して制御する制御部10と、情報処理装置1が使用する各種データを格納する記憶部11を備えている。制御部10には、撮像画像取得部101、偏光画像取得部102、画像情報取得部103、複雑度情報取得部104、偏光情報取得部105、画像情報判定部106、ファジィ推論部107、および学習部108が含まれている。記憶部11にはファジィルール111とメンバシップ関数112が格納されている。   As illustrated, the information processing apparatus 1 includes a control unit 10 that integrally controls each part of the information processing apparatus 1 and a storage unit 11 that stores various data used by the information processing apparatus 1. The control unit 10 includes a captured image acquisition unit 101, a polarization image acquisition unit 102, an image information acquisition unit 103, a complexity information acquisition unit 104, a polarization information acquisition unit 105, an image information determination unit 106, a fuzzy inference unit 107, and learning. Section 108 is included. The storage unit 11 stores a fuzzy rule 111 and a membership function 112.

また、情報処理装置1は、情報処理装置1に対する入力を受け付ける入力部12と、情報処理装置1がデータを出力するための出力部13を備えている。入力部12は例えば外部の装置からデータを有線または無線で受信するものであってもよいし、マウスやキーボードなどの入力装置であってもよい。また、出力部13は、表示出力を行う表示装置等であってもよいし、音声出力を行うスピーカ等であってもよく、印字出力を行うプリンタ等であってもよい。この他にも、例えば出力部13は外部の装置にデータを有線または無線で出力するものであってもよい。また、例えばタッチパネル等のように、入力部12と出力部13とが一体に構成された装置を採用してもよい。なお、入力部12および出力部13は、情報処理装置1に外付けされた、情報処理装置1の外部の装置であってもよい。   The information processing apparatus 1 further includes an input unit 12 that receives an input to the information processing apparatus 1 and an output unit 13 for the data processing apparatus 1 to output data. For example, the input unit 12 may receive data from an external device in a wired or wireless manner, or may be an input device such as a mouse or a keyboard. The output unit 13 may be a display device or the like that performs display output, a speaker or the like that performs audio output, or a printer or the like that performs print output. Besides this, for example, the output unit 13 may output data to an external device in a wired or wireless manner. Further, for example, a device such as a touch panel in which the input unit 12 and the output unit 13 are integrally configured may be employed. The input unit 12 and the output unit 13 may be devices external to the information processing device 1 and external to the information processing device 1.

撮像画像取得部101は、撮像対象を撮像した画像を取得する。この画像は、入力部12を介して入力されたものであってもよい。また、この画像が記憶部11に格納されている場合、撮像画像取得部101は、記憶部11から当該画像を取得してもよい。以下では、撮像画像取得部101が取得する画像を撮像画像と呼ぶ。撮像画像は、撮像対象の形状(外部形状または内部形状)、色等を示す画像であればよい。例えば、撮像画像は、偏光カメラではない通常の光学カメラで偏光フィルタ等を介さずに撮像された画像であってもよい。また、撮像対象の形状を示すものであれば偏光カメラ等で撮像された画像等であってもよい。この他、上記のような各画像を画像処理したものを撮像画像として用いてもよい。   The captured image acquisition unit 101 acquires an image obtained by capturing an imaging target. This image may be input through the input unit 12. In addition, when the image is stored in the storage unit 11, the captured image acquisition unit 101 may acquire the image from the storage unit 11. Hereinafter, an image acquired by the captured image acquisition unit 101 will be referred to as a captured image. The captured image may be any image that indicates the shape (external shape or internal shape), color, etc. of the imaging target. For example, the captured image may be an image captured without a polarizing filter or the like by a normal optical camera that is not a polarizing camera. Further, as long as it indicates the shape of an imaging target, it may be an image or the like captured by a polarization camera or the like. In addition to this, an image obtained by image processing each of the above-described images may be used as a captured image.

偏光画像取得部102は、撮像対象を撮像した偏光画像を取得する。偏光画像は、撮像対象で反射した反射光、または撮像対象を透過した透過光に含まれる偏光に関する情報を含む画像であり、例えば偏光カメラで撮像された画像である。s偏光とp偏光は反射率が異なるため、撮像対象に入射する前後でs偏光とp偏光に関する偏光情報に差が生じる。また、撮像対象を光が透過した場合、透過の前後で光の位相差(偏光情報)に変化が生じる。偏光画像取得部102は、このような偏光情報を含む偏光画像を取得する。可視光に対して透明な撮像対象であっても、偏光情報には上記のような差や変化が生じ得るので、偏光画像を用いて判定を行うことにより、透明な撮像対象に関する判定を高精度に行うことが可能になる。   The polarization image acquisition unit 102 acquires a polarization image obtained by imaging an imaging target. The polarized light image is an image including information related to polarized light contained in reflected light reflected by the imaging target or transmitted light transmitted through the imaging target, and is, for example, an image captured by a polarized camera. Since the s-polarized light and the p-polarized light have different reflectances, a difference occurs in polarization information regarding the s-polarized light and the p-polarized light before and after entering the imaging target. In addition, when light passes through the imaging target, a change occurs in the phase difference (polarization information) of the light before and after the transmission. The polarization image acquisition unit 102 acquires a polarization image including such polarization information. Even in the case of an imaging target that is transparent to visible light, the above difference or change may occur in the polarization information. Therefore, by making a determination using a polarization image, the determination on a transparent imaging target can be made highly accurate. It will be possible to

画像情報取得部103は、撮像画像取得部101が取得した撮像画像から画像情報を生成する。この画像情報は、上記撮像画像に表れている、上記撮像対象の形状および色の少なくとも何れかを示す情報である。   The image information acquisition unit 103 generates image information from the captured image acquired by the captured image acquisition unit 101. The image information is information that is included in the captured image and indicates at least one of the shape and the color of the imaging target.

例えば、上記撮像画像が、視覚によって撮像対象の外部から知覚できる撮像対象の形状と色、すなわち撮像対象の外観を表している場合、当該外観の少なくとも一部の要素を示す情報を画像情報とする。例えば、撮像対象の輪郭線を示す情報を画像情報としてもよいし、撮像対象の色を示す情報を画像情報としてもよく、それらの両方を画像情報としてもよい。   For example, when the captured image represents the shape and color of the imaging target that can be perceived visually from the outside of the imaging target, that is, the appearance of the imaging target, information indicating at least a part of the elements of the appearance is used as the image information . For example, information indicating an outline of an imaging target may be used as image information, information indicating a color of an imaging target may be used as image information, or both of them may be used as image information.

また、例えば、上記撮像画像が、撮像対象の外部からは視認できない、撮像対象の内部の形状を表している場合、当該内部の形状を示す情報を画像情報とする。例えば、X線を用いて撮像したX線撮像画像を用いる場合、画像情報は、撮像対象の内部の形状(撮像対象が生体であれば骨の形状等)を示すものとする。   Further, for example, when the captured image represents a shape inside the imaging target that can not be viewed from the outside of the imaging target, information indicating the inside shape is used as the image information. For example, in the case of using an X-ray imaging image captured using X-rays, the image information indicates the internal shape of the imaging target (such as the shape of a bone if the imaging target is a living body).

また、撮像対象の外観を示す画像情報と、撮像対象の内部の形状を示す画像情報とを併用してもよい。さらに、例えば、撮像画像の解析等によって得られた撮像対象の性質(例えば材質等)を示す情報を画像情報と併用としてもよい。なお、本実施形態では、画像情報取得部103が自ら生成した画像情報を取得する例を説明するが、画像情報は情報処理装置1の外部の装置で生成してもよく、この場合には画像情報取得部103は当該装置から画像情報を取得する。   Further, the image information indicating the appearance of the imaging target and the image information indicating the internal shape of the imaging target may be used in combination. Furthermore, for example, information indicating the property (for example, material and the like) of the imaging target obtained by analysis of the captured image or the like may be used in combination with the image information. In the present embodiment, an example in which the image information acquisition unit 103 acquires the image information generated by itself is described. However, the image information may be generated by an external device of the information processing apparatus 1. In this case, the image information may be generated. The information acquisition unit 103 acquires image information from the device.

複雑度情報取得部104は、撮像画像取得部101が取得した撮像画像から、撮像対象の形状の複雑さの度合いを示す複雑度情報を生成する。複雑度情報は、自然光で撮像した撮像画像から生成することができる他、X線撮像画像等の自然光以外の光線を用いて撮像した撮像画像から生成することもできる。また、偏光画像から生成することもできる。複雑度情報の生成については後述する。なお、本実施形態では、複雑度情報取得部104が自ら生成した複雑度情報を取得する例を説明するが、複雑度情報は情報処理装置1の外部の装置で生成してもよく、この場合には複雑度情報取得部104は当該装置から複雑度情報を取得する。   The complexity information acquisition unit 104 generates complexity information indicating the degree of complexity of the shape of the imaging target from the captured image acquired by the captured image acquisition unit 101. The complexity information can be generated from a captured image captured by natural light, and can also be generated from a captured image captured using light rays other than natural light such as an X-ray captured image. It can also be generated from polarized images. The generation of the complexity information will be described later. In the present embodiment, an example in which the complexity information acquisition unit 104 acquires the complexity information generated by itself is described, but the complexity information may be generated by an apparatus external to the information processing apparatus 1, and in this case The complexity information acquisition unit 104 acquires the complexity information from the device.

偏光情報取得部105は、偏光画像取得部102が取得した偏光画像から偏光情報を生成する。偏光情報は、撮像対象で反射した反射光または撮像対象を透過した透過光における偏光に関する情報であればよく、例えば偏光方位、位相差、偏光度、および楕円率の少なくとも何れかを偏光情報としてもよい。楕円率を偏光情報とする場合、偏光情報取得部105は、偏光画像の各画素における画素値(光強度)から楕円率を算出する。なお、本実施形態では、偏光情報取得部105が自ら生成した偏光情報を取得する例を説明するが、偏光情報は情報処理装置1の外部の装置で生成してもよく、この場合には偏光情報取得部105は当該装置から偏光情報を取得する。   The polarization information acquisition unit 105 generates polarization information from the polarization image acquired by the polarization image acquisition unit 102. The polarization information may be information relating to the polarization of the reflected light reflected by the imaging target or the transmitted light transmitted through the imaging target, and, for example, at least one of polarization orientation, phase difference, polarization degree and ellipticity may be used as polarization information. Good. When the ellipticity is used as polarization information, the polarization information acquisition unit 105 calculates the ellipticity from the pixel value (light intensity) in each pixel of the polarization image. In the present embodiment, an example in which the polarization information acquisition unit 105 acquires polarization information generated by itself is described, but polarization information may be generated by an apparatus outside the information processing apparatus 1, and in this case, polarization information may be generated. The information acquisition unit 105 acquires polarization information from the device.

画像情報判定部106は、画像情報取得部103が生成した画像情報を用いて撮像対象に関する判定を行う。具体的には、画像情報判定部106は、画像情報を用いて、撮像画像に写っている撮像対象が何であるかを判定する。この判定には、例えばFCM(Fuzzy-C-Means)識別器を用いてもよい。この場合、撮像対象となる可能性のあるものをクラスとして設定し、入力データとクラスとの対応関係を予め学習させておく。これにより、新たな入力データ(画像情報取得部103が生成した画像情報)から、該当するクラスを判定することができる。   The image information determination unit 106 uses the image information generated by the image information acquisition unit 103 to make a determination regarding an imaging target. Specifically, the image information determination unit 106 determines, using the image information, what the imaging target shown in the captured image is. For this determination, for example, an FCM (Fuzzy-C-Means) identifier may be used. In this case, those that may be imaging targets are set as classes, and the correspondence between input data and classes is learned in advance. Thereby, the corresponding class can be determined from the new input data (image information generated by the image information acquisition unit 103).

ファジィ推論部107は、複雑度情報と、画像情報と、偏光情報とに基づいて撮像対象に関する所定の判定事項を判定する。詳細は後述するが、この判定は、画像情報、複雑度情報、および偏光情報の少なくとも2つを前件部に含み、所定の判定事項の判定結果が後件部であるファジィルールを用いたファジィ推論により行う。   The fuzzy inference unit 107 determines predetermined determination items regarding the imaging target based on the complexity information, the image information, and the polarization information. Although the details will be described later, this determination includes a fuzzy rule including at least two of image information, complexity information, and polarization information in an antecedent part and a determination result of a predetermined determination item being a consequent part Do by inference.

学習部108は、画像情報、複雑度情報、および偏光情報の少なくとも2つの組み合わせと、上記所定の判定事項の正しい判定結果および誤った判定結果の少なくとも何れかとの相関関係を機械学習する。   The learning unit 108 performs machine learning on the correlation between at least two combinations of image information, complexity information, and polarization information, and at least one of a correct determination result of the predetermined determination item and an incorrect determination result.

ファジィルール111およびメンバシップ関数112は、ファジィ推論部107がファジィ推論に用いるデータである。これらの詳細は後述する。また、メンバシップ関数112には、学習部108による機械学習の結果が反映される。これについては、後記〔学習〕の項目で説明する。   The fuzzy rule 111 and the membership function 112 are data used by the fuzzy inference unit 107 for fuzzy inference. The details of these will be described later. The membership function 112 reflects the result of machine learning by the learning unit 108. This will be described later in the section of [Learning].

〔判定に用いる画像と判定事項〕
本実施形態の撮像対象は小魚であり、本実施形態の判定事項は小魚に混ざっている異物が何か、である。これについて図2に基づいて説明する。図2は、本発明の実施形態1の撮像対象とその撮像方法の一例を示す図である。
[Image and judgment items used for judgment]
The imaging target of the present embodiment is a small fish, and the determination item of the present embodiment is a foreign substance mixed in the small fish. This will be described based on FIG. FIG. 2: is a figure which shows an example of the imaging target of Embodiment 1 of this invention, and its imaging method.

図2の例では、台上に多数の小魚Fが載せられており、その上方にカメラ(撮像装置)Cが配置されている。つまり、カメラCの撮像対象は、小魚Fである。情報処理装置1は、小魚Fに異物が混ざっている場合に、その異物が何であるかを特定する。図2では、異物X1〜X5が小魚Fに混ざっている。X1はガラス片、X2は貝殻、X3はビニール片、X4は針金、そしてX5は髪の毛である。   In the example of FIG. 2, a large number of small fish F are placed on a table, and a camera (imaging device) C is disposed above the small fish F. That is, the imaging target of the camera C is the small fish F. When the small fish F is mixed with a foreign matter, the information processing apparatus 1 specifies what the foreign matter is. In FIG. 2, the foreign substances X1 to X5 are mixed with the small fish F. X1 is a piece of glass, X2 is a shell, X3 is a piece of vinyl, X4 is a wire, and X5 is a hair.

情報処理装置1は、カメラCが上記撮像対象を撮像した撮像画像を解析して、小魚に混ざっている異物が何であるかを判定する。また、図2と同様にして偏光カメラによって上記撮像対象を撮像して偏光画像を得る。この偏光画像も上記判定に用いられる。   The information processing apparatus 1 analyzes the captured image obtained by capturing the image capturing target by the camera C, and determines what the foreign substance mixed in the small fish is. Further, in the same manner as in FIG. 2, the image pickup target is imaged by a polarization camera to obtain a polarization image. This polarized image is also used for the above determination.

〔処理の流れ〕
情報処理装置1が実行する処理の流れを図3に基づいて説明する。図3は、情報処理装置1が実行する処理の一例を示すフローチャートである。
[Flow of processing]
The flow of processing executed by the information processing apparatus 1 will be described based on FIG. FIG. 3 is a flowchart showing an example of processing executed by the information processing apparatus 1.

S1では、撮像画像取得部101は、撮像対象を撮像した撮像画像を取得する。そして、S2では、画像情報取得部103は、S1で取得された撮像画像を用いて画像情報を生成する。   In S1, the captured image acquisition unit 101 acquires a captured image obtained by capturing an imaging target. Then, in S2, the image information acquisition unit 103 generates image information using the captured image acquired in S1.

S3では、複雑度情報取得部104は、S1で取得された撮像画像を用いて複雑度情報を生成する。なお、撮像対象が同じであれば、S1で取得された撮像画像とは異なる撮像画像を用いてもよい。複雑度情報の生成においては、例えば、複雑度情報取得部104は、まず上記撮像画像のエッジ、すなわち撮像対象の外形の輪郭線を抽出してもよい。そして、複雑度情報取得部104は、その輪郭線のフラクタル次元を、複雑度情報として算出してもよい。フラクタル次元の算出には、例えばボックスカウント法(ボックスカウンティング法)や、Modified Pixel Dilation法等を用いることができる。なお、S2で生成する画像情報が、撮像画像において抽出されたエッジを示す情報であれば、その情報を利用してフラクタル次元を算出してもよい。   In S3, the complexity information acquisition unit 104 generates complexity information using the captured image acquired in S1. If the imaging target is the same, a captured image different from the captured image acquired in S1 may be used. In the generation of the complexity information, for example, the complexity information acquisition unit 104 may first extract the edge of the captured image, that is, the outline of the outer shape of the imaging target. Then, the complexity information acquisition unit 104 may calculate the fractal dimension of the contour line as the complexity information. For calculation of the fractal dimension, for example, a box counting method (box counting method), a modified pixel dilation method, or the like can be used. If the image information generated in S2 indicates the edge extracted in the captured image, the fractal dimension may be calculated using the information.

S4では、偏光画像取得部102は、撮像対象を撮像した偏光画像を取得する。そして、S5では、偏光情報取得部105は、S4で取得された偏光画像を用いて偏光情報を生成する。例えば、偏光情報として楕円率を用いる場合、偏光情報取得部105は、上記偏光画像の各画素における画素値(光強度)から楕円率を算出する。   In S4, the polarization image acquisition unit 102 acquires a polarization image obtained by imaging an imaging target. Then, in S5, the polarization information acquisition unit 105 generates polarization information using the polarization image acquired in S4. For example, when ellipticity is used as polarization information, the polarization information acquisition unit 105 calculates the ellipticity from the pixel value (light intensity) in each pixel of the polarization image.

S6では、画像情報判定部106とファジィ推論部107は、S2で生成された画像情報と、S3で生成された複雑度情報と、S5で生成された偏光情報とを用いて判定処理を行う。これにより、図示の処理は終了する。   In S6, the image information determination unit 106 and the fuzzy inference unit 107 perform the determination process using the image information generated in S2, the complexity information generated in S3, and the polarization information generated in S5. Thus, the illustrated process ends.

〔判定処理の流れ〕
上記判定処理の流れを図4に基づいて説明する。図4は、図3のS6で行われる判定処理の一例を示すフローチャートである。また、ファジィ推論に関連する処理については、図5を参照して説明する。図5は、本実施形態におけるファジィ推論の一例を示す図である。
[Flow of determination processing]
The flow of the determination process will be described based on FIG. FIG. 4 is a flowchart showing an example of the determination process performed in S6 of FIG. Also, processing related to fuzzy inference will be described with reference to FIG. FIG. 5 is a diagram showing an example of fuzzy inference in the present embodiment.

S61では、画像情報判定部106は、画像情報から撮像対象が何であるかを判定する。なお、本実施形態のように、複数の撮像対象が1つの撮像画像に含まれる場合には、画像情報を用いて撮像画像から複数の撮像対象をそれぞれ抽出し、抽出した各撮像対象について判定を行えばよい。この判定には、例えば、画像情報を入力データとし、クラスを「小魚」、「髪の毛」、「針金」、および「ガラス、貝殻、またはビニール」等として学習させたFCM識別器を用いることができる。この判定により、例えば、撮像対象が「針金」である確率は、50±α[%](αは任意の値)の範囲にある等との結果が得られる。   In S61, the image information determination unit 106 determines what the imaging target is from the image information. As in the present embodiment, when a plurality of imaging targets are included in one captured image, the plurality of imaging targets are extracted from the captured image using the image information, and the determination is performed for each of the extracted imaging targets. You can do it. For this determination, it is possible to use, for example, an FCM discriminator in which image information is used as input data and the class is learned as “small fish”, “hair”, “wire”, “glass, shell, or vinyl” or the like. it can. As a result of this determination, for example, the probability that the object to be imaged is “wire” is within the range of 50 ± α [%] (α is an arbitrary value).

S62以下の処理は、S61の判定精度を高めるために行われる。例えば、S61の判定結果が、撮像対象が「針金」である確率が、50±α(α=20)[%]の範囲、すなわち30%〜70%の範囲であった場合、撮像対象が「針金」であるか「髪の毛」であるかを区別できているとは言えない。このため、S62以下の処理では、撮像対象が「針金」であるか「髪の毛」であるかをファジィ推論によって判定する。よって、S62以下の処理で使用するメンバシップ関数112とファジィルール111は、少なくとも撮像対象が「針金」であるか「髪の毛」であるかを判定可能なものとする。なお、S61の判定結果に応じて異なるメンバシップ関数112とファジィルール111を用いてもよい。この場合、予めメンバシップ関数112とファジィルール111を複数組用意しておき、S61の判定結果に応じたメンバシップ関数112とファジィルール111を選択して使用すればよい。   The processing of S62 and subsequent steps is performed to enhance the determination accuracy of S61. For example, if the determination result in S61 is that the probability that the imaging target is “wire” is 50 ± α (α = 20) [%], that is, 30% to 70%, the imaging target is “ It can not be said that it can be distinguished whether it is a wire or a hair. For this reason, in the processing of S62 and thereafter, it is determined by fuzzy inference whether the imaging target is "wire" or "hair". Therefore, the membership function 112 and the fuzzy rule 111 used in the process of S62 and subsequent steps can determine at least whether the imaging target is "wire" or "hair". Note that different membership functions 112 and fuzzy rules 111 may be used according to the determination result of S61. In this case, a plurality of sets of membership functions 112 and fuzzy rules 111 may be prepared in advance, and membership functions 112 and fuzzy rules 111 may be selected and used according to the determination result of S61.

S62では、ファジィ推論部107は、偏光情報について各ファジィ集合への適合度を算出する。S62の適合度の算出には、例えば図5の(a)に示すようなメンバシップ関数112を用いることができる。図示のメンバシップ関数112は、横軸が楕円率、縦軸が適合度(0〜1)である。このメンバシップ関数では、楕円率「小」、「中」、「大」の3つのファジィ集合が規定されている。例えば、同図の例において、楕円率の値がxaであった場合、ファジィ推論部107は、メンバシップ関数112にxaを代入して、楕円率「小」の適合度をa2、「中」の適合度をa1と算出する。なお、この場合、楕円率「大」の適合度は0とする。   In S62, the fuzzy inference unit 107 calculates the degree of adaptation of each piece of polarization information to each fuzzy set. For example, a membership function 112 as shown in FIG. 5A can be used to calculate the degree of fitness in S62. In the illustrated membership function 112, the horizontal axis is the ellipticity, and the vertical axis is the degree of matching (0 to 1). In this membership function, three fuzzy sets of ellipticity "small", "medium" and "large" are defined. For example, in the example of the same figure, when the value of the ellipticity is xa, the fuzzy inference unit 107 substitutes xa into the membership function 112, and the fitness of the "small" ellipticity is a2, "medium" The degree of matching of is calculated as a1. In this case, the matching degree of the ellipticity “large” is 0.

S63では、ファジィ推論部107は、複雑度情報について各ファジィ集合への適合度を算出する。S63の適合度の算出には、例えば図5の(b)に示すようなメンバシップ関数112を用いることができる。図示のメンバシップ関数112は、横軸が複雑度、縦軸が適合度(0〜1)である。このメンバシップ関数112では、複雑度「小」、「中」、「大」の3つのファジィ集合が規定されている。例えば、同図の例において、複雑度の値がxbであった場合、ファジィ推論部107は、メンバシップ関数112にxbを代入して、複雑度「中」の適合度をb1、「大」の適合度をb2と算出し、「小」の適合度は0とする。   In S63, the fuzzy inference unit 107 calculates the degree of adaptation to each fuzzy set for the complexity information. For example, a membership function 112 as shown in (b) of FIG. 5 can be used to calculate the degree of fitness in S63. In the illustrated membership function 112, the horizontal axis is the complexity, and the vertical axis is the fitness (0-1). In this membership function 112, three fuzzy sets of complexity "small", "medium" and "large" are defined. For example, in the example of the same figure, when the value of the complexity is xb, the fuzzy inference unit 107 substitutes xb for the membership function 112, and the fitness of the "medium" complexity is b1, "large" The matching degree of is calculated as b2, and the matching degree of "small" is 0.

S64では、ファジィ推論部107は、S62およびS63でそれぞれ算出した適合度を用いて、各ファジィルール111について推論値を算出する。使用するファジィルール111は、前件部(IF)に楕円率と複雑度に関連した条件が含まれており、後件部(THEN)が、撮像対象が何であるかを示したものであればよい。例えば、図5の(c)に示すようなファジィルール1〜3を用いることができる。このように、ファジィルール111では、相関関係が言語で表されるので、そのルールの意図が明確に理解できるという利点がある。図5の(c)のファジィルール1〜3を用いる場合のS64の処理は次段落に記載の通りである。   In S64, the fuzzy inference unit 107 calculates an inference value for each fuzzy rule 111 using the degree of matching calculated in S62 and S63. In the fuzzy rule 111 to be used, if the antecedent part (IF) includes the conditions related to the ellipticity and the complexity, and the consequent part (THEN) indicates what the imaging target is Good. For example, fuzzy rules 1 to 3 as shown in FIG. 5C can be used. Thus, in the fuzzy rule 111, since the correlation is expressed in language, there is an advantage that the intention of the rule can be clearly understood. The process of S64 in the case of using the fuzzy rules 1 to 3 of (c) of FIG. 5 is as described in the next paragraph.

ファジィルール1の前件部における楕円率「大」の適合度は0であり、複雑度「小」の適合度も0であるから、ファジィ推論部107は、ファジイルール1の推論値を0とする。一方、ファジィルール2の前件部における楕円率「中」の適合度はa1であり、複雑度「中」の適合度はb1である。ファジィ推論部107は、このうち数値の低い方を前件部の値とする。つまり、ファジィ推論部107は、ファジイルール2の推論値をa1とする。また、ファジィルール3の前件部における楕円率「小」の適合度はa2であり、複雑度「大」の適合度はb2であるから、ファジィ推論部107は、ファジイルール3の推論値をa2とする。   Since the fitness of ellipticity "large" in the antecedent part of fuzzy rule 1 is 0, and the fitness of low complexity "0" is also 0, fuzzy inference unit 107 sets the inferred value of fuzzy rule 1 to 0. Do. On the other hand, the matching degree of the ellipticity "medium" in the antecedent part of the fuzzy rule 2 is a1, and the matching degree of the complexity "medium" is b1. The fuzzy inference unit 107 sets the lower one of the numbers as the value of the antecedent. That is, the fuzzy inference unit 107 sets the inference value of the fuzzy rule 2 to a1. Further, since the fitness of ellipticity “small” in the antecedent part of fuzzy rule 3 is a 2 and the fitness of complexity “large” is b 2, fuzzy inference unit 107 determines the inferred value of fuzzy rule 3 Assume a2.

S65では、ファジィ推論部107は、S64で算出した各推論値を用いて、各ファジィルールに対応する出力値を算出する。この出力値は、撮像対象が何であるかの判定結果を示すものであるから、S65では所定の判定事項を判定していることになる。   In S65, the fuzzy inference unit 107 calculates an output value corresponding to each fuzzy rule, using each inference value calculated in S64. Since this output value indicates the determination result of what the imaging target is, in S65, the predetermined determination item is determined.

S65の出力値の算出には、例えば図5の(d)に示すようなメンバシップ関数112を用いることができる。このメンバシップ関数112の縦軸は適合度であり、横軸は撮像対象が「髪の毛」、「針金」、または「ガラス、貝殻、またはビニール」である確率(%)である。例えば、「髪の毛」のファジィ集合の左端は、撮像対象が「髪の毛」である確率が100%であり、「髪の毛」のファジィ集合の右端は、撮像対象が「髪の毛」である確率が0%、「針金」である確率が100%である。   For example, a membership function 112 as shown in (d) of FIG. 5 can be used to calculate the output value of S65. The vertical axis of this membership function 112 is the fitness, and the horizontal axis is the probability (%) that the object to be imaged is "hair," "wires," or "glass, shell, or vinyl." For example, the left end of the fuzzy set of "hair" has 100% probability that the imaging object is "hair", and the right end of the fuzzy set of "hair" has 0% probability of the imaging object being "hair". The probability of being "wire" is 100%.

上記の例のようにファジィルール2の推論値がa1であれば、メンバシップ関数112の「針金」に対応する部分と、適合度=a1の直線とで囲まれる台形部分が、ファジィルール2の後件部の値となる。同様に、ファジィルール3の推論値がa2であれば、メンバシップ関数112の「髪の毛」に対応する部分と、適合度=a2の直線とで囲まれる台形部分が、ファジィルール3の後件部の値となる。ファジィ推論部107は、これらの台形部分を統合して、最終的な出力値を算出する。ファジィ推論部107は、例えば、2つの台形を重ね合わせた図形における重心位置を、最終的な出力値として算出してもよい。   If the inferred value of the fuzzy rule 2 is a1 as in the above example, the trapezoidal portion surrounded by the portion corresponding to the “wire” of the membership function 112 and the straight line of the matching degree = a1 is the fuzzy rule 2 It becomes the value of the consequent part. Similarly, if the inferred value of fuzzy rule 3 is a2, a trapezoidal portion surrounded by a portion corresponding to “hair” of membership function 112 and a straight line of goodness of fit = a2 is a consequent portion of fuzzy rule 3 It becomes the value of. The fuzzy inference unit 107 integrates these trapezoidal portions to calculate a final output value. The fuzzy inference unit 107 may calculate, for example, the position of the center of gravity in a figure in which two trapezoids are superimposed as a final output value.

S66では、ファジィ推論部107は、S65で算出した出力値に基づいて、判定結果を出力部13に出力させる。例えば、上記出力値が、撮像対象が「髪の毛」である確率が80%であり、「針金」である確率が20%であることを示す値であれば、その旨を示す画像を出力部13に表示出力させてもよい。   In S66, the fuzzy inference unit 107 causes the output unit 13 to output the determination result based on the output value calculated in S65. For example, if the output value indicates that the probability that the object to be imaged is “hair” is 80% and the probability that it is “wire” is 20%, an image indicating that is output unit 13 May be displayed and output.

また、ファジィ推論部107は、最終的な出力値にS61の判定結果を反映させてもよい。例えば、S61の判定結果が、撮像対象が「針金」である確率が、50±α(α=20)[%]の範囲であり、S65の判定結果が、撮像対象が「針金」である確率がY%であった場合を考える。この場合、例えば、S65の判定結果が50±αの範囲に対する割合であるとして、最終的な判定結果を下記の数式で算出してもよい。この数式によれば、例えばα=20[%]、Y=30[%]であった場合、最終的な判定結果は42%となる。   In addition, the fuzzy inference unit 107 may reflect the determination result of S61 on the final output value. For example, in the determination result in S61, the probability that the imaging target is “wire” is in the range of 50 ± α (α = 20) [%], and in the determination result in S65, the probability that the imaging target is “wire” Consider the case where Y is Y%. In this case, for example, the final determination result may be calculated by the following equation, assuming that the determination result in S65 is a ratio to the range of 50 ± α. According to this formula, for example, when α = 20 [%] and Y = 30 [%], the final determination result is 42%.

(最終的な判定結果(%))=(50−α)+2α×Y/100
また、例えば、S61の判定結果を、数値範囲ではなく数値で算出した場合、S61の判定結果X[%]と、S65の判定結果Y[%]の平均値(例えば算術平均値)を最終的な判定結果としてもよい。
(Final judgment result (%)) = (50−α) + 2α × Y / 100
Also, for example, when the determination result of S61 is calculated not as a numerical value range but as a numerical value, the average value (for example, arithmetic average value) of the determination result X [%] of S61 and the determination result Y [%] of S65 is finally determined It is good also as a judgment result.

〔判定処理の変形例〕
図4の例では、S61にて、画像情報を用いて撮像対象が何であるかを判定した上で、偏光情報と複雑度情報とを用いたファジィ推論により最終的な判定結果を出力している。しかしながら、最終的な判定結果は、少なくとも画像情報と偏光情報と複雑度情報との3種類の情報を何らかの形で用いて算出されたものであればよく、上記の例に限られない。例えば、画像情報と偏光情報と複雑度情報とを用いたファジィ推論により最終的な判定結果を出力してもよい。
[Modification of Judgment Processing]
In the example of FIG. 4, after the image information is used to determine what the imaging target is at S61, the final determination result is output by fuzzy inference using polarization information and complexity information. . However, the final determination result is not limited to the above example as long as it is calculated using at least three types of information of image information, polarization information, and complexity information. For example, the final determination result may be output by fuzzy inference using image information, polarization information, and complexity information.

図6は、画像情報と偏光情報と複雑度情報とを用いたファジィ推論により判定する判定処理の一例を示すフローチャートである。なお、図6の例では、画像情報を用いてファジィ推論を行うため、偏光情報に対応するメンバシップ関数112と複雑度情報に対応するメンバシップ関数112とに加え、画像情報に対応するメンバシップ関数112を予め用意しておく。また、これらメンバシップ関数112によって算出される適合度を前件部としたファジィルール111も予め用意しておく。   FIG. 6 is a flow chart showing an example of the determination processing by fuzzy inference using image information, polarization information, and complexity information. In the example of FIG. 6, in order to perform fuzzy inference using image information, in addition to the membership function 112 corresponding to polarization information and the membership function 112 corresponding to complexity information, the membership corresponding to image information The function 112 is prepared in advance. In addition, fuzzy rules 111 in which the degree of matching calculated by the membership function 112 is an antecedent part are prepared in advance.

S161では、ファジィ推論部107は、画像情報に対応するメンバシップ関数112を用いて、図3のS2で生成された画像情報について各ファジィ集合への適合度を算出する。画像情報に対応するメンバシップ関数112は、例えば図7に示すようなものであってもよい。図7は、画像情報に対応するメンバシップ関数112の例を示す図である。同図の(a)のメンバシップ関数112では、画像情報が示す撮像対象の長さについて、「短」、「中」、「長」の3つのファジィ集合が規定されている。また、同図の(b)のメンバシップ関数112では、画像情報が示す撮像対象の大きさについて、「小」、「中」、「大」の3つのファジィ集合が規定されており、同図の(c)のメンバシップ関数112では、画像情報が示す撮像対象の色について、「黒」、「灰」、「白」の3つのファジィ集合が規定されている。これらのメンバシップ関数112を用いることにより、長さ、大きさ、および色という3つの要素から撮像対象が何であるかを判定することができる。無論、これらのメンバシップ関数112は例示であり、撮像対象の他の特性に着目したメンバシップ関数112を適用してもよい。   In S161, the fuzzy inference unit 107 uses the membership function 112 corresponding to the image information to calculate the adaptability to each fuzzy set for the image information generated in S2 of FIG. The membership function 112 corresponding to the image information may be, for example, as shown in FIG. FIG. 7 is a diagram showing an example of the membership function 112 corresponding to image information. In the membership function 112 in (a) of the figure, three fuzzy sets of “short”, “medium”, and “long” are defined for the length of the imaging target indicated by the image information. Further, in the membership function 112 of (b) of the figure, three fuzzy sets of “small”, “medium”, and “large” are defined for the size of the imaging target indicated by the image information. In the membership function 112 of (c), three fuzzy sets of “black”, “gray”, and “white” are defined for the color of the imaging target indicated by the image information. By using these membership functions 112, it is possible to determine what an imaging target is from three factors of length, size, and color. Of course, these membership functions 112 are illustrative, and membership functions 112 focusing on other characteristics of the imaging target may be applied.

続くS162およびS163は、図4のS62およびS63と同様である。すなわち、S162では、ファジィ推論部107は、偏光情報に対応するメンバシップ関数112を用いて図3のS4で生成された偏光情報について各ファジィ集合への適合度を算出する。また、S163では、ファジィ推論部107は、複雑度情報に対応するメンバシップ関数112を用いて図3のS3で生成された複雑度情報について各ファジィ集合への適合度を算出する。   The subsequent S162 and S163 are the same as S62 and S63 of FIG. That is, in S162, the fuzzy inference unit 107 calculates the degree of conformity to each fuzzy set for the polarization information generated in S4 of FIG. 3 using the membership function 112 corresponding to the polarization information. Further, in S163, the fuzzy inference unit 107 calculates the fitness to each fuzzy set for the complexity information generated in S3 of FIG. 3 using the membership function 112 corresponding to the complexity information.

S164では、ファジィ推論部107は、S161〜S163で算出した適合度を用いて、各ファジィルールについて推論値を算出する。使用するファジィルールは、前件部(IF)に偏光情報と複雑度情報と画像情報とに関連した条件が含まれており、後件部(THEN)が、撮像対象が何であるかを示したものであればよい。   In S164, the fuzzy inference unit 107 calculates an inference value for each fuzzy rule, using the degree of fitness calculated in S161 to S163. In the fuzzy rules used, the antecedent part (IF) includes conditions related to polarization information, complexity information, and image information, and the consequent part (THEN) indicates what the imaging target is What is necessary.

S165では、ファジィ推論部107は、S64で算出した各推論値を用いて、各ファジィルールに対応する出力値を算出する。この出力値は、撮像対象が何であるかの判定結果を示すものであるから、S165では所定の判定事項を判定していることになる。S165の出力値の算出には、図4のS65と同様に、予め用意したメンバシップ関数112を用いることができる。S166は、図4のS66と同様である。   In S165, the fuzzy inference unit 107 calculates an output value corresponding to each fuzzy rule, using each inference value calculated in S64. Since this output value indicates the determination result of what the imaging target is, in S165, the predetermined determination item is determined. The membership function 112 prepared beforehand can be used for calculation of the output value of S165 similarly to S65 of FIG. S166 is the same as S66 of FIG.

なお、判定処理の主なパターンは、例えば図8のように表される。図8は、画像情報と偏光情報と複雑度情報とを用いた判定処理のパターンを示す図である。同図の(a)のパターンでは、画像情報に基づく判定結果と偏光情報に基づく判定結果と複雑度情報に基づく判定結果とを統合して出力値を算出する。出力値の算出は上述のようにファジィ推論部107が行う。上述の図6の例がこのパターンに該当する。   The main pattern of the determination process is represented, for example, as shown in FIG. FIG. 8 is a diagram showing a pattern of determination processing using image information, polarization information, and complexity information. In the pattern of (a) of the figure, an output value is calculated by integrating the determination result based on image information, the determination result based on polarization information, and the determination result based on complexity information. The calculation of the output value is performed by the fuzzy inference unit 107 as described above. The example of FIG. 6 described above corresponds to this pattern.

同図の(b)のパターンでは、画像情報に基づく判定を行った上で、偏光情報に基づく判定結果と複雑度情報に基づく判定結果とを統合して出力値を算出する。上述の図4の例がこのパターンに該当する。なお、偏光情報に基づく判定では、偏光情報に加えて画像情報も用いてもよい。複雑度情報に基づく判定も同様である。   In the pattern of (b) of the figure, after making determination based on image information, the determination result based on polarization information and the determination result based on complexity information are integrated to calculate an output value. The example of FIG. 4 described above corresponds to this pattern. In the determination based on the polarization information, image information may be used in addition to the polarization information. The determination based on the complexity information is also the same.

同図の(c)のパターンでは、偏光情報に基づく判定を行った上で、画像情報に基づく判定結果と複雑度情報に基づく判定結果とを統合して出力値を算出する。この場合、画像情報判定部106の代わりに、偏光情報に基づいて所定の判定事項を判定する偏光情報判定部(第3判定部)を設ければよい。そして、ファジィ推論部(第4判定部)107は、画像情報および複雑度情報と、上記偏光情報判定部の判定結果とに基づいて上記所定の判定事項を判定する。   In the pattern of (c) of the figure, after making a determination based on polarization information, an output value is calculated by integrating a determination result based on image information and a determination result based on complexity information. In this case, instead of the image information determination unit 106, a polarization information determination unit (third determination unit) may be provided to determine a predetermined determination item based on the polarization information. Then, the fuzzy inference unit (fourth determination unit) 107 determines the predetermined determination item based on the image information and the complexity information and the determination result of the polarization information determination unit.

同図の(c)のパターンは、画像情報や複雑度情報では判定が難しいが、偏光情報を用いることで判定が可能な場合に好適に適用できる。例えば、撮像対象から黒色の物体や球体などの物体を検出する場合、撮像画像から取得した該物体の二次元情報では、物体が平面であるか立体であるか区別し難くなることがある。他方、偏光情報には、立体の形状情報が反映されるため、偏光情報を用いることにより、画像中から立体である可能性が高いものを検出できる。これを利用して、まず偏光情報によって検出対象を大まかに判別した後、他の情報を用いて詳細に判定することで、検出対象に関する判定を効率的に行うことができる。   Although the pattern of (c) in the same figure is difficult to determine with image information and complexity information, it can be suitably applied when determination is possible using polarization information. For example, when an object such as a black object or a sphere is detected from an imaging target, it may be difficult to distinguish whether the object is a plane or a solid in two-dimensional information of the object acquired from a captured image. On the other hand, since three-dimensional shape information is reflected in the polarization information, by using the polarization information, it is possible to detect an object having high possibility of being three-dimensional from the image. By using this information, first, the detection target is roughly determined by the polarization information, and then the determination regarding the detection target can be efficiently performed by making detailed determination using other information.

〔学習〕
情報処理装置1は、学習部108を備えているため、ファジィ推論部107の判定精度を向上させることができる。学習部108による機械学習は、ファジィ推論部107による判定を行う前に予め行っておく事前学習であってもよいし、ファジィ推論部107による判定結果に基づいて行う事後学習であってもよく、これらの両方であってもよい。
[Learning]
Since the information processing apparatus 1 includes the learning unit 108, the determination accuracy of the fuzzy inference unit 107 can be improved. The machine learning by the learning unit 108 may be a prior learning performed in advance before the determination by the fuzzy inference unit 107, or may be a posterior learning performed based on the determination result by the fuzzy inference unit 107. Both of these may be used.

事前学習を行う場合、撮像画像と偏光画像と正しい判定結果とを対応付けた学習用データセットを多数用意する。ファジィ推論部107は、その撮像画像と偏光画像とを用いて判定を行い、学習部108は、その判定結果と正しい判定結果との差異に応じた評価値(差異が小さいほど高評価とする)を算出する。そして、学習部108は、上記評価値に基づいてファジィ推論部107が判定に用いるパラメータを最適化する。   When performing prior learning, a large number of learning data sets in which captured images, polarization images, and correct determination results are associated are prepared. The fuzzy inference unit 107 makes a determination using the captured image and the polarization image, and the learning unit 108 makes an evaluation value according to the difference between the determination result and the correct determination result (the smaller the difference, the higher the evaluation). Calculate Then, the learning unit 108 optimizes the parameters used for the determination by the fuzzy inference unit 107 based on the evaluation value.

例えば、学習部108は、所定の評価関数により上記評価値を算出してもよい。そして、最適化するパラメータは、例えば適合度の算出に用いるメンバシップ関数112(入力メンバシップ関数)の位置(例えば各ファジィ集合の中心を示す数値)であってもよい。また、最適化するパラメータは、判定結果の算出に用いるメンバシップ関数112(出力メンバシップ関数)の位置であってもよく、それらの両方であってもよい。   For example, the learning unit 108 may calculate the evaluation value using a predetermined evaluation function. The parameter to be optimized may be, for example, the position of the membership function 112 (input membership function) used to calculate the degree of fitness (for example, a numerical value indicating the center of each fuzzy set). Further, the parameter to be optimized may be the position of the membership function 112 (output membership function) used to calculate the determination result, or both of them.

事後学習を行う場合、ファジィ推論部107による判定結果の評価はユーザが入力してもよい。その後の処理は事前学習と同様である。事後学習を行うことにより、情報処理装置1の判定精度を向上させることができる。   When the post learning is performed, the user may input the evaluation of the determination result by the fuzzy inference unit 107. The subsequent processing is the same as prior learning. The determination accuracy of the information processing device 1 can be improved by performing the post learning.

なお、機械学習の手法は、判定精度を向上させることができるような手法であればよく、上記の例に限定されない。例えば、ニューラルネットワークを用いた学習なども可能である。この他にも、例えば、遺伝的アルゴリズム、ディープラーニング、強化学習、またはサポートベクターマシンなどを用いた学習も適用できる。   The machine learning method may be any method that can improve the determination accuracy, and is not limited to the above example. For example, learning using a neural network is also possible. Besides this, for example, learning using genetic algorithm, deep learning, reinforcement learning, or support vector machine can be applied.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。実施形態3以降も同様である。
Second Embodiment
Other embodiments of the present invention are described below. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended, and the description is not repeated. The same applies to the third and subsequent embodiments.

本実施形態の撮像対象は搬送ライン上を搬送される製品であり、本実施形態の判定事項は搬送ラインに異物が存在するか否かである。これについて図9に基づいて説明する。図9は、本発明の実施形態2における撮像対象とその撮像方法の一例を示す図である。   The imaging target of the present embodiment is a product conveyed on the conveyance line, and the determination item of the present embodiment is whether or not foreign matter is present in the conveyance line. This will be described based on FIG. FIG. 9 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a second embodiment of the present invention.

図9の例では、複数の製品Pが搬送ラインLの上を、同図に白抜き矢印で示す方向に搬送されており、その上方にカメラ(撮像装置)Cが配置されている。カメラCの撮像対象は、製品Pである。搬送ラインLは例えばベルトコンベアであり、製品は例えば食品である。情報処理装置1は、製品Pの搬送が行われている期間中、継続的に、搬送ラインLに異物Xが存在するか否かを判定する。また、図9と同様にして偏光カメラによって上記撮像対象を撮像して偏光画像を得る。この偏光画像も上記判定に用いられる。これにより、異物Xが例えば透明フィルム等のように透光性を有するものであっても、見落とすことなくその存在を検出することができる。   In the example of FIG. 9, a plurality of products P are transported on the transport line L in the direction indicated by the outlined arrow in the same drawing, and the camera (imaging device) C is disposed above it. An imaging target of the camera C is a product P. The transport line L is, for example, a belt conveyor, and the product is, for example, a food. The information processing apparatus 1 continuously determines whether or not the foreign matter X is present on the transport line L while the product P is being transported. Further, in the same manner as in FIG. 9, the image pickup target is imaged by a polarization camera to obtain a polarization image. This polarized image is also used for the above determination. As a result, even if the foreign matter X has translucency, such as a transparent film, its presence can be detected without missing.

そして、情報処理装置1は、異物が存在すると判定したときには、その旨を示す情報を出力する。これにより、異物Xが混入した製品Pを出荷してしまうことを防ぐことができる。なお、情報処理装置1は、異物が存在すると判定したときには、搬送を停止させる、警告ランプを点灯させる等の処理を行って、異物が存在することをユーザに通知する処理をさらに行ってもよい。   Then, when it is determined that the foreign matter is present, the information processing apparatus 1 outputs information indicating that. This makes it possible to prevent the product P mixed with the foreign matter X from being shipped. When the information processing apparatus 1 determines that a foreign object is present, the information processing apparatus 1 may perform processing such as stopping conveyance or turning on a warning lamp to further notify the user of the presence of the foreign object. .

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。なお、異物が透明フィルム等のように透光性を有するものである場合、通常の撮像画像から得られた複雑度情報には異物の影響が反映され難い。このため、S3はS4の後で行い、かつS3では偏光画像から複雑度情報を生成してもよい。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. In the case where the foreign matter is a translucent film or the like having translucency, the influence of the foreign matter is not easily reflected in the complexity information obtained from the normal captured image. For this reason, S3 may be performed after S4, and in S3, complexity information may be generated from the polarization image.

判定処理は、図4の例のように、まず画像情報から異物が存在する否かを判定し、その後で、偏光情報と複雑度情報を用いたファジィ推論で最終的な判定を行ってもよい。この場合、画像情報判定部106は、例えばFCM識別器を用いて画像情報から異物が存在する否かを判定してもよい。ここで画像情報判定部106が、異物が存在すると判定した場合、ファジィ推論部107はその判定結果を最終的な判定結果とする。一方、画像情報判定部106が、異物は存在しないと判定した場合には、ファジィ推論部107は、偏光情報と複雑度情報を用いたファジィ推論で最終的な判定を行ってもよい。この場合、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ただし、ファジィ集合は、異物が存在する、と存在しない、の2つ)を用いる。   In the determination process, as in the example of FIG. 4, first, it may be determined whether or not a foreign object is present from image information, and then final determination may be performed by fuzzy inference using polarization information and complexity information . In this case, the image information determination unit 106 may determine whether or not a foreign object is present from the image information using, for example, an FCM discriminator. Here, when the image information determination unit 106 determines that there is a foreign object, the fuzzy inference unit 107 sets the determination result as the final determination result. On the other hand, when the image information determination unit 106 determines that no foreign object is present, the fuzzy inference unit 107 may make the final determination by fuzzy inference using polarization information and complexity information. In this case, a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, as shown in FIG. 5B) corresponding to complexity information are used. Use. Further, for the final determination, for example, membership functions as shown in (d) of FIG. 5 (however, there are two fuzzy sets: existence and nonexistence of foreign matter) are used.

また、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論で最終的な判定を行ってもよい。この他にも例えば、撮像画像から得られた複雑度情報と、画像情報とを用いたファジィ推論で異物が存在する否かを判定し、その後で、偏光情報を用いて最終的な判定を行ってもよい。   Also, as shown in the example of FIG. 6, the final determination may be made by fuzzy inference using image information, polarization information, and complexity information. In addition to this, for example, it is determined by fuzzy inference using complexity information obtained from a captured image and image information whether a foreign object is present or not, and then final determination is performed using polarization information. May be

なお、偏光画像を撮像する際には、赤外光や紫外光等、可視光以外の波長の光を照射してもよい。通常の撮像画像を撮像する際も同様である。これにより、特定の波長の光を照射したときに特徴的な画像が撮像できる撮像対象を高精度に検出することができる。   In addition, when imaging a polarized light image, you may irradiate the light of wavelengths other than visible light, such as infrared light and an ultraviolet light. The same applies to capturing a normal captured image. Thus, it is possible to detect with high accuracy an imaging target capable of capturing a characteristic image when the light of the specific wavelength is irradiated.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよく、例えばファジィ推論部107が異物の存否を判定する場合、学習部108は、異物あり(製品と異物)の撮像画像と偏光画像、および異物なし(製品のみ)の撮像画像と偏光画像を用いて機械学習する。なお、混入し得る異物の外観等に多数のバリエーションがあり得る場合等には、異物あり(製品と異物)の撮像画像と偏光画像による機械学習が効率的に行えない可能性がある。このような場合には、異物なし(製品のみ)の撮像画像と偏光画像のみを用いて機械学習し、異物なしであるか、それ以外であるかを判定してもよい。このように正解と不正解の何れか一方の学習用データを用いて機械学習する半教師あり学習は、実施形態3以降においても適宜用いることができる。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. For example, when the fuzzy inference unit 107 determines the presence or absence of a foreign object, the learning unit 108 may obtain a captured image and a polarization image of the presence of a foreign object (product and foreign object), and Machine learning using captured images and polarization images without foreign matter (product only). When there are many variations in the appearance etc. of the foreign matter that may be mixed, there is a possibility that the machine learning can not be performed efficiently by the captured image and the polarization image with the foreign matter (the product and the foreign matter). In such a case, machine learning may be performed using only the captured image with no foreign substance (product only) and the polarization image, and it may be determined whether there is no foreign substance or not. As described above, the semi-supervised learning in which machine learning is performed using either one of the correct and incorrect learning data can be appropriately used in the third and subsequent embodiments.

〔実施形態3〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象はごみピット内に蓄積されているごみであり、本実施形態の判定事項はごみの撹拌状態がどの程度であるか、である。これについて図10に基づいて説明する。図10は、本発明の実施形態3における撮像対象とその撮像方法の一例を示す図である。
Third Embodiment
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is the waste accumulated in the waste pit, and the determination item of the present embodiment is how much the agitation state of the waste is. This will be described based on FIG. FIG. 10 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a third embodiment of the present invention.

図10の例では、ごみを蓄積しているごみピットPの上方にカメラ(撮像装置)Cが配置されている。カメラCの撮像対象は、ごみピットPに蓄積されているごみである。ごみ収集車Wが運搬してきたごみは、図示のようにごみピットP内に投入される。投入されたばかりのごみには、ごみ袋Bに入った状態のものが含まれており、このようなごみは多くの水分を含んでいて燃えにくい場合がある。このため、図示しないクレーンでごみを撹拌する作業(具体的には、ごみをクレーンで掴んで持ち上げて離す作業)を行い、ごみ袋Bを破る必要がある。   In the example of FIG. 10, the camera (imaging device) C is disposed above the dust pit P where dust is accumulated. The imaging target of the camera C is the dust accumulated in the dust pit P. The waste carried by the waste collection vehicle W is thrown into the waste pit P as illustrated. The waste that has just been thrown in includes those in the waste bag B, and such waste may contain a large amount of water and may be difficult to burn. Therefore, it is necessary to break the waste bag B by carrying out an operation of stirring the waste with a crane (not shown) (specifically, an operation of holding the waste with the crane and lifting it up and releasing it).

情報処理装置1は、ごみピットPの稼働期間中、継続的に、ごみピットP内に設定した各領域の撹拌度を判定する。また、図10と同様にして偏光カメラによって上記撮像対象を撮像して得た偏光画像も上記判定に用いられる。これにより、半透明あるいは透明なごみ袋を認識して、撹拌度を正確に判定することができる。よって、この判定結果を利用することにより、撹拌作業を効率化あるいは自動化することも可能になる。   The information processing apparatus 1 continuously determines the stirring degree of each region set in the dust pit P during the operation period of the dust pit P. Further, as in the case of FIG. 10, a polarized image obtained by capturing an image of the object to be captured by a polarized camera is also used for the determination. In this way, it is possible to accurately determine the degree of agitation by recognizing a translucent or transparent garbage bag. Therefore, by using this determination result, it is also possible to streamline or automate the stirring operation.

図11は、ごみピットP内を撮像した撮像画像と偏光画像の例を示す図である。これらの画像において、左端側はゴミ収集車Wがゴミを投入する搬入ゲート側であり、右端側は焼却炉にごみを送り込むごみホッパー側である。図11の(a)に示す撮像画像からは、同図の中央よりも左側にはごみ袋が破れていないごみが多く、中央よりも右側にはごみ袋が破れてバラバラになったごみが多いことが見て取れる。これは、投入時には破れていなかったごみ袋がクレーンで持ち上げられて離されるという撹拌作業の繰り返しにより破れ、それによってごみ袋外に出たゴミがホッパー側に積み替えられたことによる。つまり、図11の(a)に示す撮像画像からは、搬入ゲート側の撹拌度は低く、ごみホッパー側の撹拌度は高いことが分かる。   FIG. 11 is a view showing an example of a captured image obtained by imaging the inside of the dust pit P and a polarization image. In these images, the left end side is the loading gate side where the waste collection vehicle W throws in the waste, and the right end side is the waste hopper side where the waste is fed into the incinerator. From the captured image shown in FIG. 11 (a), there is a lot of waste that the garbage bag is not broken to the left than the center of the figure, and there is a lot of rubbish that the garbage bag is broken to the right than the center You can see that. This is because the waste bag which was not torn at the time of loading is broken by repetition of the stirring operation of being lifted and separated by a crane, whereby the waste which has come out of the waste bag is transferred to the hopper side. That is, from the captured image shown in (a) of FIG. 11, it can be seen that the degree of agitation on the loading gate side is low and the degree of agitation on the waste hopper side is high.

また、ごみ袋が破れた領域では、ごみがバラバラになっているため、ごみ袋が破れていない領域と比べて、ごみの輪郭線が複雑になっている。つまり、撹拌度が高い領域は複雑度も高く、撹拌度が低い領域は複雑度も低くなっている。   In addition, in the area where the waste bag is broken, the waste is separated, so the outline of the waste is more complicated than the area where the waste bag is not broken. That is, the area with high degree of agitation has high complexity, and the area with low degree of agitation has low complexity.

そして、同図の(b)には、同図の(a)と同じ画角でごみピットP内を撮像した偏光画像から求めた偏光方位を示している。同図の(a)と比較すれば、偏光方位の分布は、ごみ袋が破れていない領域の分布と相関していることが分かる。ごみ袋は透明または半透明であるため、通常の撮像画像を用いた場合、ごみ袋が破れているか否かは識別し難いが、偏光方位を用いることにより、ごみ袋が破れている領域と破れていない領域とを明確に識別できる。   And (b) of the same figure has shown the polarization direction calculated from the polarization picture which picturized the inside of dust pit P with the same angle of view as (a) of the same figure. In comparison with (a) of the same figure, it is understood that the distribution of the polarization direction is correlated with the distribution of the region where the dust bag is not broken. Because the garbage bag is transparent or translucent, it is difficult to identify whether the garbage bag is broken or not when using a normal captured image, but by using the polarization orientation, the area and the tearing of the garbage bag are broken It is possible to clearly distinguish it from the area that is not

このように、撮像画像、複雑度、および偏光方位の何れもが、ごみの撹拌状態を反映したものとなっているため、画像情報、複雑度情報、および偏光情報に基づいて算出した撹拌度は、ごみの撹拌状態を正確に反映させた信頼性の高い値となる。   As described above, since all of the captured image, the complexity, and the polarization direction reflect the agitation state of the dust, the agitation degree calculated based on the image information, the complexity information, and the polarization information is It is a highly reliable value that accurately reflects the agitation of waste.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論で撹拌度を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。撹拌度は、ごみピットP内を複数の領域に区分し、各区分について算出すればよい。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数を用いる。ただし、このメンバシップ関数におけるファジィ集合は、撹拌度に関するものとする。例えば、撹拌度が低い(その領域のごみはホッパーに投入する前に更なる撹拌が必要)、撹拌度が高い(撹拌は十分であり、その領域のごみはホッパーに投入可能)の2つとしてもよい。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. In the determination process, as in the example of FIG. 6, the degree of agitation may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. The degree of agitation may be calculated by dividing the inside of the waste pit P into a plurality of regions and calculating each of the regions. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 is used. However, the fuzzy set in this membership function relates to the degree of agitation. For example, the degree of agitation is low (the waste in that area needs additional agitation before being dumped into the hopper) and the degree of agitation is high (the agitation is sufficient, and the waste in that area can be dumped into the hopper) It is also good.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。例えば、学習部108は、ごみピットPを撮像した撮像画像と偏光画像を用いて機械学習してもよい。学習における正解、すなわち正しい撹拌度は、ユーザが設定してもよい。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. For example, the learning unit 108 may perform machine learning using a captured image obtained by capturing the dust pit P and a polarization image. The correct answer in learning, that is, the correct degree of agitation may be set by the user.

〔実施形態4〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象はヒトまたは動物の体細胞であり、本実施形態の判定事項は異常細胞の検出である。これについて図12に基づいて説明する。図12は、本発明の実施形態4における撮像対象とその撮像方法の一例を示す図である。
Embodiment 4
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is a somatic cell of a human or an animal, and the determination item of the present embodiment is the detection of abnormal cells. This will be described based on FIG. FIG. 12 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a fourth embodiment of the present invention.

図12の例では、内視鏡Eにより、撮像対象である細胞を撮像している。細胞には、正常な細胞CEの他に、異常細胞CEXが含まれ得る。異常細胞CEXは例えばがん細胞である。がん細胞は、正常な細胞とは偏光特性が異なっていることが知られており、偏光情報を用いることにより、がん細胞を検出することが可能になる。具体的には、細胞に任意の偏光状態を有する光を照射して、その反射光を撮像する。このようにして撮像した偏光画像から、任意の偏光状態を有する光が細胞で反射する際の回転方向(左回りまたは右回り)を特定することができる。そして、この回転方向から、撮像した細胞にがん細胞が含まれているか否か(撮像した各細胞について、該細胞ががん細胞であるか否か)を判定することができる。なお、任意の偏光状態とは、例えば、直線偏光、円偏光、楕円偏光、無偏光などの偏光状態を指す。   In the example of FIG. 12, the endoscope E captures an image of a cell to be imaged. Cells may include abnormal cell CEX in addition to normal cell CE. The abnormal cell CEX is, for example, a cancer cell. Cancer cells are known to have different polarization characteristics from normal cells, and it is possible to detect cancer cells by using polarization information. Specifically, the cells are irradiated with light having an arbitrary polarization state, and the reflected light is imaged. From the polarization image imaged in this manner, it is possible to specify the rotation direction (left or right) when light having an arbitrary polarization state is reflected by cells. Then, from this rotation direction, it can be determined whether or not cancer cells are contained in the imaged cells (for each of the imaged cells, whether or not the cells are cancer cells). In addition, arbitrary polarization states indicate polarization states, such as linear polarization, circular polarization, elliptical polarization, non-polarization, etc., for example.

よって、本実施形態では、偏光画像取得部102は上記のような偏光画像を取得し、偏光情報取得部105は上記偏光画像から、任意の偏光状態を有する光の回転方向を示す偏光情報を生成する。なお、生体内で撮像する場合、内視鏡と共に光ファイバ等の光源を生体内に導入する。また、細胞を生体からサンプリングできる場合、サンプリングした細胞を撮像してもよい。   Therefore, in the present embodiment, the polarization image acquisition unit 102 acquires the polarization image as described above, and the polarization information acquisition unit 105 generates polarization information indicating the rotation direction of light having an arbitrary polarization state from the polarization image. Do. In addition, when imaging in a living body, a light source such as an optical fiber is introduced into the living body together with the endoscope. In addition, when cells can be sampled from a living body, the sampled cells may be imaged.

また、情報処理装置1は、図12と同様にして内視鏡によって上記撮像対象を撮像して撮像画像を得る。この撮像画像も上記判定に用いられる。これにより、異常細胞CEXを高精度に検出することができる。また、初期のがん細胞等のように、従来は検出が困難であった異常細胞も検出することが可能になる。   Further, the information processing apparatus 1 captures an image of the imaging target with an endoscope and obtains a captured image as in FIG. This captured image is also used for the above determination. Thereby, the abnormal cell CEX can be detected with high accuracy. In addition, it becomes possible to detect abnormal cells which are conventionally difficult to detect, such as early cancer cells.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論で異常細胞の有無を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ファジィ集合は、例えば、異常細胞あり、異常細胞なしの2つ)を用いる。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. In the determination processing, as in the example of FIG. 6, the presence or absence of abnormal cells may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 (fuzzy sets are, for example, two abnormal cells and no abnormal cells) is used.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよく、例えばファジィ推論部107が異常細胞の有無を判定する場合、学習部108は、異常細胞ありの撮像画像と偏光画像、および異常細胞なしの撮像画像と偏光画像を用いて機械学習する。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. For example, when the fuzzy inference unit 107 determines the presence or absence of an abnormal cell, the learning data may be data corresponding to the determination item. Machine learning is performed using the captured image and the polarization image of

〔実施形態5〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象は光を透過する検査対象物であり、本実施形態の判定事項は検査対象物の表面および内部の少なくとも何れかに欠陥があるか否かである。これについて図13に基づいて説明する。図13は、本発明の実施形態5における撮像対象とその撮像方法の一例を示す図である。
Fifth Embodiment
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is an inspection object that transmits light, and the determination item of the present embodiment is whether or not there is a defect on at least one of the surface and the inside of the inspection object. This will be described based on FIG. FIG. 13 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a fifth embodiment of the present invention.

図13では、検査対象物がシリコンウエハSである例を示している。この例では、光源LはシリコンウエハSを透過する波長の光を発し、その光のうちシリコンウエハSを透過した透過光を偏光カメラPCにより撮像している。照射する光の偏光情報が既知であれば、透過後の光の偏光情報がどのようなものとなるかは想定できる。そして、シリコンウエハSを実際に撮像して得た偏光情報において、想定した偏光情報と異なる箇所があれば、その箇所に欠陥があると特定できる。例えば、図13のシリコンウエハSには、割れCRが発生している。割れCRの部分では、シリコンウエハSにおける正常な部分とは光の透過や屈折の態様が異なるので、情報処理装置1は、偏光カメラPCで撮像した偏光画像から、割れCRの部分を検出することができる。   FIG. 13 shows an example in which the inspection object is a silicon wafer S. In this example, the light source L emits light of a wavelength that transmits the silicon wafer S, and of the light, the transmitted light transmitted through the silicon wafer S is imaged by the polarization camera PC. If the polarization information of the light to be irradiated is known, it can be assumed what the polarization information of the transmitted light will be. Then, in the polarization information obtained by actually imaging the silicon wafer S, if there is a portion different from the assumed polarization information, it is possible to identify that there is a defect in the portion. For example, a crack CR is generated in the silicon wafer S of FIG. In the portion of the crack CR, the aspect of transmission and refraction of light is different from that of the normal portion in the silicon wafer S, so that the information processing apparatus 1 detects the portion of the crack CR from the polarization image captured by the polarization camera PC. Can.

また、情報処理装置1は、シリコンウエハSを撮像して撮像画像を得る。この撮像画像も上記検出に用いられる。シリコンウエハSにおける欠陥が、外観上、認識し得るものであれば、撮像画像から検出可能である。また、シリコンウエハSに生じた割れCRや内部の空洞等のように、外観上は認識し難い欠陥であっても、偏光画像を用いることで検出可能である。よって、撮像画像と偏光画像とを併用することにより、高精度な欠陥検出が可能になる。   Further, the information processing apparatus 1 captures a silicon wafer S to obtain a captured image. This captured image is also used for the above detection. If the defect in the silicon wafer S can be recognized in appearance, it can be detected from the captured image. Further, even if it is a defect which is difficult to recognize in appearance, such as a crack CR generated in the silicon wafer S or an internal cavity, it can be detected by using a polarization image. Therefore, highly accurate defect detection becomes possible by using a captured image and a polarization image together.

なお、検査対象物は、透光性を有するものであればよく、シリコンウエハSに限られない。また、判定事項も欠陥の有無に限られない。例えば、欠陥の種類(割れ、欠け、空洞等)を判定することも可能である。さらに、回路が焼付けされている基板に欠陥が見つかった場合に、欠陥の程度(その欠陥部を除外して回路をリカバリーできるか否か、製品性能に影響のある欠陥であるか否か等)を判定することも可能である。また、例えば、パターンを形成したウエハ(加工済みのウエハ)の欠陥の有無を判定することも可能である。この場合、加工済みのウエハ(検査対象)を撮像して得られる情報と、設計したパターンに基づく情報との差分から欠陥の有無を判定することができる。また、欠陥がある場合にはその部位を判定することも可能である。   The inspection object is not limited to the silicon wafer S as long as it has a light transmitting property. Also, the determination items are not limited to the presence or absence of defects. For example, it is also possible to determine the type of defect (crack, chip, cavity, etc.). Furthermore, if a defect is found on the substrate on which the circuit is printed, the extent of the defect (whether the circuit can be recovered excluding the defective portion, a defect that affects product performance, etc.) It is also possible to determine Further, for example, it is also possible to determine the presence or absence of a defect in a wafer on which a pattern is formed (processed wafer). In this case, the presence or absence of a defect can be determined from the difference between the information obtained by imaging the processed wafer (inspection target) and the information based on the designed pattern. Also, if there is a defect, it is also possible to determine the site.

シリコンウエハの欠陥の検出方法に関する先行技術文献としては、例えば特許第5007979号が挙げられる。この文献には、検査対象物の内部に透過し得る波長の光を、応力を付与した検査対象物と応力を付与しない検査対象物それぞれに照射し、応力の有無による散乱光のp偏光とs偏光の差により欠陥を判定している。なお、ここでいう応力とは、例えば熱応力・超音波による応力などを指す。   As a prior art document regarding the detection method of the defect of a silicon wafer, patent 5007979 is mentioned, for example. In this document, light of a wavelength that can be transmitted inside the inspection object is applied to the inspection object to which stress is applied and the inspection object to which stress is not applied, and p polarized light and s of scattered light due to the presence or absence of stress Defects are determined by the difference in polarization. The term "stress" as used herein refers to, for example, stress due to thermal stress or ultrasonic waves.

しかし、上記文献の手法では、検査対象物への応力の有無を切り替える必要があり、検出に時間を要する。またこの手法では照射位置を変える必要があるため、広範囲かつ早い欠陥検出には不向きである。   However, in the method of the above document, it is necessary to switch the presence or absence of stress on the inspection object, and it takes time for detection. In addition, this method is not suitable for wide-area and early defect detection because it is necessary to change the irradiation position.

これに対し、本実施形態の情報処理装置1によれば、上記文献の技術と比べて、検査対象物のより広い範囲における欠陥を、より短い時間で検出することができる。   On the other hand, according to the information processing apparatus 1 of the present embodiment, defects in a wider range of the inspection object can be detected in a shorter time as compared with the technique of the above-mentioned document.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論で撹拌度を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ファジィ集合は、例えば、欠陥ありと欠陥なしの2つ)を用いる。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. In the determination process, as in the example of FIG. 6, the degree of agitation may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 (a fuzzy set is, for example, two with and without a defect) is used.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよく、例えばファジィ推論部107が欠陥の有無を判定する場合、学習部108は、欠陥ありの撮像画像と偏光画像、および欠陥なしの撮像画像と偏光画像を用いて機械学習する。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. For example, when the fuzzy inference unit 107 determines the presence or absence of a defect, the learning data may be a captured image and a polarization image with a defect, and a captured image without a defect. And machine learning using polarized images.

〔実施形態6〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象は線路であり、本実施形態の判定事項は線路上における障害物の有無である。これについて図14および図15に基づいて説明する。図14は、本発明の実施形態6における撮像対象とその撮像方法の一例を示す図である。図15は、図14のカメラCにより撮像された画像の例を示す図である。
Sixth Embodiment
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is a line, and the determination item of the present embodiment is the presence or absence of an obstacle on the line. This will be described based on FIG. 14 and FIG. FIG. 14 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a sixth embodiment of the present invention. FIG. 15 is a diagram showing an example of an image captured by the camera C of FIG.

図14では、列車Tの先頭に設置されたカメラ(撮像装置)Cにより、列車Tの進行方向前方の線路R、すなわち列車Tこれから通行する線路Rを撮像している。撮像された画像は、例えば図15の(a)のようなものとなる。この例では、敷石、枕木、および2本の線路Rが写っている。また、図14と同様にして偏光画像を撮像する。なお、カメラCは、列車Tの進行方向前方の線路Rの画像を撮像可能な位置に設置すればよく、例えば列車Tの車内等に設置してもよい。   In FIG. 14, the track R ahead of the traveling direction of the train T, that is, the track R to be passed from now on is imaged by a camera (imaging device) C installed at the head of the train T. The captured image is, for example, as shown in FIG. In this example, cobbles, sleepers, and two tracks R are shown. In addition, a polarization image is captured in the same manner as in FIG. The camera C may be installed at a position at which an image of the track R ahead of the traveling direction of the train T can be captured, and may be installed, for example, in the car of the train T or the like.

ここで、線路の上面(車輪と接する部分)は平坦であり、また材質も変化しないため、偏光画像において、線路の上面部分では、偏光情報が一様であり、偏光情報に変化があったとしても緩やかである。情報処理装置1の制御部10には、この特徴を利用して線路領域(平面状の領域)を検出する線路検出部(領域検出部)が含まれている。例えば、線路検出部は、偏光画像において、偏光方位が所定範囲内にあり、かつ偏光度が所定値以上の画素からなる連続領域を線路領域として検出してもよい。図15の(b)では、検出された線路領域をグレーで示している。また、線路検出部は、偏光画像における線路領域の検出結果を利用して、撮像画像における線路領域も検出する。   Here, since the upper surface of the line (portion in contact with the wheel) is flat and the material does not change, it is assumed that the polarization information is uniform and the polarization information is changed in the upper surface of the line in the polarization image. Too loose. The control unit 10 of the information processing device 1 includes a line detection unit (area detection unit) that detects a line area (planar area) using this feature. For example, in the polarization image, the line detection unit may detect, as the line area, a continuous area including pixels whose polarization orientation is within a predetermined range and the degree of polarization is equal to or more than a predetermined value. In (b) of FIG. 15, the detected line area is shown in gray. The line detection unit also detects the line area in the captured image by using the detection result of the line area in the polarization image.

そして、ファジィ推論部107は、この線路領域に障害物があるか否かを判定する。このように障害物の有無を判定する領域を線路上に絞り込むことにより、高速で正確な判定を行うことが可能になる。例えば、走行中に列車Tから撮像された画像に基づいて障害物の有無を判定し、障害物があると判定されたときに、列車Tを緊急停止させたり、運転手に障害物の存在を通知したりすることも可能になる。   Then, the fuzzy inference unit 107 determines whether there is an obstacle in this line area. As described above, by narrowing down the area for determining the presence or absence of an obstacle on the line, it is possible to perform high-speed and accurate determination. For example, the presence or absence of an obstacle is determined based on an image captured from the train T while traveling, and when it is determined that there is an obstacle, the train T is urgently stopped or the driver is present. It also becomes possible to notify.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。ただし、判定処理の前に、線路検出部が、撮像画像および偏光画像において線路が写っている領域を検出する。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論により、線路領域における障害物の有無を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ただし、ファジィ集合は障害物ありとなしの2つ)を用いる。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. However, before the determination process, the line detection unit detects an area in which the line is shown in the captured image and the polarization image. In the determination processing, as in the example of FIG. 6, the presence or absence of an obstacle in the line region may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 (however, fuzzy sets are two with and without an obstacle) is used.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよいので、学習部108は、例えば障害物ありの撮像画像と偏光画像、および障害物なしの撮像画像と偏光画像を用いて機械学習する。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. Since the learning data may be determined according to the determination item, the learning unit 108 performs machine learning using, for example, the captured image and the polarization image with an obstacle, and the captured image and the polarization image without an obstacle.

〔実施形態7〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象は道路の路面であり、本実施形態の判定事項は路面における異常の有無である。これについて図16および図17に基づいて説明する。図16は、本発明の実施形態7における撮像対象とその撮像方法の一例を示す図である。図17は、路面を撮像した偏光画像において、偏光情報が特徴的な領域をマーキングした例を示す図である。
Seventh Embodiment
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is a road surface of a road, and the determination items of the present embodiment are the presence or absence of abnormality on the road surface. This will be described based on FIG. 16 and FIG. FIG. 16 is a diagram illustrating an example of an imaging target and an imaging method thereof according to a seventh embodiment of the present invention. FIG. 17 is a diagram showing an example of marking a region where polarization information is characteristic in a polarization image obtained by imaging a road surface.

図16では、車両Vに設置されたカメラ(撮像装置)Cにより、車両Vの進行方向前方の路面、すなわち車両Vがこれから通行する路面を撮像している。また、図16と同様にして偏光画像を撮像する。なお、カメラCは、車両Vの進行方向前方の路面の画像を撮像可能な位置に設置すればよく、例えば車両Vの車内等に設置してもよい。   In FIG. 16, the camera (imaging device) C installed in the vehicle V images a road surface ahead of the traveling direction of the vehicle V, that is, a road surface on which the vehicle V will pass. In addition, a polarization image is captured in the same manner as in FIG. The camera C may be installed at a position at which an image of the road surface ahead of the traveling direction of the vehicle V can be captured. For example, the camera C may be installed inside the vehicle V or the like.

平坦な路面を撮像した偏光画像では、線路の上面と同様に、偏光情報の変化が緩やかである。情報処理装置1の制御部10には、この特徴を利用して路面領域(平面状の領域)を検出する路面検出部(領域検出部)が含まれている。路面検出部は、上述の線路検出部と同様に、偏光画像において、偏光方位が所定範囲内にあり、かつ偏光度が所定値以上の画素からなる連続領域を路面領域として検出してもよい。図17の(a)では、検出された路面領域Rをマーキングして示している。   In a polarization image obtained by imaging a flat road surface, the change in polarization information is gradual as with the upper surface of the track. The control unit 10 of the information processing device 1 includes a road surface detection unit (region detection unit) that detects a road surface region (planar region) using this feature. The road surface detection unit may detect, as the road surface region, a continuous region including pixels whose polarization orientation is within a predetermined range and whose polarization degree is equal to or more than a predetermined value in the polarization image, as in the line detection unit described above. In (a) of FIG. 17, the detected road surface area R is shown by marking.

異常の有無を判定する領域を、このようにして検出した路面領域に絞り込むことにより、高速で正確な判定を行うことが可能になる。例えば、走行中に車両Vから撮像された画像に基づいて異常の有無を判定し、異常があると判定されたときに、車両Vを緊急停止させたり、運転手に異常があることを通知したりすることも可能になる。   By narrowing down the area for determining the presence or absence of abnormality to the road surface area thus detected, it is possible to perform high-speed and accurate determination. For example, the presence or absence of abnormality is determined based on the image captured from the vehicle V while traveling, and when it is determined that there is an abnormality, the vehicle V is urgently stopped or the driver is notified of an abnormality. It also becomes possible to

また、亀裂や陥没などの異常が生じている路面を撮像した偏光画像では、当該異常が生じている箇所の偏光情報が、その周囲の異常のない路面における偏光情報から大きく変化する。図17の(b)では、路面領域Rのうち、偏光情報の変化が閾値以上の領域を亀裂領域CRとしてマーキングして示している。このように、偏光画像では、路面における異常領域と異常のない領域とが明瞭に識別できるので、偏光画像から生成した偏光情報を用いることにより、路面の異常を検出することができる。   Moreover, in the polarization image which imaged the road surface which abnormality, such as a crack and a depression, has produced, the polarization information of the location which the said abnormality has largely changed from the polarization information in the road surface without the abnormality around that. In (b) of FIG. 17, in the road surface area R, the area where the change in polarization information is equal to or more than the threshold is marked as a crack area CR. As described above, in the polarization image, an abnormal area and an area without abnormality can be clearly identified in the road surface, so that the abnormality in the road surface can be detected by using the polarization information generated from the polarization image.

そして、亀裂や陥没などの異常が生じている路面は、異常のない路面と外観が異なっており、形状が複雑となっているから、路面を撮像した撮像画像から生成した、画像情報および複雑度情報を用いても路面の異常を検出することができる。また、偏光情報は、路面における光の当たり方等の外乱の影響を受け難い、ガラスや氷等の透明体も検出しやすい等の特徴がある。よって、偏光情報と画像情報と複雑度情報とを併用して路面の異常の有無を判定することにより、路面の異常の有無を高精度に判定することができる。なお、どのような異常を検出対象とするかは任意であり、亀裂や陥没以外の異常、例えば凍結、落下物の有無等を検出対象としてもよい。   And since the road surface where abnormality such as a crack or depression has occurred is different from the road surface without abnormality and the appearance is complicated, the image information and the complexity generated from the captured image obtained by imaging the road surface Road surface abnormalities can also be detected using information. Further, the polarization information is characterized in that it is hard to be affected by disturbances such as how light hits the road surface, and it is easy to detect a transparent body such as glass or ice. Therefore, the presence or absence of an abnormality in the road surface can be determined with high accuracy by determining the presence or absence of an abnormality in the road surface using the polarization information, the image information, and the complexity information in combination. The type of abnormality to be detected is arbitrary, and an abnormality other than a crack or a depression, for example, presence or absence of a falling object or the like may be detected.

また、走行中の車両から撮像した偏光画像からは、塗装等で覆われて外観からは認識困難な亀裂も検出可能である。これは、車両が走行することによって路面は圧力を受けて振動するが、亀裂の有無によって振動の態様が異なり、このため、亀裂のある路面で反射した光の偏光情報と、亀裂のない路面で反射した光の偏光情報との間にも差が出るためである。よって、情報処理装置1は、車両の走行などによって振動している路面の同じ箇所を連続して撮像した複数の偏光画像を用いることにより、塗装を剥すことなく、塗装下の亀裂の有無を高精度に判定することができる。なお、このような複数の偏光画像は、偏光状態の計時変化が把握できる程度に撮像タイミングが異なったものであればよい。例えば、高速で連続撮像が可能な偏光カメラで走行中の車両から路面を連続撮像したものであってもよいし、走行中の車両から偏光カメラで撮像した動画像から複数のフレームを時系列で抽出したものであってもよい。   In addition, it is possible to detect a crack which is covered with paint or the like and which is difficult to recognize from the appearance from a polarized image taken from a traveling vehicle. This is because the road surface vibrates under pressure as the vehicle travels, but the mode of vibration differs depending on the presence or absence of a crack, and therefore polarization information of light reflected from the cracked road surface and a crack-free road surface This is because there is also a difference between the polarization information of the reflected light. Therefore, the information processing apparatus 1 uses a plurality of polarized images obtained by continuously imaging the same portion of the road surface vibrating due to the traveling of the vehicle or the like, thereby making the presence or absence of a crack under coating high without peeling off the coating. Accuracy can be determined. The plurality of such polarization images may be different in imaging timing to such an extent that the time change of the polarization state can be grasped. For example, the road surface may be continuously imaged from a traveling vehicle with a polarization camera capable of continuous imaging at high speed, or a plurality of frames may be time-series from moving images captured by the polarization camera from a traveling vehicle It may be extracted.

具体的には、偏光情報取得部105は、複数の偏光画像のそれぞれから、路面検出部が検出した路面領域の面方向(法線ベクトル)を求める。複数の偏光画像のそれぞれから求められた法線ベクトルは、路面領域における偏光状態の計時変化を示す偏光情報と言える。亀裂のない路面では振動による偏光状態の変化が一様になる一方、亀裂がある場合には振動によって亀裂周辺で偏光状態の変化が一様でない挙動を示す。このため、法線ベクトルの変化が一様であるか否かにより、亀裂の有無を判定することができる。   Specifically, the polarization information acquisition unit 105 obtains the surface direction (normal vector) of the road surface area detected by the road surface detection unit from each of the plurality of polarization images. The normal vector determined from each of the plurality of polarization images can be said to be polarization information indicating the time-dependent change of the polarization state in the road surface area. On a non-cracked road surface, the change in polarization state due to vibration becomes uniform, but if there is a crack, the vibration causes the change in polarization state to be uneven around the crack. Therefore, the presence or absence of a crack can be determined based on whether or not the change of the normal vector is uniform.

よって、ファジィ推論部107は、上記偏光情報と、画像情報および複雑度情報の少なくとも何れかと、に基づいて路面領域に異常があるか否かを判定することができる。なお、ファジィ推論部107には、路面領域における偏光状態の計時変化を示す偏光情報を入力してもよいし、当該偏光情報を用いた亀裂の有無の判定結果を入力してもよい。ファジィ推論部107は、入力に応じたファジィルールとメンバシップ関数が規定されていれば、多様な入力に対応できる。   Therefore, the fuzzy inference unit 107 can determine whether or not there is an abnormality in the road surface area based on the polarization information and at least one of the image information and the complexity information. The fuzzy inference unit 107 may input polarization information indicating time change of the polarization state in the road surface area, or may input a determination result of the presence or absence of a crack using the polarization information. The fuzzy inference unit 107 can cope with various inputs if the fuzzy rules and the membership function according to the inputs are defined.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。ただし、判定処理の前に、路面検出部が、撮像画像および偏光画像において路面が写っている領域を検出する。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論により、路面領域における異常の有無を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ただし、ファジィ集合は異常ありとなしの2つ)を用いる。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. However, before the determination process, the road surface detection unit detects an area where the road surface is shown in the captured image and the polarization image. In the determination process, as in the example of FIG. 6, the presence or absence of an abnormality in the road surface area may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 (however, two fuzzy sets with and without abnormality) are used.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよいので、学習部108は、例えば異常ありの撮像画像と偏光画像、および異常なしの撮像画像と偏光画像を用いて機械学習する。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. Since the learning data may be determined according to the determination item, the learning unit 108 performs machine learning using, for example, the captured image and the polarization image with abnormality, and the captured image and the polarization image without abnormality.

〔実施形態8〕
本発明のさらに他の実施形態について、以下に説明する。本実施形態の撮像対象は橋梁であり、本実施形態の判定事項は橋梁における異常の有無である。これについて図18に基づいて説明する。図18は、本発明の実施形態8における撮像対象とその撮像方法の一例を示す図である。
[Embodiment 8]
Further embodiments of the present invention will be described below. The imaging target of the present embodiment is a bridge, and the determination item of the present embodiment is the presence or absence of an abnormality in the bridge. This will be described based on FIG. FIG. 18 is a diagram showing an example of an imaging target and an imaging method thereof according to an eighth embodiment of the present invention.

図18では、カメラ(撮像装置)Cにより、橋梁BRを撮像している。また、図18と同様にして偏光画像を撮像する。   In FIG. 18, the bridge BR is imaged by a camera (imaging device) C. In addition, a polarization image is captured as in FIG.

橋梁BRにおける平坦な面を撮像した偏光画像では、線路の上面と同様に、偏光情報の変化が緩やかである。情報処理装置1の制御部10には、この特徴を利用して橋梁領域(平面状の領域)を検出する橋梁検出部(領域検出部)が含まれている。橋梁検出部は、上述の線路検出部と同様に、偏光画像において、偏光方位が所定範囲内にあり、かつ偏光度が所定値以上の画素からなる連続領域を橋梁領域として検出してもよい。異常の有無を判定する領域を、このようにして検出した橋梁領域に絞り込むことにより、高速で正確な判定を行うことが可能になる。   In the polarization image obtained by imaging a flat surface in the bridge BR, the change in polarization information is gradual as in the case of the top surface of the line. The control unit 10 of the information processing device 1 includes a bridge detection unit (region detection unit) that detects a bridge region (planar region) using this feature. The bridge detection unit may detect, as the bridge region, a continuous region including pixels whose polarization orientation is within a predetermined range and whose polarization degree is equal to or more than a predetermined value in the polarization image, as in the line detection unit described above. By narrowing down the area for determining the presence or absence of an abnormality to the bridge area thus detected, it is possible to perform high-speed and accurate determination.

また、亀裂や陥没などの異常が生じている橋梁を撮像した偏光画像では、当該異常が生じている箇所の偏光情報が、その周囲の異常のない箇所における偏光情報から大きく変化するので、異常領域と異常のない領域とが明瞭に識別できる。よって、偏光画像から生成した偏光情報を用いることにより、橋梁の異常を検出することができる。なお、どのような異常を検出対象とするかは任意であり、亀裂や陥没以外の異常を検出対象としてもよい。   Further, in a polarization image obtained by imaging a bridge in which an abnormality such as a crack or a depression occurs, polarization information of a portion where the abnormality occurs is largely changed from polarization information in a portion where there is no abnormality around it. And the non-abnormal area can be clearly identified. Therefore, by using the polarization information generated from the polarization image, it is possible to detect an abnormality of the bridge. In addition, it is arbitrary what kind of abnormality is to be detected, and an abnormality other than a crack or a depression may be detected.

そして、亀裂や陥没などの異常が生じている箇所は、異常のない箇所と外観が異なっており、形状が複雑となっているから、橋梁を撮像した撮像画像から生成した、画像情報および複雑度情報を用いても橋梁の異常を検出することができる。また、偏光情報は、路面における光の当たり方等の外乱の影響を受け難い、ガラスや氷等の透明体も検出しやすい等の特徴がある。よって、偏光情報と画像情報と複雑度情報とを併用して橋梁の異常の有無を判定することにより、橋梁の異常の有無を高精度に判定することができる。   And since the place where abnormality, such as a crack and a depression, has occurred is different from the place without abnormality and the appearance is different, and the shape is complicated, the image information and complexity generated from the captured image which imaged the bridge It is also possible to detect bridge anomalies using information. Further, the polarization information is characterized in that it is hard to be affected by disturbances such as how light hits the road surface, and it is easy to detect a transparent body such as glass or ice. Therefore, the presence or absence of abnormality of the bridge can be determined with high accuracy by determining the presence or absence of abnormality of the bridge using polarization information, image information, and complexity information in combination.

また、上述のように、振動している撮像対象を連続して撮像した複数の偏光画像を用いることにより、塗装等で覆われて外観からは認識困難な亀裂の検出が可能である。よって、情報処理装置1は、このような偏光画像を用いることにより、橋梁の塗装を剥すことなく、塗装下の亀裂の有無を高精度に判定することができる。   Further, as described above, by using a plurality of polarized images obtained by continuously imaging a vibrating imaging target, it is possible to detect a crack which is covered with painting or the like and which is difficult to recognize from the appearance. Therefore, the information processing apparatus 1 can determine the presence or absence of a crack under coating with high accuracy without removing the coating of the bridge by using such a polarized image.

また、橋梁以外の任意の建造物についても同様の異常の有無を判定可能である。建造物の異常の有無を判定する場合、検査したい部位(撮像対象)およびその周囲の少なくとも何れかに外力を加える等して当該部位を振動させ、振動している当該部位を撮像して得た偏光画像を用いればよい。   Moreover, the presence or absence of the same abnormality can be determined also about arbitrary structures other than a bridge. When it is determined whether or not there is an abnormality in the building, the site is vibrated by applying an external force to the site to be inspected (imaging target) and / or the periphery thereof, and the site is obtained by imaging. A polarized image may be used.

この他にも、同様の手法にて、例えば加工後の鋼材等の金属成形品における欠陥検査を行うことも可能である。振動している金属成形品においては、亀裂や傷のない部分では振動による偏光状態の変化が一様になる一方、亀裂や傷がある部分では振動によって偏光状態の変化が一様でない挙動を示すためである。また、この手法は、コンクリートや石材等の構造材料の欠陥検査等にも適用できる。   Besides this, it is also possible to conduct a defect inspection on a metal molded article such as a steel material after processing by the same method, for example. In a vibrating metal molded product, the change in polarization state due to vibration is uniform in the part without cracks and flaws, while the change in polarization state is nonuniform due to vibration in the parts with cracks and flaws. It is for. In addition, this method can also be applied to defect inspection of structural materials such as concrete and stone.

〔判定処理〕
本実施形態においても実施形態1と同様に、図3のような流れで画像の取得と各種情報の生成が行われ、生成した各種情報に基づいて判定処理が行われる。ただし、判定処理の前に、橋梁検出部が、撮像画像および偏光画像において橋梁が写っている領域を検出する。判定処理は、図6の例のように、画像情報と偏光情報と複雑度情報とを用いたファジィ推論により、橋梁領域における異常の有無を判定してもよい。この場合、画像情報判定部106は不要である。また、この場合、ファジィ推論部107は、偏光情報に対応するメンバシップ関数(例えば図5の(a)のようなもの)と、複雑度情報に対応するメンバシップ関数(例えば図5の(b)のようなもの)と、画像情報に対応するメンバシップ関数(例えば図7のようなもの)とを用いる。また、最終的な判定には例えば図5の(d)のようなメンバシップ関数(ただし、ファジィ集合は異常ありとなしの2つ)を用いる。
〔Determination process〕
Also in the present embodiment, as in the first embodiment, acquisition of an image and generation of various information are performed according to the flow shown in FIG. 3, and determination processing is performed based on the generated various information. However, before the determination process, the bridge detection unit detects an area in which the bridge is shown in the captured image and the polarization image. In the determination processing, as in the example of FIG. 6, the presence or absence of an abnormality in the bridge area may be determined by fuzzy inference using image information, polarization information, and complexity information. In this case, the image information determination unit 106 is unnecessary. Also, in this case, the fuzzy inference unit 107 may use a membership function (for example, as shown in FIG. 5A) corresponding to polarization information and a membership function (for example, FIG. And the membership function (for example, as shown in FIG. 7) corresponding to the image information. Further, for the final determination, for example, a membership function as shown in (d) of FIG. 5 (however, two fuzzy sets with and without abnormality) are used.

〔学習〕
本実施形態における機械学習も実施形態1と同様にして行うことができる。学習用データは、判定事項に応じたものとすればよいので、学習部108は、例えば異常ありの撮像画像と偏光画像、および異常なしの撮像画像と偏光画像を用いて機械学習する。
[Learning]
Machine learning in the present embodiment can also be performed in the same manner as in the first embodiment. Since the learning data may be determined according to the determination item, the learning unit 108 performs machine learning using, for example, the captured image and the polarization image with abnormality, and the captured image and the polarization image without abnormality.

〔変形例〕
上記各実施形態では、偏光画像と撮像画像との解析結果である偏光情報、画像情報、および複雑度情報を用いて所定の判定事項を判定する例を説明したが、偏光情報、画像情報、および複雑度情報に応じた所定の処理を行う構成としてもよい。この場合、ファジィ推論には、後件部に判定結果ではなく処理内容が規定されたファジィルールを用いればよい。
[Modification]
In each of the above embodiments, an example has been described in which a predetermined determination item is determined using polarization information, image information, and complexity information that are analysis results of a polarization image and a captured image. However, polarization information, image information, and It is good also as composition of performing predetermined processing according to complexity information. In this case, in the fuzzy inference, a fuzzy rule in which the processing content is defined in the consequent part instead of the determination result may be used.

例えば、実施形態1では、小魚に混ざっている異物が何かを判定する代わりに、小魚に混ざっている異物に応じた所定の処理(例えば異物の名称をユーザに通知して除去を促す等)を行ってもよい。また、例えば、実施形態2では、搬送ラインに異物が存在するか否かを判定する代わりに、異物が存在する場合にベルトコンベアを停止させる等の処理を行ってもよい。実施形態3以降も同様である。   For example, in the first embodiment, instead of determining the foreign matter mixed in the small fish, predetermined processing according to the foreign matter mixed in the small fish (for example, notifying the user of the name of the foreign matter to prompt removal) Etc.). Further, for example, in the second embodiment, instead of determining whether or not foreign matter is present in the transport line, processing such as stopping the belt conveyor may be performed when foreign matter is present. The same applies to the third and subsequent embodiments.

また、上記各実施形態では、ファジィ推論により、偏光情報、画像情報、および複雑度情報の少なくとも2つを用いて所定の判定事項を判定する例を説明した。そして、これらの所定の判定においては、上記各情報の少なくとも何れかに基づく第1の判定結果と、上記各情報の少なくとも何れかに基づく第2の判定結果とをファジィ推論で統合して最終的な判定結果を出力している。しかし、上記統合にはファジィ推論以外の手法を適用することもできる。例えば、第1の判定結果と第2の判定結果を重み付けして統合し、最終的な判定結果を出力してもよい。この他にも、例えばベイズ推定により最終的な判定結果を出力することも可能である。   In each of the above-described embodiments, an example has been described in which predetermined determination items are determined using at least two of polarization information, image information, and complexity information by fuzzy inference. Then, in these predetermined determinations, a first determination result based on at least one of the above information and a second determination result based on at least one of the above information are integrated by fuzzy inference to be finally obtained. The result of the judgment is output. However, methods other than fuzzy inference can be applied to the above integration. For example, the first determination result and the second determination result may be weighted and integrated, and the final determination result may be output. Besides this, it is also possible to output a final determination result by, for example, Bayesian estimation.

〔ソフトウェアによる実現例〕
情報処理装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the information processing apparatus 1 (particularly, each unit included in the control unit 10) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. Good.

後者の場合、情報処理装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the information processing apparatus 1 includes a computer that executes instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors, and a computer readable recording medium storing the program. Then, in the computer, the processor reads the program from the recording medium and executes the program to achieve the object of the present invention. For example, a CPU (Central Processing Unit) can be used as the processor. As the above-mentioned recording medium, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit or the like can be used besides “a non-temporary tangible medium”, for example, a ROM (Read Only Memory). In addition, a RAM (Random Access Memory) or the like for developing the program may be further provided. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一態様に係る情報処理装置は、撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得部と、上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得部と、上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得部と、上記複雑度情報と、上記画像情報と、上記偏光情報とに基づいて上記撮像対象に関する所定の判定事項を判定する判定部と、を備えている。
[Items to be added]
An information processing apparatus according to an aspect of the present invention includes: a complexity information acquisition unit that acquires complexity information indicating a degree of complexity of the shape of the imaging target from an image obtained by imaging the imaging target; An image information acquisition unit that acquires image information indicating at least one of the shape and color of the imaging target from the captured image; a polarization information acquisition unit that acquires polarization information from a polarization image of the imaging object; A determination unit that determines a predetermined determination item on the imaging target based on the degree information, the image information, and the polarization information.

上記の構成によれば、撮像対象の形状の複雑さの度合いを加味して判定を行うため、撮像対象の形状のみに基づく判定と比べて、判定精度を高めることが可能になる。また、上記の構成によれば、偏光情報を加味して判定を行うため、撮像対象の形状のみからは判定困難な判定事項についても適正な判定を行うことが可能になる。   According to the above configuration, since the determination is performed in consideration of the degree of complexity of the shape of the imaging target, it is possible to improve the determination accuracy compared to the determination based only on the shape of the imaging target. Further, according to the above configuration, since the determination is performed in consideration of the polarization information, it is possible to appropriately determine even determination items that are difficult to determine only from the shape of the imaging target.

また、上記判定部は、上記画像情報、上記複雑度情報、および上記偏光情報のうち少なくとも2つの組み合わせと、上記所定の判定事項の正しい判定結果および誤った判定結果の少なくとも何れかとの相関関係を機械学習した結果に基づいて、上記所定の判定事項を判定してもよい。   In addition, the determination unit may correlate the correlation between at least two combinations of the image information, the complexity information, and the polarization information, and at least one of a correct determination result and an incorrect determination result of the predetermined determination item. The predetermined determination items may be determined based on the result of machine learning.

上記の構成によれば、機械学習した結果に基づいて判定を行うので、高精度の判定が可能になる。また、上記情報処理装置を繰り返し使用することにより、判定精度をさらに高めることも可能になる。   According to the above configuration, since the determination is performed based on the machine-learned result, the determination can be performed with high accuracy. In addition, it is possible to further improve the determination accuracy by repeatedly using the information processing apparatus.

また、上記判定部は、上記画像情報、上記複雑度情報、および上記偏光情報のうち少なくとも2つを前件部に含み、上記所定の判定事項の判定結果が後件部であるファジィルールを用いたファジィ推論により、上記所定の判定事項を判定してもよい。   In addition, the determination unit uses a fuzzy rule in which at least two of the image information, the complexity information, and the polarization information are included in the antecedent, and the determination result of the predetermined determination item is the consequent. The above-described predetermined determination items may be determined by fuzzy inference.

上記の構成によれば、ファジィ推論を用いて判定を行うので、画像情報、複雑度情報、および偏光情報という性質の異なる情報の双方を適切に加味した判定結果を出力することができる。また、ファジィ推論を用いた判定では、判定結果は規定済みのファジィ集合の範疇に収まるから、安定した判定結果が期待できる。さらに、相関関係が言語で表されたファジィ推論のルールを用いるので、意図が明確に理解できるという利点もある。   According to the above configuration, since the determination is performed using fuzzy inference, it is possible to output a determination result appropriately taking into consideration both information having different properties such as image information, complexity information, and polarization information. Further, in the determination using fuzzy inference, the determination result falls within the category of the defined fuzzy set, so stable determination results can be expected. Furthermore, since the correlation uses the rules of fuzzy inference expressed in language, there is an advantage that the intention can be clearly understood.

また、上記判定部は、上記画像情報に基づいて上記所定の判定事項を判定する第1判定部と、上記複雑度情報および上記偏光情報と、上記第1判定部の判定結果とに基づいて上記所定の判定事項を判定する第2判定部と、を含むか、または、上記偏光情報に基づいて上記所定の判定事項を判定する第3判定部と、上記画像情報および上記複雑度情報と、上記第3判定部の判定結果とに基づいて上記所定の判定事項を判定する第4判定部と、を含む、構成であってもよい。   Further, the determination unit determines the predetermined determination item based on the image information, the first determination unit, the complexity information and the polarization information, and the determination result of the first determination unit. A third determination unit that includes a second determination unit that determines a predetermined determination item, or determines the predetermined determination item based on the polarization information; the image information and the complexity information; And a fourth determination unit that determines the predetermined determination item based on the determination result of the third determination unit.

上記の構成によれば、画像情報に基づいた判定を行った上で、その判定結果と、複雑度情報および偏光情報とに基づいて再度判定を行うか、または、偏光情報に基づいた判定を行った上で、その判定結果と、複雑度情報および画像情報とに基づいて再度判定を行う。よって、画像情報に基づいた判定よりもさらに判定の精度を高めることができる。   According to the above configuration, after the determination based on the image information is performed, the determination is performed again based on the determination result and the complexity information and the polarization information, or the determination based on the polarization information is performed. Then, the determination is performed again based on the determination result and the complexity information and the image information. Therefore, the accuracy of the determination can be further enhanced than the determination based on the image information.

また、上記判定部は、上記撮像対象と共に異物が存在するか否かを判定してもよい。この構成は、例えば食品などの製品検査に好適に適用できる。   Further, the determination unit may determine whether a foreign object is present together with the imaging target. This configuration can be suitably applied to, for example, product inspection of food and the like.

また、上記撮像対象は、ごみピット内に蓄積されたごみであってもよく、上記判定部は、上記ごみの撹拌度を判定してもよい。この構成によれば、ごみの撹拌度を高精度に判定することができる。この判定結果は、例えばごみピットにおいてごみを撹拌するクレーンの自動運転等に利用することもできる。   Further, the imaging target may be dust accumulated in the dust pit, and the determination unit may determine the agitation degree of the dust. According to this configuration, the degree of agitation of the waste can be determined with high accuracy. This determination result can also be used, for example, for automatic operation of a crane that stirs the waste in the waste pit.

また、上記撮像対象は、生体の細胞であってもよく、上記偏光情報取得部は、任意の偏光状態を有する光が上記細胞で反射する際の回転方向を示す偏光情報を取得し、上記判定部は、上記細胞が異常細胞であるか否かを判定してもよい。この構成によれば、例えばがん細胞のような異常細胞を高精度に検出することができる。   Further, the imaging target may be a cell of a living body, and the polarization information acquisition unit acquires polarization information indicating a rotation direction when light having an arbitrary polarization state is reflected by the cell, and the determination is performed. The unit may determine whether the cell is an abnormal cell. According to this configuration, abnormal cells such as cancer cells can be detected with high accuracy.

また、上記撮像対象の少なくとも一部は、透光性を有していてもよく、上記偏光情報取得部は、上記撮像対象を透過した透過光の偏光情報を取得し、上記判定部は、上記撮像対象の表面および内部の少なくとも何れかに欠陥があるか否かを判定してもよい。この構成によれば、撮像対象の内部に欠陥がある場合であっても、それを検出することができる。   In addition, at least a part of the imaging target may have translucency, and the polarization information acquisition unit acquires polarization information of transmitted light transmitted through the imaging target, and the determination unit is configured to Whether or not there is a defect on at least one of the surface and the inside of the imaging target may be determined. According to this configuration, even if there is a defect inside the imaging target, it can be detected.

また、上記偏光情報取得部は、撮像タイミングが異なる複数の上記偏光画像から、上記撮像対象の偏光状態の計時変化を示す上記偏光情報を取得し、上記判定部は、上記偏光情報と、上記画像情報および上記複雑度情報の少なくとも何れかと、に基づき、上記撮像対象に異常があるか否かを判定してもよい。   The polarization information acquisition unit acquires the polarization information indicating time change of the polarization state of the imaging target from a plurality of polarization images at different imaging timings, and the determination unit determines the polarization information and the image. Based on at least one of the information and the complexity information, it may be determined whether the imaging target has an abnormality.

上記の構成によれば、塗装等で覆われて外観からは認識困難な異常(亀裂等)の有無を判定することができる。また、上記情報処理装置は、上記偏光情報を用いて、上記偏光画像および上記撮像対象を撮像した画像において、平面状の領域を検出する領域検出部を備えていてもよい。そして、この場合、上記判定部は、上記領域検出部が検出した領域について異常があるか否かを判定してもよい。これにより、撮像対象に異常があるか否かを判定する対象とする領域を、領域検出部が検出した領域に絞り込むことができるので、異常の有無を速やかに判定することが可能になる。   According to the above configuration, it is possible to determine the presence or absence of an abnormality (crack or the like) which is covered with paint or the like and which is difficult to recognize from the appearance. The information processing apparatus may further include an area detection unit that detects a planar area in the polarization image and the image obtained by imaging the imaging target using the polarization information. In this case, the determination unit may determine whether there is an abnormality in the area detected by the area detection unit. As a result, since it is possible to narrow down the area for which it is determined whether or not there is an abnormality in the imaging target to the area detected by the area detection unit, it is possible to quickly determine the presence or absence of an abnormality.

情報処理装置による情報処理方法であって、撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得ステップと、上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得ステップと、上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得ステップと、上記複雑度情報と、上記画像情報と、上記偏光情報とを用いて上記撮像対象に関する所定の判定事項を判定する判定ステップとを含む情報処理方法であれば、上記情報処理装置と同様の作用効果を奏する。   An information processing method by an information processing apparatus, comprising: complexity information acquiring step of acquiring complexity information indicating a degree of complexity of a shape of the imaging object from an image obtained by imaging the imaging object; and imaging the imaging object An image information acquiring step of acquiring image information indicating at least one of a shape and a color of the imaging target from an image; a polarization information acquiring step of acquiring polarization information from a polarization image obtained by imaging the imaging target; If it is an information processing method including information, the image information, and a determination step of determining a predetermined determination item on the imaging target using the polarization information, the same operation and effect as the information processing apparatus can be obtained.

本発明の上記各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the computer is operated as each unit (software element) included in the information processing apparatus, and the information processing apparatus is operated as a computer An information processing program to be realized by the present invention and a computer readable recording medium recording the same also fall within the scope of the present invention.

1 情報処理装置
103 画像情報取得部
104 複雑度情報取得部
105 偏光情報取得部
106 画像情報判定部(判定部/第1判定部)
107 ファジィ推論部(判定部/第2判定部、第4判定部)
111 ファジィルール
1 Information processing apparatus 103 Image information acquisition unit 104 Complexity information acquisition unit 105 Polarization information acquisition unit 106 Image information determination unit (determination unit / first determination unit)
107 Fuzzy inference unit (judgment unit / second judgment unit, fourth judgment unit)
111 Fuzzy rules

Claims (10)

撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得部と、
上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得部と、
上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得部と、
上記複雑度情報と、上記画像情報と、上記偏光情報とに基づいて上記撮像対象に関する所定の判定事項を判定する判定部と、を備えていることを特徴とする情報処理装置。
A complexity information acquisition unit that acquires complexity information indicating the degree of complexity of the shape of the imaging target from an image obtained by imaging the imaging target;
An image information acquisition unit that acquires image information indicating at least one of a shape and a color of the imaging target from an image obtained by imaging the imaging target;
A polarization information acquisition unit that acquires polarization information from a polarization image obtained by imaging the imaging target;
What is claimed is: 1. An information processing apparatus comprising: a determination unit that determines a predetermined determination item on the imaging target based on the complexity information, the image information, and the polarization information.
上記判定部は、上記画像情報、上記複雑度情報、および上記偏光情報のうち少なくとも2つの組み合わせと、上記所定の判定事項の正しい判定結果および誤った判定結果の少なくとも何れかとの相関関係を機械学習した結果に基づいて、上記所定の判定事項を判定することを特徴とする請求項1に記載の情報処理装置。   The determination unit performs machine learning of a correlation between at least two combinations of the image information, the complexity information, and the polarization information and at least one of a correct determination result and an incorrect determination result of the predetermined determination item. The information processing apparatus according to claim 1, wherein the predetermined determination item is determined based on a result of the determination. 上記判定部は、上記画像情報、上記複雑度情報、および上記偏光情報のうち少なくとも2つを前件部に含み、上記所定の判定事項の判定結果が後件部であるファジィルールを用いたファジィ推論により、上記所定の判定事項を判定することを特徴とする請求項1または2に記載の情報処理装置。   The determination unit includes a fuzzy rule that includes at least two of the image information, the complexity information, and the polarization information in the antecedent, and the determination result of the predetermined determination item is the consequent The information processing apparatus according to claim 1, wherein the predetermined determination item is determined by inference. 上記判定部は、
上記画像情報に基づいて上記所定の判定事項を判定する第1判定部と、
上記複雑度情報および上記偏光情報と、上記第1判定部の判定結果とに基づいて上記所定の判定事項を判定する第2判定部と、を含むか、または、
上記偏光情報に基づいて上記所定の判定事項を判定する第3判定部と、
上記画像情報および上記複雑度情報と、上記第3判定部の判定結果とに基づいて上記所定の判定事項を判定する第4判定部と、を含む、
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
The judgment unit
A first determination unit that determines the predetermined determination item based on the image information;
A second determination unit that determines the predetermined determination item based on the complexity information, the polarization information, and the determination result of the first determination unit, or
A third determination unit that determines the predetermined determination item based on the polarization information;
And a fourth determination unit that determines the predetermined determination item based on the image information, the complexity information, and the determination result of the third determination unit.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
上記撮像対象は、ごみピット内に蓄積されたごみであり、
上記判定部は、上記ごみの撹拌度を判定する、ことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
The above imaging target is the waste accumulated in the waste pit,
The information processing apparatus according to any one of claims 1 to 4, wherein the determination unit determines the degree of agitation of the dust.
上記撮像対象は、生体の細胞であり、
上記偏光情報取得部は、任意の偏光状態を有する光が上記細胞で反射する際の回転方向を示す偏光情報を取得し、
上記判定部は、上記細胞が異常細胞であるか否かを判定する、ことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
The imaging target is a cell of a living body,
The polarization information acquisition unit acquires polarization information indicating a rotation direction when light having an arbitrary polarization state is reflected by the cell,
The information processing apparatus according to any one of claims 1 to 4, wherein the determination unit determines whether the cell is an abnormal cell.
上記撮像対象の少なくとも一部は、透光性を有し、
上記偏光情報取得部は、上記撮像対象を透過した透過光の偏光情報を取得し、
上記判定部は、上記撮像対象の表面および内部の少なくとも何れかに欠陥があるか否かを判定する、ことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
At least a part of the imaging target is translucent.
The polarization information acquisition unit acquires polarization information of transmitted light transmitted through the imaging target,
The information processing apparatus according to any one of claims 1 to 4, wherein the determination unit determines whether or not there is a defect on at least one of the surface and the inside of the imaging target.
上記偏光情報取得部は、撮像タイミングが異なる複数の上記偏光画像から、上記撮像対象の偏光状態の計時変化を示す上記偏光情報を取得し、
上記判定部は、上記偏光情報と、上記画像情報および上記複雑度情報の少なくとも何れかと、に基づき、上記撮像対象に異常があるか否かを判定する、ことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
The polarization information acquisition unit acquires the polarization information indicating time change of the polarization state of the imaging target from the plurality of polarization images different in imaging timing.
The determination unit determines whether or not there is an abnormality in the imaging target based on the polarization information, and at least one of the image information and the complexity information. The information processing apparatus according to any one of the above.
情報処理装置による情報処理方法であって、
撮像対象を撮像した画像から、上記撮像対象の形状の複雑さの度合いを示す複雑度情報を取得する複雑度情報取得ステップと、
上記撮像対象を撮像した画像から、上記撮像対象の形状および色の少なくとも何れかを示す画像情報を取得する画像情報取得ステップと、
上記撮像対象を撮像した偏光画像から偏光情報を取得する偏光情報取得ステップと、
上記複雑度情報と、上記画像情報と、上記偏光情報とを用いて上記撮像対象に関する所定の判定事項を判定する判定ステップとを含む、ことを特徴とする情報処理方法。
An information processing method by an information processing apparatus
A complexity information acquisition step of acquiring complexity information indicating a degree of complexity of the shape of the imaging target from an image obtained by imaging the imaging target;
An image information acquisition step of acquiring image information indicating at least one of a shape and a color of the imaging target from an image obtained by imaging the imaging target;
A polarization information acquisition step of acquiring polarization information from a polarization image obtained by imaging the imaging target;
An information processing method comprising: determining using the complexity information, the image information, and the polarization information to determine predetermined determination items regarding the imaging target.
請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記複雑度情報取得部、上記画像情報取得部、上記偏光情報取得部、および上記判定部としてコンピュータを機能させるための情報処理プログラム。   An information processing program for causing a computer to function as the information processing apparatus according to claim 1, wherein the complexity information acquisition unit, the image information acquisition unit, the polarization information acquisition unit, and the computer function as the determination unit. Information processing program to make it happen.
JP2017209768A 2017-10-30 2017-10-30 Information processing device, information processing method, and information processing program Pending JP2019082853A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017209768A JP2019082853A (en) 2017-10-30 2017-10-30 Information processing device, information processing method, and information processing program
PCT/JP2018/039936 WO2019087976A1 (en) 2017-10-30 2018-10-26 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017209768A JP2019082853A (en) 2017-10-30 2017-10-30 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2019082853A true JP2019082853A (en) 2019-05-30

Family

ID=66331834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017209768A Pending JP2019082853A (en) 2017-10-30 2017-10-30 Information processing device, information processing method, and information processing program

Country Status (2)

Country Link
JP (1) JP2019082853A (en)
WO (1) WO2019087976A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043149A (en) * 2019-09-13 2021-03-18 日世株式会社 Detection system and detection method
JP2021049314A (en) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー Endoscopic image processing system
WO2021171411A1 (en) * 2020-02-26 2021-09-02 日本電信電話株式会社 Target region detection device, target region detection method, and target region detection program
JP2022541674A (en) * 2019-09-17 2022-09-26 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075151A1 (en) * 2019-10-15 2021-04-22 シャープ株式会社 Shape identification device and biometric authentication device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869533A (en) * 1994-06-14 1996-03-12 Nippon Telegr & Teleph Corp <Ntt> Image inspection and recognition method, and reference data generating method used for same and device for them
JP2008008708A (en) * 2006-06-28 2008-01-17 Omron Corp Judgment knowledge creation system, judgment knowledge creation method, program, and recording medium
JP2011078036A (en) * 2009-10-02 2011-04-14 Jvc Kenwood Holdings Inc Quasi three-dimensional image preparation device and quasi three-dimensional image display system
JP2014142339A (en) * 2012-12-31 2014-08-07 Djtech Co Ltd Inspection device
JP2015187031A (en) * 2014-03-27 2015-10-29 日立造船株式会社 Measuring device of agitation state in refuse pit and measuring method of agitation state in refuse pit
JP2016194505A (en) * 2015-03-31 2016-11-17 日鉄鉱業株式会社 Method of detecting foreign matter in crushed stone
JP2017151588A (en) * 2016-02-23 2017-08-31 日本電信電話株式会社 Image evaluation learning device, image evaluation device, image searching device, image evaluation learning method, image evaluation method, image searching method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869533A (en) * 1994-06-14 1996-03-12 Nippon Telegr & Teleph Corp <Ntt> Image inspection and recognition method, and reference data generating method used for same and device for them
JP2008008708A (en) * 2006-06-28 2008-01-17 Omron Corp Judgment knowledge creation system, judgment knowledge creation method, program, and recording medium
JP2011078036A (en) * 2009-10-02 2011-04-14 Jvc Kenwood Holdings Inc Quasi three-dimensional image preparation device and quasi three-dimensional image display system
JP2014142339A (en) * 2012-12-31 2014-08-07 Djtech Co Ltd Inspection device
JP2015187031A (en) * 2014-03-27 2015-10-29 日立造船株式会社 Measuring device of agitation state in refuse pit and measuring method of agitation state in refuse pit
JP2016194505A (en) * 2015-03-31 2016-11-17 日鉄鉱業株式会社 Method of detecting foreign matter in crushed stone
JP2017151588A (en) * 2016-02-23 2017-08-31 日本電信電話株式会社 Image evaluation learning device, image evaluation device, image searching device, image evaluation learning method, image evaluation method, image searching method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043149A (en) * 2019-09-13 2021-03-18 日世株式会社 Detection system and detection method
JP2022541674A (en) * 2019-09-17 2022-09-26 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues
JP7273250B2 (en) 2019-09-17 2023-05-12 ボストン ポーラリメトリックス,インコーポレイティド Systems and methods for surface modeling using polarization cues
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
JP2021049314A (en) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー Endoscopic image processing system
WO2021171411A1 (en) * 2020-02-26 2021-09-02 日本電信電話株式会社 Target region detection device, target region detection method, and target region detection program
JPWO2021171411A1 (en) * 2020-02-26 2021-09-02
JP7315089B2 (en) 2020-02-26 2023-07-26 日本電信電話株式会社 Target area detection device, target area detection method, and target area detection program

Also Published As

Publication number Publication date
WO2019087976A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
WO2019087976A1 (en) Information processing device, information processing method, and information processing program
US11562480B2 (en) System and method for set up of production line inspection
TWI693397B (en) Inspection management system, inspection management device and inspection management method
JP2007505733A (en) Apparatus and method for classifying targets in a waste stream
RU2764644C1 (en) Method for detecting surface defects, device for detecting surface defects, method for producing steel materials, method for steel material quality control, steel materials production plant, method for generating models for determining surface defects and a model for determining surface defects
JP6537008B1 (en) Inspection device
JP2011017694A (en) X-ray inspection device
JP2000042499A (en) Foreign matter removing apparatus
JP2008002917A (en) Content inspection method of liquid packed in container, content inspection device and method of manufacturing liquid food packed in container
JP2020037356A (en) Overhead wire abrasion inspection device
JP2004245695A (en) Image processing method and foreign substance detection apparatus
JP2007071789A (en) Chestnut quality inspection method
JP2023137057A (en) Method of generating defect prediction model, bottle appearance inspection method and bottle appearance inspection device
JP2004132773A (en) System for checking gloss of fruits and vegetables
JP2009080030A (en) X-ray inspection device
JP2007114092A (en) Inspection system and inspection device
JP2007078356A (en) Defect inspecting device
JPH07333197A (en) Automatic surface flaw detector
JP6879899B2 (en) Stirring state detection device, stirring control device, and stirring state detection method
JP4291123B2 (en) Radiation foreign matter inspection apparatus and radiation foreign matter inspection method
JP2007058354A (en) Image analysis apparatus, image analysis method, and program for image analysis processing
JP2009229100A (en) X-ray foreign matter inspection device for food, and method therefor
JP7034529B1 (en) Training model generation method, learning model, checking device, checking method and computer program
JP2005147751A (en) Foreign matter detection method, foreign matter detection program, and foreign matter detector
JP2006064662A (en) Foreign matter detection method, foreign matter detection program, and foreign matter detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211207