JP7440975B2 - Imaging device and identification method - Google Patents

Imaging device and identification method Download PDF

Info

Publication number
JP7440975B2
JP7440975B2 JP2023112943A JP2023112943A JP7440975B2 JP 7440975 B2 JP7440975 B2 JP 7440975B2 JP 2023112943 A JP2023112943 A JP 2023112943A JP 2023112943 A JP2023112943 A JP 2023112943A JP 7440975 B2 JP7440975 B2 JP 7440975B2
Authority
JP
Japan
Prior art keywords
subject
identification
unit
identified
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023112943A
Other languages
Japanese (ja)
Other versions
JP2023126335A (en
Inventor
泰崇 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synapse Gear
Original Assignee
Synapse Gear
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synapse Gear filed Critical Synapse Gear
Publication of JP2023126335A publication Critical patent/JP2023126335A/en
Application granted granted Critical
Publication of JP7440975B2 publication Critical patent/JP7440975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/24Details of cameras or camera bodies; Accessories therefor with means for separately producing marks on the film, e.g. title, time of exposure
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Description

本発明は、撮像装置と識別方法とに関する。 The present invention relates to an imaging device and an identification method.

近年、人工知能(AI:Artificial Intelligence)に関連する技術の発達に伴い、各種製品の製造現場において、人工知能を用いた製造工程の自動化が急速に進んでいる。特に、画像認識(画像識別)の分野において、人工知能の能力は人間の能力を超えてきている。そのため、人工知能は、製品の良・不良を見分ける外観検査(例えば、特許文献1参照)や、製品を種別ごとに分類(識別)する識別処理(例えば、特許文献2参照)などの自動化に用いられている。 In recent years, with the development of technology related to artificial intelligence (AI), automation of manufacturing processes using artificial intelligence is rapidly progressing at manufacturing sites for various products. Particularly in the field of image recognition (image identification), the capabilities of artificial intelligence have exceeded those of humans. Therefore, artificial intelligence is used to automate visual inspections to distinguish between good and defective products (see, for example, Patent Document 1) and identification processing to classify (identify) products by type (see, for example, Patent Document 2). It is being

特許文献1に開示された技術は、製品の良品と不良品それぞれの教師データ(画像データ)に基づいて、製品の外観検査を実行する。一方、特許文献2に開示された技術は、製品の種別ごとの教師データに基づいて、製品の分類を実行する。 The technology disclosed in Patent Document 1 performs an external appearance inspection of a product based on training data (image data) for non-defective products and defective products. On the other hand, the technology disclosed in Patent Document 2 performs product classification based on training data for each product type.

特開2018-5640号公報Unexamined Japanese Patent Publication No. 2018-5640 特開平05-20426号公報Japanese Patent Application Publication No. 05-20426

これらの技術では、人工知能を学習させるための教師データの量と質とが、画像識別精度に大きく影響を与える。すなわち、人工知能を用いて外観検査や識別処理を高精度に実行するためには、高品質な教師データが大量に必要となる。 In these technologies, the amount and quality of training data used to train the artificial intelligence greatly influences image identification accuracy. In other words, in order to perform visual inspection and identification processing with high precision using artificial intelligence, a large amount of high-quality training data is required.

高品質な教師データを大量に収集するためには、製品の良品、不良品、種別などの分類(クラス)ごとの撮像環境の整備や、撮像サンプルの準備が必要となる。これらの準備には、膨大な時間とコストとが必要となる。また、これらの準備は、人工知能を用いた設備を導入する企業や同設備導入のコンサルタント(導入企業等)が行う場合が多く、人工知能を用いた設備の導入に対する導入企業等への負担となる。 In order to collect a large amount of high-quality training data, it is necessary to prepare an imaging environment for each classification (class) of products, such as good products, defective products, and types, and to prepare imaging samples. These preparations require a huge amount of time and cost. In addition, these preparations are often carried out by companies that introduce equipment using artificial intelligence or consultants who introduce the equipment (introducing companies, etc.). Become.

また、不良品や、希少種などの特殊な種別の教師データについては、その絶対数が少なく、大量の教師データ(撮像サンプル)を準備することが難しい。 Furthermore, the absolute number of training data for special types such as defective products and rare species is small, making it difficult to prepare a large amount of training data (imaging samples).

一方、人工知能が教師データから学習するためには、教師データ内における撮像対象が占める領域がある程度精度よく特定されている必要がある。通常、同領域の特定は、教師データごとに人間の目視により行われる。そのため、同領域の特定には、膨大な時間とコストとが必要となる。 On the other hand, in order for artificial intelligence to learn from training data, the region occupied by the imaging target in the training data needs to be specified with a certain degree of accuracy. Usually, the identification of the same area is performed by human visual observation for each training data. Therefore, identifying the same area requires a huge amount of time and cost.

本発明は、以上のような従来技術の問題点を解消するためになされたもので、高品質な教師データを大量に収集するための時間とコストとを低減することを目的とする。 The present invention was made to solve the problems of the prior art as described above, and aims to reduce the time and cost for collecting a large amount of high-quality teaching data.

本発明にかかる撮像装置は、被写体の複数の種別情報が入力される種別入力部と、被写体を撮像して撮像画像を出力する撮像部と、種別情報と撮像画像とが関連付けて記憶される記憶部と、種別情報と関連付けて記憶部に記憶された撮像画像に基づいて生成された種別情報ごとの識別情報を用いて、被識別体に対応する種別情報を識別する識別部と、識別部が識別した被識別体の種別情報が特定種別情報のとき、被識別体に対して特定処理を実行する特定処理部と、を有してなり、特定処理部は、被識別体が特定種別情報に識別されたことを視認可能にする。 The imaging device according to the present invention includes a type input section into which a plurality of types of object information are input, an image sensing section that images the object and outputs a captured image, and a memory in which the type information and the captured image are stored in association with each other. an identification unit that identifies type information corresponding to the object to be identified using identification information for each type information generated based on the captured image stored in the storage unit in association with the type information; and a specific processing unit that executes specific processing on the identified object when the type information of the identified object is specific type information, and the specific processing unit executes specific processing on the identified object when the identified object is specific type information. Make it visible that it has been identified.

本発明によれば、高品質な教師データを大量に収集するための時間とコストとを低減することができる。 According to the present invention, it is possible to reduce the time and cost for collecting a large amount of high-quality teaching data.

本発明にかかる撮像装置の実施の形態を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an embodiment of an imaging device according to the present invention. 本発明にかかる撮像方法に含まれる学習モードを示すフローチャートである。3 is a flowchart showing a learning mode included in the imaging method according to the present invention. 図1の撮像装置が備える記憶部に記憶されている情報の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of information stored in a storage unit included in the imaging device of FIG. 1. FIG. 図2の撮像方法に含まれる識別モードを示すフローチャートである。3 is a flowchart showing an identification mode included in the imaging method of FIG. 2. FIG. 図1の撮像装置の実施例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the imaging device of FIG. 1. FIG. 図5の撮像装置のA矢視における部分模式図である。FIG. 6 is a partial schematic diagram of the imaging device of FIG. 5 in the direction of arrow A. FIG. 図5の撮像装置による被写体の位置情報の決定例を示す模式図である。6 is a schematic diagram illustrating an example of determination of position information of a subject by the imaging device of FIG. 5. FIG. 図1の撮像装置の別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing another embodiment of the imaging device shown in FIG. 1; 図1の撮像装置のさらに別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing still another embodiment of the imaging device shown in FIG. 1. FIG. 被識別体にレーザ光が照射されている状態を示す模式図である。FIG. 3 is a schematic diagram showing a state in which an object to be identified is irradiated with laser light. 図9の撮像装置の変形例を示す模式図である。10 is a schematic diagram showing a modification of the imaging device shown in FIG. 9. FIG. 図1の撮像装置のさらに別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing still another embodiment of the imaging device shown in FIG. 1. FIG. 図1の撮像装置のさらに別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing still another embodiment of the imaging device shown in FIG. 1. FIG. 図1の撮像装置のさらに別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing still another embodiment of the imaging device shown in FIG. 1. FIG. 図1の撮像装置のさらに別の実施例を示す模式図である。FIG. 2 is a schematic diagram showing still another embodiment of the imaging device shown in FIG. 1. FIG.

以下、図面を参照しながら、本発明にかかる撮像装置(以下「本装置」という。)と撮像方法(以下「本方法」という。)との実施の形態について説明する。各図において、同一の部材と要素とについては同一の参照番号を付し、重複する説明は省略する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of an imaging device (hereinafter referred to as “this device”) and an imaging method (hereinafter referred to as “this method”) according to the present invention will be described with reference to the drawings. In each figure, the same members and elements are designated by the same reference numerals, and redundant explanations will be omitted.

本発明は、被写体の向きや姿勢、形状などを変えて被写体を撮像することにより、1つの被写体から向きや姿勢、形状などを変えた複数の撮像画像を撮像し、同撮像画像の中から被写体領域を特定して人工知能用の教師データとして取得するものである。 The present invention captures a plurality of captured images of a single subject with different orientations, postures, shapes, etc. by capturing images of the subject while changing the subject's orientation, posture, shape, etc. The area is identified and acquired as training data for artificial intelligence.

「被写体」は、本装置により撮像される対象であり、例えば、外観検査において良品・不良品が見分けられる製品や産品、識別処理において種別ごとに分類(識別)される製品(産品)である。種別については、後述する。 The "subject" is an object to be imaged by this device, and is, for example, a product or product whose good or defective products can be distinguished in an external inspection, or a product (product) which is classified (identified) by type in an identification process. The types will be described later.

「被写体領域」は、撮像画像において、被写体を取り囲む領域である。 The "subject area" is an area surrounding the subject in the captured image.

「撮像画像」は、例えば、デジタルカメラなどで撮像される静止画像である。撮像画像は、被写体が撮像された画像である被写体画像と、被写体の周囲(例えば、被写体が載置される台やベルトコンベアなどの載置面)が撮像された画像である周囲画像と、を含む。 The "captured image" is, for example, a still image captured by a digital camera or the like. The captured image includes a subject image, which is an image of the subject, and a surrounding image, which is an image of the surroundings of the subject (for example, a mounting surface such as a table or a belt conveyor on which the subject is placed). include.

●撮像装置●
●撮像装置の構成
図1は、本装置の実施の形態を示す機能ブロック図である。
●Imaging device●
●Configuration of imaging device FIG. 1 is a functional block diagram showing an embodiment of this device.

本装置1は、被写体の向き(姿勢)や、形状などを変えて、同被写体を撮像する。本装置1は、種別入力部11と、撮像部12と、記憶部13と、位置決定部14と、形態変更部15と、位置関係変更部16と、被写体情報取得部17と、載置部18と、検知部19と、表示部20と、撮像環境変更部21と、識別情報生成部22と、識別部23と、第1特定処理部24と、第2特定処理部25と、被識別体検知部26と、制御部27と、を有してなる。 This device 1 images the same subject while changing the orientation (posture), shape, etc. of the subject. This device 1 includes a type input section 11, an imaging section 12, a storage section 13, a position determination section 14, a form change section 15, a positional relationship change section 16, a subject information acquisition section 17, and a placement section. 18, the detection section 19, the display section 20, the imaging environment change section 21, the identification information generation section 22, the identification section 23, the first identification processing section 24, the second identification processing section 25, and the identified object. It includes a body detection section 26 and a control section 27.

種別入力部11は、本装置1の使用者により被写体の種別情報が入力される、例えば、キーボードやタッチパネル、音声入力デバイスなどの使用者が直接入力可能な入力媒体である。種別入力部11に入力される種別情報は、1つ、または、複数である。 The type input unit 11 is an input medium, such as a keyboard, a touch panel, or a voice input device, into which the user of the apparatus 1 can directly input the type information of the subject. The type information input to the type input section 11 is one or more types.

なお、種別入力部は、使用者が直接入力可能な入力媒体に限定されない。すなわち、例えば、種別入力部は、本装置から物理的に離れた場所(例えば、同じ室内や、隣室、遠隔地など)に配置される端末(外部装置)から送信される種別情報を受信する通信機器でもよい。あるいは、種別入力部は、予め種別情報が記憶されているUSBやSDカードなどの記憶媒体からの情報を取り込み可能なインターフェイス(USB端子やSDカードスロットなど)でもよい。 Note that the type input section is not limited to an input medium that allows direct input by the user. That is, for example, the type input unit is a communication device that receives type information transmitted from a terminal (external device) located at a location physically distant from the device (for example, in the same room, an adjacent room, a remote location, etc.). It can also be a device. Alternatively, the type input section may be an interface (such as a USB terminal or an SD card slot) that can import information from a storage medium such as a USB or an SD card in which type information is stored in advance.

「種別情報」は、例えば、リンゴ,ねじなどの被写体の種類(名称)、良品,不良品などの被写体の状態など、複数の被写体を区分する種別(ラベル、属性、クラス)を示す情報である。 "Type information" is information that indicates the type (label, attribute, class) for classifying multiple objects, such as the type (name) of the object such as an apple or screw, or the condition of the object such as a good product or a defective product. .

撮像部12は、被写体を撮像して撮像画像を出力する。撮像部12は、例えば、2次元の静止画像を撮像可能なデジタルカメラである。 The imaging unit 12 images a subject and outputs a captured image. The imaging unit 12 is, for example, a digital camera capable of capturing two-dimensional still images.

なお、撮像部は、赤外線ToF(Time-of-Flight)方式カメラや3次元レーザスキャナなどの3次元の静止画像や座標情報を取得可能なデバイスでもよい。 Note that the imaging unit may be a device capable of acquiring three-dimensional still images and coordinate information, such as an infrared ToF (Time-of-Flight) camera or a three-dimensional laser scanner.

記憶部13は、本装置1が後述する本方法を実行するために必要な情報を記憶する。記憶部13は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記録装置や、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、などにより構成される。 The storage unit 13 stores information necessary for the device 1 to execute the method described later. The storage unit 13 includes, for example, a recording device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), a semiconductor memory element such as a RAM (Random Access Memory), or a flash memory.

位置決定部14は、位置情報を決定して、同位置情報を撮像画像と関連付けて記憶部13に記憶する。位置決定部14の具体的な構成や動作については、後述する。 The position determining unit 14 determines position information and stores the same position information in the storage unit 13 in association with the captured image. The specific configuration and operation of the position determining section 14 will be described later.

「位置情報」は、撮像画像における被写体の位置を特定する情報である。位置情報は、撮像画像内の基準点からの相対座標を特定する座標情報や、被写体領域を特定する座標情報を含む。「基準点」は、例えば、撮像画像を構成する画素のうち、中央や4隅に位置する画素の座標であり、あるいは、撮像画像に撮像された基準マーカを示す画素の座標である。 “Position information” is information that specifies the position of a subject in a captured image. The position information includes coordinate information that specifies relative coordinates from a reference point within the captured image and coordinate information that specifies the subject area. The "reference point" is, for example, the coordinates of a pixel located at the center or four corners of the pixels forming the captured image, or the coordinates of a pixel indicating a reference marker captured in the captured image.

形態変更部15は、例えば、被写体に外力や熱を加えることにより、被写体の形態を変更させる。形態変更部15は、例えば、被写体を把持して押し潰すロボットアームや、被写体を欠損させる針や刃、被写体に熱を加えるヒータ、被写体を冷却する冷却装置などである。形態変更部15の具体的な構成や動作については、後述する。 The form changing unit 15 changes the form of the subject, for example, by applying external force or heat to the subject. The form changing unit 15 is, for example, a robot arm that grips and crushes the subject, a needle or blade that destroys the subject, a heater that applies heat to the subject, a cooling device that cools the subject, or the like. The specific configuration and operation of the form changing unit 15 will be described later.

なお、本発明において、「被写体の形態の変更」は、被写体の形状の変形や、被写体の表面の色の変色を含む。すなわち、例えば、形態変更部は、被写体に外力や熱を加えて、被写体の形状を変形させてもよく、あるいは、被写体の表面の色を変色させてもよい。 Note that in the present invention, "change in the form of the subject" includes deformation of the shape of the subject and discoloration of the surface of the subject. That is, for example, the shape changing unit may apply external force or heat to the subject to change the shape of the subject, or may change the color of the surface of the subject.

位置関係変更部16は、被写体と撮像部12との位置関係を変更する。位置関係変更部16は、例えば、被写体を把持するロボットアームや、被写体に振動を加える振動装置、被写体にエア(ガス)を吹き付けるエアガンなど、被写体に外力を加えることにより被写体の向き(姿勢)を変更させる装置(機構)、複数のスライドレールの組み合わせにより構成される撮像部12を立体的(平面的)に移動させる装置(機構)、ヒンジなどにより構成される撮像部12の向き(撮像範囲)を変える機構、または、これらの組み合わせを含む。位置関係変更部16の具体的な構成や動作については、後述する。 The positional relationship changing unit 16 changes the positional relationship between the subject and the imaging unit 12. The positional relationship changing unit 16 changes the orientation (posture) of the subject by applying an external force to the subject, such as a robot arm that grips the subject, a vibration device that vibrates the subject, or an air gun that blows air (gas) onto the subject. A device (mechanism) for changing the image capturing section 12, a device (mechanism) for three-dimensionally (planarly) moving the image capturing section 12 formed by a combination of a plurality of slide rails, and an orientation (imaging range) of the image capturing section 12 consisting of a hinge, etc. or a combination thereof. The specific configuration and operation of the positional relationship changing section 16 will be described later.

なお、位置関係変更部は、形態変更部として機能してもよい。すなわち、例えば、位置関係変更部は、被写体を把持して被写体の向き(姿勢)を変更すると共に、被写体を把持して押し潰す1つのロボットアームで構成されてもよい。 Note that the positional relationship changing section may function as a form changing section. That is, for example, the positional relationship changing unit may be configured with one robot arm that grasps the subject and changes the orientation (posture) of the subject, and also grasps and crushes the subject.

被写体情報取得部17は、被写体に関する情報(以下「被写体情報」という。)を取得する。被写体情報取得部17は、例えば、ロードセルやビームセンサ、超音波センサ、深度センサなどのセンサや、これらのセンサからの信号を受信して被写体情報を算出するデバイス、被写体を多面的に写す鏡などである。被写体情報取得部17の具体的な構成や動作については、後述する。 The subject information acquisition unit 17 acquires information regarding the subject (hereinafter referred to as "subject information"). The subject information acquisition unit 17 includes, for example, sensors such as a load cell, a beam sensor, an ultrasonic sensor, and a depth sensor, a device that receives signals from these sensors and calculates subject information, and a mirror that takes a multifaceted view of the subject. It is. The specific configuration and operation of the subject information acquisition unit 17 will be described later.

「被写体情報」は、被写体の長さや重量、体積、鏡により得られる多面的な画像情報など、通常の撮像方法や撮像装置(デジタルカメラ)から直接的に取得することが難しい被写体に関する情報である。 "Subject information" is information about the subject that is difficult to obtain directly from normal imaging methods or imaging devices (digital cameras), such as the length, weight, and volume of the subject, and multifaceted image information obtained from mirrors. .

載置部18は、撮像部12に撮像される被写体が載置される装置・台である。載置部18は、例えば、ターンテーブルやベルトコンベア、スライダテーブルなどの被写体を移動させることが可能な装置である。載置部18は、被写体が載置される載置面(不図示)を備える。載置部18の具体的な構成や動作については、後述する。 The mounting unit 18 is a device/stand on which a subject to be imaged by the imaging unit 12 is placed. The mounting unit 18 is, for example, a device capable of moving a subject, such as a turntable, a belt conveyor, or a slider table. The placement unit 18 includes a placement surface (not shown) on which the subject is placed. The specific configuration and operation of the mounting section 18 will be described later.

載置面は、周囲画像として撮像され得る。すなわち、周囲画像は、載置面の画像(以下「載置面画像」という。)を含む。そのため、例えば、載置部18がベルトコンベアである場合において、異なる色のベルト(載置面)に交換することにより、あるいは、ベルトの色がベルトの長さ方向において異なる色に塗り分けられる(異なる色のベルトが連結される)ことにより、被写体が載置される載置面、つまり、周囲画像は、容易に変更可能である。 The mounting surface can be imaged as a surrounding image. That is, the surrounding image includes an image of the placement surface (hereinafter referred to as "placement surface image"). Therefore, for example, when the placing section 18 is a belt conveyor, by replacing the belt (placement surface) with a belt of a different color, or by painting the belt in different colors in the length direction of the belt ( By connecting belts of different colors, the mounting surface on which the subject is mounted, that is, the surrounding image, can be easily changed.

検知部19は、載置部18に載置された被写体の位置を検知して検知信号を出力する。検知部19は、例えば、ビームセンサである。検知部19の具体的な構成や動作については、後述する。検知信号は、位置決定部14に送信される。 The detection unit 19 detects the position of the subject placed on the placement unit 18 and outputs a detection signal. The detection unit 19 is, for example, a beam sensor. The specific configuration and operation of the detection unit 19 will be described later. The detection signal is transmitted to the position determining section 14.

表示部20は、撮像部12が撮像する被写体の周囲に配置されて、表示画像を表示する。表示部20は、例えば、被写体の背景として被写体と共に撮像される表示画像を表示する有機EL(Electro Luminescence)ディスプレイや液晶ディスプレイ、あるいは、表示画像を投影するプロジェクタなどである。 The display unit 20 is arranged around the subject imaged by the imaging unit 12 and displays a display image. The display unit 20 is, for example, an organic EL (Electro Luminescence) display or a liquid crystal display that displays a display image captured together with the subject as a background of the subject, or a projector that projects a display image.

「表示画像」は、例えば、単一の色で構成される壁紙や、被写体(製品)の実際の製造ラインにおいて外観検査や識別処理が実行される際に製品と共に撮像される背景(ベルトコンベアなど)の画像であり、その全部または一部が撮像部12に周囲画像として撮像される画像である。表示画像の候補となる画像(以下「候補画像」という。)は、予め記憶部13に記憶されている。 A "display image" is, for example, a wallpaper composed of a single color, or a background (such as a belt conveyor) that is imaged together with a product when visual inspection or identification processing is performed on the actual production line of the subject (product). ), all or part of which is captured by the imaging unit 12 as a surrounding image. Images that are candidates for display images (hereinafter referred to as "candidate images") are stored in the storage unit 13 in advance.

撮像環境変更部21は、撮像部12が被写体を撮像する際の撮像環境を変更する。撮像環境変更部21は、例えば、被写体を照らす照明装置や、撮像部12が備えるレンズに取り付けられる(レンズを覆う)フィルタなどである。 The imaging environment changing unit 21 changes the imaging environment when the imaging unit 12 images a subject. The imaging environment changing unit 21 is, for example, a lighting device that illuminates a subject, a filter attached to a lens provided in the imaging unit 12 (covering the lens), or the like.

「撮像環境」は、例えば、被写体を照らす照明装置の明るさや色、撮像部12のレンズに入光する光の明るさや色、載置部18の載置面の色、表示部20に表示される表示画像など、被写体画像に影響を与える環境(要素)のみならず、周囲画像に影響を与える環境(要素)を含む。 The "imaging environment" includes, for example, the brightness and color of the lighting device that illuminates the subject, the brightness and color of the light that enters the lens of the imaging section 12, the color of the mounting surface of the mounting section 18, and the color displayed on the display section 20. This includes not only environments (elements) that affect the subject image, such as displayed images, but also environments (elements) that affect surrounding images.

なお、撮像環境変更部は、表示画像を変更するデバイスでもよい。 Note that the imaging environment changing unit may be a device that changes the displayed image.

識別情報生成部22は、種別情報と関連付けられて記憶部13に記憶された撮像画像に基づいて、種別情報ごとの識別情報を生成する。識別情報生成部22の具体的な構成や動作については、後述する。 The identification information generation unit 22 generates identification information for each type of information based on the captured image stored in the storage unit 13 in association with the type information. The specific configuration and operation of the identification information generation section 22 will be described later.

「識別情報」は、例えば、被写体の形状、模様、色彩などの撮像画像から取得可能な情報であって、種別を特徴付ける情報である。識別情報は、識別情報生成部により生成された情報と、本装置とは異なる外部装置により生成された情報と、を含む。 "Identification information" is information that can be obtained from a captured image, such as the shape, pattern, and color of a subject, and is information that characterizes the type. The identification information includes information generated by the identification information generation section and information generated by an external device different from the present device.

識別部23は、識別情報に基づいて、被識別体に対応する種別情報を識別する。識別部23の具体的な構成や動作については、後述する。 The identification unit 23 identifies type information corresponding to the object to be identified based on the identification information. The specific configuration and operation of the identification unit 23 will be described later.

「被識別体」は、例えば、本装置1が後述する識別モードで動作するときに、種別ごとに識別(分類)される製品(産品)である。 The “object to be identified” is, for example, a product that is identified (classified) by type when the device 1 operates in an identification mode described later.

第1特定処理部24は、識別部23により識別された被識別体の種別情報が特定種別情報のとき、被識別体に対して特定処理を実行する。第1特定処理部は、本発明における特定処理部である。第1特定処理部24の具体的な構成や動作については、後述する。 The first identification processing unit 24 executes identification processing on the object to be identified when the type information of the object to be identified identified by the identification unit 23 is specific type information. The first specific processing section is a specific processing section in the present invention. The specific configuration and operation of the first specific processing section 24 will be described later.

「特定種別情報」は、例えば、本装置1が後述する識別モードで動作するときに、ある製品の不良品などの特定の種別(特定種別)を示す情報である。すなわち、種別情報は、特定種別情報を含む。「特定処理」は、例えば、本装置1において特定種別に識別された被識別体を、レーザマーカやレーザポインタ、プロジェクタなどを用いてレーザ光により視認可能にする処理や、同被識別体を本装置1から除去する処理などである。 "Specific type information" is information indicating a specific type (specific type) of a certain product, such as a defective product, for example, when the device 1 operates in an identification mode described later. That is, the type information includes specific type information. "Identification processing" is, for example, processing to make an identified object identified as a specific type in this device 1 visible with laser light using a laser marker, laser pointer, projector, etc., or processing to make the same identified object visible in this device 1. This includes processing to remove from 1.

第2特定処理部25は、第1特定処理部24が特定処理を実行した被識別体に対して第2特定処理を実行する。 The second identification processing unit 25 performs the second identification processing on the object to be identified, on which the first identification processing unit 24 has performed the identification processing.

「第2特定処理」は、例えば、本装置1の動作を停止させる処理や、特定種別に識別された被識別体を視認可能にする態様(例えば、後述するレーザ光の照射態様)を変更する処理、警報などの音を発する(報知する)処理などである。 The "second identification process" is, for example, a process of stopping the operation of the device 1, or changing the manner in which an object identified as a specific type is made visible (for example, the manner in which laser light is irradiated, which will be described later). processing, and processing to emit (notify) a sound such as an alarm.

被識別体検知部26は、特定処理が実行された被識別体を検知する。被識別体検知部26は、例えば、ビームセンサである。被識別体検知部26の具体的な構成や動作については、後述する。 The identified object detection unit 26 detects the identified object for which the identification process has been performed. The identified object detection unit 26 is, for example, a beam sensor. The specific configuration and operation of the identified object detection section 26 will be described later.

制御部27は、本装置1の全体の動作を制御する。制御部27は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)などのプロセッサや、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの集積回路により構成される。制御部27の動作については、後述する。 The control unit 27 controls the overall operation of the device 1 . The control unit 27 includes, for example, a processor such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field It is composed of integrated circuits such as Programmable Gate Array (Programmable Gate Array). The operation of the control unit 27 will be described later.

なお、制御部は、被写体情報取得部や、位置決定部、撮像環境変更部、識別情報生成部、識別部、第1特定処理部、第2特定処理部として機能してもよい。すなわち、例えば、制御部は、被写体情報取得部や、位置決定部、撮像環境変更部、識別情報生成部、識別部、第1特定処理部、第2特定処理部を備えてもよい。この場合、被写体情報取得部と、位置決定部と、撮像環境変更部と、識別情報生成部と、識別部、第1特定処理部、第2特定処理部とは、制御部と共通するプロセッサや集積回路により構成されてもよく、あるいは、個別のプロセッサや集積回路により構成されてもよい。 Note that the control unit may function as a subject information acquisition unit, a position determination unit, an imaging environment change unit, an identification information generation unit, an identification unit, a first identification processing unit, and a second identification processing unit. That is, for example, the control section may include a subject information acquisition section, a position determination section, an imaging environment change section, an identification information generation section, an identification section, a first identification processing section, and a second identification processing section. In this case, the subject information acquisition section, the position determination section, the imaging environment change section, the identification information generation section, the identification section, the first identification processing section, and the second identification processing section are the same processor as the control section. It may be constituted by an integrated circuit, or it may be constituted by a separate processor or an integrated circuit.

●撮像装置の動作
次に、本装置1の動作について、載置部18がベルトコンベアやスライダテーブルなどの搬送機能を備える場合を例に説明する。
●Operation of the imaging device Next, the operation of the present device 1 will be explained using an example in which the placing section 18 is provided with a conveying function such as a belt conveyor or a slider table.

本装置1は、学習モードと識別モードとの2つの動作モードに基づいて動作する。動作モードは、例えば、本装置1の使用者の本装置1に対する操作により、切り替えられる。 The device 1 operates based on two operation modes: a learning mode and an identification mode. The operation mode can be switched, for example, by an operation of the device 1 by the user of the device 1 .

●学習モード
「学習モード」は、本装置1が被写体の向きや姿勢、形状などを変えて被写体を撮像することにより、被写体から向きや姿勢、形状などを変えた複数の撮像画像を撮像し、各撮像画像の中から被写体領域を特定して人工知能用の教師データとして取得する動作モードである。
●Learning mode In "Learning mode", the device 1 captures multiple images of the subject with different orientations, postures, shapes, etc., by capturing images of the subject while changing the orientation, posture, shape, etc. This is an operation mode in which a subject area is identified from each captured image and acquired as training data for artificial intelligence.

図2は、学習モードのフローチャートである。
同図は、図示の便宜上、「判断」を示すボックスを「準備」を示す六角形のボックスで代用して示す(以下同じ)。すなわち、例えば、後述する処理(S105)は、フローチャート上における「判断」を意味する。
FIG. 2 is a flowchart of the learning mode.
In this figure, for convenience of illustration, the box indicating "judgment" is replaced with a hexagonal box indicating "preparation" (the same applies hereinafter). That is, for example, the process (S105) described later means "judgment" on the flowchart.

先ず、本装置1の使用者により載置部18の載置面(不図示)に被写体が載置される(S101)。 First, a subject is placed on the placement surface (not shown) of the placement unit 18 by the user of the device 1 (S101).

次いで、本装置1の使用者により種別入力部11が操作されることにより、本装置1により撮像される被写体の種別情報が本装置1に入力される(S102)。入力された種別情報は、記憶部13に記憶される。 Next, the type input unit 11 is operated by the user of this device 1, so that the type information of the subject to be imaged by this device 1 is input to this device 1 (S102). The input type information is stored in the storage unit 13.

次いで、載置部18は、被写体を撮像部12の撮像範囲へ搬送する(S103)。このとき、被写体情報取得部17は、例えば、検知部19の検知信号と、載置部18の搬送速度や搬送量と、に基づいて、被写体の長さに関する情報(被写体情報)を取得(算出)する(S104)。「搬送量」は、例えば、ベルトコンベアに取り付けられるエンコーダ(ロータリエンコーダなど)や、ベルトコンベアを駆動させるサーボモータなどのパルスに基づいて算出される。取得された被写体情報は、記憶部13に記憶される。 Next, the mounting unit 18 transports the subject to the imaging range of the imaging unit 12 (S103). At this time, the subject information acquisition unit 17 acquires (calculates) information regarding the length of the subject (subject information) based on, for example, the detection signal of the detection unit 19 and the conveyance speed and conveyance amount of the mounting unit 18. ) (S104). The "conveyance amount" is calculated, for example, based on pulses from an encoder (such as a rotary encoder) attached to the belt conveyor or a servo motor that drives the belt conveyor. The acquired subject information is stored in the storage unit 13.

なお、被写体情報取得部が取得する被写体情報は、被写体の長さに関する情報に限定されない。すなわち、例えば、被写体情報取得部は、被写体の重量や、高さ、体積、温度分布などセンサを用いて検知可能な情報を被写体情報として取得してもよい。 Note that the subject information acquired by the subject information acquisition unit is not limited to information regarding the length of the subject. That is, for example, the subject information acquisition unit may acquire information that can be detected using a sensor, such as the weight, height, volume, and temperature distribution of the subject, as the subject information.

次いで、制御部27は、例えば、検知部19の検知信号に基づいて、被写体が撮像部12の撮像範囲に入ったか否かを判定する(S105)。 Next, the control unit 27 determines whether the subject has entered the imaging range of the imaging unit 12, for example, based on the detection signal of the detection unit 19 (S105).

被写体が撮像部12の撮像範囲に入ったとき(S105の「Yes」)、撮像部12は、被写体を撮像する(S106)。このとき、位置決定部14は、例えば、検知部19の検知信号に基づいて、撮像画像内における被写体領域を特定して、その座標情報(被写体の位置情報)を決定する(S107)。 When the subject enters the imaging range of the imaging unit 12 (“Yes” in S105), the imaging unit 12 images the subject (S106). At this time, the position determination unit 14 identifies the subject area in the captured image based on the detection signal of the detection unit 19, for example, and determines its coordinate information (position information of the subject) (S107).

一方、被写体が撮像部12の撮像範囲に入っていないとき(S105の「No」)、撮像部12は、被写体が同撮像範囲に入るまで待機する。 On the other hand, when the subject is not within the imaging range of the imaging unit 12 (“No” in S105), the imaging unit 12 waits until the subject enters the imaging range.

なお、本発明における位置決定部は、例えば、矩形状の被写体領域の4隅の座標のうち、対角に位置する2点の座標を被写体の位置情報として決定してもよい。 Note that the position determination unit in the present invention may, for example, determine the coordinates of two diagonally located points among the coordinates of the four corners of the rectangular subject area as the subject position information.

また、被写体の側面の画像を撮像部に向けて表示可能な鏡が、撮像部の撮像範囲に配置されてもよい。この場合、鏡は、本発明における被写体情報取得部として機能する。このように鏡が配置されることにより、撮像画像は、被写体情報である被写体の側面の画像を含む。つまり、本装置は、撮像画像内における鏡の領域を予め特定しておくことにより、撮像画像に関連付いた被写体情報を取得することができる。 Further, a mirror capable of displaying a side image of the subject toward the imaging section may be arranged in the imaging range of the imaging section. In this case, the mirror functions as a subject information acquisition unit in the present invention. By arranging the mirror in this manner, the captured image includes an image of the side surface of the subject, which is subject information. That is, this device can acquire subject information associated with a captured image by specifying the mirror area within the captured image in advance.

次いで、位置決定部14は、位置情報を撮像画像と関連付けて記憶部13に記憶する(S108)。このとき、本装置1は、例えば、処理(S104)で取得した被写体情報についても、撮像画像と関連付けて記憶部13に記憶する。 Next, the position determining unit 14 associates the position information with the captured image and stores it in the storage unit 13 (S108). At this time, the device 1 also stores, for example, the subject information acquired in the process (S104) in the storage unit 13 in association with the captured image.

次いで、載置部18は、被写体を被写体位置変更点に搬送する(S109)。 Next, the mounting unit 18 transports the subject to the subject position change point (S109).

「被写体位置変更点」は、位置関係変更部16が被写体の向きや姿勢を変更する位置である。被写体位置変更点は、例えば、被写体に振動を加える装置(振動装置)の上や、被写体を把持するロボットアームの可動範囲内に設定される。 The “subject position change point” is a position where the positional relationship changing unit 16 changes the orientation or posture of the subject. The subject position change point is set, for example, on a device that applies vibration to the subject (vibration device) or within the movable range of a robot arm that grips the subject.

次いで、制御部27は、撮像部12が被写体を撮像した回数が撮像回数情報で特定される回数に到達しているか否かを判定する(S110)。 Next, the control unit 27 determines whether the number of times the image capturing unit 12 has imaged the subject has reached the number specified by the number of image capturing information (S110).

「撮像回数情報」は、本装置1が被写体の向きや姿勢を変更して被写体を撮像する回数(撮像回数)を特定する情報である。撮像回数情報は、例えば、本装置1の使用者による入力手段(例えば、種別入力部11)の操作により、予め記憶部13に記憶されている。 "Image capture frequency information" is information that specifies the number of times the device 1 captures an image of a subject by changing the orientation or posture of the subject (image capture frequency). The information on the number of times of imaging is stored in advance in the storage unit 13, for example, by the user of the apparatus 1 operating the input means (for example, the type input unit 11).

撮像部12が被写体を撮像した回数が撮像回数情報で特定される回数に到達していないとき(S110の「No」)、位置関係変更部16は、被写体の向きや姿勢を変更する(S111)。 When the number of times the image capturing unit 12 images the subject has not reached the number specified by the image capturing frequency information (“No” in S110), the positional relationship changing unit 16 changes the orientation and posture of the subject (S111). .

なお、位置関係変更部は、処理(S111)において、カメラの位置や向きを変更してもよく、被写体の向きや姿勢と、カメラの位置や向きと、を同時に変更してもよい。 Note that in the process (S111), the positional relationship changing unit may change the position and orientation of the camera, or may change the orientation and posture of the subject and the position and orientation of the camera at the same time.

次いで、載置部18は、被写体を撮像部12の撮像範囲に搬送する(戻す)(S112)。本装置1の処理は、処理(S105)に戻る。すなわち、撮像部12は、撮像回数情報に基づいて、位置関係変更部16が被写体と撮像部12との位置関係を変更した後に、被写体を撮像する。 Next, the mounting unit 18 transports (returns) the subject to the imaging range of the imaging unit 12 (S112). The process of the device 1 returns to the process (S105). That is, the imaging unit 12 images the subject after the positional relationship changing unit 16 changes the positional relationship between the subject and the imaging unit 12 based on the imaging frequency information.

なお、本装置は、被写体を撮像部の撮像範囲に戻すたびに、被写体情報を取得してもよい。 Note that the present device may acquire subject information each time the subject is returned to the imaging range of the imaging unit.

一方、撮像部12が被写体を撮像した回数が撮像回数情報で特定される回数に到達しているとき(S110の「Yes」)、制御部27は、撮像環境を変更させる指示(以下「環境変更指示」という。)の有無を確認する(S113)。 On the other hand, when the number of times the imaging unit 12 has imaged the subject has reached the number specified by the imaging frequency information (“Yes” in S110), the control unit 27 issues an instruction to change the imaging environment (hereinafter referred to as “environment change The presence or absence of "instruction" is confirmed (S113).

「環境変更指示」は、撮像環境変更部21に撮像部12の撮像環境を変更させる(例えば、照明の明るさ、色の変更や、被写体の背景(載置面)の変更など)情報である。環境変更指示は、例えば、本装置1の使用者により予め設定されて、記憶部13に記憶されている。 The "environment change instruction" is information that causes the imaging environment changing unit 21 to change the imaging environment of the imaging unit 12 (for example, changing the brightness and color of lighting, changing the background (mounting surface) of the subject, etc.) . The environment change instruction is, for example, set in advance by the user of the device 1 and stored in the storage unit 13.

環境変更指示があるとき(S113の「Yes」)、撮像環境変更部21は、撮像環境を変更する(S114)。 When there is an environment change instruction (“Yes” in S113), the imaging environment changing unit 21 changes the imaging environment (S114).

次いで、制御部27は、撮像部12が被写体を撮像した回数をリセットする(S115)。本装置1の処理は、処理(S112)に戻る。撮像環境が変更されたとき、撮像環境変更部21が撮像環境を変更した後に撮像された撮像画像の周囲画像は、撮像環境変更部21が撮像環境を変更する前に撮像された撮像画像の周囲画像とは異なる。 Next, the control unit 27 resets the number of times the imaging unit 12 images the subject (S115). The process of the device 1 returns to the process (S112). When the imaging environment is changed, the surrounding image of the captured image captured after the imaging environment changing unit 21 changes the imaging environment is the surrounding image of the captured image captured before the imaging environment changing unit 21 changes the imaging environment. Different from the image.

一方、環境変更指示がないとき(S113の「No」)、制御部27は、被写体の形態を変更させる指示(以下「形態変更指示」という。)の有無を確認する(S116)。 On the other hand, when there is no environment change instruction ("No" in S113), the control unit 27 checks whether there is an instruction to change the form of the subject (hereinafter referred to as "form change instruction") (S116).

「形態変更指示」は、形態変更部15に、例えば、押圧による被写体の縦横比の変更や、被写体の切断・刺突、熱による被写体の変形・変色などの処理を実行させる情報である。形態変更指示は、例えば、撮像回数情報に基づいて設定される。形態変更指示は、例えば、本装置1の使用者により予め設定されて、記憶部13に記憶されている。 The "shape change instruction" is information that causes the shape change unit 15 to perform processing such as changing the aspect ratio of the subject by pressing, cutting/piercing the subject, deforming/discoloring the subject by heat, etc. The format change instruction is set based on, for example, information on the number of times of imaging. For example, the format change instruction is set in advance by the user of the device 1 and stored in the storage unit 13.

形態変更指示が有るとき(S116の「Yes」)、形態変更部15は、形態変更指示に基づいて、被写体の形態を変更させる(S117)。 When there is a form change instruction ("Yes" in S116), the form changing unit 15 changes the form of the subject based on the form change instruction (S117).

次いで、制御部27は、撮像部12が被写体を撮像した回数をリセットする(S118)。このとき、必要に応じて、制御部27、または、本装置1の使用者により、被写体の形態が変更されたことを示す種別情報が入力される(S119)。例えば、種別情報が「スイカ良品」と「スイカ不良品」で、良品のスイカが種別情報「スイカ良品」として撮像された後に同スイカが変形されて不良品のスイカとなったとき、種別情報「スイカ不良品」が入力される。本装置1の処理は、処理(S112)に戻る。すなわち、撮像部12は、形態変更指示があるとき、形態変更部15が被写体の形態を変更させた後に、被写体を撮像する。 Next, the control unit 27 resets the number of times the imaging unit 12 images the subject (S118). At this time, type information indicating that the form of the subject has been changed is input by the control unit 27 or the user of the apparatus 1 as necessary (S119). For example, if the type information is "good watermelon" and "defective watermelon" and a good watermelon is imaged with the type information "good watermelon" and then transformed into a defective watermelon, then the type information " "Watermelon defective product" is input. The process of the device 1 returns to the process (S112). That is, when there is a form change instruction, the imaging unit 12 images the subject after the form changing unit 15 changes the form of the subject.

一方、形態変更指示がないとき(S116の「No」)、制御部27は、処理(S106)で撮像された各撮像画像を、対応する種別情報(処理(S102)や処理(S119)で入力された種別情報)に関連付けて記憶部13に記憶する(S120)。 On the other hand, when there is no form change instruction ("No" in S116), the control unit 27 inputs each captured image captured in the process (S106) with the corresponding type information (in the process (S102) or the process (S119)). (S120).

次いで、識別情報生成部22は、記憶部13から種別情報と、種別情報に関連付けて記憶されている撮像画像と、を読み出し、同種別情報と撮像画像とに基づいて、種別情報ごとの識別情報を生成する(S121)。識別情報は、種別情報に関連付けられて、記憶部13に記憶される(S122)。 Next, the identification information generation unit 22 reads the type information and the captured image stored in association with the type information from the storage unit 13, and generates identification information for each type of information based on the same type information and the captured image. is generated (S121). The identification information is stored in the storage unit 13 in association with the type information (S122).

なお、本装置が実行する学習モードの各処理は、本実施の形態に限定されない。すなわち、例えば、本装置は、学習モードにおいて位置情報を決定しなくてもよく、あるいは、被写体情報を取得しなくてもよい。この場合であっても、本装置は、1つの被写体に対して複数の撮像画像を取得可能である。また、例えば、本装置は、学習モードにおいて撮像回数情報をリセットしなくてもよい。この場合、撮像回数情報は、例えば、撮像環境の変更(環境変更指示)ごと、形態の変更(形態変更指示)ごとに設定された個別の撮像回数を含んでもよい。 Note that each process of the learning mode executed by this device is not limited to this embodiment. That is, for example, the present device does not need to determine position information or acquire subject information in the learning mode. Even in this case, the present device can acquire a plurality of captured images of one subject. Further, for example, the present device does not need to reset the imaging number information in the learning mode. In this case, the imaging number information may include, for example, an individual number of imaging times set for each change in imaging environment (environment change instruction) and each change in form (form change instruction).

また、本装置は、学習モードにおいて、種別情報ごとの識別情報を生成しなくてもよい。この場合、例えば、本装置の使用者などが、本装置または外部装置を用いて種別情報ごとの識別情報を生成して、本装置の記憶部に記憶させてもよい。 Furthermore, the present device does not need to generate identification information for each type of information in the learning mode. In this case, for example, a user of the present device may generate identification information for each type of information using the present device or an external device, and store the generated identification information in the storage section of the present device.

さらに、本装置は、撮像画像を撮像後、同撮像画像を所定の角度で回転させた画像を同撮像画像に対応する種別情報(同撮像画像の撮像前に、種別入力部から入力された種別情報)に関連付けて記憶部に記憶してもよい。 Furthermore, after capturing a captured image, this device generates an image obtained by rotating the captured image at a predetermined angle with type information corresponding to the captured image (type information input from the type input section before capturing the captured image). information) and may be stored in the storage unit.

さらにまた、種別情報の入力は、撮像画像の撮像前(処理S102)に限定されない。すなわち、例えば、種別情報の入力は、撮像回数情報で特定される回数、被写体の向き(姿勢)を変更して撮像画像を撮像した後(処理S113前)や、全ての撮像画像を対応する種別情報と関連付けて記憶部に記憶する(処理S120)前に入力されてもよい。 Furthermore, the input of the type information is not limited to before the captured image is captured (processing S102). That is, for example, the type information may be input after the captured image is captured by changing the number of times specified by the imaging frequency information, the orientation (posture) of the subject (before processing S113), or when all captured images are input to the corresponding type. The information may be input before being associated with the information and stored in the storage unit (processing S120).

さらにまた、識別情報生成部は、処理(S121)において、記憶部に記憶された識別情報に基づいて、撮像画像を識別情報の生成に用いるか否かを決定してもよい。すなわち、例えば、撮像画像に基づいて生成される識別情報の確度(後述)が十分に高く(例えば、確度「90」以上)、識別情報の更新が不要なとき、識別情報生成部は、撮像画像を識別情報の生成に用いない(識別情報を生成しない)。一方、識別情報の確度が低いとき(例えば、確度「90」未満)、識別情報生成部は、撮像画像を識別情報の生成に用いる(識別情報を生成する)。 Furthermore, in the process (S121), the identification information generation unit may determine whether to use the captured image to generate the identification information based on the identification information stored in the storage unit. That is, for example, when the accuracy (described later) of the identification information generated based on the captured image is sufficiently high (for example, accuracy "90" or higher) and there is no need to update the identification information, the identification information generation unit generates the captured image. is not used to generate identification information (does not generate identification information). On the other hand, when the accuracy of the identification information is low (for example, the accuracy is less than "90"), the identification information generation unit uses the captured image to generate the identification information (generates the identification information).

さらにまた、本発明における位置決定部は、被写体に目印が付された場合、撮像画像における被写体に付された目印の位置を特定する位置情報を決定して、同位置情報を撮像画像と関連付けて記憶部に記憶してもよい。この場合、「目印」は、例えば、特殊な色や形で被写体の特定箇所を示すように被写体に塗られた塗料である。目印を示す情報は、位置決定部が認識可能な情報として、予め記憶部に記憶されている。このように、目印の位置情報を撮像画像と関連付けて記憶することにより、人工知能(プログラム)に学習させる箇所が明確になる。その結果、例えば、職人が経験や勘で判別する不良(暗黙知として判別される不良)を囲むように目印を付すことで、本装置は、同不良の位置を容易に特定することができる。 Furthermore, when a mark is attached to the subject, the position determination unit in the present invention determines position information that specifies the position of the mark attached to the subject in the captured image, and associates the same position information with the captured image. It may be stored in the storage unit. In this case, the "mark" is, for example, paint painted on the subject to indicate a specific location on the subject with a special color or shape. Information indicating the landmark is stored in advance in the storage unit as information that can be recognized by the position determining unit. In this way, by storing the position information of the landmark in association with the captured image, the location to be learned by the artificial intelligence (program) becomes clear. As a result, for example, by attaching marks to surround a defect that a craftsman identifies based on experience or intuition (a defect determined as tacit knowledge), the present device can easily identify the location of the defect.

さらにまた、「目印」は、紫外線マーカなどの特殊な照明下においてのみ認識可能な塗料で構成されてもよい。この場合、本装置は、同塗料を認識可能な撮像機器を備えてもよく、あるいは、同塗料を可視化する特殊な照明を備えてもよい。撮像機器や照明を切り替えて被写体を撮像する場合、載置部の搬送速度に応じて、撮像画像内における被写体領域のずれ(位置情報のずれ:位置ずれ)が生じ得る。そのため、本装置は、撮像機器や照明の切り替えの際に、載置部の動作を一時的に停止させてもよく、位置ずれ量に応じて載置部を逆送させて被写体を撮像範囲に戻してもよく、あるいは、搬送速度から位置ずれ量を加味した補正情報を算出してもよい。 Furthermore, the "mark" may be made of paint that is recognizable only under special lighting, such as an ultraviolet marker. In this case, the device may be equipped with an imaging device that can recognize the paint, or it may be equipped with special lighting that makes the paint visible. When imaging a subject by switching imaging devices or lighting, a shift in the subject area within the captured image (shift in position information: position shift) may occur depending on the conveyance speed of the mounting section. Therefore, this device may temporarily stop the operation of the mounting unit when switching the imaging equipment or lighting, and may move the mounting unit backwards depending on the amount of positional deviation to bring the subject into the imaging range. Alternatively, correction information may be calculated by taking into account the amount of positional deviation from the conveyance speed.

図3は、記憶部13に記憶されている情報の例を示す模式図である。
同図は、「種別情報」ごとに「撮像番号」と「撮像画像」と「位置情報」と「被写体情報」とが関連付けられて記憶部13に記憶されていることを示す。「撮像番号」は、撮像回数情報に基づいて、撮像部12が被写体を撮像した回数(順番)を示す番号である。同図は、例えば、種別情報「スイカ良品」に対して、撮像番号「01」と、撮像画像「p1」と、位置情報「x1y1z1」と、被写体情報「A1」と、が関連付けて記憶部13に記憶されていることを示す。また、同図は、種別情報「スイカ良品」に対して、撮像番号「01」「02」・・・「nn」と、各撮像番号に対応する撮像画像と位置情報と被写体情報とが関連付けられて記憶部13に記憶されていることを示す。
FIG. 3 is a schematic diagram showing an example of information stored in the storage unit 13.
The figure shows that "imaging number", "captured image", "position information", and "subject information" are associated and stored in the storage unit 13 for each "type information". The "imaging number" is a number indicating the number of times (in order) the imaging unit 12 images the subject based on the imaging frequency information. In the same figure, for example, the type information "Watermelon in good condition" is associated with the image capture number "01", the captured image "p1", the position information "x1y1z1", and the subject information "A1" and stored in the storage unit 13. indicates that it is stored in The figure also shows that the type information "Watermelon in good condition" is associated with the imaging numbers "01", "02", . . . "nn", and the captured images, position information, and subject information corresponding to each imaging number. This indicates that the information is stored in the storage unit 13.

本装置1は、種別情報を参照することで、種別情報と関連付けて記憶されている撮像画像と、同撮像画像に関連付けられている位置情報と被写体情報と、を記憶部13から読み出すことができる。また、例えば、本装置1は、被写体情報を参照することで、被写体情報と関連付けて記憶されている種別情報を読み出すことができる。 By referring to the type information, the device 1 can read from the storage unit 13 the captured image stored in association with the type information, and the position information and subject information associated with the captured image. . Further, for example, by referring to the subject information, the device 1 can read out type information stored in association with the subject information.

●識別モード
「識別モード」は、本装置1が学習モードで生成した識別情報、あるいは、本装置1が学習モードで取得した撮像画像などから本装置1の使用者などが生成した識別情報を用いて、製品(産品)を識別する動作モードである。識別モードは、本発明に係る識別方法の例である。
●Identification mode "Identification mode" uses identification information generated by this device 1 in learning mode, or identification information generated by the user of this device 1 from captured images acquired by this device 1 in learning mode. This is an operation mode for identifying products. The identification mode is an example of an identification method according to the present invention.

図4は、識別モードのフローチャートである。 FIG. 4 is a flowchart of the identification mode.

先ず、本装置1の使用者などにより、被識別体に対応する識別情報が、記憶部13から読み出される(S201)。 First, identification information corresponding to an object to be identified is read out from the storage unit 13 by a user of the device 1 or the like (S201).

次いで、被識別体が、例えば、本装置1の使用者により載置部18に載置される(S202)。 Next, the object to be identified is placed on the placing section 18 by, for example, the user of the device 1 (S202).

次いで、載置部18は、被識別体を撮像部12の撮像範囲へ搬送する(S203)。このとき、被写体情報取得部17は、例えば、検知部19の検知信号と、載置部18の搬送速度と、に基づいて、被識別体の長さに関する情報(被識別体情報)を取得(算出)する(S204)。取得された被識別体情報は、記憶部13に記憶される。 Next, the mounting unit 18 transports the object to be identified to the imaging range of the imaging unit 12 (S203). At this time, the subject information acquisition unit 17 acquires information regarding the length of the object to be identified (identified object information) based on, for example, the detection signal of the detection unit 19 and the conveyance speed of the mounting unit 18 ( calculation) (S204). The acquired object information is stored in the storage unit 13.

「被識別体情報」は、例えば、被識別体の長さや色、形状、重量、体積、鏡により得られる多面的な画像情報など、通常の撮像方法や撮像装置(デジタルカメラ)から直接的に取得することが難しい被識別体に関する情報である。 "Identified object information" includes, for example, the length, color, shape, weight, volume, and multifaceted image information obtained from mirrors of the object to be identified, directly from normal imaging methods and imaging devices (digital cameras). This is information about the object that is difficult to obtain.

次いで、制御部27は、例えば、検知部19の検知信号に基づいて、被識別体が撮像部12の撮像範囲に入ったか否かを判定する(S205)。 Next, the control unit 27 determines whether the object to be identified has entered the imaging range of the imaging unit 12, for example, based on the detection signal of the detection unit 19 (S205).

被識別体が撮像部12の撮像範囲に入ったとき(S205の「Yes」)、撮像部12は、被識別体を撮像する(S206)。このとき、位置決定部14は、例えば、検知部19の検知信号に基づいて、撮像画像内における被識別体の位置情報を決定する(S207)。 When the object to be identified enters the imaging range of the imaging unit 12 (“Yes” in S205), the imaging unit 12 images the object to be identified (S206). At this time, the position determination unit 14 determines the position information of the object to be identified within the captured image, for example, based on the detection signal of the detection unit 19 (S207).

一方、被識別体が撮像部12の撮像範囲に入っていないとき(S205の「No」)、撮像部12は、被識別体が同撮像範囲に入るまで待機する。 On the other hand, when the object to be identified does not enter the imaging range of the imaging unit 12 (“No” in S205), the imaging unit 12 waits until the object to be identified enters the imaging range.

次いで、位置決定部14は、位置情報を撮像画像と関連付けて記憶部13に記憶する(S208)。このとき、本装置1は、例えば、処理(S204)で取得した被写体情報についても、撮像画像と関連付けて記憶部13に記憶する。 Next, the position determining unit 14 associates the position information with the captured image and stores it in the storage unit 13 (S208). At this time, the device 1 also stores, for example, the subject information acquired in the process (S204) in the storage unit 13 in association with the captured image.

次いで、識別部23は、記憶部13に記憶されている、被識別体の撮像画像と、同撮像画像に関連付けて記憶されている位置情報と、識別情報と、を用いて、被識別体に対応する種別情報を識別(特定)する(S209)。すなわち、例えば、識別情報が画素値に関する情報の場合、識別部23は、被写体の撮像画像と位置情報とに基づいて、同撮像画像内の被識別体が撮像されている範囲の画素値を算出して、算出された画素値と種別情報ごとの識別情報とを照合する。識別部23は、算出された画素値に対応する識別情報の種別情報を、被識別体の種別情報として識別する。被識別体に対応する識別情報は、同被識別体の撮像画像に関連付けられて記憶部13に記憶される。 Next, the identification unit 23 uses the captured image of the object to be identified, the position information stored in association with the captured image, and the identification information, which are stored in the storage unit 13, to identify the object to be identified. The corresponding type information is identified (specified) (S209). That is, for example, when the identification information is information regarding pixel values, the identification unit 23 calculates the pixel value of the range in which the object to be identified is imaged in the captured image, based on the captured image of the subject and the position information. Then, the calculated pixel value is compared with the identification information for each type of information. The identification unit 23 identifies the type information of the identification information corresponding to the calculated pixel value as the type information of the object to be identified. The identification information corresponding to the object to be identified is stored in the storage unit 13 in association with the captured image of the object to be identified.

次いで、第1特定処理部24は、識別部23が識別した被識別体の種別情報が特定種別情報であるか否かを判定する(S210)。 Next, the first identification processing unit 24 determines whether the type information of the object to be identified identified by the identification unit 23 is specific type information (S210).

被識別体の種別情報が特定種別情報であるとき(S210の「Yes」)、第1特定処理部24は、被識別体に対して特定処理(例えば、不良品に対してレーザ光を照射する処理)を実行する(S211)。 When the type information of the object to be identified is specific type information ("Yes" in S210), the first identification processing unit 24 performs a specific process on the object to be identified (for example, irradiating a defective product with a laser beam). process) is executed (S211).

次いで、第2特定処理部25は、特定処理が実行された被識別体を被識別体検知部26が検知したか否かを確認する(S212)。 Next, the second identification processing unit 25 checks whether the identification object detection unit 26 has detected the identification object for which the identification process has been performed (S212).

特定処理が実行された被識別体を被識別体検知部26が検知したとき(S212の「Yes」)、第2特定処理部25は、第2特定処理(例えば、不良品の除去やレーザ光の照射態様の変更など)を実行する(S213)。「レーザ光の照射態様」は、例えば、レーザ光の色や、点灯・点滅などのレーザ光の照射間隔などのレーザ光が被識別体に照射される態様である。 When the identified object detection unit 26 detects the identified object for which the identification process has been performed (“Yes” in S212), the second identification processing unit 25 performs the second identification process (for example, removing defective products or applying laser light). (such as changing the irradiation mode) (S213). The "laser light irradiation mode" is the mode in which the object to be identified is irradiated with the laser light, such as the color of the laser light and the irradiation interval of the laser light such as lighting or blinking.

一方、被識別体の種別情報が特定種別情報でないとき(S210の「No」)、または、特定処理が実行された被識別体を被識別体検知部26が検知しないとき(S212の「No」)、本装置1は、識別モードを終了する。 On the other hand, when the type information of the identified object is not specific type information ("No" in S210), or when the identified object detection unit 26 does not detect the identified object for which the identification process has been performed ("No" in S212) ), the device 1 ends the identification mode.

なお、本装置が実行する識別モードの各処理は、本実施の形態に限定されない。すなわち、例えば、本装置は、識別モードにおいて特定処理や第2特定処理を実行しなくてもよく、あるいは、被写体情報を取得しなくてもよい。 Note that each process of the identification mode executed by this device is not limited to this embodiment. That is, for example, the present device does not need to execute the specifying process or the second specifying process in the identification mode, or does not need to acquire subject information.

また、識別部は、撮像画像に関連付けて記憶されている被写体情報を記憶部から読み出して、被写体情報と被識別体情報とを比較して、被識別体に対応する種別情報を識別してもよく、あるいは、被識別体に対応する種別情報の識別の参考情報としてもよい。 The identification unit may also read subject information stored in association with the captured image from the storage unit, compare the subject information with the object information, and identify type information corresponding to the object. Alternatively, the type information corresponding to the object to be identified may be used as reference information for identification.

さらに、第1特定処理部は、被識別体の種別情報が特定種別情報であるとき、 Furthermore, when the type information of the object to be identified is specific type information, the first identification processing unit

●実施例(1)●
次に、本発明にかかる撮像装置の実施例について、先に説明した実施の形態と異なる部分を中心に説明する。本実施例における撮像装置は、形態変更部と、表示部と、第1特定処理部と、第2特定処理部と、識別体検知部と、を備えていない点において、先に説明した実施の形態における撮像装置と異なる。
●Example (1)●
Next, an embodiment of the imaging device according to the present invention will be described, focusing on the differences from the previously described embodiment. The imaging device in this example differs from the embodiment described above in that it does not include the form changing section, the display section, the first identification processing section, the second identification processing section, and the identification object detection section. It differs from the imaging device in its form.

●実施例(1)の構成
図5は、本装置の実施例を示す模式図である。
●Configuration of Example (1) FIG. 5 is a schematic diagram showing an example of the present device.

本装置100は、筐体101と、タッチパネル111と、カメラ112と、振動装置116と、重量計117aと、一対の鏡117b1,117b2(図6参照)と、ベルトコンベア118と、4個の第1センサ119a1,119a2,119a3,119a4と、8個の第2センサ119b1,119b2,119b3,119b4,119b5,119b6,119b7,119b8(図6参照)と、照明121と、制御装置127と、を有してなる。 This device 100 includes a housing 101, a touch panel 111, a camera 112, a vibration device 116, a weight scale 117a, a pair of mirrors 117b1 and 117b2 (see FIG. 6), a belt conveyor 118, and four parts. 1 sensor 119a1, 119a2, 119a3, 119a4, eight second sensors 119b1, 119b2, 119b3, 119b4, 119b5, 119b6, 119b7, 119b8 (see FIG. 6), lighting 121, and control device 127. It will be done.

筐体101は、カメラ112と、振動装置116と、重量計117aと、一対の鏡117b1,117b2と、ベルトコンベア118と、第1センサ119a1-119a4と、第2センサ119b1-119b8と、照明121と、制御装置127と、を収容する。筐体101は、例えば、アルミ製のフレームである。 The housing 101 includes a camera 112, a vibration device 116, a weight scale 117a, a pair of mirrors 117b1 and 117b2, a belt conveyor 118, first sensors 119a1-119a4, second sensors 119b1-119b8, and lighting 121. and a control device 127. The housing 101 is, for example, an aluminum frame.

タッチパネル111は、本装置100の使用者により被写体の種別情報が入力される入力デバイスである。タッチパネル111は、本発明における種別入力部の例である。タッチパネル111は、筐体101の外面に取り付けられる。 The touch panel 111 is an input device through which the user of the apparatus 100 inputs object type information. The touch panel 111 is an example of a type input section in the present invention. Touch panel 111 is attached to the outer surface of housing 101.

カメラ112は、ベルトコンベア118の中央上方に配置されて、ベルトコンベア118により搬送される被写体を撮像する。カメラ112は、本発明における撮像部の例である。カメラ112は、例えば、ラインスキャンカメラである。 The camera 112 is arranged above the center of the belt conveyor 118 and images the subject being conveyed by the belt conveyor 118. Camera 112 is an example of an imaging unit in the present invention. Camera 112 is, for example, a line scan camera.

振動装置116は、ベルトコンベア118の搬送方向(以下「搬送方向」という。)の後方側に配置されて、被写体に振動を加えて被写体の向き(姿勢)を変更すると共に、被写体の向きを変更後にベルトコンベア118に向けて傾斜することにより同被写体をベルトコンベア118に戻す。すなわち、振動装置116は、本発明における位置関係変更部の例である。 The vibration device 116 is arranged on the rear side of the conveyor belt 118 in the conveyance direction (hereinafter referred to as the "conveyance direction"), and applies vibration to the subject to change the orientation (posture) of the subject, and also changes the orientation of the subject. Later, the subject is returned to the belt conveyor 118 by tilting toward the belt conveyor 118. That is, the vibration device 116 is an example of a positional relationship changing unit in the present invention.

重量計117aは、ベルトコンベア118の下方に配置されて、ベルトコンベア118とベルトコンベア118の載置面118aに載置された被写体との重量を計測する。重量計117aは、本発明における被写体情報取得部の例である。 The weight scale 117a is disposed below the belt conveyor 118, and measures the weight of the belt conveyor 118 and the subject placed on the placement surface 118a of the belt conveyor 118. The weight scale 117a is an example of a subject information acquisition unit in the present invention.

図6は、図5の本装置100のA矢視における部分模式図である。
同図は、カメラ112の撮像範囲を一点鎖線で示し、第1センサ119a1-119a3と第2センサ119b1-119b8それぞれの光束を二点鎖線で示す。
FIG. 6 is a partial schematic diagram of the present device 100 in FIG. 5 in the direction of arrow A.
In the figure, the imaging range of the camera 112 is shown by a dashed-dotted line, and the light fluxes of the first sensors 119a1-119a3 and the second sensors 119b1-119b8 are shown by dashed-double lines.

図5と図6とに戻る。
鏡117b1は、ベルトコンベア118の中央右方(図6の紙面上方)に配置されて、ベルトコンベア118により搬送される被写体の右側面をカメラ112に向けて表示する。鏡117b2は、ベルトコンベア118の中央左方(図6の紙面下方)に配置されて、ベルトコンベア118により搬送される被写体の左側面をカメラ112に向けて表示する。鏡117b1,117b2は、本発明における被写体情報取得部の例である。
Returning to FIGS. 5 and 6.
The mirror 117b1 is disposed to the right of the center of the belt conveyor 118 (above the paper surface in FIG. 6), and displays the right side of the subject being conveyed by the belt conveyor 118 toward the camera 112. The mirror 117b2 is arranged to the left of the center of the belt conveyor 118 (at the bottom of the paper in FIG. 6), and displays the left side of the subject being conveyed by the belt conveyor 118 toward the camera 112. The mirrors 117b1 and 117b2 are examples of subject information acquisition units in the present invention.

ベルトコンベア118は、ベルトコンベア118に載置された被写体を搬送することにより、カメラ112に対する被写体の位置を変更する。ベルトコンベア118は、本発明における載置部と位置関係変更部との例である。ベルトコンベア118は、被写体が載置される載置面118aを備える。ベルトコンベア118は、被写体を正方向(図6の紙面左方)と逆方向(図6の紙面右方)とに搬送可能である。ベルトコンベア118の載置面118aは、例えば、単色の合成樹脂製である。 The belt conveyor 118 changes the position of the subject relative to the camera 112 by conveying the subject placed on the belt conveyor 118. The belt conveyor 118 is an example of a placement section and a positional relationship changing section in the present invention. The belt conveyor 118 includes a placement surface 118a on which a subject is placed. The belt conveyor 118 can transport the subject in the forward direction (to the left in the paper of FIG. 6) and in the reverse direction (to the right in the paper of FIG. 6). The mounting surface 118a of the belt conveyor 118 is made of, for example, monochrome synthetic resin.

第1センサ119a1-119a4は、搬送方向(図6の紙面左右方向)において、ベルトコンベア118により搬送される被写体の有無を検知する。第1センサ119a1-119a4は、一対の投光部と受光部とから構成されるビームセンサである。第1センサ119a1-119a4は、本発明における検知部の例である。第1センサ119a1-119a4は、ベルトコンベア118の搬入部と、搬送方向における鏡117b1,117b2の前後と、ベルトコンベア118の搬出部と、に配置される。第1センサ119a1-119a4の光束の向きは、載置面118aに平行かつ搬送方向に対して垂直な方向に沿う(ベルトコンベア118上を横断する)。 The first sensors 119a1 to 119a4 detect the presence or absence of a subject being transported by the belt conveyor 118 in the transport direction (left-right direction in the paper of FIG. 6). The first sensors 119a1-119a4 are beam sensors composed of a pair of light projecting section and light receiving section. The first sensors 119a1-119a4 are examples of detection units in the present invention. The first sensors 119a1-119a4 are arranged at the carry-in section of the belt conveyor 118, in front and behind the mirrors 117b1 and 117b2 in the conveyance direction, and at the carry-out section of the belt conveyor 118. The direction of the light beams of the first sensors 119a1-119a4 is parallel to the mounting surface 118a and perpendicular to the conveying direction (crossing the belt conveyor 118).

第2センサ119b1-119b8は、一対の投光部と受光部とから構成される狭光芒性のビームセンサである。第2センサ119b1-119b8は、本発明における検知部の例である。第2センサ119b1-119b8は、例えば、レールとアクチュエータとから構成される昇降機構に取り付けられて、ベルトコンベア118の上方を上下方向に移動可能である。第2センサ119b1-119b8の光束の向きは、搬送方向に沿う。 The second sensors 119b1 to 119b8 are narrow beam sensors that include a pair of light projecting section and light receiving section. The second sensors 119b1-119b8 are examples of detection units in the present invention. The second sensors 119b1-119b8 are attached to, for example, a lifting mechanism composed of a rail and an actuator, and are movable in the vertical direction above the belt conveyor 118. The direction of the light beams of the second sensors 119b1-119b8 is along the transport direction.

なお、第1センサと第2センサそれぞれの数は、本実施の形態に限定されない。すなわち、例えば、第1センサの数は「1」や「2」でもよく、第2センサの数は「10」を超えてもよい。 Note that the numbers of the first sensors and the second sensors are not limited to those in this embodiment. That is, for example, the number of first sensors may be "1" or "2", and the number of second sensors may exceed "10".

照明121は、カメラ112の撮像範囲内に搬送された被写体を照らす。照明121は、本発明における撮像環境変更部の例である。 The illumination 121 illuminates the subject conveyed within the imaging range of the camera 112. The illumination 121 is an example of an imaging environment changing unit in the present invention.

制御装置127は、本装置100の全体の動作の制御や、本方法の動作に必要な情報の記憶、被写体の位置情報の決定、被写体情報の取得、被識別体の識別を実行する。すなわち、制御装置127は、本発明における記憶部と、位置決定部と、被写体情報取得部と、識別部と、制御部と、の例である。制御装置127は、例えば、パーソナルコンピュータで実現される。 The control device 127 controls the overall operation of the present device 100, stores information necessary for the operation of this method, determines position information of a subject, obtains subject information, and identifies a subject to be identified. That is, the control device 127 is an example of a storage section, a position determination section, a subject information acquisition section, an identification section, and a control section in the present invention. The control device 127 is realized by, for example, a personal computer.

ここで、本装置100が備える部材のうち、駆動して振動を発生させる部材(振動装置116やベルトコンベア118)は、同振動により影響を受けやすい部材(筐体101やカメラ112、鏡117b1,117b2、第1センサ119a1-119a4、第2センサ119b1-119b8、照明121、制御装置127など)と分離して配置される。そのため、振動装置116やベルトコンベア118からの振動は、カメラ112や鏡117b1,117b2、第1センサ119a1-119a4、第2センサ119b1-119b8、照明121、制御装置127などに伝達されない。 Here, among the members included in the device 100, the members that are driven to generate vibrations (the vibrating device 116 and the belt conveyor 118) are the members that are easily affected by the same vibrations (the housing 101, the camera 112, the mirror 117b1, 117b2, first sensors 119a1-119a4, second sensors 119b1-119b8, lighting 121, control device 127, etc.). Therefore, vibrations from the vibration device 116 and the belt conveyor 118 are not transmitted to the camera 112, mirrors 117b1, 117b2, first sensors 119a1-119a4, second sensors 119b1-119b8, lighting 121, control device 127, and the like.

なお、駆動して振動を発生させる部材は、同振動により影響を受けやすい部材に対して、物理的に分離して配置されてもよく、あるいは、ゴムなどの弾性材製の防振材や、制振材などを間に介在させて連結して配置されてもよい。 Note that the member that is driven to generate vibration may be physically separated from the member that is easily affected by the same vibration, or may be provided with a vibration isolator made of an elastic material such as rubber, They may be connected and arranged with a damping material or the like interposed therebetween.

また、本装置は、例えば、複数のスライドレールを組み合わせた機構など、カメラを立体的な軌道で移動させることができる機構を備えてもよく、あるいは、同機構と共にヒンジのようなカメラの向きを変更可能な機構を備えてもよい。この場合、同機構は、位置関係変更部として機能する。 The device may also include a mechanism that allows the camera to move in a three-dimensional trajectory, such as a mechanism that combines multiple slide rails, or a mechanism that can move the camera along a three-dimensional trajectory, such as a hinge. A changeable mechanism may also be provided. In this case, the mechanism functions as a positional relationship changing unit.

さらに、本装置は、カメラ(本発明における撮像部)や照明(本発明における撮像環境変更部)を複数備えてもよい。 Furthermore, the present device may include a plurality of cameras (imaging section in the present invention) and lights (imaging environment changing section in the present invention).

●実施例(1)の動作
次いで、本実施例(1)における本装置100の動作について、図2、図5、図6を参照しながら説明する。
●Operation of Example (1) Next, the operation of the apparatus 100 in Example (1) will be described with reference to FIGS. 2, 5, and 6.

本装置100は、ベルトコンベア118の載置面118aに載置された被写体の重量と長さとを計測し(S104)、同被写体を搬送しながら撮像し(S106)、撮像画像内の被写体の位置情報を決定し(S107)、振動装置116により被写体の向き(姿勢)を変更し(S111)、向きが変更された被写体を撮像する(S106)。本装置100は、被写体の向きの変更と撮像とを繰り返すことにより、種別情報ごとに複数の撮像画像を取得することができる。 This device 100 measures the weight and length of the object placed on the placement surface 118a of the belt conveyor 118 (S104), images the object while conveying it (S106), and positions the object in the captured image. The information is determined (S107), the orientation (posture) of the subject is changed by the vibration device 116 (S111), and the subject whose orientation has been changed is imaged (S106). The present device 100 can acquire a plurality of captured images for each type of information by repeating changing the orientation of the subject and capturing the image.

本装置100は、例えば、第1センサ119a1の検知信号と、ベルトコンベア118の搬送速度と、に基づいて、ベルトコンベア118に搬送される被写体の長さを計測する。すなわち、例えば、本装置100は、制御装置127を用いて、第1センサ119a1が被写体を検知している時間と、ベルトコンベア118の搬送速度と、を計測して、同時間と同搬送速度とから被写体の長さを算出(計測)する。このとき、制御装置127は、本発明における被写体情報取得部として機能する。 The apparatus 100 measures the length of the subject conveyed on the belt conveyor 118, for example, based on the detection signal of the first sensor 119a1 and the conveyance speed of the belt conveyor 118. That is, for example, the present device 100 uses the control device 127 to measure the time during which the first sensor 119a1 detects the subject and the conveyance speed of the belt conveyor 118, and determines whether the same time and the same conveyance speed. Calculate (measure) the length of the subject from At this time, the control device 127 functions as a subject information acquisition unit in the present invention.

カメラ112は、被写体が正方向に搬送されている場合において、第1センサ119a2が被写体を検知したとき被写体の撮像を開始し、第1センサ119a3が被写体を検知しなくなったとき被写体の撮像を終了する。一方、カメラ112は、被写体が逆方向に搬送されている場合において、第1センサ119a3が被写体を検知したとき被写体の撮像を開始し、第1センサ119a2が被写体を検知しなくなったとき被写体の撮像を終了する。すなわち、カメラ112は、第1センサ119a2,119a3の検知信号に基づいて、被写体の撮像を開始すると共に、被写体の撮像を終了する。 When the subject is being transported in the forward direction, the camera 112 starts capturing images of the subject when the first sensor 119a2 detects the subject, and ends capturing images of the subject when the first sensor 119a3 no longer detects the subject. do. On the other hand, when the subject is being transported in the opposite direction, the camera 112 starts capturing images of the subject when the first sensor 119a3 detects the subject, and captures images of the subject when the first sensor 119a2 no longer detects the subject. end. That is, the camera 112 starts and ends imaging the subject based on the detection signals of the first sensors 119a2 and 119a3.

なお、カメラ(本発明における撮像部)は、例えば、第1センサ119a1の検知信号と、ベルトコンベアの搬送速度と、に基づいて、撮像時間間隔(タイミングレート)を変更しながら被写体を撮像してもよい。 Note that the camera (the imaging unit in the present invention) images the subject while changing the imaging time interval (timing rate) based on, for example, the detection signal of the first sensor 119a1 and the conveyance speed of the belt conveyor. Good too.

前述のとおり、カメラ112は、ラインスキャンカメラであり、撮像の開始から終了までの間に取得した一連の画像データ(ライン状の画像データ)を合成して撮像画像を生成する。そのため、カメラ112の撮像範囲と第1センサ119a2,119a3との間隔を狭めることで、搬送方向における撮像画像の長さと、同撮像画像に撮像されている被写体の長さとは、略同じとなる。つまり、本装置100は、撮像画像において、搬送方向に直交する方向における被写体の位置を特定することにより、撮像画像内の被写体の位置情報を決定することができる。 As described above, the camera 112 is a line scan camera, and generates a captured image by combining a series of image data (line-shaped image data) acquired from the start to the end of imaging. Therefore, by narrowing the distance between the imaging range of the camera 112 and the first sensors 119a2 and 119a3, the length of the captured image in the transport direction and the length of the subject captured in the same captured image become approximately the same. In other words, the apparatus 100 can determine the position information of the subject in the captured image by specifying the position of the subject in the direction perpendicular to the transport direction in the captured image.

本実施例では、制御装置127が撮像画像内の被写体の位置情報を決定する。すなわち、制御装置127は、本発明における位置決定部として機能する。制御装置127(位置決定部14)は、第2センサ119b1-119b8の検知信号に基づいて、撮像画像内の搬送方向に直交する方向における被写体の位置を特定することにより、撮像画像内における被写体の位置情報を決定する。 In this embodiment, the control device 127 determines the position information of the subject within the captured image. That is, the control device 127 functions as a position determining section in the present invention. The control device 127 (position determining unit 14) determines the position of the subject in the captured image by specifying the position of the subject in the captured image in the direction orthogonal to the transport direction based on the detection signals of the second sensors 119b1-119b8. Determine location information.

図7は、本装置100による被写体の位置情報の決定例を示す模式図である。
同図は、カメラ112により撮像された撮像画像の例を模式的に示す。同図は、第2センサ119b1-119b8の光束を二点鎖線で示す。同図は、第2センサ119b2-119b5の光束が被写体により遮られていることを示す。
FIG. 7 is a schematic diagram showing an example of determining position information of a subject by the present device 100.
The figure schematically shows an example of a captured image captured by the camera 112. In the same figure, the light fluxes of the second sensors 119b1-119b8 are indicated by two-dot chain lines. This figure shows that the light beams of the second sensors 119b2-119b5 are blocked by the subject.

ここで、カメラ112の撮像範囲と、第2センサ119b1-119b8の検知範囲(光束の位置)とは、予め関連付けられて制御装置127(記憶部13)に記憶されている。そのため、制御装置127(位置決定部14)は、第2センサ119b1-119b8の光束のうち、被写体に遮られている光束の位置に基づいて、被写体の位置情報を決定することができる。すなわち、例えば、図7に示される例において、制御装置127(位置決定部14)は、撮像画像内において、第2センサ119b1,119b6の光束と、撮像画像の搬送方向における両端と、により構成される矩形の領域(被写体領域)内に被写体が位置していることを特定することができる。つまり、制御装置127(位置決定部14)は、撮像画像内における被写体領域の座標を被写体の位置情報として決定する。 Here, the imaging range of the camera 112 and the detection range (position of the light flux) of the second sensors 119b1-119b8 are stored in advance in the control device 127 (storage unit 13) in association with each other. Therefore, the control device 127 (position determining unit 14) can determine the position information of the subject based on the position of the light flux blocked by the subject among the light fluxes of the second sensors 119b1-119b8. That is, for example, in the example shown in FIG. 7, the control device 127 (position determining unit 14) is configured by the light beams of the second sensors 119b1 and 119b6 and both ends of the captured image in the transport direction in the captured image. It can be specified that the subject is located within a rectangular area (subject area). That is, the control device 127 (position determining unit 14) determines the coordinates of the subject area within the captured image as the subject position information.

なお、本発明における位置決定部は、被写体が第1センサ119a2を通過してからカメラが撮像画像を撮像するまでの時間に基づいて、被写体と第1センサ119a2との距離を算出して、被写体領域をさらに限定してもよい。また、本発明における位置決定部は、周囲画像に撮像されている基準マーカや、鏡などの位置に基づいて、被写体の位置情報を決定してもよい。 Note that the position determination unit in the present invention calculates the distance between the subject and the first sensor 119a2 based on the time from when the subject passes the first sensor 119a2 until the camera captures the captured image, and locates the subject. The area may be further limited. Further, the position determination unit in the present invention may determine the position information of the subject based on the position of a reference marker captured in the surrounding image, a mirror, or the like.

また、同図は、撮像画像に鏡117b1,117b2と、鏡117b1,117b2に写り込んでいる被写体の側面と、が撮像されていることを示す。このように鏡117b1,117b2を撮像範囲に配置することにより、本装置100は、被写体を撮像するごとに、同被写体の側面の画像を被写体情報として取得することができる。 The figure also shows that the mirrors 117b1 and 117b2 and the side surfaces of the subject reflected in the mirrors 117b1 and 117b2 are captured in the captured image. By arranging the mirrors 117b1 and 117b2 in the imaging range in this way, the device 100 can acquire a side image of the subject as subject information every time the subject is imaged.

さらに、カメラ(本発明における撮像部)は、エリアカメラでもよい。この場合、例えば、本装置は、格子状に配置された第2センサの検知信号に基づいて、撮像画像内における被写体の位置情報を決定してもよい。 Furthermore, the camera (imaging unit in the present invention) may be an area camera. In this case, for example, the present device may determine the position information of the subject within the captured image based on the detection signal of the second sensor arranged in a grid pattern.

さらにまた、位置関係変更部と共に、あるいは、位置関係変更部に代えて、本装置の使用者が、被写体の向きや姿勢を変更してもよい。この場合であっても、カメラは、撮像ごとに、被写体とカメラとの位置関係が異なる撮像画像を出力可能である。この構成によれば、使用者は、未取得の教師データや取得機会の少ない教師データを効率的に取得可能である。 Furthermore, the user of the present device may change the orientation and posture of the subject together with or in place of the positional relationship changing unit. Even in this case, the camera can output captured images in which the positional relationship between the subject and the camera differs each time the image is captured. According to this configuration, the user can efficiently acquire unobtained teacher data or teacher data with few acquisition opportunities.

さらにまた、制御装置(記憶部)は、複数の識別情報や、識別情報の基となる撮像画像、を記憶していてもよい。この場合、制御装置は、使用者が入力した種別情報に関連付けられて制御装置(記憶部)に記憶されている識別情報(または、撮像画像)を表示装置(例えば、タッチパネルや、本装置に接続されるモニタなど)に出力してもよい。その結果、使用者は、表示装置に表示された識別情報(または、撮像画像)に基づいて、被写体の向きや形状を変更可能である。すなわち、例えば、使用者は、表示装置を確認することにより、未撮像あるいは撮像機会の少ない被写体の向きや形状を把握して、効率的に教師データを取得可能である。 Furthermore, the control device (storage unit) may store a plurality of pieces of identification information and a captured image that is the basis of the identification information. In this case, the control device connects the identification information (or captured image) stored in the control device (storage unit) to the type information input by the user to a display device (e.g., touch panel, or this device). (e.g., a monitor). As a result, the user can change the orientation and shape of the subject based on the identification information (or the captured image) displayed on the display device. That is, for example, by checking the display device, the user can grasp the orientation and shape of a subject that has not been imaged or has few opportunities to be imaged, and can efficiently acquire training data.

さらにまた、被写体の種別情報は、ネットワークを介して、本装置に接続される外部機器から送信されてもよい。また、本装置が表示装置に出力する識別情報や撮像画像は、ネットワークを介して、本装置に接続される外部機器から送信されてもよい。 Furthermore, the subject type information may be transmitted from an external device connected to the present device via a network. Further, the identification information and the captured image that the present device outputs to the display device may be transmitted from an external device connected to the present device via a network.

●実施例(2)●
次に、本発明にかかる撮像装置の別の実施例について、先に説明した実施例と異なる部分を中心に説明する。本実施例における撮像装置は、ベルトコンベアと制御装置の構成と、表示部を備える点と、において、先に説明した実施例における撮像装置と異なる。
●Example (2)●
Next, another embodiment of the imaging device according to the present invention will be described, focusing on the differences from the previously described embodiment. The imaging device in this embodiment differs from the imaging device in the previously described embodiments in the configuration of the belt conveyor and the control device, and in that it includes a display section.

●実施例(2)の構成
図8は、本装置の別の実施例を示す模式図である。
●Configuration of Example (2) FIG. 8 is a schematic diagram showing another example of the present device.

本装置100Aは、タッチパネル111と、カメラ112と、振動装置116と、重量計117aと、一対の鏡117b1,117b2(図6参照)と、ベルトコンベア118Aと、4個の第1センサ119a1-119a4と、8個の第2センサ119b1-119b8(図6参照)と、液晶ディスプレイ120Aと、照明121と、制御装置127Aと、を有してなる。 This device 100A includes a touch panel 111, a camera 112, a vibration device 116, a weight scale 117a, a pair of mirrors 117b1 and 117b2 (see FIG. 6), a belt conveyor 118A, and four first sensors 119a1-119a4. , eight second sensors 119b1-119b8 (see FIG. 6), a liquid crystal display 120A, a lighting 121, and a control device 127A.

ベルトコンベア118Aは、ベルトコンベア118Aの載置面118aAに載置された被写体を搬送する。ベルトコンベア118Aは、本発明における載置部の例である。ベルトコンベア118Aは、被写体を正方向(図8の紙面左方向)と逆方向(図8の紙面右方向)とに搬送可能である。ベルトコンベア118Aの載置面118aAは、例えば、金属製のメッシュである。 The belt conveyor 118A conveys the subject placed on the placement surface 118aA of the belt conveyor 118A. Belt conveyor 118A is an example of a mounting section in the present invention. The belt conveyor 118A can transport the subject in the forward direction (to the left in the paper of FIG. 8) and in the reverse direction (to the right in the paper of FIG. 8). The mounting surface 118aA of the belt conveyor 118A is, for example, a metal mesh.

なお、ベルトコンベアの載置面は、例えば、透明な合成樹脂製でもよい。 Note that the mounting surface of the belt conveyor may be made of, for example, transparent synthetic resin.

液晶ディスプレイ120Aは、カメラ112の撮像範囲、かつ、ベルトコンベア118Aの下方に配置されて、表示画像をカメラ112に向けて表示する。液晶ディスプレイ120Aは、本発明における表示部の例である。 The liquid crystal display 120A is arranged in the imaging range of the camera 112 and below the belt conveyor 118A, and displays a display image toward the camera 112. The liquid crystal display 120A is an example of a display section in the present invention.

制御装置127Aは、本装置100Aの全体の動作の制御や、本方法の動作に必要な情報の記憶、被写体の位置情報の決定、表示画像の選択、被写体情報の取得、被識別体の識別を実行する。すなわち、制御装置127Aは、本発明における記憶部と、位置決定部と、被写体情報取得部と、撮像環境変更部と、識別部と、制御部と、の例である。制御装置127Aは、例えば、パーソナルコンピュータで実現される。 The control device 127A controls the overall operation of the present device 100A, stores information necessary for the operation of this method, determines position information of a subject, selects a display image, obtains subject information, and identifies a subject to be identified. Execute. That is, the control device 127A is an example of a storage section, a position determination section, a subject information acquisition section, an imaging environment change section, an identification section, and a control section in the present invention. The control device 127A is realized by, for example, a personal computer.

●実施例(2)の動作
次いで、本実施例(2)における本装置100Aの動作について、図2、図8を参照しながら説明する。
●Operation of Example (2) Next, the operation of the apparatus 100A in Example (2) will be described with reference to FIGS. 2 and 8.

本装置100Aは、撮像環境指示に基づいて、カメラ112が被写体を撮像するときに周囲画像として撮像される液晶ディスプレイ120Aの表示画像を変更する(S114)。 The device 100A changes the image displayed on the liquid crystal display 120A, which is captured as a surrounding image when the camera 112 captures an image of the subject, based on the imaging environment instruction (S114).

制御装置127A(記憶部13)は、予め複数の候補画像を記憶している。制御装置127Aは、複数の候補画像の中から表示画像を選択する。すなわち、制御装置127A(撮像環境変更部21)は、液晶ディスプレイ120Aに表示される表示画像を変更する、本発明における撮像環境変更部として機能する。表示画像の選択は、本装置100Aの使用者などによる指示や、制御装置127A(記憶部13)に記憶されているプログラムなどの指示(環境変更指示)に従って実行される。候補画像は、例えば、実際の製造ラインの画像や、被写体と同一種別の製品(産品)の画像、被写体のコントラストを明確にする色彩の壁紙、などである。 The control device 127A (storage unit 13) stores a plurality of candidate images in advance. The control device 127A selects a display image from among the plurality of candidate images. That is, the control device 127A (imaging environment changing unit 21) functions as an imaging environment changing unit in the present invention that changes the display image displayed on the liquid crystal display 120A. Selection of a display image is performed according to an instruction from a user of the device 100A or an instruction (environment change instruction) from a program stored in the control device 127A (storage unit 13). The candidate images include, for example, an image of an actual production line, an image of a product of the same type as the subject, a wallpaper with a color that makes the contrast of the subject clear, and the like.

液晶ディスプレイ120Aは、メッシュであるベルトコンベア118Aの載置面118aAを介して、表示画像をカメラ112に向けて表示する。液晶ディスプレイ120Aは、制御装置127A(撮像環境変更部21)の選択に基づいて、表示画像を変更する。換言すれば、液晶ディスプレイ120Aは、制御装置127A(撮像環境変更部21)の制御により、撮像環境(周囲画像)を変更する。その結果、制御装置127A(撮像環境変更部21)が撮像環境を変更した後に撮像された撮像画像の周囲画像は、制御装置127A(撮像環境変更部21)が撮像環境を変更する前に撮像された撮像画像の周囲画像とは異なる。 The liquid crystal display 120A displays a display image toward the camera 112 via the mesh placement surface 118aA of the belt conveyor 118A. The liquid crystal display 120A changes the displayed image based on the selection by the control device 127A (imaging environment changing unit 21). In other words, the liquid crystal display 120A changes the imaging environment (surrounding image) under the control of the control device 127A (imaging environment changing unit 21). As a result, the surrounding image of the captured image captured after the control device 127A (imaging environment changing unit 21) changes the imaging environment is not captured before the control device 127A (imaging environment changing unit 21) changes the imaging environment. This is different from the surrounding image of the captured image.

なお、液晶ディスプレイは、ベルトコンベアの下方ではなく、ベルトコンベアの側方に立てて配置されてもよい。この場合、カメラは、周囲画像に液晶ディスプレイが撮像されるように、被写体の側方から被写体を撮像する。また、この場合、ベルトコンベアの載置面は、メッシュや透明でなくともよい。 Note that the liquid crystal display may be placed upright on the side of the belt conveyor instead of below the belt conveyor. In this case, the camera images the subject from the side so that the liquid crystal display is captured in the surrounding image. Moreover, in this case, the mounting surface of the belt conveyor does not need to be mesh or transparent.

また、本装置は、液晶ディスプレイ120Aに代えて、リアプロジェクション装置(画面に見立てたスクリーンの背面から映像を投影する装置)や、超単焦点プロジェクタ(以下「プロジェクタ」という。)を備えてもよい。前者の場合、リアプロジェクション装置は、ベルトコンベアの下方(載置面の背面側)に配置される。ベルトコンベアの載置面は、例えば、リアプロジェクション装置からの映像が投影可能な透明な合成樹脂製である。後者の場合、プロジェクタは、ベルトコンベアの下方(載置面の背面側)に配置されてもよく、ベルトコンベアの側方に配置されてもよい。ベルトコンベアの載置面は、例えば、プロジェクタからの映像が投影可能な(透明な)合成樹脂製である。 Further, the present device may include a rear projection device (a device that projects an image from the back of a screen that looks like a screen) or a super single focus projector (hereinafter referred to as "projector") in place of the liquid crystal display 120A. . In the former case, the rear projection device is arranged below the belt conveyor (on the back side of the mounting surface). The mounting surface of the belt conveyor is made of, for example, a transparent synthetic resin onto which images from a rear projection device can be projected. In the latter case, the projector may be placed below the belt conveyor (on the back side of the mounting surface) or on the side of the belt conveyor. The mounting surface of the belt conveyor is, for example, made of (transparent) synthetic resin on which images from a projector can be projected.

さらに、本発明における撮像環境変更部は、撮像画像を撮像後に周囲画像を候補画像の中から選択した置換画像で置換(合成)してもよい。「置換画像」は、例えば、実際の製造ラインにおいてカメラに撮像され得る製品(産品)の背景の画像や、複数の良品(不良品)の画像、複数の良品(不良品)の画像を所定の角度で回転させた画像である。この場合、回転前の画像は本発明における第1候補画像であり、回転後の画像は本発明における第2候補画像である。置換画像を回転させることで、本装置は、例えば、少数の良品の画像を用いて、様々な角度の良品の画像を置換画像として周囲画像と置換して、多数の良品の中に存在する不良品(被写体)の撮像画像を容易に合成することができる。周囲画像を置換画像で置換する場合、撮像環境変更部は、置換前の撮像画像の被写体画像の位置情報(座標)を、置換画像で置換後の撮像画像と関連付けて記憶部に記憶する。 Further, the imaging environment changing unit in the present invention may replace (synthesize) the surrounding image with a replacement image selected from candidate images after capturing the captured image. A "replacement image" is, for example, an image of the background of a product that can be captured by a camera on an actual manufacturing line, images of multiple non-defective products (defective products), or images of multiple non-defective products (defective products). This is an image rotated by an angle. In this case, the image before rotation is the first candidate image in the present invention, and the image after rotation is the second candidate image in the present invention. By rotating the replacement image, this device can, for example, use a small number of images of non-defective products to replace surrounding images with images of the non-defective products from various angles as replacement images, and detect defects that exist among a large number of non-defective products. Captured images of good products (subjects) can be easily combined. When replacing the surrounding image with the replacement image, the imaging environment changing unit stores the position information (coordinates) of the subject image in the captured image before replacement in the storage unit in association with the captured image after replacement with the replacement image.

●実施例(3)●
次に、本発明にかかる撮像装置のさらに別の実施例について、先に説明した実施例(1),(2)と異なる部分を中心に説明する。本実施例における撮像装置は、第1特定処理部と第2特定処理部と被識別体検知部とを備える点において、先に説明した実施例(1),(2)における撮像装置と異なる。
●Example (3)●
Next, still another embodiment of the imaging device according to the present invention will be described, focusing on the differences from the previously described embodiments (1) and (2). The imaging device in this embodiment differs from the imaging devices in the previously described embodiments (1) and (2) in that it includes a first identification processing section, a second identification processing section, and an identification object detection section.

●実施例(3)の構成
図9は、本装置のさらに別の実施例を示す模式図である。
●Configuration of Example (3) FIG. 9 is a schematic diagram showing yet another example of the present device.

本装置100Bは、筐体101と、タッチパネル111と、カメラ112と、振動装置116と、重量計117aと、一対の鏡117b1,117b2(図6参照)と、ベルトコンベア118と、4個の第1センサ119a1-119a4と、8個の第2センサ119b1-119b8(図6参照)と、照明121と、レーザポインタ124Bと、被識別体検知センサ126Bと、制御装置127Bと、を有してなる。 This device 100B includes a housing 101, a touch panel 111, a camera 112, a vibration device 116, a weighing scale 117a, a pair of mirrors 117b1 and 117b2 (see FIG. 6), a belt conveyor 118, and four parts. 1 sensor 119a1-119a4, eight second sensors 119b1-119b8 (see FIG. 6), illumination 121, laser pointer 124B, object detection sensor 126B, and control device 127B. .

レーザポインタ124Bは、本装置100Bが識別モードで動作しているとき、特定種別に識別された被識別体にレーザ光を照射して、被識別体が特定種別に識別されたことを視認可能にする。レーザポインタ124Bは、本発明における特定処理部の例である。 When the device 100B is operating in the identification mode, the laser pointer 124B irradiates a laser beam to an object to be identified that has been identified as a specific type, so that it can be visually recognized that the object to be identified has been identified as a specific type. do. The laser pointer 124B is an example of a specific processing unit in the present invention.

被識別体検知センサ126Bは、ベルトコンベア118の所定の位置において、レーザ光が照射された被識別体の有無を検知する。被識別体検知センサ126Bは、例えば、ビームセンサである。被識別体検知センサ126Bは、本発明における被識別体検知部の例である。 The object detection sensor 126B detects the presence or absence of an object irradiated with laser light at a predetermined position on the belt conveyor 118. The object detection sensor 126B is, for example, a beam sensor. The object detection sensor 126B is an example of an object detection section in the present invention.

「所定の位置」は、例えば、第1センサ119a3と第1センサ119a4との間であって、レーザ光が照射されている被識別体を本装置1の使用者が除去可能な位置である。 The "predetermined position" is, for example, a position between the first sensor 119a3 and the first sensor 119a4, where the user of the apparatus 1 can remove the object to be identified that is irradiated with the laser beam.

なお、例えば、第1センサ(第1センサ119a4に相当)が被識別体検知センサとして機能してもよい。 Note that, for example, the first sensor (corresponding to the first sensor 119a4) may function as an identification object detection sensor.

制御装置127Bは、本装置100Bの全体の動作の制御や、本方法の動作に必要な情報の記憶、被写体の位置情報の決定、被写体情報の取得、被識別体の識別を実行する。すなわち、制御装置127Bは、本発明における記憶部と、位置決定部と、被写体情報取得部と、識別部と、制御部と、の例である。制御装置127Bは、例えば、パーソナルコンピュータで実現される。 The control device 127B controls the overall operation of the present device 100B, stores information necessary for the operation of this method, determines position information of a subject, obtains subject information, and identifies a subject to be identified. That is, the control device 127B is an example of a storage section, a position determination section, a subject information acquisition section, an identification section, and a control section in the present invention. The control device 127B is realized by, for example, a personal computer.

●実施例(3)の動作
次いで、本実施例(3)における本装置100Bの動作について、図4、図9を参照しながら説明する。
●Operation of Example (3) Next, the operation of the apparatus 100B in Example (3) will be described with reference to FIGS. 4 and 9.

本装置100Bは、被識別体に対応する種別情報を識別し(S209)、同種別情報が特定種別情報であるか否かを判定し(S210)、被識別体の種別情報が特定種別情報であるとき同被識別体にレーザ光を照射し(S211)、レーザ光が照射された被識別体の有無を検知し(S212)、レーザ光の照射態様を変更する(S213)。 The device 100B identifies the type information corresponding to the object to be identified (S209), determines whether the same type information is specific type information (S210), and determines whether the type information of the object to be identified is specific type information. At some point, the object to be identified is irradiated with a laser beam (S211), the presence or absence of the object to be identified that has been irradiated with the laser beam is detected (S212), and the irradiation mode of the laser beam is changed (S213).

制御装置127B(識別部23)は、被識別体の撮像画像と、識別情報と、に基づいて、被識別体の種別情報を識別して、同種別情報が特定種別情報であるか否かを確認する(S210)。 The control device 127B (identification unit 23) identifies the type information of the object to be identified based on the captured image of the object to be identified and the identification information, and determines whether the same type information is specific type information. Confirm (S210).

被識別体の種別情報が特定種別情報である場合(S210の「Yes」)、レーザポインタ124Bは、同被識別体にレーザ光を照射して、同被識別体を強調して視認可能にする(S211)。このとき、制御装置127B(制御部27)は、撮像画像内の被識別体の位置情報と、ベルトコンベア118の移動速度と、に基づいて、被識別体の移動経路を予測して、予測結果をレーザポインタ124Bに送信する。すなわち、レーザポインタ124Bは、ベルトコンベア118で搬送される被識別体を追尾するように、同識別体にレーザ光を照射する。 If the type information of the object to be identified is specific type information ("Yes" in S210), the laser pointer 124B irradiates the object to be identified with laser light to highlight the object and make it visible. (S211). At this time, the control device 127B (control unit 27) predicts the movement path of the object to be identified based on the position information of the object to be identified in the captured image and the moving speed of the belt conveyor 118, and obtains a prediction result. is transmitted to the laser pointer 124B. That is, the laser pointer 124B irradiates the object to be identified with laser light so as to track the object being transported by the belt conveyor 118.

図10は、被識別体にレーザ光が照射されている状態を示す模式図である。
同図は、被識別体とレーザ光それぞれが移動していく様子を矢印で示す。同図は、点灯しているレーザ光を実線の円で、点滅しているレーザ光を破線の円で、それぞれ示す。
FIG. 10 is a schematic diagram showing a state in which an object to be identified is irradiated with laser light.
In the figure, arrows indicate how the object to be identified and the laser beam move. In the figure, lit laser beams are shown as solid-line circles, and blinking laser beams are shown as broken-line circles.

このように、レーザポインタ124Bは、制御装置127B(制御部27)の予測結果に基づいて、特定種別に識別された被識別体にレーザ光を照射して、同被識別体が特定種別に識別されたことを本装置100Bの使用者などに視認可能にする。レーザ光の照射は、本発明における特定処理の例である。 In this way, the laser pointer 124B irradiates the object identified as a specific type with a laser beam based on the prediction result of the control device 127B (control unit 27), so that the object to be identified is identified as the specific type. This allows the user of the device 100B to visually recognize what has been done. Laser light irradiation is an example of specific processing in the present invention.

なお、制御装置がレーザポインタの動作を制御してもよい。この場合、制御装置は、撮像環境変更部としても機能する。 Note that the control device may control the operation of the laser pointer. In this case, the control device also functions as an imaging environment changing section.

次いで、制御装置127Bは、被識別体検知センサ126Bの検知信号と、予測した被識別体の移動経路と、ベルトコンベア118の搬送速度と、に基づいて、被識別体検知センサ126Bが検知した被識別体がレーザ光が照射されている被識別体か否かを確認する(S212)。 Next, the control device 127B detects the object detected by the object detection sensor 126B based on the detection signal of the object detection sensor 126B, the predicted moving route of the object, and the conveyance speed of the belt conveyor 118. It is confirmed whether the object to be identified is the object to be identified that is irradiated with laser light (S212).

レーザ光が照射された被識別体を被識別体検知センサ126Bが検知したとき(S212の「Yes」)、レーザポインタ124Bは、レーザ光の照射態様を変更(例えば、レーザ光の照射態様を点灯から点滅へ変更)する(S213)。換言すれば、レーザポインタ124Bによるレーザ光の照射態様の変更は、本発明における第2特定処理の例である。すなわち、レーザポインタ124Bは、本発明における第2特定処理部として機能する。 When the object to be identified sensor 126B detects the object to be identified that has been irradiated with the laser light ("Yes" in S212), the laser pointer 124B changes the irradiation mode of the laser light (for example, changes the irradiation mode of the laser light to (changes from flashing to flashing) (S213). In other words, changing the laser beam irradiation mode by the laser pointer 124B is an example of the second specifying process in the present invention. That is, the laser pointer 124B functions as a second specific processing section in the present invention.

なお、本装置は、レーザ光が照射された被識別体を被識別体検知センサが検知したとき、ベルトコンベアの動作を停止してもよい。この場合、ベルトコンベアは、本発明における第2特定処理部として機能する。本装置によるベルトコンベアの動作の停止は、即時実行されてもよく、あるいは、所定の条件(例えば、被識別体が使用者により除去可能な位置まで搬送されたとき、被識別体検知センサの検知から所定時間経過したとき)を満たしたときに実行されてもよい。 Note that the present apparatus may stop the operation of the belt conveyor when the object to be identified sensor detects the object to be identified that has been irradiated with the laser beam. In this case, the belt conveyor functions as the second specific processing section in the present invention. The operation of the belt conveyor by the present device may be stopped immediately or under predetermined conditions (for example, when the object to be identified is conveyed to a position where it can be removed by the user, the object to be identified is detected by the object detection sensor). (when a predetermined period of time has elapsed since).

また、本装置は、例えば、被識別体センサに代えて、レーザ光が照射された被識別体を本装置の使用者などが取り除く動作を検知するセンサ(エリアセンサなど)や、同使用者などの手が被識別体のレーザ光の被照射面を覆ったことを検知するセンサ(第2のカメラなど)の検知結果に基づいて、レーザ光の照射を終了してもよい。 In addition, for example, in place of the identification object sensor, this device may be equipped with a sensor (area sensor, etc.) that detects an operation of a user of this device to remove an object to be identified that has been irradiated with laser light; Laser light irradiation may be terminated based on a detection result of a sensor (such as a second camera) that detects that the object's hand covers the surface of the object to be irradiated with laser light.

さらに、本装置は、レーザ光が照射された被識別体を被識別体検知センサが検知したとき、同被識別体をベルトコンベアから除去してもよい。この場合、同識別体をベルトコンベアから除去する手段(例えば、ロボットアームや、ベルトコンベア上に配置された選別機など)は、本発明における第2特定処理部として機能する。 Further, the present device may remove the object to be identified from the belt conveyor when the object to be identified sensor detects the object to be identified that has been irradiated with the laser beam. In this case, the means for removing the identification object from the belt conveyor (for example, a robot arm, a sorting machine placed on the belt conveyor, etc.) functions as the second identification processing section in the present invention.

さらにまた、レーザポインタ(本発明における特定処理部)は、レーザ光を照射してから所定時間が経過したときに、レーザ光の照射態様を変更(第2特定処理を実行)してもよい。この場合、レーザポインタは、本発明における第2特定処理部として機能する。 Furthermore, the laser pointer (the specific processing section in the present invention) may change the laser beam irradiation mode (perform the second specific processing) when a predetermined time has elapsed since the laser pointer was irradiated with the laser beam. In this case, the laser pointer functions as a second specific processing section in the present invention.

さらにまた、本装置は、レーザ光が照射された被識別体を被識別体検知センサが検知したとき、または、レーザ光が照射されてから所定時間が経過したとき、その旨を音により報知する報知部を備えてもよい。この場合、報知部は、本発明における第2特定処理部として機能する。 Furthermore, when the object detection sensor detects the object to be identified that has been irradiated with the laser beam, or when a predetermined period of time has elapsed since the object has been irradiated with the laser beam, this device notifies the user with a sound. It may also include a notification section. In this case, the notification section functions as a second specific processing section in the present invention.

さらにまた、本装置は、特定種別情報の内容に応じて、異なる特定処理を実行してもよい。すなわち、例えば、本装置は、被識別体の種別情報が形や色の不良品に対応する特定種別情報であるとき、赤色のレーザ光を被識別体に照射し、同種別情報が異物混入に対応する特定種別情報であるとき、青色のレーザ光を被識別体に照射してもよい。 Furthermore, the present device may perform different specific processing depending on the content of the specific type information. That is, for example, when the type information of the object to be identified is specific type information corresponding to a defective product in shape or color, this device irradiates the object with red laser light and detects that the same type information corresponds to a defective product due to foreign matter. When it is the corresponding specific type information, the object to be identified may be irradiated with blue laser light.

さらにまた、本装置は、レーザポインタに代えて、例えば、プロジェクションマッピングを被識別体に投影可能なプロジェクタを備えてもよい。この場合、プロジェクタは、特定種別情報の内容に応じて、マッピングの投影態様を変更してもよい。すなわち、例えば、プロジェクタは、被識別体の種別情報が形や色の不良品に対応する特定種別情報であるとき、赤色の円を被識別体に投影し、同種別情報が異物混入に対応する特定種別情報であるとき、さらに「!」などの注意喚起を促す文字や、円を強調する図形などを追加投影してもよい。このように、特定種別情報の内容に応じてマッピングの投影態様を変更することにより、本装置の使用者は被識別体の識別作業(不良品の除去作業など)の効率化を図ることができると共に、同使用者は優先して除去すべき被識別体を選択することができる。 Furthermore, instead of the laser pointer, the present device may include, for example, a projector capable of projecting projection mapping onto the object to be identified. In this case, the projector may change the mapping projection mode depending on the content of the specific type information. That is, for example, when the type information of the object to be identified is specific type information corresponding to a defective product in shape or color, the projector projects a red circle onto the object to be identified, and the projector projects a red circle onto the object to be identified when the type information of the object to be identified corresponds to a defective product in terms of shape or color. When the information is of a specific type, a character such as "!" or a figure that emphasizes a circle may be additionally projected. In this way, by changing the mapping projection mode according to the content of the specific type information, the user of this device can improve the efficiency of the identification work of the object to be identified (such as the removal of defective products). At the same time, the same user can select an object to be identified to be removed with priority.

さらにまた、本装置は、プロジェクタの投影位置を載置部の載置面に合わせる調整手段を備えてもよい。調整手段は、例えば、載置面に配置される位置決め用のマークと、プロジェクタを移動させる移動機構と、で構成される。この場合、使用者は、例えば、プロジェクタから位置決め用画像を載置面に投影して、載置面のマークと、位置決め用画像と、が重なるように移動機構を操作してプロジェクタの位置を調整する。載置面のマークは、載置面に直接付されてもよく、あるいは、載置面に着脱可能でもよい。また、タッチパネルとプロジェクタの投影補正機能(例えば、台形補正やズーム、焦点など)とを連動させて、タッチパネル操作による投影補正機能を本装置が備えてもよい。 Furthermore, the present device may include an adjusting means for adjusting the projection position of the projector to the mounting surface of the mounting section. The adjusting means includes, for example, a positioning mark placed on the mounting surface and a moving mechanism that moves the projector. In this case, the user, for example, projects the positioning image from the projector onto the mounting surface and adjusts the position of the projector by operating the moving mechanism so that the mark on the mounting surface and the positioning image overlap. do. The mark on the placement surface may be directly attached to the placement surface, or may be removable from the placement surface. Further, the touch panel may be linked with a projection correction function (for example, keystone correction, zoom, focus, etc.) of the projector, and the present apparatus may be provided with a projection correction function by touch panel operation.

このように、特定種別(例えば、不良品など)に識別された被識別体を視認可能とすることにより、本装置100Bの使用者は、極めて容易に同被識別体を製造ラインなどから除去することが可能となる。 In this way, by making it possible to visually recognize an object that has been identified as a specific type (for example, a defective product), the user of the device 100B can very easily remove the same object from the production line, etc. becomes possible.

さらにまた、本実施例において、本装置は、識別部の識別の確度を算出し、算出した確度に基づいて、被識別体を分類してもよい。「確度」は、識別部が識別した種別情報の正確性を示す度合である。確度は、例えば、公知の手法を用いて、識別部により算出される。この場合、識別部は、本発明における特定処理部の例である。被識別体の分類は、例えば、本装置が備えるロボットアームにより実行される。ロボットアームは、本発明における第2特定処理部の例である。 Furthermore, in this embodiment, the apparatus may calculate the identification accuracy of the identification unit and classify the object to be identified based on the calculated accuracy. "Accuracy" is a degree indicating the accuracy of the type information identified by the identification unit. The accuracy is calculated by the identification unit using, for example, a known method. In this case, the identification unit is an example of the specific processing unit in the present invention. The classification of objects to be identified is performed, for example, by a robot arm included in the present device. The robot arm is an example of the second specific processing unit in the present invention.

図11は、本装置のさらに別の実施例の変形例を示す模式図である。
同図は、ベルトコンベア118により搬送される被識別体がロボットアーム125B1により分類されていることを示す。
FIG. 11 is a schematic diagram showing a modification of yet another embodiment of the present device.
This figure shows that the objects to be identified that are transported by the belt conveyor 118 are classified by the robot arm 125B1.

ロボットアーム125B1は、例えば、被識別体検知センサ126Bを通過した被識別体を分類可能な位置に配置される。ロボットアーム125B1は、例えば、制御装置127B1(識別部23)が算出した確度に基づいて、被識別体検知センサ126Bに検知された被識別体を分類する。すなわち、例えば、種別情報「不良品」の確度が「80以上」のとき、ロボットアーム125B1は、被識別体をベルトコンベア118の進行方向左側(図11の紙面上側)に移動させる。一方、同確度が「79未満」のとき、ロボットアーム125B1は、被識別体をベルトコンベア118の進行方向右側(図11の紙面下側)に移動させる。換言すれば、ロボットアーム125B1は、被識別体が特定種別情報に識別されたこと、および、その確度、を使用者に対して視認可能にする。この構成によれば、使用者は、ベルトコンベア118の進行方向右側に位置する被識別体のみを検査することで、本装置による識別が曖昧な被識別体のみを確実に検査可能である。その結果、使用者は、識別の確度が十分ではない種別情報が混在していても、本装置を使用して被識別体の高精度な識別を可能とする。 The robot arm 125B1 is arranged, for example, at a position where it can classify objects that have passed through the object detection sensor 126B. The robot arm 125B1 classifies the object detected by the object detection sensor 126B based on the accuracy calculated by the control device 127B1 (identifier 23), for example. That is, for example, when the accuracy of the type information "defective product" is "80 or more", the robot arm 125B1 moves the object to be identified to the left in the traveling direction of the belt conveyor 118 (to the upper side of the paper in FIG. 11). On the other hand, when the accuracy is "less than 79", the robot arm 125B1 moves the object to be identified to the right in the traveling direction of the belt conveyor 118 (toward the bottom of the paper in FIG. 11). In other words, the robot arm 125B1 allows the user to visually confirm that the object to be identified has been identified by the specific type information and its accuracy. According to this configuration, by inspecting only the object to be identified located on the right side in the direction of movement of the belt conveyor 118, the user can reliably inspect only the object to be identified that is vaguely identified by the present apparatus. As a result, the user can use this device to identify the object with high precision even if there is a mixture of type information with insufficient identification accuracy.

●実施例(4)●
次に、本発明にかかる撮像装置のさらに別の実施例について、先に説明した実施例(1),(2),(3)と異なる部分を中心に説明する。本実施例における撮像装置は、形態変更部を備える点において、先に説明した実施例(1),(2),(3)における撮像装置と異なる。
●Example (4)●
Next, still another embodiment of the imaging device according to the present invention will be described, focusing on the differences from the previously described embodiments (1), (2), and (3). The imaging device in this example differs from the imaging devices in Examples (1), (2), and (3) described above in that it includes a form changing section.

●実施例(4)の構成
図12は、本装置のさらに別の実施例を示す模式図である。
●Configuration of Example (4) FIG. 12 is a schematic diagram showing yet another example of the present device.

本装置100Cは、タッチパネル111と、カメラ112と、押圧装置115Cと、振動装置116と、重量計117aと、一対の鏡117b1,117b2(図6参照)と、ベルトコンベア118と、4個の第1センサ119a1-119a4と、8個の第2センサ119b1-119b8(図6参照)と、照明121と、制御装置127Cと、を有してなる。 This device 100C includes a touch panel 111, a camera 112, a pressing device 115C, a vibration device 116, a weight scale 117a, a pair of mirrors 117b1 and 117b2 (see FIG. 6), a belt conveyor 118, and four 1 sensor 119a1-119a4, eight second sensors 119b1-119b8 (see FIG. 6), illumination 121, and control device 127C.

押圧装置115Cは、振動装置116に配置されて、振動装置116に搬入された被写体を押圧して、同被写体の形状を変形させる。すなわち、押圧装置115Cは、本発明における形態変更部の例である。 The pressing device 115C is disposed on the vibrating device 116 and presses the subject carried into the vibrating device 116 to deform the shape of the subject. That is, the pressing device 115C is an example of a shape changing section in the present invention.

なお、本装置は、押圧装置に代えて、あるいは、押圧装置と共に、被写体に熱を加える加熱装置や、被写体を切断する切断装置、被写体に穴をあける刺突装置など、被写体の形態を変更させる他の装置を備えてもよい。 In addition, instead of or in addition to the pressing device, this device can be used to change the shape of the object, such as a heating device that applies heat to the object, a cutting device that cuts the object, and a piercing device that makes a hole in the object. Other devices may also be included.

また、本装置は、押圧装置と振動装置とに代えて、例えば、ロボットアームのような被写体の向きを変更させると共に被写体の形状を変形させることが可能な装置(位置関係変更部の機能と形態変更部の機能とを併せ持つ装置)を備えてもよい。 In addition, instead of the pressing device and the vibration device, this device is capable of changing the orientation of the subject and deforming the shape of the subject, such as a robot arm (the function and form of the positional relationship changing section). A device that also has the function of a changing section) may be provided.

制御装置127Cは、本装置100Cの全体の動作の制御や、本方法の動作に必要な情報の記憶、被写体の位置情報の決定、被写体情報の取得、被識別体の識別を実行する。すなわち、制御装置127Cは、本発明における記憶部と、位置決定部と、被写体情報取得部と、識別部と、制御部と、の例である。制御装置127Cは、例えば、パーソナルコンピュータで実現される。 The control device 127C controls the overall operation of the present device 100C, stores information necessary for the operation of this method, determines position information of the subject, acquires subject information, and identifies the subject to be identified. That is, the control device 127C is an example of a storage section, a position determination section, a subject information acquisition section, an identification section, and a control section in the present invention. The control device 127C is realized by, for example, a personal computer.

●実施例(4)の動作
次いで、本実施例(4)における本装置100Cの動作について、図2、図12を参照しながら説明する。
●Operation of Example (4) Next, the operation of the apparatus 100C in Example (4) will be described with reference to FIGS. 2 and 12.

押圧装置115Cは、前述した変形指示に基づいて、振動装置116に搬送された被写体を押圧して、被写体の形状を変形させる(S117)。次いで、振動装置116は、変形した被写体をベルトコンベア118に戻す。ベルトコンベア118は、変形した被写体をカメラ112の撮像範囲に搬送する(S112)。 The pressing device 115C presses the object conveyed to the vibration device 116 to deform the shape of the object based on the above-mentioned deformation instruction (S117). Next, the vibrating device 116 returns the deformed object to the belt conveyor 118. The belt conveyor 118 conveys the deformed subject to the imaging range of the camera 112 (S112).

このように、本装置100Cは、押圧装置115C(本発明における形態変更部)を備えることにより、1つの被写体を用いて、同被写体の複数の撮像画像を撮像すると共に、形状を変形させた同被写体の複数の撮像画像を撮像する。換言すれば、本装置100Cは、1つの製品(産品)から、複数の良品の教師データを取得すると共に、複数の不良品の教師データを取得する。 In this manner, the present device 100C is equipped with the pressing device 115C (shape changing unit in the present invention), and thereby uses one subject to capture a plurality of captured images of the same subject, and also captures a plurality of captured images of the same subject. A plurality of captured images of a subject are captured. In other words, the device 100C acquires training data for a plurality of non-defective products and training data for a plurality of defective products from one product.

なお、形態変更部と共に、あるいは、形態変更部に代えて、本装置の使用者が、被写体の形態を変更してもよい。この場合であっても、カメラは、形態が異なる被写体の撮像画像を出力可能である。この構成によれば、使用者は、恣意的に被写体の形態を変更した教師データを取得可能である。 Note that the user of the apparatus may change the form of the subject together with or in place of the form changing unit. Even in this case, the camera can output captured images of subjects with different shapes. According to this configuration, the user can obtain training data in which the form of the subject is arbitrarily changed.

●実施例(5)●
次に、本発明にかかる撮像装置のさらに別の実施例について、先に説明した実施例(1),(2),(3),(4)と異なる部分を中心に説明する。本実施例における撮像装置は、既存のベルトコンベアに取り付けられる点(振動装置と重量計とベルトコンベアとを備えない点)において、先に説明した実施例(1),(2),(3),(4)における撮像装置と異なる。
●Example (5)●
Next, still another embodiment of the imaging device according to the present invention will be described, focusing on the differences from the previously described embodiments (1), (2), (3), and (4). The imaging device in this embodiment is similar to the previously described embodiments (1), (2), and (3) in that it can be attached to an existing belt conveyor (it does not include a vibration device, a weighing scale, and a belt conveyor). , (4).

●実施例(5)の構成
図13は、本装置のさらに別の実施例を示す模式図である。
●Configuration of Example (5) FIG. 13 is a schematic diagram showing yet another example of the present device.

本装置100Dは、タッチパネル111と、カメラ112と、一対の鏡117b1,117b2と、4個の第1センサ119a1-119a4と、8個の第2センサ119b1-119b8(図6参照)と、照明121と、制御装置127Dと、を有してなる。 This device 100D includes a touch panel 111, a camera 112, a pair of mirrors 117b1 and 117b2, four first sensors 119a1-119a4, eight second sensors 119b1-119b8 (see FIG. 6), and lighting 121. and a control device 127D.

本装置100Dは、既存のベルトコンベア(実際の製造ラインに配置されるベルトコンベア)Xに取り付けられる。本装置100Dは、被写体の形状を変形させる手段(本発明における形態変更部)と、被写体の向き(姿勢)を変更する手段(位置関係変更部)とを備えていない。そのため、例えば、本装置100Dの使用者が1種の製品(産品)を何度も向きを変えて本装置100Dに投入することにより、本装置100Dは、1つの種別情報に対応する複数の撮像画像を撮像する。このように、本装置100Dは、既存のベルトコンベアXに取り付けられるだけで、既存のベルトコンベアXを用いて、複数の教師データの収集と、製品(産品)の種別情報の識別と、を実行する。この場合であっても、カメラ112は、撮像ごとに、被写体とカメラ112との位置関係、または、被写体の形態、のいずれか一方が異なる撮像画像を出力可能である。 This device 100D is attached to an existing belt conveyor (belt conveyor placed on an actual production line) X. This device 100D does not include means for changing the shape of the subject (shape changing unit in the present invention) and means for changing the orientation (posture) of the subject (positional relationship changing unit). Therefore, for example, when the user of the device 100D changes the direction of one type of product (product) many times and puts it into the device 100D, the device 100D can capture multiple images corresponding to one type of information. Capture an image. In this way, the present device 100D can collect a plurality of pieces of training data and identify product type information using the existing belt conveyor X by simply being attached to the existing belt conveyor X. do. Even in this case, the camera 112 can output a captured image in which either the positional relationship between the subject and the camera 112 or the form of the subject differs for each image capture.

なお、本装置は、例えば、本装置の使用者が本装置に投入した製品(被写体)が、カメラに撮像された後に同製品を投入した位置に戻るように既存のベルトコンベアの動作を制御してもよい。すなわち、例えば、本装置は、第1センサ119a4が製品を検知したタイミングで、ベルトコンベアを逆回転させて、第1センサ119a1が製品を検知したタイミングで、ベルトコンベアの回転を戻してもよく、あるいは、ベルトコンベアの動作を一時的に停止してもよい。この構成によれば、本装置の使用者が1種の製品を何度も向きを変えて本装置に投入する作業の効率は、向上する。 Note that this device controls the operation of an existing belt conveyor so that, for example, the product (subject) that the user of this device throws into the device returns to the position where the product was thrown after being captured by the camera. It's okay. That is, for example, the present device may rotate the belt conveyor in reverse at the timing when the first sensor 119a4 detects the product, and return the rotation of the belt conveyor at the timing when the first sensor 119a1 detects the product. Alternatively, the operation of the belt conveyor may be temporarily stopped. According to this configuration, the efficiency of the work in which the user of the device changes the orientation of one type of product many times and feeds it into the device is improved.

また、本装置は、カメラの位置を変更する機構、すなわち、本発明における位置関係変更部を備えてもよい。 Further, the present device may include a mechanism for changing the position of the camera, that is, a positional relationship changing unit according to the present invention.

さらに、制御装置(記憶部)は、複数の識別情報や、識別情報の基となる撮像画像、を記憶していてもよい。この場合、制御装置は、使用者が入力した種別情報に関連付けられて制御装置(記憶部)に記憶されている識別情報(または、撮像画像)を表示装置に出力してもよい。その結果、使用者は、表示装置に表示された識別情報(または、撮像画像)に基づいて、被写体の向きや形状を変更可能である。すなわち、例えば、使用者は、表示装置を確認することにより、未撮像あるいは撮像機会の少ない被写体の向きや形状を把握して、効率的に教師データを収集可能である。 Furthermore, the control device (storage unit) may store a plurality of pieces of identification information and a captured image that is the basis of the identification information. In this case, the control device may output identification information (or a captured image) stored in the control device (storage unit) in association with the type information input by the user to the display device. As a result, the user can change the orientation and shape of the subject based on the identification information (or the captured image) displayed on the display device. That is, for example, by checking the display device, the user can grasp the orientation and shape of a subject that has not been imaged or has few opportunities to be imaged, and can efficiently collect training data.

●実施例(6)●
次に、本発明にかかる撮像装置のさらに別の実施例について、先に説明した実施例(1),(2),(3),(4),(5)と異なる部分を中心に説明する。本実施例における撮像装置は、ベルトコンベアに代えてターンテーブルを備える点において、先に説明した実施例(1),(2),(3),(4),(5)における撮像装置と異なる。
●Example (6)●
Next, still another embodiment of the imaging device according to the present invention will be described, focusing on the parts that are different from the previously described embodiments (1), (2), (3), (4), and (5). . The imaging device in this example differs from the imaging devices in Examples (1), (2), (3), (4), and (5) described above in that it includes a turntable instead of a belt conveyor. .

●実施例(6)の構成
図14は、本装置のさらに別の実施例を示す模式図である。
●Configuration of Example (6) FIG. 14 is a schematic diagram showing yet another example of the present device.

本装置200は、筐体201と、タッチパネル211と、カメラ212と、カメラ支持部材216と、ロードセル217と、ターンテーブル218と、照明221と、制御基板227と、を有してなる。 The device 200 includes a housing 201, a touch panel 211, a camera 212, a camera support member 216, a load cell 217, a turntable 218, a light 221, and a control board 227.

筐体201は、カメラ212と、カメラ支持部材216と、ロードセル217と、ターンテーブル218と、照明221と、制御基板227と、を収容する。 The housing 201 houses a camera 212, a camera support member 216, a load cell 217, a turntable 218, a light 221, and a control board 227.

タッチパネル211は、本装置200の使用者により被写体の種別情報が入力される入力デバイスである。タッチパネル211は、本発明における種別入力部の例である。タッチパネル211は、筐体201の外面に取り付けられる。 The touch panel 211 is an input device through which the user of the apparatus 200 inputs object type information. The touch panel 211 is an example of a type input section in the present invention. Touch panel 211 is attached to the outer surface of housing 201.

カメラ212は、カメラ支持部材216に取り付けられて、ターンテーブル218の上方から後述するターンテーブル218の載置面218aに載置された被写体を撮像する。カメラ212は、本発明における撮像部の例である。カメラ212は、例えば、エリアカメラである。 The camera 212 is attached to the camera support member 216 and images a subject placed on a placement surface 218a of the turntable 218, which will be described later, from above the turntable 218. Camera 212 is an example of an imaging unit in the present invention. Camera 212 is, for example, an area camera.

カメラ支持部材216は、ターンテーブル218の側方に配置されて、カメラ212の位置と向きとを変更する。カメラ支持部材216のうち、カメラ212が取り付けられる部分は、上下方向にスライド可能であると共に搖動可能である。すなわち、カメラ支持部材216は、被写体に対するカメラの位置と向きとを変更させる本発明における位置関係変更部の例である。 Camera support member 216 is disposed on the side of turntable 218 to change the position and orientation of camera 212. A portion of the camera support member 216 to which the camera 212 is attached is vertically slidable and swingable. That is, the camera support member 216 is an example of a positional relationship changing unit in the present invention that changes the position and orientation of the camera with respect to the subject.

ロードセル217は、ターンテーブル218の下方に配置されて、ターンテーブル218の重量と、ターンテーブル218に載置される被写体の重量と、を計測する。ロードセル217は、本発明における被写体情報取得部の例である。 The load cell 217 is disposed below the turntable 218 and measures the weight of the turntable 218 and the weight of the subject placed on the turntable 218. The load cell 217 is an example of a subject information acquisition unit in the present invention.

ターンテーブル218は、回転することで、カメラ212に対する被写体の位置や向きを変更する。ターンテーブル218は、被写体が載置される載置面218aを備える。ターンテーブル218は、本発明における載置部と位置関係変更部との例である。 The turntable 218 changes the position and orientation of the subject with respect to the camera 212 by rotating. The turntable 218 includes a placement surface 218a on which a subject is placed. The turntable 218 is an example of a mounting section and a positional relationship changing section in the present invention.

照明221は、カメラ212の撮像範囲内に載置された被写体を照らす。照明221は、本発明における撮像環境変更部の例である。 Illumination 221 illuminates a subject placed within the imaging range of camera 212. The illumination 221 is an example of an imaging environment changing unit in the present invention.

制御基板227は、本装置200の全体の動作の制御や、本方法の動作に必要な情報の記憶、被写体の位置情報の決定、被識別体の識別を実行する。制御基板227は、例えば、CPUとフラッシュメモリとを実装する。制御基板227は、本発明における記憶部と、位置決定部と、識別部と、制御部と、の例である。 The control board 227 controls the overall operation of the present apparatus 200, stores information necessary for the operation of this method, determines position information of the subject, and identifies the subject. The control board 227 mounts, for example, a CPU and a flash memory. The control board 227 is an example of a storage section, a position determination section, an identification section, and a control section in the present invention.

なお、本装置は、例えば、ターンテーブルを振動させる機構や、ターンテーブルに載置された被写体に触れて同被写体に外力を加える機構など、本発明における位置関係変更部や形態変更部として機能する機構を備えてもよい。 Note that this device functions as a positional relationship changing unit or a shape changing unit in the present invention, such as a mechanism that vibrates a turntable or a mechanism that applies external force to a subject placed on a turntable by touching the subject. A mechanism may also be provided.

また、本装置は、例えば、ターンテーブルの側方、かつ、カメラの撮像範囲に、本発明における表示部として機能する液晶ディスプレイを配置してもよい。 Further, in this device, a liquid crystal display functioning as a display section in the present invention may be arranged, for example, on the side of the turntable and in the imaging range of the camera.

さらに、本装置は、例えば、ターンテーブルの側方、かつ、カメラの撮像範囲に、本発明における被写体情報取得部として機能する鏡を配置してもよい。 Further, in this device, a mirror functioning as the subject information acquisition unit in the present invention may be arranged, for example, on the side of the turntable and in the imaging range of the camera.

●実施例(6)の動作
次いで、本実施例(6)における本装置200の動作について、図2、図14を参照しながら説明する。
●Operation of Example (6) Next, the operation of the device 200 in Example (6) will be described with reference to FIGS. 2 and 14.

本装置200は、本装置200の使用者などによりターンテーブル218の載置面218aに載置された被写体の重量を計測し(S104)、ターンテーブル218を回転させながら被写体を撮像し(S106)、撮像画像内の被写体の位置情報を決定し(S107)、カメラ212の位置または向きを変更し(S111)、被写体の撮像を繰り返す(S106)。本装置200は、被写体の向きの変更と、被写体に対するカメラ212の位置と向きとの変更と、を繰り返すことにより、種別情報ごとに複数の撮像画像を取得する。 The device 200 measures the weight of the object placed on the mounting surface 218a of the turntable 218 by the user of the device 200 (S104), and images the object while rotating the turntable 218 (S106). , determines the position information of the subject in the captured image (S107), changes the position or direction of the camera 212 (S111), and repeats imaging of the subject (S106). The device 200 acquires a plurality of captured images for each type of information by repeatedly changing the orientation of the subject and changing the position and orientation of the camera 212 with respect to the subject.

本装置200は、例えば、制御基板227を用いて、ターンテーブル218の外縁部を画像認識などにより認識して、撮像画像内のターンテーブル218の位置情報と、ターンテーブル218内の被写体の位置情報と、を決定する。このとき、制御基板227は、本発明における位置決定部として機能する。 This device 200 uses, for example, a control board 227 to recognize the outer edge of the turntable 218 by image recognition or the like, and obtains position information of the turntable 218 in the captured image and position information of the subject within the turntable 218. and decide. At this time, the control board 227 functions as a position determining section in the present invention.

なお、本装置は、ターンテーブルの上方の空間を移動可能なエリアセンサを備え、同エリアセンサの検知結果に基づいて、被写体の位置情報を決定してもよい。この場合、エリアセンサは、本発明における位置決定部として機能する。 Note that the present device may include an area sensor that is movable in the space above the turntable, and determine the position information of the subject based on the detection result of the area sensor. In this case, the area sensor functions as a position determination unit in the present invention.

図15は、本発明のさらに別の実施例を示す模式図である。
同図は、本装置200Aが、筐体201と、タッチパネル211と、カメラ212と、カメラ支持部材216と、ロードセル217と、ターンテーブル218と、エリアセンサ219Aと、照明221と、制御基板227Aと、を有してなることを示す。
FIG. 15 is a schematic diagram showing yet another embodiment of the present invention.
In the figure, the present device 200A includes a housing 201, a touch panel 211, a camera 212, a camera support member 216, a load cell 217, a turntable 218, an area sensor 219A, a lighting 221, and a control board 227A. .

エリアセンサ219Aは、ターンテーブル218に載置された被写体の位置情報を決定する。エリアセンサ219Aは、本発明における位置決定部の例である。エリアセンサ219Aは、ターンテーブル218の上方に配置される。エリアセンサ219Aは、上下方向(図15の紙面上下方向)に移動可能である。カメラ212の撮像範囲と、エリアセンサ219Aの検知範囲(光束の位置)とは、予め関連付けられて制御基板227A(記憶部13)に記憶されている。エリアセンサ219Aがターンテーブル218に載置された被写体に対して移動することで、被写体がエリアセンサ219Aの検知光の一部を遮る。エリアセンサ219Aの検知結果は、制御基板227Aに送信される。制御基板227Aは、エリアセンサ219Aの検知結果に基づいて、撮像画像内の被写体の位置情報を決定する。このとき、制御基板227Aは、本発明における位置決定部として機能する。 Area sensor 219A determines position information of the subject placed on turntable 218. Area sensor 219A is an example of a position determining unit in the present invention. Area sensor 219A is arranged above turntable 218. The area sensor 219A is movable in the vertical direction (vertical direction in the paper of FIG. 15). The imaging range of the camera 212 and the detection range (position of the light flux) of the area sensor 219A are stored in advance in the control board 227A (storage unit 13) in association with each other. When the area sensor 219A moves relative to the subject placed on the turntable 218, the subject blocks part of the light detected by the area sensor 219A. The detection result of the area sensor 219A is transmitted to the control board 227A. The control board 227A determines the position information of the subject within the captured image based on the detection result of the area sensor 219A. At this time, the control board 227A functions as a position determining section in the present invention.

なお、エリアセンサは、ターンテーブルの側方に配置されてもよい。この場合、エリアセンサは、ターンテーブルの上方であって、水平方向(図15の紙面左右方向)に移動可能である。 Note that the area sensor may be placed on the side of the turntable. In this case, the area sensor is above the turntable and is movable in the horizontal direction (in the horizontal direction on the paper of FIG. 15).

●まとめ●
以上説明した実施の形態によれば、本装置1は、被写体の種別情報が入力される種別入力部11と、被写体を撮像する撮像部12と、種別情報と撮像画像とを関連付けて記憶する記憶部13と、を備える。そのため、本装置1は、種別情報ごとに複数の撮像画像を撮像して、関連付けて記憶することができる。すなわち、本装置1は、教師データを大量に収集するための時間とコストとを低減する。
●Summary●
According to the embodiment described above, the present device 1 includes a type input unit 11 into which type information of a subject is input, an imaging unit 12 which captures an image of the subject, and a memory that stores the type information and the captured image in association with each other. 13. Therefore, the device 1 can capture a plurality of captured images for each type of information and store them in association with each other. That is, the present device 1 reduces the time and cost for collecting a large amount of teacher data.

また、本装置1は、少なくとも、被写体と撮像部12との位置関係を変更する位置関係変更部16、または、被写体の形状を変形させる形態変更部15と、のいずれか一方を備える。撮像部12は、位置関係変更部16が被写体と撮像部12との位置関係を変更した後、または、形態変更部15が被写体の形態を変更させた後、に被写体を撮像する。そのため、本装置1は、種別情報を変更して、種別情報ごとに複数の撮像画像を撮像して関連付けて記憶することができる。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 The apparatus 1 also includes at least one of a positional relationship changing unit 16 that changes the positional relationship between the subject and the imaging unit 12, and a form changing unit 15 that changes the shape of the subject. The imaging unit 12 images the subject after the positional relationship changing unit 16 changes the positional relationship between the subject and the imaging unit 12, or after the form changing unit 15 changes the form of the subject. Therefore, the device 1 can change the type information and capture a plurality of captured images for each type of information and store them in association with each other. That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらに、位置関係変更部16または形態変更部15は、撮像回数情報に基づいて、被写体と撮像部12との位置関係を変更し、あるいは、被写体の形態を変更させる。そのため、本装置1は、撮像回数情報に設定された回数、自動的に被写体と撮像部12との位置関係を変更して被写体を撮像すると共に、自動的に被写体の形態を変更させて被写体を撮像する。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the positional relationship changing unit 16 or the form changing unit 15 changes the positional relationship between the subject and the imaging unit 12 or changes the form of the subject based on the information on the number of times of imaging. Therefore, this device 1 automatically changes the positional relationship between the subject and the imaging unit 12 and images the subject the number of times set in the imaging frequency information, and also automatically changes the form of the subject to capture the subject. Take an image. That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらにまた、本装置1は、被写体情報(被写体の重量、長さ、体積、多面的な画像など)を取得する被写体情報取得部17を備える。記憶部13は、被写体情報を撮像画像と関連付けて記憶する。そのため、本装置1は、撮像画像に基づいて生成される種別情報ごとの識別情報のみならず、被写体情報をも加味した識別情報を取得・生成することができる。その結果、本装置1は、例えば、被識別体の撮像画像から種別情報を識別するのみならず、被識別体の被識別体情報(被識別体の重量、長さなど)から種別情報を識別することができる。すなわち、本装置1は、撮像画像のみならず、同撮像画像に関連付けられる被写体情報を教師データとして収集することができる。したがって、これらの教師データを用いて学習する人工知能の識別精度が向上する。このように、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the device 1 includes a subject information acquisition unit 17 that acquires subject information (weight, length, volume, multifaceted image, etc. of the subject). The storage unit 13 stores subject information in association with the captured image. Therefore, the present device 1 can acquire and generate identification information that takes into account not only identification information for each type of information generated based on a captured image but also subject information. As a result, the device 1 can, for example, not only identify the type information from the captured image of the object to be identified, but also identify the type information from the object information (weight, length, etc. of the object to be identified) of the object to be identified. can do. That is, the present device 1 can collect not only a captured image but also subject information associated with the captured image as training data. Therefore, the identification accuracy of the artificial intelligence that learns using this training data is improved. In this way, the present device 1 reduces the time and cost for collecting a large amount of high-quality teaching data.

さらにまた、本装置1は、撮像画像内における被写体の位置情報を決定し、同位置情報を被写体の撮像画像と関連付けて記憶する位置決定部14を備える。そのため、本装置1は、撮像画像内における被写体の位置情報が決定(特定)された高品質な教師データを大量に収集することができる。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the device 1 includes a position determination unit 14 that determines positional information of a subject within a captured image and stores the same positional information in association with the captured image of the subject. Therefore, the present device 1 can collect a large amount of high-quality training data in which the position information of the subject in the captured image is determined (specified). That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらにまた、本装置1は、被写体が載置される載置部18と、載置部18に載置された被写体の位置を検知して検知信号を出力する検知部19と、を備える。位置決定部14は、検知信号に基づいて、撮像画像内における被写体の位置情報を決定する。そのため、本装置1は、撮像画像内における被写体の位置情報を容易に決定することができる。その結果、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the device 1 includes a placement section 18 on which a subject is placed, and a detection section 19 that detects the position of the subject placed on the placement section 18 and outputs a detection signal. The position determination unit 14 determines the position information of the subject within the captured image based on the detection signal. Therefore, the present device 1 can easily determine the position information of the subject within the captured image. As a result, the present device 1 reduces the time and cost for collecting a large amount of high-quality teaching data.

さらにまた、位置決定部14は、周囲画像に基づいて、位置情報を決定する。位置情報は、撮像画像内の基準点からの相対座標を特定する座標情報を含む。そのため、本装置1は、例えば、周囲画像に基準マーカなどの基準点を撮像させることにより、容易に位置情報を決定することができる。 Furthermore, the position determination unit 14 determines position information based on surrounding images. The position information includes coordinate information that specifies relative coordinates from a reference point within the captured image. Therefore, the present device 1 can easily determine position information by, for example, capturing a reference point such as a reference marker in the surrounding image.

さらにまた、位置決定部14は、撮像画像内における被写体に付された目印の位置を特定する位置情報を決定し、同位置情報を撮像画像と関連付けて記憶部13に記憶する。このように、目印の位置情報を撮像画像と関連付けて記憶することにより、人工知能に学習させる箇所が明確になる。その結果、例えば、職人が経験や勘で判別する不良(暗黙知として判別される不良)を囲むように目印を付すことで、本装置1は、同不良の位置を容易に特定することができる。 Furthermore, the position determining unit 14 determines position information that specifies the position of the mark attached to the subject in the captured image, and stores the same position information in the storage unit 13 in association with the captured image. In this way, by storing the position information of the landmark in association with the captured image, the location to be trained by the artificial intelligence becomes clear. As a result, for example, by placing marks surrounding a defect that a craftsman identifies based on experience or intuition (defects identified as tacit knowledge), the device 1 can easily identify the location of the defect. .

さらにまた、本装置1は、撮像部12が被写体を撮像する際の撮像環境を変更する撮像環境変更部21を備える。撮像環境変更部21が撮像環境を変更した後に撮像された撮像画像の周囲画像は、撮像環境変更部21が撮像環境を変更する前に撮像された撮像画像の周知画像とは異なる。そのため、本装置1は、照明の明るさなどの撮像環境を変更し、周囲画像として撮像される被写体の背景(載置部18の載置面や、表示部20)などの撮像環境を変更することにより、撮像環境を変更した多数の教師データを取得することができる。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the apparatus 1 includes an imaging environment changing unit 21 that changes the imaging environment when the imaging unit 12 images a subject. The surrounding image of the captured image captured after the imaging environment changing unit 21 changes the imaging environment is different from the known image of the captured image captured before the imaging environment changing unit 21 changes the imaging environment. Therefore, this device 1 changes the imaging environment such as the brightness of the lighting, and changes the imaging environment such as the background of the subject (the mounting surface of the mounting section 18 and the display section 20) that is imaged as the surrounding image. By doing so, it is possible to obtain a large amount of training data in which the imaging environment has been changed. That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらにまた、周囲画像は、載置面の載置面画像を含む。そのため、例えば、本装置1の使用者などにより載置面の色が、被写体に合わせてコントラストが明確になる色や、実際の製造ラインの色などに変更されることにより、人工知能の識別精度が上がる高品質な教師データを収集することができる。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the surrounding image includes a placement surface image of the placement surface. Therefore, for example, the user of this device 1 can change the color of the mounting surface to a color that provides a clear contrast depending on the subject, or the color of the actual production line, thereby improving the identification accuracy of artificial intelligence. It is possible to collect high-quality teacher data that increases the That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらにまた、撮像環境変更部21は、被写体の周囲に配置される表示部20に表示される表示画像を、複数の候補画像の中から選択して、変更する。そのため、本装置1は、表示画像を変更するだけで、様々な周囲画像を含む撮像画像を容易に収集することができる。すなわち、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the imaging environment changing unit 21 selects and changes the display image displayed on the display unit 20 arranged around the subject from among the plurality of candidate images. Therefore, the present device 1 can easily collect captured images including various surrounding images just by changing the displayed image. That is, the present device 1 reduces the time and cost for collecting a large amount of high-quality training data.

さらにまた、撮像環境変更部21は、周囲画像を複数の候補画像の中から選択された置換画像で置換する。候補画像は、第1候補画像と、第1候補画像を所定の角度で回転させた第2候補画像と、を含む。本装置1は、例えば、1つの第1候補画像から複数の第2候補画像を生成することができる。その結果、本装置1は、例えば、被写体画像に実際の製造ラインの画像を合成し、不良品の被写体画像に複数の角度に回転させた良品の画像を合成し、不良品の画像を任意に回転させて合成するなど、様々な撮像画像を合成することができる。したがって、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減する。 Furthermore, the imaging environment changing unit 21 replaces the surrounding image with a replacement image selected from a plurality of candidate images. The candidate images include a first candidate image and a second candidate image obtained by rotating the first candidate image by a predetermined angle. The device 1 can generate a plurality of second candidate images from one first candidate image, for example. As a result, this device 1 can, for example, combine an image of an actual production line with a subject image, combine an image of a good product rotated at multiple angles with a subject image of a defective product, and arbitrarily create an image of a defective product. It is possible to combine various captured images, such as by rotating and combining them. Therefore, the present device 1 reduces the time and cost for collecting a large amount of high-quality teaching data.

さらにまた、本装置1は、種別情報と関連付けて記憶部13に記憶された撮像画像に基づいて生成された種別情報ごとの識別情報を用いて、被識別体に対応する種別情報を識別する識別部23を備える。すなわち、本装置1は、教師データを大量に取得するのみならず、同教師データに基づいて学習された人工知能(識別部)を用いて、被識別体(製品、産品など)の外観検査や識別処理を実行することができる。一般的に、人工知能を用いた外観検査や識別処理は、実際の製造ラインなどの作業環境の下で確認作業を行うまでは、その実用性を把握することができない。そのため、実用性がないという結果を得た場合、教師データの収集や設備投資に費やした時間と費用とが無駄になる可能性がある。しかし、本装置1は、教師データの収集(学習モード)と、同教師データに基づいて生成された識別情報を用いた識別処理(識別モード)と、を切り替えて実行することができる。したがって、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減すると共に、本装置1により収集された教師データの有用性を確認することができる。その結果、本装置1は、識別の確度を暫時向上させ、確度の高い(高精度の)識別を可能とする。 Furthermore, the present device 1 uses identification information for each type information generated based on the captured image stored in the storage unit 13 in association with the type information to identify the type information corresponding to the object to be identified. A section 23 is provided. In other words, this device 1 not only acquires a large amount of training data, but also uses artificial intelligence (identification unit) trained based on the training data to perform visual inspection and inspection of objects to be identified (products, products, etc.). Identification processing can be performed. Generally, the practicality of visual inspection and identification processing using artificial intelligence cannot be understood until the verification work is performed in a work environment such as an actual production line. Therefore, if the result is that it is not practical, the time and money spent on collecting teacher data and investing in equipment may be wasted. However, the present device 1 can perform switching between collection of teacher data (learning mode) and identification processing using identification information generated based on the teacher data (identification mode). Therefore, this device 1 can reduce the time and cost for collecting a large amount of high-quality teaching data, and can confirm the usefulness of the teaching data collected by this device 1. As a result, the present device 1 temporarily improves the accuracy of identification and enables highly accurate (highly accurate) identification.

さらにまた、本装置1は、種別情報ごとの識別情報を生成する識別情報生成部22を備える。そのため、本装置1の使用者などは、識別情報の生成を人工知能のベンダーなどに依頼することなく、本装置1を使用して識別情報を生成することができる。その結果、本装置1は、高品質な教師データを大量に収集するための時間とコストとを低減すると共に、本装置1により収集された教師データの有用性の確認に要する時間とコストとを低減する。 Furthermore, the device 1 includes an identification information generation section 22 that generates identification information for each type of information. Therefore, the user of the device 1 can generate identification information using the device 1 without requesting an artificial intelligence vendor or the like to generate the identification information. As a result, this device 1 reduces the time and cost required to collect a large amount of high-quality teaching data, and also reduces the time and cost required to confirm the usefulness of the teaching data collected by this device 1. reduce

さらにまた、本装置1は、識別部23が識別した被識別体の種別情報が特定種別情報(不良品など)のとき、同被識別体に対して特定処理を実行する第1特定処理部24を備える。特定処理は、例えば、被識別体が特定種別情報に識別されたことをレーザポインタなどを用いて視認可能にする処理である。この構成によれば、本装置1は、不良品や、異物混入物などをレーザ光で追尾させて、これらの存在と位置とを本装置1の使用者などに報知することができる。その結果、本装置1は、従来、人手で不良品や異物混入物などの有無を検査して取り除いていた工程のうち、不良品や異物混入物などの有無の検査の工程を実行することができ、検査用の人員を削減することができる。 Furthermore, in the present device 1, when the type information of the object to be identified identified by the identification section 23 is specific type information (defective product, etc.), the first identification processing section 24 executes a specifying process for the object to be identified. Equipped with. The identification process is, for example, a process that makes it possible to visually recognize that the object to be identified has been identified by specific type information using a laser pointer or the like. According to this configuration, the device 1 can track defective products, foreign objects, etc. with a laser beam, and notify the user of the device 1 of their presence and location. As a result, this device 1 can perform the process of inspecting for the presence of defective products and foreign objects, which is a process that conventionally required manual inspection and removal of defective products and foreign objects. It is possible to reduce the number of personnel required for inspection.

さらにまた、本装置1は、第1特定処理部24が特定処理を実行した被識別体に対して、第2特定処理を実行する第2特定処理部25を備える。第2特定処理部25は、第1特定処理部24が特定処理を実行してから所定時間が経過したときに、第2特定処理を実行する。第2特定処理は、例えば、レーザ光の照射態様の変更や、被識別体の除去などを実行する処理である。この構成によれば、本装置1は、レーザ光の照射態様の変更などにより、不良品や異物混入物などの除去が実行されていないことを本装置1の使用者などに認知させることができる。 Furthermore, the device 1 includes a second identification processing section 25 that performs a second identification processing on the object to be identified on which the first identification processing section 24 has performed identification processing. The second identification processing unit 25 executes the second identification processing when a predetermined time has elapsed since the first identification processing unit 24 executed the identification processing. The second identification process is, for example, a process of changing the laser beam irradiation mode, removing the object to be identified, and the like. According to this configuration, the device 1 can make the user of the device 1 aware that defective products, foreign matter, etc. have not been removed by changing the laser beam irradiation mode, etc. .

さらにまた、本装置1は、特定処理が実行された被識別体を検知する被識別体検知部26を備える。第2特定処理部25は、被識別体検知部26が被識別体を検知したとき、第2特定処理を実行する。この構成によれば、本装置1は、不良品や異物混入物などの除去が実行されていない場合にのみ、第2特定処理を実行することができる。 Furthermore, the apparatus 1 includes an identified object detection unit 26 that detects the identified object for which the identifying process has been performed. The second identification processing unit 25 executes a second identification process when the identification object detection unit 26 detects an identification object. According to this configuration, the apparatus 1 can perform the second identification process only when removal of defective products, foreign substances, etc. has not been performed.

さらにまた、以上説明した実施の形態は、特許請求の範囲に記載される発明の内容を不当に限定するものではない。また、以上説明した実施の形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。 Furthermore, the embodiments described above do not unduly limit the content of the invention described in the claims. Furthermore, not all of the configurations described in the embodiments described above are essential configuration requirements of the present disclosure.

1 撮像装置
11 種別入力部
12 撮像部
13 記憶部
14 位置決定部
15 形態変更部
16 位置関係変更部
17 被写体情報取得部
18 載置部
19 検知部
20 表示部
21 撮像環境変更部
22 識別情報生成部
23 識別部
24 第1特定処理部(特定処理部)
25 第2特定処理部
26 被識別体検知部
27 制御部
100 撮像装置
111 タッチパネル(種別入力部)
112 カメラ(撮像部)
116 振動装置(位置関係変更部)
117a 重量計(被写体情報取得部)
117b1 鏡(被写体情報取得部)
117b2 鏡(被写体情報取得部)
118 ベルトコンベア(載置部)
118a 載置面
119a1-119a4 第1センサ(検知部)
119b1-119b8 第2センサ(検知部)
121 照明(撮像環境変更部)
127 制御装置(記憶部、位置決定部、被写体情報取得部、識別部)
100A 撮像装置
118A ベルトコンベア
118aA 載置面
120A 液晶ディスプレイ(表示部)
127A 制御装置(記憶部、位置決定部、被写体情報取得部、環境変更部、識別部)
100B 撮像装置
124B レーザポインタ(特定処理部)
126B 被識別体検知センサ(被識別体検知部)
127B 制御装置(記憶部、位置決定部、被写体情報取得部、識別部)
125B1 ロボットアーム(第2特定処理部)
127B1 制御装置(記憶部、位置決定部、被写体情報取得部、識別部、特定処理部)
100C 撮像装置
115C 押圧装置(形態変更部)
127C 制御装置(記憶部、位置決定部、被写体情報取得部、識別部)
100D 撮像装置
200 撮像装置
211 タッチパネル(種別入力部)
212 カメラ
216 カメラ支持部材(位置関係変更部)
217 ロードセル(被写体情報取得部)
218 ターンテーブル(載置部)
218a 載置面
221 照明(撮像環境変更部)
227 制御基板(記憶部、位置決定部、識別部)

1 Imaging device 11 Type input unit 12 Imaging unit 13 Storage unit 14 Position determination unit 15 Form change unit 16 Positional relationship change unit 17 Subject information acquisition unit 18 Placement unit 19 Detection unit 20 Display unit 21 Imaging environment change unit 22 Identification information generation Section 23 Identification section 24 First specific processing section (specific processing section)
25 Second identification processing section 26 Identification object detection section 27 Control section 100 Imaging device 111 Touch panel (type input section)
112 Camera (imaging unit)
116 Vibration device (positional relationship change unit)
117a Weight scale (subject information acquisition unit)
117b1 Mirror (subject information acquisition unit)
117b2 Mirror (subject information acquisition unit)
118 Belt conveyor (loading section)
118a Placement surface 119a1-119a4 First sensor (detection section)
119b1-119b8 2nd sensor (detection part)
121 Lighting (imaging environment change unit)
127 Control device (storage unit, position determination unit, subject information acquisition unit, identification unit)
100A Imaging device 118A Belt conveyor 118aA Placement surface 120A Liquid crystal display (display section)
127A Control device (storage unit, position determination unit, subject information acquisition unit, environment change unit, identification unit)
100B Imaging device 124B Laser pointer (specific processing unit)
126B Identification object detection sensor (identification object detection section)
127B Control device (storage unit, position determination unit, subject information acquisition unit, identification unit)
125B1 Robot arm (second specific processing section)
127B1 Control device (storage unit, position determination unit, subject information acquisition unit, identification unit, specific processing unit)
100C Imaging device 115C Pressing device (shape changing unit)
127C Control device (storage unit, position determination unit, subject information acquisition unit, identification unit)
100D Imaging device 200 Imaging device 211 Touch panel (type input section)
212 Camera 216 Camera support member (positional relationship changing unit)
217 Load cell (subject information acquisition unit)
218 Turntable (mounting section)
218a Placement surface 221 Lighting (imaging environment change unit)
227 Control board (storage unit, position determination unit, identification unit)

Claims (8)

被写体の複数の種別情報が入力される種別入力部と、
前記被写体を撮像して撮像画像を出力する撮像部と、
前記種別情報と前記撮像画像とが関連付けて記憶される記憶部と、
前記種別情報と関連付けて前記記憶部に記憶された前記撮像画像に基づいて生成された前記種別情報ごとの識別情報を用いて、被識別体に対応する前記種別情報を識別する識別部と、
前記識別部が識別した前記被識別体の前記種別情報が特定種別情報のとき、前記被識別体に対して特定処理を実行する特定処理部と、
を有してなり、
前記特定処理部は、前記被識別体が前記特定種別情報に識別されたことを視認可能にする、
ことを特徴とする撮像装置。
a type input section into which multiple types of subject information are input;
an imaging unit that images the subject and outputs a captured image;
a storage unit in which the type information and the captured image are stored in association with each other;
an identification unit that identifies the type information corresponding to the object to be identified using identification information for each type information generated based on the captured image stored in the storage unit in association with the type information;
a specific processing unit that performs specific processing on the identified object when the type information of the identified object identified by the identification unit is specific type information;
It has
The identification processing unit makes it visible that the object to be identified is identified by the specific type information.
An imaging device characterized by:
前記種別情報ごとの前記識別情報を生成する識別情報生成部、
を備える、
請求項1記載の撮像装置。
an identification information generation unit that generates the identification information for each type of information;
Equipped with
The imaging device according to claim 1.
前記特定処理部が前記特定処理を実行した前記被識別体に対して第2特定処理を実行する第2特定処理部、
を備える、
請求項1記載の撮像装置。
a second identification processing unit that performs a second identification process on the object to be identified on which the identification processing unit has performed the identification processing;
Equipped with
The imaging device according to claim 1.
前記第2特定処理部は、前記特定処理部が前記特定処理を実行してから所定時間が経過したときに、前記第2特定処理を実行する、
請求項3記載の撮像装置。
The second specific processing unit executes the second specific processing when a predetermined time has elapsed since the specific processing unit executed the specific processing.
The imaging device according to claim 3.
前記特定処理が実行された前記被識別体を検知する被識別体検知部、
を備え、
前記第2特定処理部は、前記被識別体検知部が前記被識別体を検知したとき、前記第2特定処理を実行する、
請求項3記載の撮像装置。
an identified object detection unit that detects the identified object on which the identification process has been performed;
Equipped with
The second identification processing unit executes the second identification processing when the identification object detection unit detects the identification object.
The imaging device according to claim 3.
前記特定処理部は、前記識別部が前記被識別体を識別した確度を算出する、
請求項1記載の撮像装置。
The identification processing unit calculates the accuracy with which the identification unit has identified the object to be identified.
The imaging device according to claim 1.
前記特定処理部が算出した確度に基づいて、前記被識別体を分類する第2特定処理部、
を備える、
請求項6記載の撮像装置。
a second identification processing unit that classifies the object to be identified based on the accuracy calculated by the identification processing unit;
Equipped with
The imaging device according to claim 6.
被写体の複数の種別情報が入力される種別入力部と、
前記被写体を撮像して撮像画像を出力する撮像部と、
前記種別情報と前記撮像画像とが関連付けて記憶される記憶部と、
前記種別情報と関連付けて前記記憶部に記憶された前記撮像画像に基づいて生成された前記種別情報ごとの識別情報を用いて、被識別体に対応する前記種別情報を識別する識別部と、
前記識別部が識別した前記被識別体の前記種別情報が特定種別情報のとき、前記被識別体に対して特定処理を実行する特定処理部と、
を有してなる撮像装置により実行される識別方法であって、
前記識別部が、前記被識別体の前記撮像画像と、前記識別情報と、に基づいて、前記被識別体に対応する前記種別情報を識別する工程と、
前記特定処理部が、前記識別部が識別した前記被識別体の前記種別情報が前記特定種別情報であるか否かを判定する工程と、
前記識別部が識別した前記被識別体の前記種別情報が前記特定種別情報のとき、前記特定処理部が、前記被識別体に対して前記特定処理を実行する工程と、
を有してなり、
前記特定処理部は、前記特定処理として、前記被識別体が前記特定種別情報に識別されたことを視認可能にする、
ことを特徴とする識別方法。

a type input section into which multiple types of subject information are input;
an imaging unit that images the subject and outputs a captured image;
a storage unit in which the type information and the captured image are stored in association with each other;
an identification unit that identifies the type information corresponding to the object to be identified using identification information for each type information generated based on the captured image stored in the storage unit in association with the type information;
a specific processing unit that performs specific processing on the identified object when the type information of the identified object identified by the identification unit is specific type information;
An identification method performed by an imaging device comprising:
a step in which the identification unit identifies the type information corresponding to the object to be identified based on the captured image of the object to be identified and the identification information;
a step in which the identification processing unit determines whether the type information of the object to be identified identified by the identification unit is the specific type information;
when the type information of the object to be identified identified by the identification unit is the specific type information, the identification processing unit executes the identification process on the object to be identified;
It has
The identification processing unit, as the identification processing, makes it visible that the object to be identified has been identified by the specific type information.
An identification method characterized by:

JP2023112943A 2018-07-17 2023-07-10 Imaging device and identification method Active JP7440975B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018133815 2018-07-17
JP2018133815 2018-07-17
PCT/JP2019/028064 WO2020017546A1 (en) 2018-07-17 2019-07-17 Image capture device and image capture method
JP2020531337A JP7403834B2 (en) 2018-07-17 2019-07-17 Imaging device and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020531337A Division JP7403834B2 (en) 2018-07-17 2019-07-17 Imaging device and imaging method

Publications (2)

Publication Number Publication Date
JP2023126335A JP2023126335A (en) 2023-09-07
JP7440975B2 true JP7440975B2 (en) 2024-02-29

Family

ID=69165061

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020531337A Active JP7403834B2 (en) 2018-07-17 2019-07-17 Imaging device and imaging method
JP2023112943A Active JP7440975B2 (en) 2018-07-17 2023-07-10 Imaging device and identification method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020531337A Active JP7403834B2 (en) 2018-07-17 2019-07-17 Imaging device and imaging method

Country Status (2)

Country Link
JP (2) JP7403834B2 (en)
WO (1) WO2020017546A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136519A (en) 2003-10-28 2005-05-26 Sanyo Electric Co Ltd Remote control system
JP2011159320A (en) 2001-01-30 2011-08-18 Masanobu Kujirada Device for detecting camera and the like and electric equipment detector
JP2014132437A (en) 2013-01-02 2014-07-17 Boeing Co Systems and methods for stand-off inspection of aircraft structures

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10340935A (en) * 1997-06-06 1998-12-22 Mitsubishi Electric Corp Checking apparatus
JP4132229B2 (en) * 1998-06-03 2008-08-13 株式会社ルネサステクノロジ Defect classification method
JP4050273B2 (en) * 2004-12-28 2008-02-20 オリンパス株式会社 Classification apparatus and classification method
JP5351084B2 (en) * 2010-03-16 2013-11-27 株式会社デンソーアイティーラボラトリ Image recognition apparatus and image recognition method
JP2014178957A (en) * 2013-03-15 2014-09-25 Nec Corp Learning data generation device, learning data creation system, method and program
JP2016181068A (en) * 2015-03-24 2016-10-13 株式会社明電舎 Learning sample imaging device
JP7071054B2 (en) * 2017-01-20 2022-05-18 キヤノン株式会社 Information processing equipment, information processing methods and programs
JP7051571B2 (en) * 2018-05-10 2022-04-11 アズビル株式会社 Teacher data creation device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159320A (en) 2001-01-30 2011-08-18 Masanobu Kujirada Device for detecting camera and the like and electric equipment detector
JP2005136519A (en) 2003-10-28 2005-05-26 Sanyo Electric Co Ltd Remote control system
JP2014132437A (en) 2013-01-02 2014-07-17 Boeing Co Systems and methods for stand-off inspection of aircraft structures

Also Published As

Publication number Publication date
WO2020017546A1 (en) 2020-01-23
JP2023126335A (en) 2023-09-07
JP7403834B2 (en) 2023-12-25
JPWO2020017546A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
JP6975474B2 (en) Systems and methods for performing automated analysis of air samples
US6061086A (en) Apparatus and method for automated visual inspection of objects
JP4604774B2 (en) Calibration method for 3D measurement
US11562480B2 (en) System and method for set up of production line inspection
CN105817430A (en) Product detection method based on machine vision
WO2018066576A1 (en) Appearance inspecting method
JP2009014357A (en) Surface inspection device and surface inspection method
JP6392922B1 (en) Apparatus for calculating region that is not subject to inspection of inspection system, and method for calculating region that is not subject to inspection
US20100118121A1 (en) Device and Method for Visually Recording Two-Dimensional or Three-Dimensional Objects
CN108344751A (en) Plate of material shape defect detecting system and method based on multichannel light source
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
JP2022507678A (en) Optimization of setup stage in automated visual inspection process
JP6936995B2 (en) Appearance inspection device for three-dimensional objects
JP2000180330A (en) Durometer
WO2020079694A1 (en) Optimizing defect detection in an automatic visual inspection process
US20170074805A1 (en) Check grader-actuatable interface for board lumber scanning
EP4202424A1 (en) Method and system for inspection of welds
JP7186521B2 (en) Teacher image generator for visual inspection equipment
JP7440975B2 (en) Imaging device and identification method
CN206832700U (en) The defects of one kind is based on infrared distance measuring sensor detection means
EP2896930B1 (en) Device and method for measuring a plant
CN113495073A (en) Auto-focus function for vision inspection system
JP5175916B2 (en) Parts search system
WO2020144784A1 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP7151873B2 (en) inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230711

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240208

R150 Certificate of patent or registration of utility model

Ref document number: 7440975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150