JP7425032B2 - Object determination device and object determination system - Google Patents

Object determination device and object determination system Download PDF

Info

Publication number
JP7425032B2
JP7425032B2 JP2021174994A JP2021174994A JP7425032B2 JP 7425032 B2 JP7425032 B2 JP 7425032B2 JP 2021174994 A JP2021174994 A JP 2021174994A JP 2021174994 A JP2021174994 A JP 2021174994A JP 7425032 B2 JP7425032 B2 JP 7425032B2
Authority
JP
Japan
Prior art keywords
interest
regions
vehicle
unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021174994A
Other languages
Japanese (ja)
Other versions
JP2023064620A (en
Inventor
聡司 綾川
裕喜 竹内
祐輔 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2021174994A priority Critical patent/JP7425032B2/en
Publication of JP2023064620A publication Critical patent/JP2023064620A/en
Application granted granted Critical
Publication of JP7425032B2 publication Critical patent/JP7425032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、物体判定装置および物体判定システムに関する。 The present disclosure relates to an object determination device and an object determination system.

搬送される対象物の種類を判定するシステムが知られている。例えば、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定することが行われている(例えば、特許文献1参照)。 Systems are known for determining the type of object being transported. For example, the type of object is determined by using a sensor to read an identification code provided on the object to be transported or on the transport mechanism of the object (see, for example, Patent Document 1).

特開平11-049331号公報Japanese Patent Application Publication No. 11-049331

しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。 However, in the prior art, it may be difficult to determine the type of object due to dirt on the part where the identification code is installed or shaking of the object being transported.

本開示が解決しようとする課題は、搬送される対象物の種類を高精度に判定することができる物体判定装置および物体判定システムを提供することである。 An object of the present disclosure is to provide an object determination device and an object determination system that can highly accurately determine the type of an object to be transported.

本開示にかかる物体判定装置は、抽出部と、判定部と、を備える。抽出部は、搬送される対象物の撮影画像から複数の着目領域を抽出する。判定部は、前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する。前記対象物は車両であり、複数の前記着目領域は前記車両の互いに異なる部品を含む領域である。 An object determination device according to the present disclosure includes an extraction section and a determination section. The extraction unit extracts a plurality of regions of interest from the photographed image of the object to be transported. The determination unit is configured to use a learning model that outputs the type of the target object from the plurality of regions of interest, which is learned using the plurality of regions of interest included in the learning image that is the photographed image. The type of the object is determined from the plurality of regions of interest. The target object is a vehicle, and the plurality of regions of interest are regions including mutually different parts of the vehicle.

本開示にかかる物体判定装置および物体判定システムによれば、搬送される対象物の種類を高精度に判定することができる。 According to the object determination device and object determination system according to the present disclosure, it is possible to determine the type of the object to be transported with high accuracy.

図1は、実施形態の物体判定システムの模式図である。FIG. 1 is a schematic diagram of an object determination system according to an embodiment. 図2は、物体判定装置およびシーケンサのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the object determination device and the sequencer. 図3は、物体判定装置の機能ブロック図である。FIG. 3 is a functional block diagram of the object determination device. 図4は、撮影画像の模式図である。FIG. 4 is a schematic diagram of a photographed image. 図5は、学習用画像の説明図である。FIG. 5 is an explanatory diagram of the learning image. 図6は、情報処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing the flow of information processing.

以下に添付図面を参照して、本開示に係る物体判定装置および物体判定システムの実施形態を説明する。 Embodiments of an object determination device and an object determination system according to the present disclosure will be described below with reference to the accompanying drawings.

図1は、本実施形態の物体判定システム1の一例を示す模式図である。物体判定システム1は、物体判定装置10と、シーケンサ20と、撮影部30と、搬送機構40と、を備える。 FIG. 1 is a schematic diagram showing an example of an object determination system 1 according to the present embodiment. The object determination system 1 includes an object determination device 10, a sequencer 20, an imaging section 30, and a transport mechanism 40.

物体判定システム1は、搬送される対象物の種類を判定するシステムである。 The object determination system 1 is a system that determines the type of object to be transported.

対象物とは、種類の判定対象の物体である。対象物は、搬送機構40によって搬送される物体であればよい。対象物は、例えば、車両Vなどの物体、物体または建造物等を構成する部品、果実等の食品、等である。本実施形態では、対象物が車両Vである形態を一例として説明する。 The target object is an object whose type is to be determined. The target object may be any object that is transported by the transport mechanism 40. The target object is, for example, an object such as a vehicle V, a part constituting an object or a building, food such as fruit, and the like. In this embodiment, an example in which the object is a vehicle V will be described.

搬送機構40は、対象物を搬送する機構である。本実施形態では、搬送機構40が、車両Vの生産ラインに含まれる工程である塗装工程の搬送機構である形態を一例として説明する。 The transport mechanism 40 is a mechanism that transports the object. In this embodiment, an example will be described in which the transport mechanism 40 is a transport mechanism for a painting process, which is a process included in the production line of the vehicle V.

搬送機構40は、例えば、ガイドレール40Aと、支持部材40Bと、支持部材40Cと、を備える。ガイドレール40Aは、搬送方向Xに沿って延伸された部材である。支持部材40Bは、ガイドレール40Aに沿って移動可能に設けられ、支持部材40Cを介して車両Vを支持する。支持部材40Cは、車両Vを支持する。支持部材40Cは、台車と称される場合がある。なお、支持部材40Cは車両Vを支持可能な部材であればよく、車両Vを吊り下げることで支持する部材、車両Vを把持することで支持する部材、車両Vを載置することで支持する部材、などの何れであってもよい。本実施形態では、支持部材40Cは、車両Vを吊り下げることで支持する部材である形態を一例として説明する。 The transport mechanism 40 includes, for example, a guide rail 40A, a support member 40B, and a support member 40C. The guide rail 40A is a member extending along the transport direction X. The support member 40B is provided movably along the guide rail 40A, and supports the vehicle V via the support member 40C. The support member 40C supports the vehicle V. The support member 40C may be referred to as a truck. Note that the support member 40C may be any member that can support the vehicle V, such as a member that supports the vehicle V by hanging it, a member that supports the vehicle V by gripping it, or a member that supports the vehicle V by placing it thereon. It may be any member. In this embodiment, the support member 40C is a member that supports the vehicle V by suspending it, as an example.

搬送機構40は、シーケンサ20によって図示を省略する駆動部が制御されることで、搬送方向Xに沿って所定間隔ごとに配置された支持部材40Bを搬送方向Xに搬送する。支持部材40Bが搬送方向Xに搬送されることで、支持部材40Bを介して支持部材40Cによって支持された車両Vが搬送方向Xに搬送される。 The transport mechanism 40 transports supporting members 40B arranged at predetermined intervals along the transport direction X in the transport direction X by controlling a drive unit (not shown) by the sequencer 20. By conveying the support member 40B in the conveyance direction X, the vehicle V supported by the support member 40C via the support member 40B is conveyed in the conveyance direction X.

なお、搬送機構40は、車両Vを搬送方向Xに沿って搬送可能な機構であればよく、図1に示す構成に限定されない。 Note that the transport mechanism 40 may be any mechanism that can transport the vehicle V along the transport direction X, and is not limited to the configuration shown in FIG. 1 .

本実施形態では、支持部材40Cには、タグ60が設けられている。タグ60は、記憶された情報を無線通信する機器である。タグ60は、例えば、RF(Radio Frequency)タグ等である。タグ60には、例えば、支持部材40Cを一意に識別する台車ID(識別情報)が予め記憶されている。 In this embodiment, a tag 60 is provided on the support member 40C. The tag 60 is a device that wirelessly communicates stored information. The tag 60 is, for example, an RF (Radio Frequency) tag. For example, a cart ID (identification information) that uniquely identifies the support member 40C is stored in the tag 60 in advance.

シーケンサ20は、搬送機構40の搬送を制御する制御装置である。シーケンサ20は、搬送機構40、塗装装置50、および物体判定装置10の各々と通信可能に接続されている。 The sequencer 20 is a control device that controls the transport of the transport mechanism 40. The sequencer 20 is communicably connected to each of the transport mechanism 40, the coating device 50, and the object determination device 10.

シーケンサ20は、支持部材40Cによって支持された車両Vの搬送を制御し、車両Vが所定位置X1に搬送されるごとに、判定開始信号を物体判定装置10へ送信する。判定開始信号は、車両Vの種類の判定開始を指示する信号である。シーケンサ20は、例えば、赤外線センサなどの検知結果を用いて、搬送される車両Vが所定位置X1に到達したことを判別すればよい。 The sequencer 20 controls the transportation of the vehicle V supported by the support member 40C, and transmits a determination start signal to the object determination device 10 every time the vehicle V is transported to the predetermined position X1. The determination start signal is a signal that instructs to start determining the type of vehicle V. The sequencer 20 may determine that the vehicle V being transported has reached the predetermined position X1, for example, using the detection result of an infrared sensor or the like.

次に、撮影部30について説明する。撮影部30は、車両Vの搬送される搬送空間を撮影する。撮影部30は、車両Vの搬送される搬送空間における所定の撮影範囲Rを撮影可能に配置されている。撮影範囲Rは、例えば、所定位置X1に搬送された車両Vの特定の部品Pを含む範囲となるように予め調整されている。撮影部30は、実空間における固定の撮影範囲Rを撮影するように予め調整されている。実空間における固定の撮影範囲Rとは、実空間における位置、大きさ、および範囲が固定であることを意味する。 Next, the photographing section 30 will be explained. The photographing unit 30 photographs the transport space in which the vehicle V is transported. The photographing unit 30 is arranged to be able to photograph a predetermined photographing range R in the transport space in which the vehicle V is transported. The photographing range R is adjusted in advance so as to include, for example, a specific part P of the vehicle V transported to the predetermined position X1. The photographing unit 30 is adjusted in advance to photograph a fixed photographing range R in real space. The fixed imaging range R in real space means that the position, size, and range in real space are fixed.

すなわち、撮影部30は、搬送機構40によって搬送される車両Vが所定位置X1に到達したときに撮影される撮影画像70に、車両Vにおける特定の部品Pを含む領域が映り込むように、設置位置および撮影画角などが予め調整されている。 That is, the photographing unit 30 is installed so that an area including a specific part P in the vehicle V is reflected in the photographed image 70 taken when the vehicle V transported by the transport mechanism 40 reaches the predetermined position X1. The position, shooting angle of view, etc. are adjusted in advance.

部品Pは、車両Vを構成する部材である。本実施形態では、互いに異なる複数の部品Pである部品P1および部品P2が少なくとも映り込むように、撮影部30の撮影範囲Rが予め調整されている。すなわち、撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの複数の部品Pが映り込む範囲となるように、予め調整されている。部品Pは、車両Vの種類を特定可能な部材であればよい。また、撮影範囲Rに含まれる部品Pは、複数であればよく、2つの部品Pに限定されない。 Part P is a member that constitutes vehicle V. In this embodiment, the photographing range R of the photographing section 30 is adjusted in advance so that at least a plurality of mutually different parts P, ie, a component P1 and a component P2, are reflected. That is, the photographing range R is adjusted in advance so that the plurality of parts P of the vehicle V that have arrived at the predetermined position X1 due to transportation are reflected. The part P may be any member that can identify the type of vehicle V. Further, the number of parts P included in the photographing range R may be plural, and is not limited to two parts P.

撮影部30は、撮影によって撮影範囲Rの撮影画像70を得る。例えば、撮影部30は、時系列に連続する複数の撮影画像70から構成される動画像データを得る。動画像データを構成する各撮影画像70は、例えば、静止画像である。以下では、動画像データを動画像と称し、静止画像データを撮影画像と称して説明する場合がある。 The photographing unit 30 obtains a photographed image 70 in a photographing range R by photographing. For example, the photographing unit 30 obtains moving image data composed of a plurality of photographed images 70 that are consecutive in time series. Each photographed image 70 constituting the moving image data is, for example, a still image. In the following description, moving image data may be referred to as a moving image, and still image data may be referred to as a photographed image.

本実施形態では、撮影部30は、搬送機構40の駆動が開始されたときに、搬送機構40の動画像の撮影を開始する形態を一例として説明する。搬送機構40の駆動とは、搬送機構40に含まれる支持部材40Cによって支持された車両Vの搬送方向Xへの搬送を意味する。 In the present embodiment, an example will be described in which the imaging unit 30 starts capturing a moving image of the transport mechanism 40 when the transport mechanism 40 starts to be driven. Driving the transport mechanism 40 means transporting the vehicle V supported by the support member 40C included in the transport mechanism 40 in the transport direction X.

例えば、撮影部30は、ユーザによる撮影部30の撮影開始ボタンの操作指示等によって撮影開始信号を受付けると、撮影範囲Rの撮影を開始する。ユーザは、搬送機構40の駆動が開始されると、撮影部30の撮影開始ボタン等を操作指示すればよい。 For example, when the photographing unit 30 receives a photographing start signal by a user's instruction to operate the photographing start button of the photographing unit 30, etc., the photographing unit 30 starts photographing the photographing range R. When the transport mechanism 40 starts to be driven, the user only has to issue an instruction to operate the photographing start button of the photographing section 30 or the like.

なお、撮影部30は、搬送機構40の駆動を検出したときに、撮影範囲Rの動画像の撮影を開始してもよい。この場合、撮影部30と搬送機構40の駆動部とを通信可能に接続した構成とし、駆動開始したときに搬送機構40が撮影開始信号を撮影部30へ送信する構成とすればよい。また、撮影部30は、物体判定装置10またはシーケンサ20から受信した撮影開始信号に応じて、撮影を開始してもよい。 Note that the photographing unit 30 may start photographing a moving image in the photographing range R when detecting that the transport mechanism 40 is driven. In this case, the photographing section 30 and the drive section of the transport mechanism 40 may be communicably connected, and the transport mechanism 40 may transmit a photographing start signal to the photographing section 30 when driving is started. Further, the photographing unit 30 may start photographing in response to a photographing start signal received from the object determination device 10 or the sequencer 20.

次に、物体判定装置10について説明する。物体判定装置10は、搬送機構40によって搬送される対象物の種類を判定する情報処理装置である。 Next, the object determination device 10 will be explained. The object determination device 10 is an information processing device that determines the type of object transported by the transport mechanism 40.

対象物の種類とは、対象物を予め定められた分類基準に従って複数のグループに分類した、各グループを表す情報である。上述したように、本実施形態では、対象物が車両Vである形態を一例として説明する。対象物が車両Vである場合、車両Vの種類は、例えば、車両Vの種別、車両Vの車種、車両Vの年式、などであるが、これらに限定されない。車両Vの種別は、例えば、普通自動車、小型自動車、特殊用途自動車、などの種別を表す。車両Vの車種は、車両製造会社などによって規定された車名などである。本実施形態では、車両Vの種類は、車名である場合を想定して説明する。 The type of object is information representing each group in which objects are classified into a plurality of groups according to predetermined classification criteria. As described above, in this embodiment, a case in which the target object is a vehicle V will be described as an example. When the object is a vehicle V, the type of the vehicle V is, for example, the type of the vehicle V, the model of the vehicle V, the model year of the vehicle V, etc., but is not limited to these. The type of vehicle V represents, for example, a regular car, a small car, a special purpose car, or the like. The vehicle type of vehicle V is a vehicle name specified by a vehicle manufacturing company or the like. In this embodiment, the description will be made assuming that the type of vehicle V is a car name.

まず、物体判定装置10およびシーケンサ20のハードウェア構成を説明する。 First, the hardware configurations of the object determination device 10 and the sequencer 20 will be explained.

図2は、物体判定装置10およびシーケンサ20の一例のハードウェア構成図である。 FIG. 2 is a hardware configuration diagram of an example of the object determination device 10 and the sequencer 20.

物体判定装置10およびシーケンサ20は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM(Random Access Memory)11C、およびI/F11D等がバス11Eにより相互に接続され、通常のコンピュータを利用したハードウェア構成である。 The object determination device 10 and the sequencer 20 have a CPU (Central Processing Unit) 11A, a ROM (Read Only Memory) 11B, a RAM (Random Access Memory) 11C, an I/F 11D, etc. connected to each other by a bus 11E, and are configured as a normal computer. This is a hardware configuration that uses .

CPU11Aは、本実施形態の物体判定装置10およびシーケンサ20を制御する演算装置である。ROM11Bは、CPU11Aによる各種処理を実現するプログラム等を記憶する。RAM11Cは、CPU11Aによる各種処理に必要なデータを記憶する。I/F11Dは、データを送受信するためのインターフェースである。 The CPU 11A is a calculation device that controls the object determination device 10 and the sequencer 20 of this embodiment. The ROM 11B stores programs and the like that implement various processes by the CPU 11A. The RAM 11C stores data necessary for various processing by the CPU 11A. I/F11D is an interface for transmitting and receiving data.

本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、ROM11B等に予め組み込んで提供される。なお、本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、物体判定装置10およびシーケンサ20にインストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読取り可能な記録媒体に記録されて提供するように構成してもよい。 The program executed by the object determination device 10 and the sequencer 20 of this embodiment is provided by being pre-installed in the ROM 11B or the like. Note that the program executed by the object determination device 10 and the sequencer 20 of this embodiment is a file in a format that can be installed or executable in the object determination device 10 and the sequencer 20, and is stored on a CD-ROM, a flexible disk (FD), The information may be provided by being recorded on a computer-readable recording medium such as a CD-R or a DVD (Digital Versatile Disk).

次に、物体判定装置10の機能的構成を説明する。 Next, the functional configuration of the object determination device 10 will be explained.

図3は、物体判定装置10の一例の機能ブロック図である。図3には、物体判定システム1に含まれる物体判定装置10以外の構成も併せて示す。 FIG. 3 is a functional block diagram of an example of the object determination device 10. FIG. 3 also shows configurations other than the object determination device 10 included in the object determination system 1.

物体判定装置10は、処理部12と、通信部14と、記憶部16と、表示部18と、を備える。処理部12、通信部14、記憶部16、および表示部18は、例えば、バス19等を介して通信可能に接続されている。 The object determination device 10 includes a processing section 12, a communication section 14, a storage section 16, and a display section 18. The processing unit 12, communication unit 14, storage unit 16, and display unit 18 are communicably connected via, for example, a bus 19.

通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信可能に接続されている。すなわち、通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信するための通信インターフェースである。記憶部16は、各種の情報を記憶する。本実施形態では、記憶部16は、学習モデル16Aを予め記憶する。学習モデル16Aの詳細は後述する。 The communication unit 14 is communicably connected to each of the sequencer 20, the tag 60, and the photographing unit 30. That is, the communication section 14 is a communication interface for communicating with each of the sequencer 20, the tag 60, and the photographing section 30. The storage unit 16 stores various information. In this embodiment, the storage unit 16 stores the learning model 16A in advance. Details of the learning model 16A will be described later.

表示部18は、各種の情報を表示する。表示部18は、例えば、画像を表示するディスプレイである。なお、物体判定装置10は、音声を出力するスピーカを更に備えた構成であってもよい。また、物体判定装置10は、ユーザによる操作入力を受付けるキーボードやポインティングデバイス等の入力装置を更に備えた構成であってよい。 The display unit 18 displays various information. The display unit 18 is, for example, a display that displays images. Note that the object determination device 10 may be configured to further include a speaker that outputs audio. Further, the object determination device 10 may be configured to further include an input device such as a keyboard or a pointing device that receives operation input from a user.

処理部12は、各種の情報処理を実行する。本実施形態では、処理部12は、受付部12Aと、タグ判定部12Bと、取得部12Cと、抽出部12Dと、判定部12Eと、学習部12Fと、出力制御部12Gと、を備える。受付部12A、タグ判定部12B、取得部12C、抽出部12D、判定部12E、学習部12F、および出力制御部12Gの一部または全ては、例えば、CPU等の処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよい。また、これらの機能部の一部または全ては、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、これらの機能部の一部または全ては、ソフトウェアおよびハードウェアを併用して実現してもよい。 The processing unit 12 executes various information processing. In this embodiment, the processing unit 12 includes a reception unit 12A, a tag determination unit 12B, an acquisition unit 12C, an extraction unit 12D, a determination unit 12E, a learning unit 12F, and an output control unit 12G. Some or all of the reception unit 12A, tag determination unit 12B, acquisition unit 12C, extraction unit 12D, determination unit 12E, learning unit 12F, and output control unit 12G, for example, cause a processing device such as a CPU to execute a program. That is, it may be realized by software. Further, some or all of these functional units may be realized by hardware such as an IC (Integrated Circuit). Further, some or all of these functional units may be realized using a combination of software and hardware.

これらの機能部の少なくとも1つを、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。また、記憶部16に記憶されたデータの少なくとも一部を、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に記憶した構成としてもよい。 At least one of these functional units may be installed in an external information processing device that is communicably connected to the object determination device 10 via a network or the like. Alternatively, at least part of the data stored in the storage unit 16 may be stored in an external information processing device that is communicably connected to the object determination device 10 via a network or the like.

受付部12Aは、シーケンサ20から判定開始信号を受付ける。上述したように、シーケンサ20は、搬送される車両Vが所定位置X1に到達すると、判定開始信号を物体判定装置10へ送信する。受付部12Aは、通信部14を介してシーケンサ20から判定開始信号を受付ける。 The reception unit 12A receives a determination start signal from the sequencer 20. As described above, the sequencer 20 transmits a determination start signal to the object determination device 10 when the transported vehicle V reaches the predetermined position X1. The reception unit 12A receives a determination start signal from the sequencer 20 via the communication unit 14.

タグ判定部12Bは、受付部12Aで判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る。タグ判定部12Bは、通信部14とタグ60との無線通信によって、タグ60に記憶されている台車IDを読取る。タグ判定部12Bは、読取った台車IDによって識別される支持部材40Cによって支持されている車両Vの種類を判定する。例えば、記憶部16は、台車IDと、車両Vの種類と、を対応付けた台車管理情報を予め記憶する。タグ判定部12Bは、タグ60から受付けた台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。台車管理情報には、ユーザによる操作指示などによって、実際に搬送機構40を搬送されている車両Vの種類と該車両Vを支持する支持部材40Cの台車IDとが一致する情報が予め登録されているものとする。 The tag determination unit 12B reads the cart ID from the tag 60 via the communication unit 14 when the reception unit 12A receives the determination start signal. The tag determination unit 12B reads the cart ID stored in the tag 60 through wireless communication between the communication unit 14 and the tag 60. The tag determination unit 12B determines the type of vehicle V supported by the support member 40C identified by the read truck ID. For example, the storage unit 16 stores in advance cart management information in which the cart ID and the type of vehicle V are associated with each other. The tag determination unit 12B determines the type of vehicle V by reading the type of vehicle V corresponding to the truck ID received from the tag 60 from the truck management information. In the trolley management information, information that matches the type of vehicle V actually being transported through the transport mechanism 40 and the trolley ID of the support member 40C that supports the vehicle V is registered in advance according to an operation instruction by the user. It is assumed that there is

タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に成功した場合、車両Vの種類を表す判定結果を後述する出力制御部12Gへ出力する。 When the tag determination unit 12B successfully determines the type of vehicle V using the trolley ID stored in the tag 60, it outputs the determination result representing the type of vehicle V to the output control unit 12G, which will be described later.

ここで、タグ60の汚れ、タグ60の揺れ、支持部材40Cの揺れ、または通信エラー等によって、台車IDの読取異常が発生する場合がある。また、タグ60から読取った台車IDに対応する車両Vの種別が台車管理情報に含まれない場合がある。このような場合、タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に失敗する。台車IDを用いた車両Vの種類の判定に失敗した場合、タグ判定部12Bは、判定開始信号を取得部12Cへ出力する。 Here, an abnormality in reading the trolley ID may occur due to dirt on the tag 60, shaking of the tag 60, shaking of the support member 40C, communication error, or the like. Further, the type of vehicle V corresponding to the bogie ID read from the tag 60 may not be included in the bogie management information. In such a case, the tag determination unit 12B fails to determine the type of vehicle V using the trolley ID stored in the tag 60. If the determination of the type of vehicle V using the trolley ID fails, the tag determination unit 12B outputs a determination start signal to the acquisition unit 12C.

取得部12Cは、タグ判定部12Bから判定開始信号を受付けると、撮影部30で撮影された撮影画像70を取得する。取得部12Cは、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。詳細には、取得部12Cは、撮影部30で撮影された動画像に含まれる複数の撮影画像70の内、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。 When the acquisition unit 12C receives the determination start signal from the tag determination unit 12B, the acquisition unit 12C acquires the photographed image 70 photographed by the photographing unit 30. The acquisition unit 12C acquires the photographed image 70 photographed by the photographing unit 30 when the reception unit 12A receives the determination start signal from the sequencer 20. Specifically, the acquisition unit 12C selects one of the plurality of captured images 70 included in the moving image captured by the imaging unit 30 that was captured by the imaging unit 30 when the reception unit 12A received the determination start signal from the sequencer 20. A photographed image 70 is acquired.

なお、本実施形態では、物体判定装置10の処理部12が、タグ判定部12Bを備えた構成である形態を一例として説明する。しかし、処理部12は、タグ判定部12Bを備えない構成であってもよい。この場合、取得部12Cは、受付部12Aでシーケンサ20から判定開始信号を受付けた時に、撮影部30によって撮影された撮影画像70を取得すればよい。 In addition, in this embodiment, the processing part 12 of the object determination apparatus 10 demonstrates the structure provided with the tag determination part 12B as an example. However, the processing section 12 may have a configuration that does not include the tag determination section 12B. In this case, the acquisition unit 12C may acquire the photographed image 70 photographed by the photographing unit 30 when the reception unit 12A receives the determination start signal from the sequencer 20.

上述したように、撮影部30の撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの特定の部品Pを含む範囲となるように予め調整されている。また、シーケンサ20は、搬送によって車両Vが所定位置X1に到達したときに、判定開始信号を物体判定装置10へ送信する。このため、シーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得することで、取得部12Cは、搬送される車両Vの撮影画像70であって、車両Vの種類を特定可能な複数の部品Pを含む撮影範囲Rの撮影画像70を取得する。 As described above, the photographing range R of the photographing unit 30 is adjusted in advance so as to include the specific part P of the vehicle V that has arrived at the predetermined position X1 due to transportation. Further, the sequencer 20 transmits a determination start signal to the object determination device 10 when the vehicle V reaches the predetermined position X1 due to transportation. Therefore, by acquiring the photographed image 70 photographed by the photographing section 30 when the determination start signal is received from the sequencer 20, the acquisition section 12C obtains the photographed image 70 of the vehicle V being transported. A photographed image 70 of a photographing range R including a plurality of parts P whose types can be specified is acquired.

抽出部12Dは、取得部12Cで取得した撮影画像70から、複数の着目領域を抽出する。 The extraction unit 12D extracts a plurality of regions of interest from the captured image 70 acquired by the acquisition unit 12C.

図4は、撮影画像70の一例の模式図である。図4には、取得部12Cで取得した撮影画像70の一例を示す。抽出部12Dは、撮影画像70から複数の着目領域72を抽出する。 FIG. 4 is a schematic diagram of an example of a photographed image 70. FIG. 4 shows an example of a captured image 70 acquired by the acquisition unit 12C. The extraction unit 12D extracts a plurality of regions of interest 72 from the photographed image 70.

着目領域72は、撮影画像70に含まれる車両Vの種類を特定可能な領域である。抽出部12Dは、少なくとも一部の領域が非重複の複数の着目領域72を撮影画像70から抽出する。 The region of interest 72 is an area in which the type of vehicle V included in the photographed image 70 can be specified. The extraction unit 12D extracts a plurality of regions of interest 72, at least some of which are non-overlapping, from the photographed image 70.

複数の着目領域72の各々には、車両Vの種類を特定可能な部材が映り込んでいればよい。詳細には、複数の着目領域72は、撮影画像70に映り込む車両Vの互いに異なる部品Pを含む領域であることが好ましい。部品Pは、上述したように、車両Vの種類を判別可能な部材である。 It is only necessary that a member that can identify the type of vehicle V is reflected in each of the plurality of regions of interest 72 . In detail, it is preferable that the plurality of regions of interest 72 include mutually different parts P of the vehicle V reflected in the photographed image 70. The part P is a member that allows the type of the vehicle V to be determined, as described above.

本実施形態では、抽出部12Dは、部品P1を含む第1着目領域72Aと、部品P2を含む第2着目領域72Bと、を抽出する形態を一例として説明する。部品P1および部品P2は、車両Vの種類を判別可能な互いに異なる部品Pである。なお、抽出部12Dは、複数の着目領域72を抽出すればよく、2つの着目領域72を抽出する形態に限定されない。 In the present embodiment, an example will be described in which the extraction unit 12D extracts a first region of interest 72A including the component P1 and a second region of interest 72B including the component P2. The part P1 and the part P2 are different parts P from which the type of the vehicle V can be determined. Note that the extraction unit 12D only needs to extract a plurality of regions of interest 72, and is not limited to extracting two regions of interest 72.

抽出部12Dは、複数の着目領域72の各々の、撮影画像70における位置およびサイズを表す着目領域情報を予め記憶部16に記憶する。本実施形態では、抽出部12Dは、第1着目領域72Aおよび第2着目領域72Bの各々の着目領域情報として、第1着目領域情報および第2着目領域情報を予め記憶部16に記憶する。 The extraction unit 12D stores in the storage unit 16 in advance, region-of-interest information indicating the position and size of each of the plurality of regions of interest 72 in the photographed image 70. In the present embodiment, the extraction unit 12D stores the first area of interest information and the second area of interest information in the storage unit 16 in advance as the area of interest information of the first area of interest 72A and the second area of interest 72B.

詳細には、例えば、抽出部12Dは、撮影画像70における第1着目領域72Aの位置およびサイズを表す第1着目領域情報を予め記憶部16に記憶する。また、抽出部12Dは、撮影画像70における第2着目領域72Bの位置およびサイズを表す第2着目領域情報を予め記憶部16に記憶する。そして、抽出部12Dは、取得部12Cで取得した撮影画像70における、記憶部16から読取った第1着目領域情報および第2着目領域情報の各々によって表される位置およびサイズの範囲を抽出することで、第1着目領域72Aおよび第2着目領域72Bを撮影画像70から抽出する。すなわち、抽出部12Dは、取得部12Cで新たな撮影画像70を取得するごとに、着目領域情報に基づいて、順次取得する複数の撮影画像70間で画像内における位置およびサイズが同じ領域を着目領域72として抽出する。 Specifically, for example, the extraction unit 12D stores first region of interest information indicating the position and size of the first region of interest 72A in the captured image 70 in the storage unit 16 in advance. Further, the extraction unit 12D stores second region of interest information indicating the position and size of the second region of interest 72B in the captured image 70 in the storage unit 16 in advance. Then, the extraction unit 12D extracts the position and size range represented by each of the first region of interest information and the second region of interest information read from the storage unit 16 in the captured image 70 acquired by the acquisition unit 12C. Then, the first region of interest 72A and the second region of interest 72B are extracted from the photographed image 70. That is, each time the acquisition unit 12C acquires a new captured image 70, the extraction unit 12D focuses on an area having the same position and size in the image among the plurality of captured images 70 sequentially acquired, based on the region of interest information. It is extracted as area 72.

図3に戻り説明を続ける。判定部12Eは、学習モデル16Aを用いて、抽出部12Dで抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する。 Returning to FIG. 3, the explanation will be continued. The determination unit 12E uses the learning model 16A to determine the type of vehicle V from the plurality of regions of interest 72 (first region of interest 72A, second region of interest 72B) extracted by the extraction unit 12D.

学習モデル16Aは、撮影画像70に含まれる複数の着目領域72から、該撮影画像70に含まれる車両Vの種類を出力する学習モデルである。言い換えると、学習モデル16Aは、複数の着目領域72を入力とし、車両Vの種類を出力とする学習モデルである。 The learning model 16A is a learning model that outputs the type of vehicle V included in the captured image 70 from a plurality of regions of interest 72 included in the captured image 70. In other words, the learning model 16A is a learning model that uses the plurality of regions of interest 72 as input and the type of vehicle V as output.

学習部12Fは、教師データ用いた機械学習によって学習モデル16Aを予め学習する。学習部12Fは、取得部12Cで取得した撮影画像70を学習用の学習用画像として用い、学習用画像に含まれる複数の着目領域72を教師データとして用いる。 The learning unit 12F previously learns the learning model 16A by machine learning using teacher data. The learning unit 12F uses the captured image 70 acquired by the acquisition unit 12C as a learning image for learning, and uses the plurality of regions of interest 72 included in the learning image as teacher data.

図5は、学習用画像80の一例の説明図である。学習部12Fは、撮影部30によって撮影された、搬送によって所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を、学習用画像80として用いる。そして、学習部12Fは、学習用画像80に含まれる複数の着目領域72と、複数の加工着目領域74と、を用いて学習モデル16Aを学習する。 FIG. 5 is an explanatory diagram of an example of the learning image 80. The learning section 12F uses, as the learning image 80, the photographed image 70 of the photographing range R of the vehicle V that has reached the predetermined position X1 by transportation, which is photographed by the photographing section 30. The learning unit 12F then learns the learning model 16A using the plurality of regions of interest 72 and the plurality of processing regions of interest 74 included in the learning image 80.

詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aおよび第2着目領域72Bを、入力データと正解データとからなる教師データの入力データとして用いる。 Specifically, the learning unit 12F uses the first region of interest 72A and the second region of interest 72B included in the learning image 80 as input data of teacher data consisting of input data and correct answer data.

具体的には、学習部12Fは、学習用画像80における、第1着目領域情報によって規定される位置およびサイズの領域を、第1着目領域72Aとして抽出する。また、学習部12Fは、学習用画像80における、第2着目領域情報によって規定される位置およびサイズの領域を、第2着目領域72Bとして抽出する。そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび第2着目領域72Bの対を、教師データの入力データとして用いる。 Specifically, the learning unit 12F extracts a region in the learning image 80 whose position and size are defined by the first region of interest information as the first region of interest 72A. Furthermore, the learning unit 12F extracts an area in the learning image 80 at a position and size defined by the second area of interest information as a second area of interest 72B. The learning unit 12F then uses the pair of the first region of interest 72A and the second region of interest 72B extracted from the learning image 80 as input data of teacher data.

また、学習部12Fは、これらの第1着目領域72Aおよび第2着目領域72Bに映り込んだ車両Vの種類を、該教師データの該入力データに対する正解データとして用いる。 Further, the learning unit 12F uses the types of vehicles V reflected in the first region of interest 72A and the second region of interest 72B as correct answer data for the input data of the teacher data.

また、学習部12Fは、学習用画像80に含まれる複数の着目領域72の各々について、着目領域72の位置および角度の少なくとも一方を変更した領域を加工着目領域74として抽出する。 Further, the learning unit 12F extracts, as a processed region of interest 74, a region in which at least one of the position and angle of the region of interest 72 is changed for each of the plurality of regions of interest 72 included in the learning image 80.

詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出する。図5には、第1着目領域72Aの位置を変更した第1加工着目領域74A1~第1加工着目領域74A2と、第1着目領域72Aの角度を変更した第1加工着目領域74A3と、を抽出した例を一例として示す。なお、学習部12Fは、第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出すればよく、3つの第1加工着目領域74Aを抽出する形態に限定されない。 Specifically, the learning unit 12F extracts one or more first processed regions of interest 74A in which at least one of the position and angle of the first region of interest 72A included in the learning image 80 is changed. In FIG. 5, a first processing region of interest 74A1 to a first processing region of interest 74A2 in which the position of the first region of interest 72A is changed, and a first processing region of interest 74A3 in which the angle of the first region of interest 72A is changed are extracted. An example of this is shown below. The learning unit 12F may extract one or more first processing regions 74A in which at least one of the position and angle of the first region of interest 72A is changed, and may extract three first processing regions 74A. Not limited.

なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第1着目領域72Aの位置および角度を変更した複数の第1加工着目領域74Aを抽出する。但し、学習部12Fは、抽出した複数の第1加工着目領域74Aの各々が部品P1を含む領域となるように抽出位置および角度を調整する。 The learning unit 12F determines the first point of interest in the range of the position and angle deviation of the vehicle V in real space with respect to the photographing range R of the photographing unit 30, which is caused by shaking of the vehicle V that has been transported and reached the predetermined position X1. A plurality of first processing target regions 74A are extracted by changing the position and angle of the region 72A. However, the learning unit 12F adjusts the extraction position and angle so that each of the plurality of extracted first processing regions 74A becomes a region including the part P1.

また、学習部12Fは、学習用画像80に含まれる第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出する。図5には、第2着目領域72Bの位置を変更した第2加工着目領域74B1~第2加工着目領域74B2と、第2着目領域72Bの角度を変更した第2加工着目領域74B3と、を抽出した例を一例として示す。なお、学習部12Fは、第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出すればよく、3つの第2加工着目領域74Bを抽出する形態に限定されない。 The learning unit 12F also extracts one or more second processed regions of interest 74B in which at least one of the position and angle of the second region of interest 72B included in the learning image 80 is changed. In FIG. 5, a second processing region of interest 74B1 to a second processing region of interest 74B2 in which the position of the second region of interest 72B is changed, and a second processing region of interest 74B3 in which the angle of the second region of interest 72B is changed are extracted. An example of this is shown below. Note that the learning unit 12F only needs to extract one or more second processing regions 74B in which at least one of the position and angle of the second region of interest 72B is changed, and may extract three second processing regions 74B. Not limited.

なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第2着目領域72Bの位置および角度を変更した複数の第2加工着目領域74Bを抽出する。但し、学習部12Fは、抽出した複数の第2加工着目領域74Bの各々が部品P2を含む領域となるように抽出位置を調整する。 Note that the learning unit 12F determines the second focus in the range of the position and angle deviation of the vehicle V in real space with respect to the photographing range R of the photographing unit 30, which is caused by shaking of the vehicle V that has been transported and reached the predetermined position X1. A plurality of second processing target regions 74B are extracted by changing the position and angle of the region 72B. However, the learning unit 12F adjusts the extraction position so that each of the plurality of extracted second processing target regions 74B becomes a region including the part P2.

そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび複数の第1加工着目領域74Aの内の1つと、学習用画像80から抽出した第2着目領域72Bおよび複数の第2加工着目領域74Bの1つと、の対の組み合わせを変えた複数の入力データを用意する。そして、学習部12Fは、これらの複数の入力データと、複数の入力データの各々の正解データである車両Vの種類と、の対を複数の教師データとして生成する。 The learning unit 12F then selects one of the first region of interest 72A and the plurality of first processing regions 74A extracted from the learning image 80, the second region of interest 72B extracted from the learning image 80, and one of the plurality of first processing regions 74A and 2. A plurality of input data with different pair combinations of one of the processing target areas 74B and 2 are prepared. The learning unit 12F then generates pairs of these plurality of input data and the type of vehicle V, which is correct data for each of the plurality of input data, as a plurality of teacher data.

このように、学習部12Fは、1つの学習用画像80から組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。また、学習部12Fは、複数の学習用画像80を用いる場合についても同様に、複数の学習用画像80の各々から、組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。 In this manner, the learning unit 12F generates a plurality of pieces of teacher data using a plurality of different combinations of regions of interest 72 and regions of interest to be processed 74 as input data from one learning image 80. Similarly, when using a plurality of learning images 80, the learning unit 12F uses a plurality of regions of interest 72 and processed regions of interest 74 in different combinations as input data from each of the plurality of learning images 80. Generate multiple training data.

そして、学習部12Fは、これらの複数の教師データの各々に含まれる入力データである第1着目領域72Aまたは第1加工着目領域74Aと、第2着目領域72Bまたは第2加工着目領域74Bと、の対を入力とし、該教師データに含まれる該入力データに対応する出力データである車両Vの種類を出力とした、学習モデル16Aを学習する。 The learning unit 12F then selects a first region of interest 72A or a first processing region of interest 74A, a second region of interest 72B or a second processing region of interest 74B, which are input data included in each of the plurality of teacher data. A learning model 16A is trained in which the pair of , is input, and the type of vehicle V, which is output data corresponding to the input data included in the teacher data, is output.

学習モデル16Aの学習には、公知の機械学習を用いればよい。機械学習には、例えば、CNN(Convolutional Neural Network)等の深層学習等を用いればよい。 Known machine learning may be used for learning the learning model 16A. For example, deep learning such as CNN (Convolutional Neural Network) may be used for machine learning.

このように、学習部12Fは、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置及び角度の少なくとも一方を変更した複数の加工着目領域74と、を用いて学習モデル16Aを学習する。このため、学習部12Fは、少ない数の撮影画像70から効率よく且つ高精度に学習モデル16Aを学習することができる。 In this way, the learning unit 12F processes the plurality of regions of interest 72 extracted from the learning image 80 and the plurality of processed regions of interest 74 in which at least one of the position and angle of the region of interest 72 in the learning image 80 is changed. The learning model 16A is learned using the learning model 16A. Therefore, the learning unit 12F can efficiently and highly accurately learn the learning model 16A from a small number of captured images 70.

また、学習部12Fは、学習用画像80における着目領域72の位置および角度を、搬送される車両Vの揺れ等によって生じる、実空間における車両Vに対する撮影範囲R内の着目領域72の位置および角度のずれの範囲で変更した、複数の加工着目領域74を抽出する。そして、これらの複数の加工着目領域74を、教師データとして用いる。このため、学習部12Fは、搬送される車両Vの位置ずれや揺れなどによって、実空間における車両Vの撮影範囲Rに映り込む範囲がずれた場合であっても、高精度に車両Vの種類を出力可能な学習モデル16Aを学習することができる。 The learning unit 12F also determines the position and angle of the region of interest 72 in the learning image 80 within the photographing range R relative to the vehicle V in real space, which is caused by the shaking of the vehicle V being transported. A plurality of regions of interest 74 to be processed are extracted, which are changed within the range of deviation. Then, these plural processing target regions 74 are used as teacher data. For this reason, the learning unit 12F can accurately identify the type of vehicle V even if the range reflected in the photographing range R of the vehicle V in real space shifts due to positional shift or shaking of the vehicle V being transported. The learning model 16A that can output the following can be learned.

また、学習部12Fは、学習済モデルを用いた転移学習(Transfer Learning)により、学習モデル16Aを学習してもよい。転移学習を行う場合についても、教師データの入力データには、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置および角度の少なくとも一方を変更した複数の加工着目領域74と、を用いればよい。 Further, the learning unit 12F may learn the learning model 16A by transfer learning using a learned model. When performing transfer learning, the input data of the teacher data includes a plurality of regions of interest 72 extracted from the learning image 80 and a plurality of regions of interest 72 in which at least one of the position and angle of the region of interest 72 in the learning image 80 has been changed. The processing attention area 74 may be used.

学習部12Fが転移学習により学習モデル16Aを学習することで、学習部12Fは、更に少ない教師データで且つ短時間に効率よく高精度な学習モデル16Aを学習することができる。 By learning the learning model 16A by transfer learning, the learning unit 12F can efficiently learn the highly accurate learning model 16A in a short time with even less teacher data.

なお、学習部12Fは、物体判定装置10の外部の情報処理装置に設けられた構成であってもよい。この場合、学習部12Fは、物体判定装置10の外部の情報処理装置で上記学習方法を用いて学習モデル16Aを学習し、学習済の学習モデル16Aを物体判定装置10の記憶部16に記憶すればよい。 Note that the learning unit 12F may be configured to be provided in an information processing device outside the object determination device 10. In this case, the learning section 12F learns the learning model 16A using the above learning method with an information processing device external to the object determining device 10, and stores the learned learning model 16A in the storage section 16 of the object determining device 10. Bye.

図3に戻り説明を続ける。判定部12Eは、学習部12Fによって学習された学習モデル16Aに、抽出部12Dで抽出された第1着目領域72Aおよび第2着目領域72Bを入力する。そして、判定部12Eは、該学習モデル16Aからの出力である車両Vの種類を取得することで、車両Vの種類を判定する。 Returning to FIG. 3, the explanation will be continued. The determination unit 12E inputs the first region of interest 72A and the second region of interest 72B extracted by the extraction unit 12D to the learning model 16A learned by the learning unit 12F. Then, the determination unit 12E determines the type of vehicle V by acquiring the type of vehicle V that is the output from the learning model 16A.

出力制御部12Gは、判定部12Eまたはタグ判定部12Bによる判定結果を出力する。判定結果は、車両Vの種類を表す情報である。 The output control section 12G outputs the determination result by the determination section 12E or the tag determination section 12B. The determination result is information representing the type of vehicle V.

出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。 The output control unit 12G outputs the type of vehicle V, which is the determination result, to the sequencer 20 via the communication unit 14.

シーケンサ20は、車両Vの種類の判定結果を物体判定装置10から受付けると、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。例えば、塗装装置50は、シーケンサ20から受付けた車両Vの種類に応じた車両Vの特定の領域に塗装処理を行う。なお、物体判定システム1には、車両Vの種類の判定結果に応じた各種処理を行う処理装置が設けられていればよく、塗装を行う塗装装置50の設けられた形態に限定されない。また、物体判定システム1には、車両Vの種別に応じた処理を行う塗装装置50などの装置が設けられていない構成であってもよい。 Upon receiving the determination result of the type of vehicle V from the object determination device 10, the sequencer 20 transmits the determination result to the coating device 50. The painting device 50 executes a painting process according to the type of vehicle V represented by the determination result received from the sequencer 20. For example, the painting device 50 performs a painting process on a specific area of the vehicle V according to the type of vehicle V received from the sequencer 20. Note that the object determination system 1 only needs to be provided with a processing device that performs various processes according to the determination result of the type of vehicle V, and is not limited to a form in which a coating device 50 that performs painting is provided. Furthermore, the object determination system 1 may have a configuration in which a device such as the painting device 50 that performs processing according to the type of vehicle V is not provided.

また、出力制御部12Gは、判定結果である車両Vの種類を、表示部18に表示してもよい。この場合、出力制御部12Gは、搬送されて所定位置X1に到達した車両Vの種類をユーザに対して視認可能に提供することができる。 Further, the output control unit 12G may display the type of vehicle V, which is the determination result, on the display unit 18. In this case, the output control unit 12G can visually provide the user with the type of vehicle V that has been transported and reached the predetermined position X1.

次に、本実施形態の物体判定装置10で実行する情報処理の流れの一例を説明する。 Next, an example of the flow of information processing executed by the object determination device 10 of this embodiment will be described.

図6は、物体判定装置10が実行する情報処理の流れの一例を示すフローチャートである。 FIG. 6 is a flowchart illustrating an example of the flow of information processing executed by the object determination device 10.

受付部12Aは、シーケンサ20から判定開始信号を受付ける(ステップS100)。 The reception unit 12A receives a determination start signal from the sequencer 20 (step S100).

タグ判定部12Bは、ステップS100で判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る(ステップS102)。タグ判定部12Bは、ステップS102で読取った台車IDを用いた車両Vの種類の判定に失敗したか否かを判断する(ステップS104)。タグ判定部12Bは、ステップS102で読取った台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。タグ判定部12Bは、台車IDを用いた車両Vの種類の判定に成功した場合、ステップS104で否定判断し(ステップS104:No)、後述するステップS112へ進む。ステップS104で肯定判断すると(ステップS104:Yes)、ステップS106へ進む。 When the tag determination unit 12B receives the determination start signal in step S100, it reads the cart ID from the tag 60 via the communication unit 14 (step S102). The tag determination unit 12B determines whether or not the determination of the type of vehicle V using the trolley ID read in step S102 has failed (step S104). The tag determination unit 12B determines the type of vehicle V by reading the type of vehicle V corresponding to the truck ID read in step S102 from the truck management information. When the tag determination unit 12B successfully determines the type of vehicle V using the trolley ID, it makes a negative determination in step S104 (step S104: No), and proceeds to step S112, which will be described later. If an affirmative determination is made in step S104 (step S104: Yes), the process advances to step S106.

ステップS106では、取得部12Cが撮影画像70を取得する(ステップS106)。取得部12Cは、ステップS100で判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。ステップS106の処理によって、取得部12Cは、搬送されて所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を取得する。 In step S106, the acquisition unit 12C acquires the captured image 70 (step S106). The acquisition unit 12C acquires the photographed image 70 photographed by the photographing unit 30 when the determination start signal is received in step S100. Through the process of step S106, the acquisition unit 12C acquires the photographed image 70 of the photographing range R of the vehicle V that has been transported and reached the predetermined position X1.

抽出部12Dは、ステップS106で取得した撮影画像70から複数の着目領域72を抽出する(ステップS108)。例えば、抽出部12Dは、撮影画像70から第1着目領域72Aおよび第2着目領域72Bを抽出する。 The extraction unit 12D extracts a plurality of regions of interest 72 from the captured image 70 acquired in step S106 (step S108). For example, the extraction unit 12D extracts the first region of interest 72A and the second region of interest 72B from the photographed image 70.

判定部12Eは、学習モデル16Aを用いて、ステップS108で抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する(ステップS110)。 The determination unit 12E uses the learning model 16A to determine the type of vehicle V from the plurality of regions of interest 72 (first region of interest 72A, second region of interest 72B) extracted in step S108 (step S110).

出力制御部12Gは、ステップS110の判定結果またはステップS104で否定判断(ステップS104:No)することにより受付けた判定結果を出力する(ステップS112)。例えば、出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。シーケンサ20は、例えば、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。 The output control unit 12G outputs the determination result in step S110 or the determination result received by making a negative determination in step S104 (step S104: No) (step S112). For example, the output control unit 12G outputs the type of vehicle V, which is the determination result, to the sequencer 20 via the communication unit 14. For example, the sequencer 20 transmits the determination result to the coating device 50. The painting device 50 executes a painting process according to the type of vehicle V represented by the determination result received from the sequencer 20.

次に、処理部12は、物体判定処理を終了するか否かを判断する(ステップS114)。例えば、処理部12は、物体判定処理の終了指示信号を受付けたか否かを判別することで、ステップS114の判断を行う。例えば、ユーザは、車両Vの種類の判定処理を終了するときに物体判定装置10の操作部等を操作することで、物体判定処理の終了指示信号を入力する。処理部12は、終了指示信号を受付けた場合、物体判定処理を終了すると判断すればよい。ステップS114で否定判断すると(ステップS114:No)、上記ステップS100に戻る。ステップS114で肯定判断すると(ステップS114:Yes)本ルーチンを終了する。 Next, the processing unit 12 determines whether to end the object determination process (step S114). For example, the processing unit 12 makes the determination in step S114 by determining whether or not an instruction signal to end the object determination process has been received. For example, when terminating the process of determining the type of vehicle V, the user inputs an instruction signal for terminating the object determination process by operating the operation unit of the object determination device 10 or the like. When the processing unit 12 receives the termination instruction signal, it may determine that the object determination process is to be terminated. If a negative determination is made in step S114 (step S114: No), the process returns to step S100. If an affirmative determination is made in step S114 (step S114: Yes), this routine ends.

以上説明したように、本実施形態の物体判定装置10は、抽出部12Dと、判定部12Eと、を備える。抽出部12Dは、搬送される対象物の撮影画像70から複数の着目領域72を抽出する。判定部12Eは、撮影画像70である学習用画像80に含まれる複数の着目領域72を用いて学習された、複数の着目領域72から対象物の種類を出力する学習モデル16Aを用いて、抽出された複数の着目領域72から対象物の種類を判定する。 As explained above, the object determination device 10 of this embodiment includes the extraction section 12D and the determination section 12E. The extraction unit 12D extracts a plurality of regions of interest 72 from the photographed image 70 of the object to be transported. The determination unit 12E performs extraction using a learning model 16A that outputs the type of object from the plurality of regions of interest 72, which is learned using the plurality of regions of interest 72 included in the learning image 80 which is the photographed image 70. The type of object is determined from the plurality of regions of interest 72 thus obtained.

ここで、従来では、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定していた。しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。また、搬送される対象物を支持する支持部材の劣化等により、搬送される対象物に位置ずれや揺れが発生することで、識別符号の読取異常が発生する場合があった。このため、従来技術では、搬送される対象物の種類を高精度に判定することが困難となる場合があった。 Here, conventionally, the type of the object has been determined by reading an identification code provided on the object to be transported or the transport mechanism of the object using a sensor. However, in the prior art, it may be difficult to determine the type of object due to dirt on the part where the identification code is installed or shaking of the object being transported. Further, due to deterioration of a support member that supports the transported object, the transported object may shift or shake, which may cause an error in reading the identification code. For this reason, in the prior art, it may be difficult to accurately determine the type of object to be transported.

一方、本実施形態の物体判定装置10では、搬送される車両Vの撮影画像70から複数の着目領域72を抽出し、抽出した複数の着目領域72を学習モデル16Aへ入力することで、該学習モデル16Aからの出力として車両Vなどの対象物の種類を判定する。 On the other hand, the object determination device 10 of the present embodiment extracts a plurality of regions of interest 72 from a photographed image 70 of a vehicle V being transported, and inputs the extracted plurality of regions of interest 72 to the learning model 16A. The type of object such as the vehicle V is determined as the output from the model 16A.

このため、本実施形態の物体判定装置10では、識別符号の読取異常などによる対象物の種類の判定精度の低下を抑制することができる。また、本実施形態の物体判定装置10では、撮影画像70に含まれる複数の着目領域72を対象物の種類の判定に用いるため、1つの着目領域72のみを判定に用いる場合に比べて、高精度に対象物の種類を判定することができる。 Therefore, in the object determination device 10 of the present embodiment, it is possible to suppress a decrease in the accuracy of determining the type of object due to an abnormality in reading the identification code. Furthermore, since the object determination device 10 of the present embodiment uses a plurality of regions of interest 72 included in the photographed image 70 to determine the type of object, the object determination device 10 has a higher It is possible to accurately determine the type of object.

従って、本実施形態の物体判定装置10は、搬送される対象物の種類を高精度に判定することができる。 Therefore, the object determination device 10 of this embodiment can determine the type of the object to be transported with high accuracy.

また、従来技術では、搬送される対象物または対象物の搬送機構に設けられた識別符号の読取異常が発生した場合には、搬送機構40による対象物の搬送を停止し、ユーザが手動で異常解消のための作業を行った後に再度搬送を再開させるなどの作業を行っていた。一方、本実施形態の物体判定装置10では、例えば、タグ60から読取った台車IDの読取異常等が発生した場合であっても、搬送される対象物の撮影画像70から抽出した複数の着目領域72と学習モデル16Aとを用いて、対象物の種類を判定する。このため、本実施形態の物体判定装置10は、上記効果に加えて、読取異常等による生産ラインの停止を抑制することができ、また、ユーザの作業負荷の低減を図ることができる。 Furthermore, in the conventional technology, when an error occurs in reading the identification code provided on the object to be transported or the transport mechanism for the object, the transport of the object by the transport mechanism 40 is stopped, and the user manually detects the abnormality. After carrying out work to resolve the issue, work was carried out to restart transport again. On the other hand, in the object determination device 10 of the present embodiment, even if an abnormality occurs in the reading of the cart ID read from the tag 60, for example, a plurality of regions of interest extracted from the photographed image 70 of the object to be transported 72 and the learning model 16A to determine the type of object. Therefore, in addition to the above-mentioned effects, the object determination device 10 of the present embodiment can suppress production line stoppage due to reading abnormalities and the like, and can also reduce the user's workload.

なお、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、HDDに記憶されていてもよい。また、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、ROM11Bに予め組み込まれて提供されていてもよい。 Note that a program for executing each of the above processes executed by the object determination device 10 of the above embodiment may be stored in the HDD. Moreover, the program for executing each of the above-mentioned processes executed by the object determination device 10 of the embodiment described above may be provided by being incorporated in the ROM 11B in advance.

また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。 Further, the program for executing the above processing executed by the object determination device 10 of the embodiment described above is a file in an installable format or an executable format and can be stored on a CD-ROM, CD-R, memory card, or DVD (Digital). The program may be stored in a computer-readable storage medium such as a flexible disk (FD) or a flexible disk (FD), and provided as a computer program product. Further, a program for executing the above processing executed by the object determination device 10 of the above embodiment is stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. Good too. Further, a program for executing the above processing executed by the object determination device 10 of the above embodiment may be provided or distributed via a network such as the Internet.

なお、上記には、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1 物体判定システム
10 物体判定装置
12D 抽出部
12E 判定部
30 撮影部
1 Object determination system 10 Object determination device 12D Extraction section 12E Determination section 30 Photographing section

Claims (4)

搬送される対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
物体判定装置。
an extraction unit that extracts a plurality of regions of interest from a photographed image of the object to be transported;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
Object determination device.
搬送される対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
前記判定部は、
前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
物体判定装置。
an extraction unit that extracts a plurality of regions of interest from a photographed image of the object to be transported;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
The determination unit includes:
Using the learning model that is trained using the plurality of regions of interest included in the learning image and a plurality of processed regions of interest in which at least one of the position and angle of the region of interest in the learning image is changed. determining the type of the object from the plurality of extracted regions of interest;
Object determination device.
搬送される対象物を撮影する撮影部と、
前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
物体判定システム。
a photography department that photographs the object being transported;
an extraction unit that extracts a plurality of regions of interest from the photographed image of the object;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
Object recognition system.
搬送される対象物を撮影する撮影部と、
前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
前記判定部は、
前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
物体判定システム。
a photography department that photographs the object being transported;
an extraction unit that extracts a plurality of regions of interest from the photographed image of the object;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
The determination unit includes:
Using the learning model that is trained using the plurality of regions of interest included in the learning image and a plurality of processed regions of interest in which at least one of the position and angle of the region of interest in the learning image is changed. determining the type of the object from the plurality of extracted regions of interest;
Object recognition system.
JP2021174994A 2021-10-26 2021-10-26 Object determination device and object determination system Active JP7425032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021174994A JP7425032B2 (en) 2021-10-26 2021-10-26 Object determination device and object determination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021174994A JP7425032B2 (en) 2021-10-26 2021-10-26 Object determination device and object determination system

Publications (2)

Publication Number Publication Date
JP2023064620A JP2023064620A (en) 2023-05-11
JP7425032B2 true JP7425032B2 (en) 2024-01-30

Family

ID=86271586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021174994A Active JP7425032B2 (en) 2021-10-26 2021-10-26 Object determination device and object determination system

Country Status (1)

Country Link
JP (1) JP7425032B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109137A (en) 2017-12-13 2018-06-01 重庆越畅汽车科技有限公司 The Machine Vision Inspecting System and method of vehicle part
CN108416338A (en) 2018-04-28 2018-08-17 深圳信息职业技术学院 A kind of non-contact palm print identity authentication method
US20190034734A1 (en) 2017-07-28 2019-01-31 Qualcomm Incorporated Object classification using machine learning and object tracking
US20200186813A1 (en) 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. System and method for compressing data using a filter without loss of critical data
JP2021128705A (en) 2020-02-17 2021-09-02 トヨタ自動車株式会社 Object state identification device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190034734A1 (en) 2017-07-28 2019-01-31 Qualcomm Incorporated Object classification using machine learning and object tracking
CN108109137A (en) 2017-12-13 2018-06-01 重庆越畅汽车科技有限公司 The Machine Vision Inspecting System and method of vehicle part
CN108416338A (en) 2018-04-28 2018-08-17 深圳信息职业技术学院 A kind of non-contact palm print identity authentication method
US20200186813A1 (en) 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. System and method for compressing data using a filter without loss of critical data
JP2021128705A (en) 2020-02-17 2021-09-02 トヨタ自動車株式会社 Object state identification device

Also Published As

Publication number Publication date
JP2023064620A (en) 2023-05-11

Similar Documents

Publication Publication Date Title
US10594937B2 (en) Multi-sensor image stabilization techniques
CN101393605B (en) Image processing device and image processing method
JP5787642B2 (en) Object holding device, method for controlling object holding device, and program
US20160323700A1 (en) Device, system, and method for determining the status of lanes
JP6473691B2 (en) Misalignment correction apparatus and misalignment correction system
JP6538458B2 (en) Logistics system and logistics management method
US10823572B2 (en) Method, system and apparatus for generating navigational data
US20210072734A1 (en) Information processing apparatus and method, robot controlling apparatus and method, and non-transitory computer-readable storage medium
JP6947508B2 (en) Moving object detection device, moving object detection system, and moving object detection method
JP6113631B2 (en) Work confirmation system
JP7425032B2 (en) Object determination device and object determination system
CN110795985A (en) Information processing method and information processing system
JP2017214197A (en) Management system, management method and information processing device
JP2017148751A (en) Code recognition system, code recognition method, code recognition program, and load sorting system
CN113673276A (en) Target object identification docking method and device, electronic equipment and storage medium
JP2017214196A (en) Automatic warehouse system, management method for automatic warehouse system
US11327504B2 (en) Method, system and apparatus for mobile automation apparatus localization
US20190228032A1 (en) Non-transitory computer readable medium, information processing apparatus, and information processing method for determining a location of a target based on image information generated by capturing an image of the target
US11568564B2 (en) Mapping multiple views to an identity
JP2007033328A (en) Image processing method and picking operation correcting method using the same
JP2017214195A (en) Management system, management method and transfer system
JP2017215821A (en) Management system, management method and conveyance system
JP2017186106A (en) Delivery support device, delivery support system and delivery support program
JP6852488B2 (en) Identification device, identification method and program
US11508149B2 (en) Operating method with goods information and non-transitory computer readable medium thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R150 Certificate of patent or registration of utility model

Ref document number: 7425032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150