JP7425032B2 - Object determination device and object determination system - Google Patents
Object determination device and object determination system Download PDFInfo
- Publication number
- JP7425032B2 JP7425032B2 JP2021174994A JP2021174994A JP7425032B2 JP 7425032 B2 JP7425032 B2 JP 7425032B2 JP 2021174994 A JP2021174994 A JP 2021174994A JP 2021174994 A JP2021174994 A JP 2021174994A JP 7425032 B2 JP7425032 B2 JP 7425032B2
- Authority
- JP
- Japan
- Prior art keywords
- interest
- regions
- vehicle
- unit
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 claims description 29
- 239000000284 extract Substances 0.000 claims description 22
- 238000012545 processing Methods 0.000 description 39
- 230000007723 transport mechanism Effects 0.000 description 25
- 101100079986 Caenorhabditis elegans nrfl-1 gene Proteins 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000032258 transport Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 9
- 230000005856 abnormality Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000010422 painting Methods 0.000 description 5
- 239000011248 coating agent Substances 0.000 description 4
- 238000000576 coating method Methods 0.000 description 4
- 238000007591 painting process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本開示は、物体判定装置および物体判定システムに関する。 The present disclosure relates to an object determination device and an object determination system.
搬送される対象物の種類を判定するシステムが知られている。例えば、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定することが行われている(例えば、特許文献1参照)。 Systems are known for determining the type of object being transported. For example, the type of object is determined by using a sensor to read an identification code provided on the object to be transported or on the transport mechanism of the object (see, for example, Patent Document 1).
しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。 However, in the prior art, it may be difficult to determine the type of object due to dirt on the part where the identification code is installed or shaking of the object being transported.
本開示が解決しようとする課題は、搬送される対象物の種類を高精度に判定することができる物体判定装置および物体判定システムを提供することである。 An object of the present disclosure is to provide an object determination device and an object determination system that can highly accurately determine the type of an object to be transported.
本開示にかかる物体判定装置は、抽出部と、判定部と、を備える。抽出部は、搬送される対象物の撮影画像から複数の着目領域を抽出する。判定部は、前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する。前記対象物は車両であり、複数の前記着目領域は前記車両の互いに異なる部品を含む領域である。 An object determination device according to the present disclosure includes an extraction section and a determination section. The extraction unit extracts a plurality of regions of interest from the photographed image of the object to be transported. The determination unit is configured to use a learning model that outputs the type of the target object from the plurality of regions of interest, which is learned using the plurality of regions of interest included in the learning image that is the photographed image. The type of the object is determined from the plurality of regions of interest. The target object is a vehicle, and the plurality of regions of interest are regions including mutually different parts of the vehicle.
本開示にかかる物体判定装置および物体判定システムによれば、搬送される対象物の種類を高精度に判定することができる。 According to the object determination device and object determination system according to the present disclosure, it is possible to determine the type of the object to be transported with high accuracy.
以下に添付図面を参照して、本開示に係る物体判定装置および物体判定システムの実施形態を説明する。 Embodiments of an object determination device and an object determination system according to the present disclosure will be described below with reference to the accompanying drawings.
図1は、本実施形態の物体判定システム1の一例を示す模式図である。物体判定システム1は、物体判定装置10と、シーケンサ20と、撮影部30と、搬送機構40と、を備える。
FIG. 1 is a schematic diagram showing an example of an
物体判定システム1は、搬送される対象物の種類を判定するシステムである。
The
対象物とは、種類の判定対象の物体である。対象物は、搬送機構40によって搬送される物体であればよい。対象物は、例えば、車両Vなどの物体、物体または建造物等を構成する部品、果実等の食品、等である。本実施形態では、対象物が車両Vである形態を一例として説明する。
The target object is an object whose type is to be determined. The target object may be any object that is transported by the
搬送機構40は、対象物を搬送する機構である。本実施形態では、搬送機構40が、車両Vの生産ラインに含まれる工程である塗装工程の搬送機構である形態を一例として説明する。
The
搬送機構40は、例えば、ガイドレール40Aと、支持部材40Bと、支持部材40Cと、を備える。ガイドレール40Aは、搬送方向Xに沿って延伸された部材である。支持部材40Bは、ガイドレール40Aに沿って移動可能に設けられ、支持部材40Cを介して車両Vを支持する。支持部材40Cは、車両Vを支持する。支持部材40Cは、台車と称される場合がある。なお、支持部材40Cは車両Vを支持可能な部材であればよく、車両Vを吊り下げることで支持する部材、車両Vを把持することで支持する部材、車両Vを載置することで支持する部材、などの何れであってもよい。本実施形態では、支持部材40Cは、車両Vを吊り下げることで支持する部材である形態を一例として説明する。
The
搬送機構40は、シーケンサ20によって図示を省略する駆動部が制御されることで、搬送方向Xに沿って所定間隔ごとに配置された支持部材40Bを搬送方向Xに搬送する。支持部材40Bが搬送方向Xに搬送されることで、支持部材40Bを介して支持部材40Cによって支持された車両Vが搬送方向Xに搬送される。
The
なお、搬送機構40は、車両Vを搬送方向Xに沿って搬送可能な機構であればよく、図1に示す構成に限定されない。
Note that the
本実施形態では、支持部材40Cには、タグ60が設けられている。タグ60は、記憶された情報を無線通信する機器である。タグ60は、例えば、RF(Radio Frequency)タグ等である。タグ60には、例えば、支持部材40Cを一意に識別する台車ID(識別情報)が予め記憶されている。
In this embodiment, a
シーケンサ20は、搬送機構40の搬送を制御する制御装置である。シーケンサ20は、搬送機構40、塗装装置50、および物体判定装置10の各々と通信可能に接続されている。
The
シーケンサ20は、支持部材40Cによって支持された車両Vの搬送を制御し、車両Vが所定位置X1に搬送されるごとに、判定開始信号を物体判定装置10へ送信する。判定開始信号は、車両Vの種類の判定開始を指示する信号である。シーケンサ20は、例えば、赤外線センサなどの検知結果を用いて、搬送される車両Vが所定位置X1に到達したことを判別すればよい。
The
次に、撮影部30について説明する。撮影部30は、車両Vの搬送される搬送空間を撮影する。撮影部30は、車両Vの搬送される搬送空間における所定の撮影範囲Rを撮影可能に配置されている。撮影範囲Rは、例えば、所定位置X1に搬送された車両Vの特定の部品Pを含む範囲となるように予め調整されている。撮影部30は、実空間における固定の撮影範囲Rを撮影するように予め調整されている。実空間における固定の撮影範囲Rとは、実空間における位置、大きさ、および範囲が固定であることを意味する。 Next, the photographing section 30 will be explained. The photographing unit 30 photographs the transport space in which the vehicle V is transported. The photographing unit 30 is arranged to be able to photograph a predetermined photographing range R in the transport space in which the vehicle V is transported. The photographing range R is adjusted in advance so as to include, for example, a specific part P of the vehicle V transported to the predetermined position X1. The photographing unit 30 is adjusted in advance to photograph a fixed photographing range R in real space. The fixed imaging range R in real space means that the position, size, and range in real space are fixed.
すなわち、撮影部30は、搬送機構40によって搬送される車両Vが所定位置X1に到達したときに撮影される撮影画像70に、車両Vにおける特定の部品Pを含む領域が映り込むように、設置位置および撮影画角などが予め調整されている。
That is, the photographing unit 30 is installed so that an area including a specific part P in the vehicle V is reflected in the photographed
部品Pは、車両Vを構成する部材である。本実施形態では、互いに異なる複数の部品Pである部品P1および部品P2が少なくとも映り込むように、撮影部30の撮影範囲Rが予め調整されている。すなわち、撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの複数の部品Pが映り込む範囲となるように、予め調整されている。部品Pは、車両Vの種類を特定可能な部材であればよい。また、撮影範囲Rに含まれる部品Pは、複数であればよく、2つの部品Pに限定されない。 Part P is a member that constitutes vehicle V. In this embodiment, the photographing range R of the photographing section 30 is adjusted in advance so that at least a plurality of mutually different parts P, ie, a component P1 and a component P2, are reflected. That is, the photographing range R is adjusted in advance so that the plurality of parts P of the vehicle V that have arrived at the predetermined position X1 due to transportation are reflected. The part P may be any member that can identify the type of vehicle V. Further, the number of parts P included in the photographing range R may be plural, and is not limited to two parts P.
撮影部30は、撮影によって撮影範囲Rの撮影画像70を得る。例えば、撮影部30は、時系列に連続する複数の撮影画像70から構成される動画像データを得る。動画像データを構成する各撮影画像70は、例えば、静止画像である。以下では、動画像データを動画像と称し、静止画像データを撮影画像と称して説明する場合がある。
The photographing unit 30 obtains a photographed
本実施形態では、撮影部30は、搬送機構40の駆動が開始されたときに、搬送機構40の動画像の撮影を開始する形態を一例として説明する。搬送機構40の駆動とは、搬送機構40に含まれる支持部材40Cによって支持された車両Vの搬送方向Xへの搬送を意味する。
In the present embodiment, an example will be described in which the imaging unit 30 starts capturing a moving image of the
例えば、撮影部30は、ユーザによる撮影部30の撮影開始ボタンの操作指示等によって撮影開始信号を受付けると、撮影範囲Rの撮影を開始する。ユーザは、搬送機構40の駆動が開始されると、撮影部30の撮影開始ボタン等を操作指示すればよい。
For example, when the photographing unit 30 receives a photographing start signal by a user's instruction to operate the photographing start button of the photographing unit 30, etc., the photographing unit 30 starts photographing the photographing range R. When the
なお、撮影部30は、搬送機構40の駆動を検出したときに、撮影範囲Rの動画像の撮影を開始してもよい。この場合、撮影部30と搬送機構40の駆動部とを通信可能に接続した構成とし、駆動開始したときに搬送機構40が撮影開始信号を撮影部30へ送信する構成とすればよい。また、撮影部30は、物体判定装置10またはシーケンサ20から受信した撮影開始信号に応じて、撮影を開始してもよい。
Note that the photographing unit 30 may start photographing a moving image in the photographing range R when detecting that the
次に、物体判定装置10について説明する。物体判定装置10は、搬送機構40によって搬送される対象物の種類を判定する情報処理装置である。
Next, the object determination device 10 will be explained. The object determination device 10 is an information processing device that determines the type of object transported by the
対象物の種類とは、対象物を予め定められた分類基準に従って複数のグループに分類した、各グループを表す情報である。上述したように、本実施形態では、対象物が車両Vである形態を一例として説明する。対象物が車両Vである場合、車両Vの種類は、例えば、車両Vの種別、車両Vの車種、車両Vの年式、などであるが、これらに限定されない。車両Vの種別は、例えば、普通自動車、小型自動車、特殊用途自動車、などの種別を表す。車両Vの車種は、車両製造会社などによって規定された車名などである。本実施形態では、車両Vの種類は、車名である場合を想定して説明する。 The type of object is information representing each group in which objects are classified into a plurality of groups according to predetermined classification criteria. As described above, in this embodiment, a case in which the target object is a vehicle V will be described as an example. When the object is a vehicle V, the type of the vehicle V is, for example, the type of the vehicle V, the model of the vehicle V, the model year of the vehicle V, etc., but is not limited to these. The type of vehicle V represents, for example, a regular car, a small car, a special purpose car, or the like. The vehicle type of vehicle V is a vehicle name specified by a vehicle manufacturing company or the like. In this embodiment, the description will be made assuming that the type of vehicle V is a car name.
まず、物体判定装置10およびシーケンサ20のハードウェア構成を説明する。
First, the hardware configurations of the object determination device 10 and the
図2は、物体判定装置10およびシーケンサ20の一例のハードウェア構成図である。
FIG. 2 is a hardware configuration diagram of an example of the object determination device 10 and the
物体判定装置10およびシーケンサ20は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM(Random Access Memory)11C、およびI/F11D等がバス11Eにより相互に接続され、通常のコンピュータを利用したハードウェア構成である。
The object determination device 10 and the
CPU11Aは、本実施形態の物体判定装置10およびシーケンサ20を制御する演算装置である。ROM11Bは、CPU11Aによる各種処理を実現するプログラム等を記憶する。RAM11Cは、CPU11Aによる各種処理に必要なデータを記憶する。I/F11Dは、データを送受信するためのインターフェースである。
The
本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、ROM11B等に予め組み込んで提供される。なお、本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、物体判定装置10およびシーケンサ20にインストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読取り可能な記録媒体に記録されて提供するように構成してもよい。
The program executed by the object determination device 10 and the
次に、物体判定装置10の機能的構成を説明する。 Next, the functional configuration of the object determination device 10 will be explained.
図3は、物体判定装置10の一例の機能ブロック図である。図3には、物体判定システム1に含まれる物体判定装置10以外の構成も併せて示す。
FIG. 3 is a functional block diagram of an example of the object determination device 10. FIG. 3 also shows configurations other than the object determination device 10 included in the
物体判定装置10は、処理部12と、通信部14と、記憶部16と、表示部18と、を備える。処理部12、通信部14、記憶部16、および表示部18は、例えば、バス19等を介して通信可能に接続されている。
The object determination device 10 includes a processing section 12, a communication section 14, a storage section 16, and a display section 18. The processing unit 12, communication unit 14, storage unit 16, and display unit 18 are communicably connected via, for example, a
通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信可能に接続されている。すなわち、通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信するための通信インターフェースである。記憶部16は、各種の情報を記憶する。本実施形態では、記憶部16は、学習モデル16Aを予め記憶する。学習モデル16Aの詳細は後述する。
The communication unit 14 is communicably connected to each of the
表示部18は、各種の情報を表示する。表示部18は、例えば、画像を表示するディスプレイである。なお、物体判定装置10は、音声を出力するスピーカを更に備えた構成であってもよい。また、物体判定装置10は、ユーザによる操作入力を受付けるキーボードやポインティングデバイス等の入力装置を更に備えた構成であってよい。 The display unit 18 displays various information. The display unit 18 is, for example, a display that displays images. Note that the object determination device 10 may be configured to further include a speaker that outputs audio. Further, the object determination device 10 may be configured to further include an input device such as a keyboard or a pointing device that receives operation input from a user.
処理部12は、各種の情報処理を実行する。本実施形態では、処理部12は、受付部12Aと、タグ判定部12Bと、取得部12Cと、抽出部12Dと、判定部12Eと、学習部12Fと、出力制御部12Gと、を備える。受付部12A、タグ判定部12B、取得部12C、抽出部12D、判定部12E、学習部12F、および出力制御部12Gの一部または全ては、例えば、CPU等の処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよい。また、これらの機能部の一部または全ては、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、これらの機能部の一部または全ては、ソフトウェアおよびハードウェアを併用して実現してもよい。
The processing unit 12 executes various information processing. In this embodiment, the processing unit 12 includes a
これらの機能部の少なくとも1つを、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。また、記憶部16に記憶されたデータの少なくとも一部を、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に記憶した構成としてもよい。 At least one of these functional units may be installed in an external information processing device that is communicably connected to the object determination device 10 via a network or the like. Alternatively, at least part of the data stored in the storage unit 16 may be stored in an external information processing device that is communicably connected to the object determination device 10 via a network or the like.
受付部12Aは、シーケンサ20から判定開始信号を受付ける。上述したように、シーケンサ20は、搬送される車両Vが所定位置X1に到達すると、判定開始信号を物体判定装置10へ送信する。受付部12Aは、通信部14を介してシーケンサ20から判定開始信号を受付ける。
The
タグ判定部12Bは、受付部12Aで判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る。タグ判定部12Bは、通信部14とタグ60との無線通信によって、タグ60に記憶されている台車IDを読取る。タグ判定部12Bは、読取った台車IDによって識別される支持部材40Cによって支持されている車両Vの種類を判定する。例えば、記憶部16は、台車IDと、車両Vの種類と、を対応付けた台車管理情報を予め記憶する。タグ判定部12Bは、タグ60から受付けた台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。台車管理情報には、ユーザによる操作指示などによって、実際に搬送機構40を搬送されている車両Vの種類と該車両Vを支持する支持部材40Cの台車IDとが一致する情報が予め登録されているものとする。
The
タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に成功した場合、車両Vの種類を表す判定結果を後述する出力制御部12Gへ出力する。
When the
ここで、タグ60の汚れ、タグ60の揺れ、支持部材40Cの揺れ、または通信エラー等によって、台車IDの読取異常が発生する場合がある。また、タグ60から読取った台車IDに対応する車両Vの種別が台車管理情報に含まれない場合がある。このような場合、タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に失敗する。台車IDを用いた車両Vの種類の判定に失敗した場合、タグ判定部12Bは、判定開始信号を取得部12Cへ出力する。
Here, an abnormality in reading the trolley ID may occur due to dirt on the
取得部12Cは、タグ判定部12Bから判定開始信号を受付けると、撮影部30で撮影された撮影画像70を取得する。取得部12Cは、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。詳細には、取得部12Cは、撮影部30で撮影された動画像に含まれる複数の撮影画像70の内、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。
When the
なお、本実施形態では、物体判定装置10の処理部12が、タグ判定部12Bを備えた構成である形態を一例として説明する。しかし、処理部12は、タグ判定部12Bを備えない構成であってもよい。この場合、取得部12Cは、受付部12Aでシーケンサ20から判定開始信号を受付けた時に、撮影部30によって撮影された撮影画像70を取得すればよい。
In addition, in this embodiment, the processing part 12 of the object determination apparatus 10 demonstrates the structure provided with the
上述したように、撮影部30の撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの特定の部品Pを含む範囲となるように予め調整されている。また、シーケンサ20は、搬送によって車両Vが所定位置X1に到達したときに、判定開始信号を物体判定装置10へ送信する。このため、シーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得することで、取得部12Cは、搬送される車両Vの撮影画像70であって、車両Vの種類を特定可能な複数の部品Pを含む撮影範囲Rの撮影画像70を取得する。
As described above, the photographing range R of the photographing unit 30 is adjusted in advance so as to include the specific part P of the vehicle V that has arrived at the predetermined position X1 due to transportation. Further, the
抽出部12Dは、取得部12Cで取得した撮影画像70から、複数の着目領域を抽出する。
The
図4は、撮影画像70の一例の模式図である。図4には、取得部12Cで取得した撮影画像70の一例を示す。抽出部12Dは、撮影画像70から複数の着目領域72を抽出する。
FIG. 4 is a schematic diagram of an example of a photographed
着目領域72は、撮影画像70に含まれる車両Vの種類を特定可能な領域である。抽出部12Dは、少なくとも一部の領域が非重複の複数の着目領域72を撮影画像70から抽出する。
The region of
複数の着目領域72の各々には、車両Vの種類を特定可能な部材が映り込んでいればよい。詳細には、複数の着目領域72は、撮影画像70に映り込む車両Vの互いに異なる部品Pを含む領域であることが好ましい。部品Pは、上述したように、車両Vの種類を判別可能な部材である。
It is only necessary that a member that can identify the type of vehicle V is reflected in each of the plurality of regions of
本実施形態では、抽出部12Dは、部品P1を含む第1着目領域72Aと、部品P2を含む第2着目領域72Bと、を抽出する形態を一例として説明する。部品P1および部品P2は、車両Vの種類を判別可能な互いに異なる部品Pである。なお、抽出部12Dは、複数の着目領域72を抽出すればよく、2つの着目領域72を抽出する形態に限定されない。
In the present embodiment, an example will be described in which the
抽出部12Dは、複数の着目領域72の各々の、撮影画像70における位置およびサイズを表す着目領域情報を予め記憶部16に記憶する。本実施形態では、抽出部12Dは、第1着目領域72Aおよび第2着目領域72Bの各々の着目領域情報として、第1着目領域情報および第2着目領域情報を予め記憶部16に記憶する。
The
詳細には、例えば、抽出部12Dは、撮影画像70における第1着目領域72Aの位置およびサイズを表す第1着目領域情報を予め記憶部16に記憶する。また、抽出部12Dは、撮影画像70における第2着目領域72Bの位置およびサイズを表す第2着目領域情報を予め記憶部16に記憶する。そして、抽出部12Dは、取得部12Cで取得した撮影画像70における、記憶部16から読取った第1着目領域情報および第2着目領域情報の各々によって表される位置およびサイズの範囲を抽出することで、第1着目領域72Aおよび第2着目領域72Bを撮影画像70から抽出する。すなわち、抽出部12Dは、取得部12Cで新たな撮影画像70を取得するごとに、着目領域情報に基づいて、順次取得する複数の撮影画像70間で画像内における位置およびサイズが同じ領域を着目領域72として抽出する。
Specifically, for example, the
図3に戻り説明を続ける。判定部12Eは、学習モデル16Aを用いて、抽出部12Dで抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する。
Returning to FIG. 3, the explanation will be continued. The
学習モデル16Aは、撮影画像70に含まれる複数の着目領域72から、該撮影画像70に含まれる車両Vの種類を出力する学習モデルである。言い換えると、学習モデル16Aは、複数の着目領域72を入力とし、車両Vの種類を出力とする学習モデルである。
The
学習部12Fは、教師データ用いた機械学習によって学習モデル16Aを予め学習する。学習部12Fは、取得部12Cで取得した撮影画像70を学習用の学習用画像として用い、学習用画像に含まれる複数の着目領域72を教師データとして用いる。
The learning unit 12F previously learns the
図5は、学習用画像80の一例の説明図である。学習部12Fは、撮影部30によって撮影された、搬送によって所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を、学習用画像80として用いる。そして、学習部12Fは、学習用画像80に含まれる複数の着目領域72と、複数の加工着目領域74と、を用いて学習モデル16Aを学習する。
FIG. 5 is an explanatory diagram of an example of the learning
詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aおよび第2着目領域72Bを、入力データと正解データとからなる教師データの入力データとして用いる。
Specifically, the learning unit 12F uses the first region of
具体的には、学習部12Fは、学習用画像80における、第1着目領域情報によって規定される位置およびサイズの領域を、第1着目領域72Aとして抽出する。また、学習部12Fは、学習用画像80における、第2着目領域情報によって規定される位置およびサイズの領域を、第2着目領域72Bとして抽出する。そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび第2着目領域72Bの対を、教師データの入力データとして用いる。
Specifically, the learning unit 12F extracts a region in the
また、学習部12Fは、これらの第1着目領域72Aおよび第2着目領域72Bに映り込んだ車両Vの種類を、該教師データの該入力データに対する正解データとして用いる。
Further, the learning unit 12F uses the types of vehicles V reflected in the first region of
また、学習部12Fは、学習用画像80に含まれる複数の着目領域72の各々について、着目領域72の位置および角度の少なくとも一方を変更した領域を加工着目領域74として抽出する。
Further, the learning unit 12F extracts, as a processed region of
詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出する。図5には、第1着目領域72Aの位置を変更した第1加工着目領域74A1~第1加工着目領域74A2と、第1着目領域72Aの角度を変更した第1加工着目領域74A3と、を抽出した例を一例として示す。なお、学習部12Fは、第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出すればよく、3つの第1加工着目領域74Aを抽出する形態に限定されない。
Specifically, the learning unit 12F extracts one or more first processed regions of
なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第1着目領域72Aの位置および角度を変更した複数の第1加工着目領域74Aを抽出する。但し、学習部12Fは、抽出した複数の第1加工着目領域74Aの各々が部品P1を含む領域となるように抽出位置および角度を調整する。
The learning unit 12F determines the first point of interest in the range of the position and angle deviation of the vehicle V in real space with respect to the photographing range R of the photographing unit 30, which is caused by shaking of the vehicle V that has been transported and reached the predetermined position X1. A plurality of first
また、学習部12Fは、学習用画像80に含まれる第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出する。図5には、第2着目領域72Bの位置を変更した第2加工着目領域74B1~第2加工着目領域74B2と、第2着目領域72Bの角度を変更した第2加工着目領域74B3と、を抽出した例を一例として示す。なお、学習部12Fは、第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出すればよく、3つの第2加工着目領域74Bを抽出する形態に限定されない。
The learning unit 12F also extracts one or more second processed regions of
なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第2着目領域72Bの位置および角度を変更した複数の第2加工着目領域74Bを抽出する。但し、学習部12Fは、抽出した複数の第2加工着目領域74Bの各々が部品P2を含む領域となるように抽出位置を調整する。
Note that the learning unit 12F determines the second focus in the range of the position and angle deviation of the vehicle V in real space with respect to the photographing range R of the photographing unit 30, which is caused by shaking of the vehicle V that has been transported and reached the predetermined position X1. A plurality of second
そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび複数の第1加工着目領域74Aの内の1つと、学習用画像80から抽出した第2着目領域72Bおよび複数の第2加工着目領域74Bの1つと、の対の組み合わせを変えた複数の入力データを用意する。そして、学習部12Fは、これらの複数の入力データと、複数の入力データの各々の正解データである車両Vの種類と、の対を複数の教師データとして生成する。
The learning unit 12F then selects one of the first region of
このように、学習部12Fは、1つの学習用画像80から組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。また、学習部12Fは、複数の学習用画像80を用いる場合についても同様に、複数の学習用画像80の各々から、組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。
In this manner, the learning unit 12F generates a plurality of pieces of teacher data using a plurality of different combinations of regions of
そして、学習部12Fは、これらの複数の教師データの各々に含まれる入力データである第1着目領域72Aまたは第1加工着目領域74Aと、第2着目領域72Bまたは第2加工着目領域74Bと、の対を入力とし、該教師データに含まれる該入力データに対応する出力データである車両Vの種類を出力とした、学習モデル16Aを学習する。
The learning unit 12F then selects a first region of
学習モデル16Aの学習には、公知の機械学習を用いればよい。機械学習には、例えば、CNN(Convolutional Neural Network)等の深層学習等を用いればよい。
Known machine learning may be used for learning the
このように、学習部12Fは、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置及び角度の少なくとも一方を変更した複数の加工着目領域74と、を用いて学習モデル16Aを学習する。このため、学習部12Fは、少ない数の撮影画像70から効率よく且つ高精度に学習モデル16Aを学習することができる。
In this way, the learning unit 12F processes the plurality of regions of
また、学習部12Fは、学習用画像80における着目領域72の位置および角度を、搬送される車両Vの揺れ等によって生じる、実空間における車両Vに対する撮影範囲R内の着目領域72の位置および角度のずれの範囲で変更した、複数の加工着目領域74を抽出する。そして、これらの複数の加工着目領域74を、教師データとして用いる。このため、学習部12Fは、搬送される車両Vの位置ずれや揺れなどによって、実空間における車両Vの撮影範囲Rに映り込む範囲がずれた場合であっても、高精度に車両Vの種類を出力可能な学習モデル16Aを学習することができる。
The learning unit 12F also determines the position and angle of the region of
また、学習部12Fは、学習済モデルを用いた転移学習(Transfer Learning)により、学習モデル16Aを学習してもよい。転移学習を行う場合についても、教師データの入力データには、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置および角度の少なくとも一方を変更した複数の加工着目領域74と、を用いればよい。
Further, the learning unit 12F may learn the
学習部12Fが転移学習により学習モデル16Aを学習することで、学習部12Fは、更に少ない教師データで且つ短時間に効率よく高精度な学習モデル16Aを学習することができる。
By learning the
なお、学習部12Fは、物体判定装置10の外部の情報処理装置に設けられた構成であってもよい。この場合、学習部12Fは、物体判定装置10の外部の情報処理装置で上記学習方法を用いて学習モデル16Aを学習し、学習済の学習モデル16Aを物体判定装置10の記憶部16に記憶すればよい。
Note that the learning unit 12F may be configured to be provided in an information processing device outside the object determination device 10. In this case, the learning section 12F learns the
図3に戻り説明を続ける。判定部12Eは、学習部12Fによって学習された学習モデル16Aに、抽出部12Dで抽出された第1着目領域72Aおよび第2着目領域72Bを入力する。そして、判定部12Eは、該学習モデル16Aからの出力である車両Vの種類を取得することで、車両Vの種類を判定する。
Returning to FIG. 3, the explanation will be continued. The
出力制御部12Gは、判定部12Eまたはタグ判定部12Bによる判定結果を出力する。判定結果は、車両Vの種類を表す情報である。
The
出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。
The
シーケンサ20は、車両Vの種類の判定結果を物体判定装置10から受付けると、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。例えば、塗装装置50は、シーケンサ20から受付けた車両Vの種類に応じた車両Vの特定の領域に塗装処理を行う。なお、物体判定システム1には、車両Vの種類の判定結果に応じた各種処理を行う処理装置が設けられていればよく、塗装を行う塗装装置50の設けられた形態に限定されない。また、物体判定システム1には、車両Vの種別に応じた処理を行う塗装装置50などの装置が設けられていない構成であってもよい。
Upon receiving the determination result of the type of vehicle V from the object determination device 10, the
また、出力制御部12Gは、判定結果である車両Vの種類を、表示部18に表示してもよい。この場合、出力制御部12Gは、搬送されて所定位置X1に到達した車両Vの種類をユーザに対して視認可能に提供することができる。
Further, the
次に、本実施形態の物体判定装置10で実行する情報処理の流れの一例を説明する。 Next, an example of the flow of information processing executed by the object determination device 10 of this embodiment will be described.
図6は、物体判定装置10が実行する情報処理の流れの一例を示すフローチャートである。 FIG. 6 is a flowchart illustrating an example of the flow of information processing executed by the object determination device 10.
受付部12Aは、シーケンサ20から判定開始信号を受付ける(ステップS100)。
The
タグ判定部12Bは、ステップS100で判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る(ステップS102)。タグ判定部12Bは、ステップS102で読取った台車IDを用いた車両Vの種類の判定に失敗したか否かを判断する(ステップS104)。タグ判定部12Bは、ステップS102で読取った台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。タグ判定部12Bは、台車IDを用いた車両Vの種類の判定に成功した場合、ステップS104で否定判断し(ステップS104:No)、後述するステップS112へ進む。ステップS104で肯定判断すると(ステップS104:Yes)、ステップS106へ進む。
When the
ステップS106では、取得部12Cが撮影画像70を取得する(ステップS106)。取得部12Cは、ステップS100で判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。ステップS106の処理によって、取得部12Cは、搬送されて所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を取得する。
In step S106, the
抽出部12Dは、ステップS106で取得した撮影画像70から複数の着目領域72を抽出する(ステップS108)。例えば、抽出部12Dは、撮影画像70から第1着目領域72Aおよび第2着目領域72Bを抽出する。
The
判定部12Eは、学習モデル16Aを用いて、ステップS108で抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する(ステップS110)。
The
出力制御部12Gは、ステップS110の判定結果またはステップS104で否定判断(ステップS104:No)することにより受付けた判定結果を出力する(ステップS112)。例えば、出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。シーケンサ20は、例えば、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。
The
次に、処理部12は、物体判定処理を終了するか否かを判断する(ステップS114)。例えば、処理部12は、物体判定処理の終了指示信号を受付けたか否かを判別することで、ステップS114の判断を行う。例えば、ユーザは、車両Vの種類の判定処理を終了するときに物体判定装置10の操作部等を操作することで、物体判定処理の終了指示信号を入力する。処理部12は、終了指示信号を受付けた場合、物体判定処理を終了すると判断すればよい。ステップS114で否定判断すると(ステップS114:No)、上記ステップS100に戻る。ステップS114で肯定判断すると(ステップS114:Yes)本ルーチンを終了する。 Next, the processing unit 12 determines whether to end the object determination process (step S114). For example, the processing unit 12 makes the determination in step S114 by determining whether or not an instruction signal to end the object determination process has been received. For example, when terminating the process of determining the type of vehicle V, the user inputs an instruction signal for terminating the object determination process by operating the operation unit of the object determination device 10 or the like. When the processing unit 12 receives the termination instruction signal, it may determine that the object determination process is to be terminated. If a negative determination is made in step S114 (step S114: No), the process returns to step S100. If an affirmative determination is made in step S114 (step S114: Yes), this routine ends.
以上説明したように、本実施形態の物体判定装置10は、抽出部12Dと、判定部12Eと、を備える。抽出部12Dは、搬送される対象物の撮影画像70から複数の着目領域72を抽出する。判定部12Eは、撮影画像70である学習用画像80に含まれる複数の着目領域72を用いて学習された、複数の着目領域72から対象物の種類を出力する学習モデル16Aを用いて、抽出された複数の着目領域72から対象物の種類を判定する。
As explained above, the object determination device 10 of this embodiment includes the
ここで、従来では、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定していた。しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。また、搬送される対象物を支持する支持部材の劣化等により、搬送される対象物に位置ずれや揺れが発生することで、識別符号の読取異常が発生する場合があった。このため、従来技術では、搬送される対象物の種類を高精度に判定することが困難となる場合があった。 Here, conventionally, the type of the object has been determined by reading an identification code provided on the object to be transported or the transport mechanism of the object using a sensor. However, in the prior art, it may be difficult to determine the type of object due to dirt on the part where the identification code is installed or shaking of the object being transported. Further, due to deterioration of a support member that supports the transported object, the transported object may shift or shake, which may cause an error in reading the identification code. For this reason, in the prior art, it may be difficult to accurately determine the type of object to be transported.
一方、本実施形態の物体判定装置10では、搬送される車両Vの撮影画像70から複数の着目領域72を抽出し、抽出した複数の着目領域72を学習モデル16Aへ入力することで、該学習モデル16Aからの出力として車両Vなどの対象物の種類を判定する。
On the other hand, the object determination device 10 of the present embodiment extracts a plurality of regions of
このため、本実施形態の物体判定装置10では、識別符号の読取異常などによる対象物の種類の判定精度の低下を抑制することができる。また、本実施形態の物体判定装置10では、撮影画像70に含まれる複数の着目領域72を対象物の種類の判定に用いるため、1つの着目領域72のみを判定に用いる場合に比べて、高精度に対象物の種類を判定することができる。
Therefore, in the object determination device 10 of the present embodiment, it is possible to suppress a decrease in the accuracy of determining the type of object due to an abnormality in reading the identification code. Furthermore, since the object determination device 10 of the present embodiment uses a plurality of regions of
従って、本実施形態の物体判定装置10は、搬送される対象物の種類を高精度に判定することができる。 Therefore, the object determination device 10 of this embodiment can determine the type of the object to be transported with high accuracy.
また、従来技術では、搬送される対象物または対象物の搬送機構に設けられた識別符号の読取異常が発生した場合には、搬送機構40による対象物の搬送を停止し、ユーザが手動で異常解消のための作業を行った後に再度搬送を再開させるなどの作業を行っていた。一方、本実施形態の物体判定装置10では、例えば、タグ60から読取った台車IDの読取異常等が発生した場合であっても、搬送される対象物の撮影画像70から抽出した複数の着目領域72と学習モデル16Aとを用いて、対象物の種類を判定する。このため、本実施形態の物体判定装置10は、上記効果に加えて、読取異常等による生産ラインの停止を抑制することができ、また、ユーザの作業負荷の低減を図ることができる。
Furthermore, in the conventional technology, when an error occurs in reading the identification code provided on the object to be transported or the transport mechanism for the object, the transport of the object by the
なお、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、HDDに記憶されていてもよい。また、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、ROM11Bに予め組み込まれて提供されていてもよい。 Note that a program for executing each of the above processes executed by the object determination device 10 of the above embodiment may be stored in the HDD. Moreover, the program for executing each of the above-mentioned processes executed by the object determination device 10 of the embodiment described above may be provided by being incorporated in the ROM 11B in advance.
また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。 Further, the program for executing the above processing executed by the object determination device 10 of the embodiment described above is a file in an installable format or an executable format and can be stored on a CD-ROM, CD-R, memory card, or DVD (Digital). The program may be stored in a computer-readable storage medium such as a flexible disk (FD) or a flexible disk (FD), and provided as a computer program product. Further, a program for executing the above processing executed by the object determination device 10 of the above embodiment is stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. Good too. Further, a program for executing the above processing executed by the object determination device 10 of the above embodiment may be provided or distributed via a network such as the Internet.
なお、上記には、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
1 物体判定システム
10 物体判定装置
12D 抽出部
12E 判定部
30 撮影部
1 Object determination system 10
Claims (4)
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え、
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
物体判定装置。 an extraction unit that extracts a plurality of regions of interest from a photographed image of the object to be transported;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
Object determination device.
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え、
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
前記判定部は、
前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
物体判定装置。 an extraction unit that extracts a plurality of regions of interest from a photographed image of the object to be transported;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
The determination unit includes:
Using the learning model that is trained using the plurality of regions of interest included in the learning image and a plurality of processed regions of interest in which at least one of the position and angle of the region of interest in the learning image is changed. determining the type of the object from the plurality of extracted regions of interest;
Object determination device.
前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え、
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
物体判定システム。 a photography department that photographs the object being transported;
an extraction unit that extracts a plurality of regions of interest from the photographed image of the object;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
Object recognition system.
前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
を備え、
前記対象物は車両であり、
複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
前記判定部は、
前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
物体判定システム。 a photography department that photographs the object being transported;
an extraction unit that extracts a plurality of regions of interest from the photographed image of the object;
The plurality of points of interest are extracted using a learning model that outputs the type of the object from the plurality of regions of interest, which are learned using the plurality of regions of interest included in the learning image that is the photographed image. a determination unit that determines the type of the object from the region;
Equipped with
The target object is a vehicle,
The plurality of regions of interest are regions including mutually different parts of the vehicle,
The determination unit includes:
Using the learning model that is trained using the plurality of regions of interest included in the learning image and a plurality of processed regions of interest in which at least one of the position and angle of the region of interest in the learning image is changed. determining the type of the object from the plurality of extracted regions of interest;
Object recognition system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021174994A JP7425032B2 (en) | 2021-10-26 | 2021-10-26 | Object determination device and object determination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021174994A JP7425032B2 (en) | 2021-10-26 | 2021-10-26 | Object determination device and object determination system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023064620A JP2023064620A (en) | 2023-05-11 |
JP7425032B2 true JP7425032B2 (en) | 2024-01-30 |
Family
ID=86271586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021174994A Active JP7425032B2 (en) | 2021-10-26 | 2021-10-26 | Object determination device and object determination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7425032B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108109137A (en) | 2017-12-13 | 2018-06-01 | 重庆越畅汽车科技有限公司 | The Machine Vision Inspecting System and method of vehicle part |
CN108416338A (en) | 2018-04-28 | 2018-08-17 | 深圳信息职业技术学院 | A kind of non-contact palm print identity authentication method |
US20190034734A1 (en) | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | Object classification using machine learning and object tracking |
US20200186813A1 (en) | 2018-12-05 | 2020-06-11 | Samsung Electronics Co., Ltd. | System and method for compressing data using a filter without loss of critical data |
JP2021128705A (en) | 2020-02-17 | 2021-09-02 | トヨタ自動車株式会社 | Object state identification device |
-
2021
- 2021-10-26 JP JP2021174994A patent/JP7425032B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190034734A1 (en) | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | Object classification using machine learning and object tracking |
CN108109137A (en) | 2017-12-13 | 2018-06-01 | 重庆越畅汽车科技有限公司 | The Machine Vision Inspecting System and method of vehicle part |
CN108416338A (en) | 2018-04-28 | 2018-08-17 | 深圳信息职业技术学院 | A kind of non-contact palm print identity authentication method |
US20200186813A1 (en) | 2018-12-05 | 2020-06-11 | Samsung Electronics Co., Ltd. | System and method for compressing data using a filter without loss of critical data |
JP2021128705A (en) | 2020-02-17 | 2021-09-02 | トヨタ自動車株式会社 | Object state identification device |
Also Published As
Publication number | Publication date |
---|---|
JP2023064620A (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10594937B2 (en) | Multi-sensor image stabilization techniques | |
CN101393605B (en) | Image processing device and image processing method | |
JP5787642B2 (en) | Object holding device, method for controlling object holding device, and program | |
US20160323700A1 (en) | Device, system, and method for determining the status of lanes | |
JP6473691B2 (en) | Misalignment correction apparatus and misalignment correction system | |
JP6538458B2 (en) | Logistics system and logistics management method | |
US10823572B2 (en) | Method, system and apparatus for generating navigational data | |
US20210072734A1 (en) | Information processing apparatus and method, robot controlling apparatus and method, and non-transitory computer-readable storage medium | |
JP6947508B2 (en) | Moving object detection device, moving object detection system, and moving object detection method | |
JP6113631B2 (en) | Work confirmation system | |
JP7425032B2 (en) | Object determination device and object determination system | |
CN110795985A (en) | Information processing method and information processing system | |
JP2017214197A (en) | Management system, management method and information processing device | |
JP2017148751A (en) | Code recognition system, code recognition method, code recognition program, and load sorting system | |
CN113673276A (en) | Target object identification docking method and device, electronic equipment and storage medium | |
JP2017214196A (en) | Automatic warehouse system, management method for automatic warehouse system | |
US11327504B2 (en) | Method, system and apparatus for mobile automation apparatus localization | |
US20190228032A1 (en) | Non-transitory computer readable medium, information processing apparatus, and information processing method for determining a location of a target based on image information generated by capturing an image of the target | |
US11568564B2 (en) | Mapping multiple views to an identity | |
JP2007033328A (en) | Image processing method and picking operation correcting method using the same | |
JP2017214195A (en) | Management system, management method and transfer system | |
JP2017215821A (en) | Management system, management method and conveyance system | |
JP2017186106A (en) | Delivery support device, delivery support system and delivery support program | |
JP6852488B2 (en) | Identification device, identification method and program | |
US11508149B2 (en) | Operating method with goods information and non-transitory computer readable medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7425032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |