JP6731625B2 - 識別装置、識別方法、識別システム、及び、プログラム - Google Patents

識別装置、識別方法、識別システム、及び、プログラム Download PDF

Info

Publication number
JP6731625B2
JP6731625B2 JP2018184210A JP2018184210A JP6731625B2 JP 6731625 B2 JP6731625 B2 JP 6731625B2 JP 2018184210 A JP2018184210 A JP 2018184210A JP 2018184210 A JP2018184210 A JP 2018184210A JP 6731625 B2 JP6731625 B2 JP 6731625B2
Authority
JP
Japan
Prior art keywords
unit
pattern
motion
moving body
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018184210A
Other languages
English (en)
Other versions
JP2020052933A (ja
Inventor
圭介 長田
圭介 長田
孝彦 上辻
孝彦 上辻
松永 繁樹
繁樹 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018184210A priority Critical patent/JP6731625B2/ja
Priority to DE112019004893.7T priority patent/DE112019004893T8/de
Priority to PCT/JP2019/037090 priority patent/WO2020066939A1/ja
Publication of JP2020052933A publication Critical patent/JP2020052933A/ja
Priority to US16/897,826 priority patent/US11087155B2/en
Application granted granted Critical
Publication of JP6731625B2 publication Critical patent/JP6731625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Description

本開示は、1以上の移動体を識別するための識別装置、識別方法、識別システム、及び、プログラムに関する。
特許文献1には、システムが被識別対象に動作指示を行うことで、カメラに映る複数の対象のうち、その動作指示を行った対象を被識別対象であると判断する技術について開示されている。
特開平9−215676号公報
しかしながら、上記特許文献1のシステムでは、被識別対象が車両などの移動体であった場合、被識別対象を誤認識してしまう可能性が高い。
そこで、本開示は、識別対象の誤認識を低減することができる識別装置等を提供する。
本開示の一態様に係る識別装置は、1以上の移動体を識別するための識別装置であって、前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別部と、を備え、前記対象物識別部は、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示の識別装置によれば、識別対象の誤認識を低減することができる。
実施の形態1に係る識別システムの全体構成の一例を示す図である。 実施の形態1に係る移動体の機能構成の一例を示す図である。 実施の形態1に係る識別装置の機能構成の一例を示す図である。 実施の形態1における識別装置の動作の一例を示すフローチャートである。 実施の形態1に係る識別システムの全体構成の別の一例を示す図である。 実施の形態1の変形例1に係る識別装置の機能構成を示す図である。 実施の形態1の変形例2に係る識別装置の機能構成を示す図である。 実施の形態1の変形例2に係る識別装置による識別対象の第1移動体の位置確認を説明するための図である。 実施の形態1の変形例3に係る移動体の機能構成を示す図である。 実施の形態1の変形例3に係る識別装置の機能構成を示す図である。 実施の形態1の変形例4に係る識別装置の機能構成を示す図である。 実施の形態1の変形例5に係る移動体の機能構成を示す図である。 実施の形態1の変形例5に係る識別装置の機能構成を示す図である。 実施の形態2に係る移動体の機能構成を示す図である。 実施の形態2に係る識別装置の機能構成を示す図である。 実施の形態2における識別装置の動作の一例を示すフローチャートである。 実施の形態2の変形例1に係る識別装置の機能構成を示す図である。 実施の形態2の変形例2に係る移動体の機能構成を示す図である。 実施の形態2の変形例2に係る識別装置の機能構成を示す図である。
本開示の一態様に係る識別装置は、1以上の移動体を識別するための識別装置であって、前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別部と、を備え、前記対象物識別部は、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する。
このように、本開示の一態様に係る識別装置では、第1の動作パターンを実行した識別対象の第1移動体から、第1の動作パターンを実行した時間を取得する。これにより、生成した第1の動作パターンと、取得した時間内において検出した第2の動作パターンとを比較して両者が一致するかを判定することができる。
よって、第1の動作パターンと一致する第2の動作パターンを実行した、画像中の移動体を第1移動体として識別することができるので、第1の動作パターンを実行した移動体以外の移動体を識別対象として誤認識してしまうことを抑制できる。つまり、識別対象の誤認識を低減することができる。
例えば、前記第1の動作パターン及び前記第2の動作パターンは、前記第1移動体が有するライトが制御されたパターンであるとしてもよい。
これにより、移動体により実行される動作パターンが外部からより認識し易くなるので、1以上の画像取得機器により取得された画像から精度よく第2の動作パターンを検出することができる。
また、前記第1移動体は、車両であり、前記第1の動作パターン及び前記第2の動作パターンは、車両が有するヘッドライト、ウィンカ及びテールランプのオンオフが制御されたパターンであるとしてもよい。
これにより、さらに車両の全幅及び全長から車両の大きさを検出できるだけでなく、車両の向きも検出できる。
また、さらに、前記対象物識別部で識別された前記第1移動体に異常が発生したことを検知する異常検知部を備え、前記動作生成部は、さらに、前記第1の動作パターンを所定の間隔で前記第1移動体に送信し、前記動作検出部は、さらに、前記所定の間隔で、前記1以上の画像取得機器により取得された画像を用いて、前記第1移動体が実行した第3の動作パターンを検出し、前記異常検知部は、前記所定の間隔ごとに前記動作検出部により検出された前記第3の動作パターンと前記第1の動作パターンとを比較して一致しない場合に、前記対象物識別部で識別された前記第1移動体に異常が発生したことを検知するとしてもよい。
また、さらに、前記1以上の移動体が位置することが可能な区画を少なくとも含む地図を示す地図情報と、前記動作検出部により検出された前記第2の動作パターンを実行した1以上の移動体の前記画像中の位置と、前記対象物識別部が識別した前記画像中の前記第1移動体とに基づいて、前記第1移動体の前記地図上の位置を特定する対象物位置特定部を備えるとしてもよい。
また、前記対象物位置特定部は、前記第1移動体の前記地図上の位置を特定した場合、さらに、特定した前記地図上の位置を前記第1移動体に送信することで、前記第1移動体が有する位置情報を補正させるとしてもよい。
また、さらに、前記対象物識別部で識別された前記第1移動体の、所定の間隔ごとの前記地図上の位置である時系列位置を取得する対象物追跡部を備え、前記動作生成部は、前記第1の動作パターンを前記所定の間隔で前記第1移動体に送信し、前記動作検出部は、前記所定の間隔で、前記1以上の画像取得機器により取得された画像を用いて、前記第1移動体が実行した第3の動作パターンを検出し、前記対象物識別部は、前記第3の動作パターンと前記第1の動作パターンとが一致するか否かを判定し、一致した場合、前記画像中の前記第1移動体を再度識別し、前記対象物位置特定部は、前記所定の間隔で、前記地図情報と、前記対象物識別部により再度識別された前記第1移動体の前記画像中の位置とに基づいて、前記第1移動体の前記地図上の位置を特定し、前記対象物追跡部は、前記所定の間隔で、前記対象物位置特定部により特定された前記第1移動体の前記画像中の位置を取得することで、前記時系列位置を取得するとしてもよい。
また、前記対象物識別部は、前記第1移動体から、前記第1移動体が生成した所定の動作パターンと、前記所定の動作パターン及び前記第1の動作パターンを組み合わせた組み合わせ動作パターンを実行した時間とを取得した場合、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと、前記組み合わせ動作パターンとを比較して一致するか否かを判定し、前記時間に検出された第2の動作パターンと前記組み合わせ動作パターンとが一致すると判定したとき、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別するとしてもよい。
また、本開示の一態様に係る識別装置は、1以上の移動体を識別するための識別装置であって、前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、前記第1移動体から、前記動作検出部により検出された前記第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定し、前記第1の動作パターンと一致すると判定した前記第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する対象物識別部と、前記1以上の移動体が位置することが可能な区画を少なくとも含む地図を示す地図情報と、前記動作検出部により検出された前記第2の動作パターンを実行した1以上の移動体の前記画像中の位置と、前記対象物識別部が識別した前記画像中の前記第1移動体とに基づいて、前記第1移動体の前記地図上の位置を特定する対象物位置特定部を備える。
また、本開示の一態様に係る識別方法は、1以上の移動体を識別するための識別方法であって、前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成ステップと、1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出ステップと、前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成ステップにおいて生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別ステップと、を含み、前記対象物識別ステップでは、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する。
また、本開示の一態様に係る識別システムは、1以上の移動体と、前記1以上の移動体を識別するための識別装置とを備える識別システムであって、前記識別装置は、前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別部と、を備え、前記対象物識別部は、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別し、前記1以上の移動体のそれぞれは、前記識別装置から受信した動作パターンを実行する動作実行部と、受信した前記動作パターンを実行した時間を前記識別装置に通知する動作情報通知部とを備える。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
(実施の形態1)
[システムの全体構成]
図1は、実施の形態1に係る識別システム1の全体構成の一例を示す図である。
識別システム1は、図1に示すように、識別装置10と、1以上の移動体11と、1以上の撮像装置12とを備える。識別装置10と1以上の移動体11とは、無線通信することができる。識別装置10と1以上の撮像装置12とは、ネットワーク13を介して接続されている。識別装置10と1以上の撮像装置12とは、直接有線通信または無線通信で接続されていてもよい。
[移動体11]
図2は、実施の形態1に係る移動体11の機能構成の一例を示す図である。
移動体11は、図2に示すように、通信部110と、動作実行部111と、動作情報通知部112とを備える。移動体11は、1以上の移動体の一例であり、例えば自動車、自動二輪車等の車両、ドローン、または、掃除ロボットなど自律移動可能なロボットである。本実施の形態では、移動体11が車両であるとして説明する。以下、各構成要素について説明する。
<通信部110>
通信部110は、識別装置10と無線通信する通信インタフェースである。無線通信には、Wi−Fi(登録商標)またはBluetooth(登録商標)などが用いられる。本実施の形態では、通信部110は、識別装置10と無線通信する。通信部110は、例えば移動体11に実行させるための動作パターンを受信して、動作実行部111に送信する。また、通信部110は、動作情報通知部112が通知する情報を識別装置10に送信する。
<動作実行部111>
動作実行部111は、識別装置10から受信した動作パターンを実行する。
ここで、動作パターンは移動体11が有するライトが制御されたパターンであってもよい。なお、動作パターンは、これに限らず、移動体11の前後等の移動、ライト等の点消灯など外部から認識可能な動作を1以上の回数繰り返したり、組み合わせたりした動作であればよい。本実施の形態では、移動体11は車両であるため、動作パターンは、ライトの点消灯、ワイパの作動、ステアリング制御などの動作を1以上の回数繰り返したり、組み合わせたりした動作であってもよい。また、動作パターンは、車両である移動体11が有するヘッドライト、ウィンカ及びテールランプのオンオフが制御されたパターンであってもよい。つまり、移動体11が車両である場合、動作パターンは、ヘッドライト、ウィンカ及びテールランプなどの各ライトに対する点消灯パターンなどでもよく、カメラなどで撮像されたときなどに外部から一意に識別可能な動作であればよい。
このように、動作実行部111は、識別装置10から受信した動作パターンであって外部から移動体11を一意に識別可能な動作である動作パターンを実行する。
<動作情報通知部112>
動作情報通知部112は、識別装置10から受信した動作パターンを動作実行部111が実行した時間を識別装置10に通知する。より具体的には、動作情報通知部112は、通信部110を介して識別装置10から受信した動作パターンを動作実行部111が実行した時間を示す動作情報を識別装置10に通知する。ここで、識別装置10から受信した動作パターンは、上述したように、外部から一意に識別可能な動作である動作パターンである。
[識別装置10]
図3は、実施の形態1に係る識別装置10の機能構成の一例を示す図である。
識別装置10は、識別対象である1以上の移動体を識別するための装置である。識別装置10は、図3に示すように、通信部100と、動作生成部101と、動作検出部102と、対象物識別部103とを備える。識別装置10は、例えば、プロセッサ(マイクロプロセッサ)、メモリ、通信インタフェース等を備えるコンピュータで実現される。
<通信部100>
通信部100は、1以上の移動体11それぞれと無線通信し、1以上の撮像装置12とネットワーク13を介して通信する通信インタフェースである。本実施の形態では、通信部100は、例えば図1に示すように、識別対象の移動体11(以降、第1移動体11aと称する)と通信し、動作生成部101が生成した動作パターンを送信する。また、通信部100は、1以上の撮像装置12とネットワーク13を介して通信し、1以上の撮像装置12が撮像することで取得した画像を受信する。
<動作生成部101>
動作生成部101は、1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、第1移動体に送信する。本実施の形態では、動作生成部101は、複数の移動体11のうち識別対象の移動体11である第1移動体11aに実行させる動作パターンを生成し、通信部100を介して、第1移動体11aに送信する。図1に示す例では、動作生成部101は、2つの移動体11のうちの一方の移動体11である第1移動体11aに実行させる第1の動作パターンを生成し、第1移動体11aに送信する。なお、動作パターンの詳細について上述したので説明を省略する。
<動作検出部102>
動作検出部102は、1以上の画像取得機器により取得された画像を用いて、1以上の移動体が実行した第2の動作パターンを検出する。本実施の形態では、動作検出部102は、1以上の画像取得機器である1以上の撮像装置12が取得した画像であってネットワーク13を介して受信した画像を用いて、1以上の移動体11が実行した動作パターンを検出する。図1に示す例では、動作検出部102は、撮像装置12により撮像された2つの移動体11が映る画像を用いて、2つの移動体11のうちの少なくとも1方が実行した第2の動作パターンを検出する。
<対象物識別部103>
対象物識別部103は、第1移動体から、第1移動体が第1の動作パターンを実行した時間を取得する。対象物識別部103は、第2の動作パターンのうち当該時間に検出された第2の動作パターンと動作生成部101により生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103は、当該時間に検出された第2の動作パターンと第1の動作パターンとが一致すると判定した場合、当該時間に検出された第2の動作パターンを実行した、画像中の移動体を第1移動体として識別する。
図1に示す例では、対象物識別部103は、第1の動作パターンを実行した識別対象の第1移動体11aから、第1移動体11aが第1の動作パターンを実行した時間を取得する。また、対象物識別部103は、動作生成部101が生成した第1の動作パターンと、取得した時間内において動作検出部102が検出した第2の動作パターンとを比較し、両者が一致するか否かを判定する。そして、対象物識別部103は、両者が一致すると判定した場合、取得した時間内において動作検出部102が検出した第2の動作パターンを実行した、画像中の移動体11を、動作生成部101が生成した第1の動作パターンを実行した第1移動体11aとして識別する。
このように、対象物識別部103は、取得した時間内において動作検出部102が検出した第2の動作パターンのみを用いて、第2の動作パターンを実行した画像中の移動体11が第1の動作パターンを実行した第1移動体11aであるか否かを識別する。これにより、複数の移動体11が映る画像において、取得した時間内において第2の動作パターンを実行した移動体11に絞り、第1移動体11aがあるかどうかを識別することができる。それにより、画像に映る1以上の移動体11の中から第1移動体11aの識別を、より確実に行うことができる。
[撮像装置12]
撮像装置12は、1以上の画像取得機器の一例であり、画像を取得する。撮像装置12は、識別対象の移動体11が実行した動作パターンを検出するために用いられる画像を撮像等により取得できればよく、例えば、監視カメラを含むインフラカメラなどのカメラ、動画像を取得できるセンサ等でもよい。また、撮像装置12は、動画が撮像可能な衛星でもよいし、動画が撮像可能なドローンなどの無人航空機でもよいし、複数の移動体11それぞれが有する、動画が撮像可能なカメラまたはセンサの一群でもよい。
図1に示す例では、撮像装置12は、撮像領域として、2つの移動体11を含む領域の動画を撮像する監視カメラである。
[識別装置10の動作]
次に、以上のように構成された識別装置10の動作について説明する。
図4は、実施の形態1における識別装置10の動作の一例を示すフローチャートである。
まず、識別装置10は、第1の動作パターンを生成し、第1移動体に送信する(S11)。より具体的には、識別装置10は、複数の移動体11のうち識別対象の第1移動体11aに実行させる第1の動作パターンを生成し、第1移動体11aに送信する。
次に、識別装置10は、1以上の画像取得機器により画像を取得する(S12)。より具体的には、識別装置10は、撮像装置12から、撮像装置12が取得した画像であって識別対象の移動体11が実行した動作パターンを検出するために用いられる画像を取得する。
次に、識別装置10は、1以上の移動体が実行した第2の動作パターンを検出する(S13)。より具体的には、識別装置10は、撮像装置12により取得された画像を用いて、1以上の移動体11が実行した第2の動作パターンを検出する。
次に、識別装置10は、第1移動体から、第1の動作パターンを実行した時間を取得する(S14)。より具体的には、識別装置10は、第1の動作パターンを実行した識別対象の第1移動体11aから、第1移動体11aが第1の動作パターンを実行した時間を取得する。なお、ステップS13、S14の動作はこの順でなくてもよく、反対でもよい。
次に、識別装置10は、ステップS14において取得した時間に検出された第2の動作パターンと、第1の動作パターンとを比較して一致するか否かを判定する(S15)。より具体的には、識別装置10は、生成した第1の動作パターンと、ステップS14において取得した時間内において検出した第2の動作パターンとを比較し、両者が一致するか否かを判定する。
次に、識別装置10は、両者が一致する場合(S16でY)、ステップS14で取得した時間に検出された第2の動作パターンを実行した、画像中の移動体を第1移動体として識別する(S17)。なお、識別装置10は、両者が一致しない場合(S16でN)、ステップS11からやり直す。
[効果等]
識別装置10の識別対象の移動体11は車両、ロボットまたはドローンなどである。このため、画像取得機器により取得された画像中に複数の移動体が存在する場合、送信した第1の動作パターンを実行した移動体以外にも第1の動作パターンに近い動作を実行した移動体が存在する可能性がある。このような場合には、送信した第1の動作パターンを実行した移動体以外の移動体を識別対象として誤認識してしまう。
そこで、本実施の形態の識別装置10では、第1の動作パターンを実行した識別対象の第1移動体11aから、第1移動体11aが第1の動作パターンを実行した時間を取得する。これにより、本実施の形態の識別装置10では、生成した第1の動作パターンと、取得した時間内において検出した第2の動作パターンとを比較して両者が一致するかを判定することができる。このようにして、第1の動作パターンと一致する第2の動作パターンを実行した、画像中の移動体を第1移動体として識別することができるので、第1の動作パターンを実行した移動体11以外の移動体11を識別対象として誤認識してしまうことを抑制できる。つまり、識別対象の誤認識を低減することができる。
ここで、第1の動作パターン及び第2の動作パターンは、移動体11が有するライトが制御されたパターンであってもよい。これにより、移動体11により実行される動作パターンが外部からより認識し易くなるので、撮像装置12が取得した画像から精度よく第2の動作パターンを検出することができる。また、移動体11が移動中でも利用できるだけでなく、悪天候でも認識できるので、撮像装置12が取得した画像から精度よく第2の動作パターンを検出することができる。よって、第1の動作パターンと一致する第2の動作パターンを実行した、画像中の移動体を第1移動体として、より精度よく識別することができる。つまり、より識別対象の誤認識を低減することができる。
また、移動体11は車両であり、第1の動作パターン及び第2の動作パターンは、車両が有するヘッドライト、ウィンカ及びテールランプのオンオフが制御されたパターンであってもよい。ヘッドライトは車両の前方に左右対称に取り付けられ、テールランプは車両の後方に左右対称に取り付けられ、ウィンカは車両の左側及び右側に取り付けられている。これにより、ヘッドライト、ウィンカ及びテールランプのオンオフがされることにより、さらに車両の全幅及び全長から車両の大きさを検出できるだけでなく、車両の向きも検出できる。
また、ヘッドライト、ウィンカ及びテールランプのうちの片方のみをオンオフさせることにより、識別対象以外の移動体11のライトがユーザにより偶然同じ制御されることもなくなり、偶然の誤認識の可能性も低減できる。
なお、ヘッドライト等の点灯消滅の制御に符号化技術を適用してもよい。この場合、動作パターンだけでなく、豊富な情報の伝達が可能になる。
さらに、本実施の形態の識別システム1によれば、車両等の移動体11に所定の動作を行わせ、その所定の動作を監視カメラなどの撮像装置12が取得した画像から検出することで、移動体11の認証を行うことができる。
図5は、実施の形態1に係る識別システム1の全体構成の別の一例を示す図である。図5に示す識別システム1Aは、図1に示す識別システム1と比較して、移動体11が識別対象である第1移動体11aのみとなっている点と、携帯端末14及びユーザ50が追加されている点で異なる。携帯端末14は、例えばスマートフォン、タブレットなどであり、識別装置10と無線または公衆回線で通信する。ユーザ50は、携帯端末14のユーザであり、第1移動体11aのユーザでもある。
まず、ユーザ50が携帯端末14を用いて、第1移動体11aを示す車両xxxを位置yyyに停車した旨を識別装置10に送信したとする。すると、識別装置10は、車両xxxである第1移動体11aに第1の動作パターンを送信することで、第1の動作パターンを実行することを指示する。位置yyyを監視するカメラである撮像装置12は、位置yyyの車両の動作すなわち第2の動作パターンを検出し、その旨を識別装置10に送信する。これにより、識別装置10は、車両xxxである第1移動体11aが位置yyyに位置していることを確認する。
このように、識別システム1Aによれば、第1移動体11aに所定の動作を行わせ、その所定の動作を監視カメラなどの撮像装置12が取得した画像から検出することで、第1移動体11aが停められた適切な位置にいることが確認できる。このように、第1移動体11aに所定の動作を行わせることにより第1移動体11aを認証することができる。
なお、識別システム1及び識別システム1Aは、オートバレーパークに適用してもよい。オートバレーパークの入口の所定の位置に、車両xxxを停止することで、車両xxxを認証することができるので、オートバレーパーク内の所定の駐車位置に運転者が乗車していない車両xxxを自動走行させて駐車させることもできるからである。
以下、実施の形態1に係る識別システム1を構成する識別装置10等の変形例について説明する。
(変形例1)
[識別装置10Aの構成]
図6は、実施の形態1の変形例1に係る識別装置10Aの機能構成を示す図である。図3と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図6に示す識別装置10Aは、図3に示す識別装置10に対して、異常検知部104の構成が追加されている点と、動作生成部101A、動作検出部102A及び対象物識別部103Aの構成とが異なる。以下、実施の形態1と異なる点を中心に説明する。
<動作生成部101A>
動作生成部101Aは、さらに、第1の動作パターンを所定の間隔で第1移動体に送信する。図1に示す例で説明すると、動作生成部101Aは、対象物識別部103Aにより画像中の第1移動体11aが識別された後、さらに、第1移動体11aに実行させる第1の動作パターンを定期的に生成し、第1移動体11aに送信する。
なお、動作生成部101Aが定期的に生成する第1移動体11aに実行させる第1の動作パターンは、対象物識別部103Aにより画像中の第1移動体11aが最初に識別されたときに用いた第1の動作パターンと同一でも異なっていてもよい。異なっている場合、動作生成部101Aは、定期的に、第1の動作パターンとして、ライトの点灯パターンなどで構成される異常確認用動作パターンを生成してもよい。
<動作検出部102A>
動作検出部102Aは、さらに、所定の間隔で、1以上の画像取得機器により取得された画像を用いて、第1移動体が実行した第3の動作パターンを検出する。図1に示す例で説明すると、動作検出部102Aは、対象物識別部103により画像中の第1移動体11aが識別された後、さらに、定期的に、撮像装置12により撮像された第1移動体11aが映る画像を用いて、第1移動体11aが実行した第3の動作パターンを検出する。
<対象物識別部103A>
対象物識別部103Aは、第3の動作パターンと動作生成部101Aにより生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103Aは、第3の動作パターンと第1の動作パターンとが一致すると判定した場合、第3の動作パターンを実行した、画像中の第1移動体11aを再度識別する。なお、対象物識別部103Aは、一致しないと判定した場合、その旨を異常検知部104に通知する。
<異常検知部104>
異常検知部104は、対象物識別部103Aで識別された第1移動体に異常が発生したことを検知する。異常検知部104は、所定の間隔ごとに動作検出部102Aにより検出された第3の動作パターンと第1の動作パターンとを比較して一致しない場合に、対象物識別部103Aで識別された第1移動体に異常が発生したことを検知する。図1に示す例で説明すると、異常検知部104は、定期的に、第1移動体11aが実行した第3の動作パターンと動作生成部101Aが生成した第1の動作パターンとを比較する。異常検知部104は、比較の結果、第1移動体11aが実行した第3の動作パターンと動作生成部101Aが生成した第1の動作パターンとが一致しないときには、第1移動体11aに異常が発生したと検知し、その旨を通知する。ここで、異常とは、第1移動体11aが第1の動作パターンを行わないことであり、識別装置10Aの指示に従わない動作を行うまたは全く動作を行わないことも含む。また、異常は、第1移動体11aを制御する電子機器が乗っ取られたり、当該電子機器の動作を阻害するウィルス等が当該電子機器に侵入したりする場合に発生する。
[効果等]
本変形例によれば、定期的に、第1移動体が実行した第3の動作パターンと動作生成部101Aが生成した第1の動作パターンとを比較することにより、さらに、第1移動体で発生した異常を検知することができる。
(変形例2)
[識別装置10Bの構成]
図7は、実施の形態1の変形例2に係る識別装置10Bの機能構成を示す図である。図3と同様の要素には同一の符号を付しており、詳細な説明は省略する。図8は、実施の形態1の変形例2に係る識別装置10Bによる識別対象の第1移動体11aの位置確認を説明するための図である。
図7に示す識別装置10Bは、図3に示す識別装置10に対して、地図情報保持部105と、対象物位置特定部106の構成が追加されている点が異なる。
<地図情報保持部105>
地図情報保持部105は、1以上の移動体が位置することができる区画を少なくとも含む地図を示す地図情報を保持する。本変形例でも移動体11は車両であるので、地図情報が示す地図には、道路、車線、駐車スペース及び、移動体11が所定の動作パターンを実施できる動作実施スペースなどの情報が含まれていてもよい。この場合、1以上の移動体11が位置することができる区画は、駐車スペース及び動作実施スペースに対応する。なお、所定の動作パターンがライト制御であれば、移動体11は駐車スペース内で所定の動作パターンを実施できるので、地図情報が示す地図に、動作実施スペースの情報が含まれていなくてもよい。
図8に示す例では、地図情報が示す地図は、車両である移動体11が駐車できる駐車場の地図であり、移動体11が走行する道路及び移動体11が駐車することのできる複数の駐車スペース(区画1051)などの情報を含んでいる。
<対象物位置特定部106>
対象物位置特定部106は、地図情報保持部105が保持する地図情報と、動作検出部102により検出された第2の動作パターンを実行した1以上の移動体11の画像中の位置と、対象物識別部103が識別した画像中の第1移動体とに基づいて、第1移動体の地図上の位置を特定する。
図8を用いて説明すると、対象物位置特定部106は、移動体11が駐車することのできる複数の駐車スペース(区画)を示す地図情報を取得する。また、対象物位置特定部106は、動作検出部102により検出された第2の動作パターンを実行した1以上の移動体11の図8で示される画像中の位置と、対象物識別部103が識別した図8で示される画像中の第1移動体11aとを取得する。そして、対象物位置特定部106は、取得した地図情報と、図8で示される画像中の1以上の移動体11の位置のうち第1移動体11aと識別された位置とを用いて、区画1051のうち第1移動体11aが位置する区画1051の位置を特定する。
[効果等]
本変形例によれば、識別対象の第1移動体に所定の動作を行わせ、その動作を映した画像から識別した第1移動体を地図情報にマッピングすることにより、識別対象の第1移動体の地図上の位置を特定することができる。このようにして、識別対象の第1移動体が地図上のどこにいるかを確認することができる。
例えば地下駐車場などでは、駐車場を管理する管理サーバが第1移動体の追跡(トレース)を見失い、第1移動体が複数の駐車スペース(区画)のうちのどこに駐車したかを把握できなかった場合も考えられる。この場合でも、本変形例によれば、識別対象の第1移動体に所定の動作を行わせることで駐車場のどの区画に位置しているかを確認することができるので、管理サーバに、駐車場の区画に位置する移動体11を確実に把握させ管理させることができる。
(変形例3)
[移動体11Cの構成]
図9は、実施の形態1の変形例3に係る移動体11Cの機能構成を示す図である。図2と同様の要素には同一の符号を付しており、詳細な説明は省略する。図9に示す移動体11Cは、図2に示す移動体11に対して、位置補正部113の構成が追加されている点が異なる。
<位置補正部113>
位置補正部113は、識別装置10Cにより特定された第1移動体の地図上の位置を取得した場合、第1移動体が有する位置情報を補正する。
ここで、移動体11Cは、自身の位置を示す位置情報を有している。この位置情報が時間の経過とともに不正確になるような場合もある。この場合、位置補正部113は、自身の位置として取得した移動体11Cの地図上の位置を用いて、自身である移動体11Cが有する位置情報のキャリブレーションすなわち補正を行う。なお、移動体11Cが有する位置情報が正確であり、キャリブレーションが不要な場合もある。この場合、位置補正部113は、自身の位置として移動体11Cの地図上の位置を取得しても、自身である移動体11Cが有する位置情報のキャリブレーションすなわち補正を行わないとしてもよい。
[識別装置10Cの構成]
図10は、実施の形態1の変形例3に係る識別装置10Cの機能構成を示す図である。図3及び図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。図10に示す識別装置10Cは、図7に示す識別装置10Bに対して、動作生成部101C、動作検出部102C、対象物識別部103C、及び対象物位置特定部106Cの構成が異なる。以下、実施の形態1の変形例2に係る識別装置10Bと異なる点を中心に説明する。
<動作生成部101C>
動作生成部101Cは、さらに、第1の動作パターンを所定の間隔で第1移動体に送信してもよい。動作生成部101Cは、対象物識別部103Cにより画像中の第1移動体が識別された後、さらに、第1移動体に実行させる第1の動作パターンを定期的に生成し、第1移動体に送信してもよい。その他については、上記実施の形態1及び変形例2において説明した通りであるので、説明を省略する。
<動作検出部102C>
動作検出部102Cは、さらに、所定の間隔で、1以上の画像取得機器により取得された画像を用いて、1以上の移動体11Cが実行した第3の動作パターンを検出してもよい。動作検出部102Cは、対象物識別部103Cにより画像中の第1移動体が識別された後、さらに、定期的に、撮像装置12により撮像された第1移動体が映る画像を用いて、第1移動体が実行した第3の動作パターンを検出してもよい。
<対象物識別部103C>
対象物識別部103Cは、動作生成部101Cが定期的に第1の動作パターンを第1移動体に送信する場合、第1移動体から、第1移動体が第1の動作パターンを実行した時間を取得する。対象物識別部103Cは、第3の動作パターンと動作生成部101Cにより生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103Cは、第3の動作パターンと第1の動作パターンとが一致すると判定した場合、画像中の第1移動体を再度識別する。
このようにして、対象物識別部103Cは、定期的に第1移動体を識別し直す。
<対象物位置特定部106C>
対象物位置特定部106Cは、第1移動体の地図上の位置を特定した場合、さらに、特定した地図上の位置を第1移動体に送信することで、第1移動体が有する位置情報を補正させる。
ここで、対象物位置特定部106Cは、動作生成部101Cが定期的に第1の動作パターンを第1移動体に送信する場合、定期的に第1移動体の地図上の位置を特定してもよい。この場合、対象物位置特定部106Cは、定期的に特定した地図上の位置を第1移動体に送信してもよい。これにより、第1移動体が有する位置情報を定期的にキャリブレーションすることができる。
[効果等]
本変形例によれば、識別装置10Cが特定した第1移動体の地図上の位置を、第1移動体が有する位置情報のキャリブレーションに利用することができる。
(変形例4)
[識別装置10Dの構成]
図11は、実施の形態1の変形例4に係る識別装置10Dの機能構成を示す図である。図3、図6、図7及び図10と同様の要素には同一の符号を付しており、詳細な説明は省略する。図11に示す識別装置10Dは、図7に示す識別装置10Cに対して、動作生成部101A、動作検出部102A、対象物識別部103A、及び対象物位置特定部106Dの構成が異なり、さらに、対象物追跡部107が追加されている。なお、動作生成部101A、動作検出部102A及び対象物識別部103Aは、上記の変形例1に係る図6において説明した通りであるので、説明を省略する。以下、対象物位置特定部106D及び対象物追跡部107について説明する。
<対象物位置特定部106D>
対象物位置特定部106Dは、定期的に第1移動体の地図上の位置を特定する。そして、対象物位置特定部106Dは、定期的に、特定した第1移動体の地図上の位置を対象物追跡部107に通知する。その他については、上記変形例2に係る対象物位置特定部106において説明した通りであるので、説明を省略する。
<対象物追跡部107>
対象物追跡部107は、対象物識別部103Aで識別された第1移動体の、所定の間隔ごとの地図上の位置である時系列位置を取得する。対象物追跡部107は、所定の間隔で、対象物位置特定部106Dにより特定された第1移動体の画像中の位置を取得することで、時系列位置を取得する。
本変形例では、対象物追跡部107は、定期的に、対象物位置特定部106Dが特定した第1移動体の地図上の位置を取得することで、対象物識別部103Aで識別された第1移動体の時系列位置を取得する。
[効果等]
本変形例によれば、識別対象の第1移動体の位置を特定する動作を定期的に行うことで、第1移動体の時系列位置を取得することができる。これにより、識別対象の第1移動体の追跡が可能となる。
(変形例5)
[移動体11Eの構成]
図12は、実施の形態1の変形例5に係る移動体11Eの機能構成を示す図である。図2と同様の要素には同一の符号を付しており、詳細な説明は省略する。図12に示す移動体11Eは、図2に示す移動体11に対して、動作実行部111E及び動作情報通知部112Eの構成が異なり、動作生成部114の構成が追加されている。
<動作生成部114>
動作生成部114は、自身すなわち移動体11Eが実行するための所定の動作パターンを生成し、動作実行部111Eに送信する。また、動作生成部114は、生成した所定の動作パターンを通信部110を介して、識別装置10Eに送信する。
<動作実行部111E>
動作実行部111Eは、動作生成部114から取得した所定の動作パターンと、識別装置10Eから受信した動作パターンとを組み合わせた組み合わせ動作パターンを実行する。
なお、動作実行部111Eは、動作生成部114から取得した所定の動作パターンのみを実行するとしてもよい。
<動作情報通知部112E>
動作情報通知部112Eは、組み合わせ動作パターンを動作実行部111Eが実行した時間を識別装置10Eに通知する。
なお、動作実行部111Eが、動作生成部114から取得した所定の動作パターンのみを実行する場合、動作情報通知部112Eは、動作生成部114が生成した所定の動作パターンのみを実行した旨とともに、実行した時間を識別装置10Eに通知すればよい。
[識別装置10Eの構成]
図13は、実施の形態1の変形例5に係る識別装置10Eの機能構成を示す図である。図3及び図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。図13に示す識別装置10Eは、図7に示す識別装置10Bに対して、対象物識別部103Eの構成が異なる。
<対象物識別部103E>
対象物識別部103Eは、第1移動体から、第1移動体が生成した所定の動作パターンと、所定の動作パターン及び第1の動作パターンを組み合わせた組み合わせ動作パターンを実行した時間とを取得する。対象物識別部103Eは、第2の動作パターンのうち当該時間に検出された第2の動作パターンと、組み合わせ動作パターンとを比較して一致するか否かを判定する。対象物識別部103Eは、当該時間に検出された第2の動作パターンと組み合わせ動作パターンとが一致すると判定したとき、当該時間に検出された第2の動作パターンを実行した、画像中の移動体を第1移動体として識別する。
その他については、上記実施の形態1及び変形例2において説明した通りであるので、説明を省略する。
[効果等]
本変形例によれば、識別装置10Eが生成した動作パターンと識別対象の第1移動体が生成した動作パターンとを組み合わせた組み合わせ動作パターンを識別対象の第1移動体に実施させる。これにより、通信の盗聴により識別対象の第1移動体が行う動作パターンを真似されるリスクを減らすことができる。
それにより、より識別対象の誤認識を低減することができる。
(実施の形態2)
実施の形態1では、移動体11等は動作パターンを実行した時間を識別装置10等に通知することを前提に説明したが、これに限らない。移動体11等は動作パターンを実行した時間を識別装置10等に通知しなくてもよい。以下、この場合を実施の形態2として説明する。
[移動体11Fの構成]
図14は、実施の形態2に係る移動体11Fの機能構成を示す図である。図2と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図14に示す移動体11Fは、図2に示す移動体11に対して、動作情報通知部112の構成がない点で構成が異なる。なお、位置補正部113は必須の構成ではない。つまり、移動体11Fは、通信部110と動作実行部111とのみを備えるとしてもよい。通信部110、動作実行部111及び位置補正部113については、上記実施の形態1及び変形例3において説明した通りであるので、説明を省略する。
[識別装置10Fの構成]
図15は、実施の形態2に係る識別装置10Fの機能構成を示す図である。図7及び図10と同様の要素には同一の符号を付しており、詳細な説明は省略する。図15に示す識別装置10Fは、図10に示す識別装置10Cに対して、対象物識別部103Fの構成が異なる。なお、動作生成部101C、動作検出部102C及び対象物位置特定部106Cは、上記の実施の形態1の変形例3において説明した通りであるので、説明を省略する。以下、対象物識別部103Fについて説明する。
<対象物識別部103F>
対象物識別部103Fは、第1移動体から、動作検出部102により検出された第2の動作パターンと動作生成部101により生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103Fは、第1の動作パターンと一致すると判定した第2の動作パターンを実行した、画像中の移動体11Fを第1移動体として識別する。
また、対象物識別部103Fは、第3の動作パターンと動作生成部101Cにより生成された第1の動作パターンとを比較して一致するか否かを判定してもよい。対象物識別部103Fは、第3の動作パターンと第1の動作パターンとが一致すると判定した場合、画像中の当該移動体11Fを第1移動体として再度識別する。このように、移動体11Fが位置補正部113を備え、動作生成部101Cが定期的に第1の動作パターンを第1移動体に送信する場合、対象物識別部103Fは、定期的に第1移動体を識別する。
なお、移動体11Fが位置補正部113を備えない場合、対象物識別部103Fは、第3の動作パターンと動作生成部101Cにより生成された第1の動作パターンとを比較しなくてよい。また、対象物位置特定部106Cは、第1移動体の地図上の位置を特定しても、特定した地図上の位置を第1移動体に送信しなくてもよい。
[識別装置10Fの動作]
次に、以上のように構成された識別装置10Fの動作について説明する。なお、以下では、移動体11Fは、通信部110と動作実行部111とのみを備えるとして説明する。
図16は、実施の形態2における識別装置10Fの動作の一例を示すフローチャートである。
まず、識別装置10Fは、第1の動作パターンを生成し、第1移動体に送信する(S21)。より具体的には、識別装置10Fは、複数の移動体11Fのうち識別対象の第1移動体に実行させる第1の動作パターンを生成し、第1移動体に送信する。
次に、識別装置10Fは、1以上の画像取得機器により画像を取得する(S22)。より具体的には、識別装置10Fは、複数の撮像装置12から、複数の撮像装置12が取得した画像であって識別対象の移動体11Fが実行した動作パターンを検出するために用いられる画像を取得する。
次に、識別装置10Fは、1以上の移動体11Fが実行した第2の動作パターンを検出する(S23)。より具体的には、識別装置10Fは、複数の撮像装置12により取得された画像を用いて、1以上の移動体11Fが実行した第2の動作パターンを検出する。
次に、識別装置10Fは、ステップS23において検出された第2の動作パターンと、第1の動作パターンとを比較して一致するか否かを判定する(S24)。より具体的には、識別装置10Fは、生成した第1の動作パターンと、ステップS23において検出した1以上の第2の動作パターンとを比較し、一致するか否かを判定する。
次に、識別装置10Fは、生成した第1の動作パターンと一致する第2の動作パターンが有る場合(S25でY)、一致すると判定した第2の動作パターンを実行した、画像中の移動体11Fを第1移動体として識別する(S26)。なお、識別装置10Fは、生成した第1の動作パターンと一致する第2の動作パターンがなかった場合(S25でN)、ステップS21からやり直す。
次に、識別装置10Fは、ステップS23において検出された第2の動作パターンを実行した1以上の移動体11Fの画像中の位置と、ステップS26において識別した画像中の第1移動体とに基づいて、第1移動体の地図上の位置を特定する(S27)。
[効果等]
本実施の形態によれば、識別対象の第1移動体に所定の動作を行わせ、その動作を映した画像から識別した第1移動体を地図情報にマッピングすることにより、識別対象の第1移動体の地図上の位置を特定することができる。このようにして、識別対象の第1移動体が地図上のどこにいるかを確認することができる。
また、本実施の形態によれば、第1の動作パターンと一致する第2の動作パターンを実行した、画像中の移動体11Fを第1移動体として識別することができる。つまり、識別対象の移動体11Fである第1移動体に所定の動作を行わせることにより第1移動体を認証することができる。
なお、識別装置10Fの構成は、上述したものに限らず、以下の変形例で説明する構成であってもよい。について説明する。
(変形例1)
変形例1では、移動体11Fは、図14に示す移動体11Fを構成する通信部110、動作実行部111及び位置補正部113のうち、通信部110と動作実行部111とのみを備えるとする。以下、識別装置10Gの構成について説明する。
[識別装置10Gの構成]
図17は、実施の形態2の変形例1に係る識別装置10Gの機能構成を示す図である。図3、図11及び図15と同様の要素には同一の符号を付しており、詳細な説明は省略する。図17に示す識別装置10Gは、図15に示す識別装置10Fに対して、動作生成部101A、動作検出部102A、対象物識別部103G及び対象物位置特定部106Dの構成が異なり、対象物追跡部107が追加されている点で構成が異なる。なお、図17に示す動作生成部101A、動作検出部102A、対象物位置特定部106D及び対象物追跡部107は、上記の実施の形態1の変形例4において説明した通りであるので、説明を省略する。以下、対象物識別部103Gについて説明する。
<対象物識別部103G>
対象物識別部103Gは、第1移動体から、動作検出部102Aにより検出された第2の動作パターンと動作生成部101Aにより生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103Gは、第1の動作パターンと一致すると判定した第2の動作パターンを実行した、画像中の移動体11Fを第1移動体として識別する。
また、対象物識別部103Gは、第3の動作パターンと動作生成部101Aにより生成された第1の動作パターンとを比較して一致するか否かを判定する。対象物識別部103Gは、第3の動作パターンと第1の動作パターンとが一致すると判定した場合、画像中の当該移動体11Fを第1移動体として再度識別する。
このように、動作生成部101Aが定期的に第1の動作パターンを第1移動体に送信するので、対象物識別部103Gは、定期的に第1移動体を識別し直す。
[効果等]
本変形例によれば、識別対象の第1移動体の位置を特定する動作を定期的に行うことで、第1移動体の時系列位置を取得することができる。これにより、識別対象の第1移動体の追跡が可能となる。
(変形例2)
[移動体11Hの構成]
図18は、実施の形態2の変形例2に係る移動体11Hの機能構成を示す図である。図12及び図14と同様の要素には同一の符号を付しており、詳細な説明は省略する。図18に示す移動体11Hは、図14に示す移動体11Fに対して、動作実行部111Eの構成が異なり、位置補正部113の構成が削除され、動作生成部114の構成が追加されている。なお、図18に示す動作実行部111E、動作生成部114は、上記の実施の形態1の変形例5において図12を用いて説明した通りであるので、説明を省略する。
[識別装置10Hの構成]
図19は、実施の形態2の変形例2に係る識別装置10Hの機能構成を示す図である。図13及び図15と同様の要素には同一の符号を付しており、詳細な説明は省略する。図19に示す識別装置10Hは、図15に示す識別装置10Fに対して、動作生成部101、動作検出部102、対象物識別部103H及び対象物位置特定部106の構成が異なる。なお、図19に示す動作生成部101、動作検出部102及び対象物位置特定部106は、上記の実施の形態1の変形例5において図13を用いて説明した通りであるので、説明を省略する。以下、対象物識別部103Hについて説明する。
<対象物識別部103H>
対象物識別部103Hは、図13に示す対象物識別部103Eと比較して、第1移動体が組み合わせ動作パターンを実行した時間を取得しない点で異なる。そのため、対象物識別部103Hは、第1移動体から、第1移動体が生成した所定の動作パターンのみを取得する。
また、対象物識別部103Hは、動作検出部102により検出された第2の動作パターンと、動作生成部114から取得した所定の動作パターンと、動作生成部101が生成した動作パターンとを組み合わせた組み合わせ動作パターンとを比較して一致するか否かを判定する。対象物識別部103Hは、組み合わせ動作パターンと一致すると判定した第2の動作パターンを実行した、画像中の移動体11Hを第1移動体として識別する。
[効果等]
本変形例によれば、識別装置10Hが生成した動作パターンと識別対象の第1移動体が生成した動作パターンとを組み合わせた組み合わせ動作パターンを識別対象の第1移動体に実施させる。これにより、通信の盗聴により識別対象の第1移動体が行う動作パターンを真似されるリスクを減らすことができる。
それにより、識別対象の誤認識を低減することができる。
(その他の実施の形態)
以上、一つまたは複数の態様に係る識別システム及び識別装置等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものも、本開示の範囲内に含まれてもよい。
上記の一つまたは複数の態様に係る識別方法において、コンピュータを用いたプログラムであってもよい。
また、上記の一つまたは複数の態様に係る識別システム及び識別装置を実現するプログラムは、典型的に集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
なお、上記の一つまたは複数の態様に係る識別システム及び識別装置において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
その他、実施の形態及び変形例に対して当業者が思いつく各種変形を施して得られる形態、本開示の趣旨を逸脱しない範囲で実施の形態及び変形例における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
上記各実施の形態及び各変形例において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本開示は、車両、ドローン、ロボット等の移動体の認証または位置確認を必要とするシステムに利用可能である。
1、1A 識別システム
10、10A、10B、10C、10D、10E、10F、10G、10H 識別装置
11、11C、11E、11F、11H 移動体
11a 第1移動体
12 撮像装置
13 ネットワーク
14 携帯端末
50 ユーザ
100、110 通信部
101、101A、101C、114 動作生成部
102、102A、102C 動作検出部
103、103A、103C、103E、103F、103G、103H 対象物識別部
104 異常検知部
105 地図情報保持部
106、106C、106D 対象物位置特定部
107 対象物追跡部
111、111E 動作実行部
112、112E 動作情報通知部
113 位置補正部

Claims (12)

  1. 1以上の移動体を識別するための識別装置であって、
    前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、
    1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、
    前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別部と、を備え、
    前記対象物識別部は、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する、
    識別装置。
  2. 前記第1の動作パターン及び前記第2の動作パターンは、前記第1移動体が有するライトが制御されたパターンである、
    請求項1に記載の識別装置。
  3. 前記第1移動体は、車両であり、
    前記第1の動作パターン及び前記第2の動作パターンは、車両が有するヘッドライト、ウィンカ及びテールランプのオンオフが制御されたパターンである、
    請求項2に記載の識別装置。
  4. さらに、前記対象物識別部で識別された前記第1移動体に異常が発生したことを検知する異常検知部を備え、
    前記動作生成部は、さらに、前記第1の動作パターンを所定の間隔で前記第1移動体に送信し、
    前記動作検出部は、さらに、前記所定の間隔で、前記1以上の画像取得機器により取得された画像を用いて、前記第1移動体が実行した第3の動作パターンを検出し、
    前記異常検知部は、前記所定の間隔ごとに前記動作検出部により検出された前記第3の動作パターンと前記第1の動作パターンとを比較して一致しない場合に、前記対象物識別部で識別された前記第1移動体に異常が発生したことを検知する、
    請求項1〜3のいずれか1項に記載の識別装置。
  5. さらに、前記1以上の移動体が位置することが可能な区画を少なくとも含む地図を示す地図情報と、前記動作検出部により検出された前記第2の動作パターンを実行した1以上の移動体の前記画像中の位置と、前記対象物識別部が識別した前記画像中の前記第1移動体とに基づいて、前記第1移動体の前記地図上の位置を特定する対象物位置特定部を備える、
    請求項1〜4のいずれか1項に記載の識別装置。
  6. 前記対象物位置特定部は、前記第1移動体の前記地図上の位置を特定した場合、さらに、特定した前記地図上の位置を前記第1移動体に送信することで、前記第1移動体が有する位置情報を補正させる、
    請求項5に記載の識別装置。
  7. さらに、前記対象物識別部で識別された前記第1移動体の、所定の間隔ごとの前記地図上の位置である時系列位置を取得する対象物追跡部を備え、
    前記動作生成部は、前記第1の動作パターンを前記所定の間隔で前記第1移動体に送信し、
    前記動作検出部は、前記所定の間隔で、前記1以上の画像取得機器により取得された画像を用いて、前記第1移動体が実行した第3の動作パターンを検出し、
    前記対象物識別部は、前記第3の動作パターンと前記第1の動作パターンとが一致するか否かを判定し、一致した場合、前記画像中の前記第1移動体を再度識別し、
    前記対象物位置特定部は、前記所定の間隔で、前記地図情報と、前記対象物識別部により再度識別された前記第1移動体の前記画像中の位置とに基づいて、前記第1移動体の前記地図上の位置を特定し、
    前記対象物追跡部は、前記所定の間隔で、前記対象物位置特定部により特定された前記第1移動体の前記画像中の位置を取得することで、前記時系列位置を取得する、
    請求項5または6に記載の識別装置。
  8. 前記対象物識別部は、前記第1移動体から、前記第1移動体が生成した所定の動作パターンと、前記所定の動作パターン及び前記第1の動作パターンを組み合わせた組み合わせ動作パターンを実行した時間とを取得した場合、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと、前記組み合わせ動作パターンとを比較して一致するか否かを判定し、前記時間に検出された第2の動作パターンと前記組み合わせ動作パターンとが一致すると判定したとき、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する、
    請求項1〜7のいずれか1項に記載の識別装置。
  9. 1以上の移動体を識別するための識別装置であって、
    前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、
    1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、
    前記第1移動体から、前記動作検出部により検出された前記第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定し、前記第1の動作パターンと一致すると判定した前記第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する対象物識別部と、
    前記1以上の移動体が位置することが可能な区画を少なくとも含む地図を示す地図情報と、前記動作検出部により検出された前記第2の動作パターンを実行した1以上の移動体の前記画像中の位置と、前記対象物識別部が識別した前記画像中の前記第1移動体とに基づいて、前記第1移動体の前記地図上の位置を特定する対象物位置特定部を備える、
    識別装置。
  10. 1以上の移動体を識別するための識別方法であって、
    前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成ステップと、
    1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出ステップと、
    前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成ステップにおいて生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別ステップと、を含み、
    前記対象物識別ステップでは、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別する、
    識別方法。
  11. 1以上の移動体と、前記1以上の移動体を識別するための識別装置とを備える識別システムであって、
    前記識別装置は、
    前記1以上の移動体のうちの少なくとも一の移動体である第1移動体に実行させる第1の動作パターンを生成し、前記第1移動体に送信する動作生成部と、
    1以上の画像取得機器により取得された画像を用いて、前記1以上の移動体が実行した第2の動作パターンを検出する動作検出部と、
    前記第1移動体から、前記第1移動体が前記第1の動作パターンを実行した時間を取得し、前記第2の動作パターンのうち前記時間に検出された第2の動作パターンと前記動作生成部により生成された前記第1の動作パターンとを比較して一致するか否かを判定する対象物識別部と、を備え、
    前記対象物識別部は、前記時間に検出された第2の動作パターンと前記第1の動作パターンとが一致すると判定した場合、前記時間に検出された第2の動作パターンを実行した、前記画像中の移動体を前記第1移動体として識別し、
    前記1以上の移動体のそれぞれは、
    前記識別装置から受信した動作パターンを実行する動作実行部と、
    受信した前記動作パターンを実行した時間を前記識別装置に通知する動作情報通知部とを備える、
    識別システム。
  12. 請求項10に記載の識別方法をコンピュータに実行させるためのプログラム。
JP2018184210A 2018-09-28 2018-09-28 識別装置、識別方法、識別システム、及び、プログラム Active JP6731625B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018184210A JP6731625B2 (ja) 2018-09-28 2018-09-28 識別装置、識別方法、識別システム、及び、プログラム
DE112019004893.7T DE112019004893T8 (de) 2018-09-28 2019-09-20 Identifikationsvorrichtung, Identifikationsverfahren, Identifikationssystem und Programm
PCT/JP2019/037090 WO2020066939A1 (ja) 2018-09-28 2019-09-20 識別装置、識別方法、識別システム、及び、プログラム
US16/897,826 US11087155B2 (en) 2018-09-28 2020-06-10 Identification device, identification method, identification system, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184210A JP6731625B2 (ja) 2018-09-28 2018-09-28 識別装置、識別方法、識別システム、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2020052933A JP2020052933A (ja) 2020-04-02
JP6731625B2 true JP6731625B2 (ja) 2020-07-29

Family

ID=69950564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184210A Active JP6731625B2 (ja) 2018-09-28 2018-09-28 識別装置、識別方法、識別システム、及び、プログラム

Country Status (4)

Country Link
US (1) US11087155B2 (ja)
JP (1) JP6731625B2 (ja)
DE (1) DE112019004893T8 (ja)
WO (1) WO2020066939A1 (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3439592B2 (ja) 1996-02-07 2003-08-25 沖電気工業株式会社 識別方法及び識別装置
JP2000315295A (ja) * 1999-04-30 2000-11-14 Nec Corp 車両位置検出装置
JP4706315B2 (ja) 2005-04-18 2011-06-22 株式会社ニコン 車両の運転支援システム
US7685872B2 (en) * 2005-08-08 2010-03-30 Yona Ben David System and a method for vehicle testing and resulting valuation
EP1837803A3 (en) * 2006-03-24 2008-05-14 MobilEye Technologies, Ltd. Headlight, taillight and streetlight detection
JP2008176663A (ja) * 2007-01-19 2008-07-31 Toyota Central R&D Labs Inc 車両検出装置、車両検出用発光装置及び車両検出システム
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US9357208B2 (en) * 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
KR20170119515A (ko) * 2016-04-19 2017-10-27 주식회사 만도 램프 동작 확인 시스템 및 방법
CN107543725B (zh) * 2016-07-27 2018-08-03 北京百度网讯科技有限公司 一种无人车操控测试方法及装置
US10706298B2 (en) * 2018-08-21 2020-07-07 GM Global Technology Operations LLC Method to automate detection of vehicle lamp degradation

Also Published As

Publication number Publication date
DE112019004893T5 (de) 2021-06-17
DE112019004893T8 (de) 2021-07-08
WO2020066939A1 (ja) 2020-04-02
US20200302198A1 (en) 2020-09-24
US11087155B2 (en) 2021-08-10
JP2020052933A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7108856B2 (ja) 運転制御システムおよび運転制御方法
CN107578644B (zh) 用于运行包括信号源的交通基础设施单元的方法和设备
JP6137081B2 (ja) 車載機器
JP4466607B2 (ja) 車両用灯火管理システムおよび車両用灯火管理装置
US10140528B2 (en) Lane detection apparatus and lane detection method
CN107199943B (zh) 用于机动车辆的智能灯组件和智能照明系统
JP2018163438A (ja) 情報処理装置及び情報処理システム
JP6056540B2 (ja) 周辺車両識別システム、特徴量送信装置、及び周辺車両識別装置
WO2016114015A1 (ja) 撮像制御装置、撮像制御方法及びプログラム
JP6731625B2 (ja) 識別装置、識別方法、識別システム、及び、プログラム
US10486586B1 (en) Control of vehicle headlights based on weather conditions
EP2895351B1 (en) Method for operating a frontal headlight device of a vehicle, driver assistance device and vehicle
JP2012054689A (ja) 可視光データ処理装置、可視光通信システム、可視光データ処理方法及びそのプログラム
JP6606376B2 (ja) 車両ランプの自動検査装置
JP2009290462A (ja) ドライブレコーダ
JP2017116321A (ja) 車載ステレオカメラ用のキャリブレーション装置
JP6161582B2 (ja) 画像処理装置
US11254256B2 (en) Method for detecting misadjustments of the cut-off line of a headlamp
JP2011209961A (ja) 車載用撮像装置
JP2017145651A (ja) 安全システム
JP2014172579A (ja) 車両、検査設備、および車両の検査方法
WO2021095497A1 (ja) カメラシステム
JP7202844B2 (ja) 信号機認識方法及び信号機認識装置
JP2018018253A (ja) 車両状態通知認識システム及び車両状態通知認識方法
US20240116430A1 (en) Vehicle position identification apparatus, vehicle position identification method, light distribution controller, vehicle lamp system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R151 Written notification of patent or utility model registration

Ref document number: 6731625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03