JP2021190848A - 検出装置、検出システム及び検出方法 - Google Patents

検出装置、検出システム及び検出方法 Download PDF

Info

Publication number
JP2021190848A
JP2021190848A JP2020094573A JP2020094573A JP2021190848A JP 2021190848 A JP2021190848 A JP 2021190848A JP 2020094573 A JP2020094573 A JP 2020094573A JP 2020094573 A JP2020094573 A JP 2020094573A JP 2021190848 A JP2021190848 A JP 2021190848A
Authority
JP
Japan
Prior art keywords
detection unit
detection
distance
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020094573A
Other languages
English (en)
Inventor
久美子 馬原
Kumiko Umahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020094573A priority Critical patent/JP2021190848A/ja
Priority to PCT/JP2021/018999 priority patent/WO2021241360A1/ja
Publication of JP2021190848A publication Critical patent/JP2021190848A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】色や輝度、特徴点等が類似する複数の物体を精度よく識別する。【解決手段】検出装置は、対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、を備える。【選択図】図1

Description

本開示は、検出装置、検出システム及び検出方法に関する。
異常を検知する目的等のために、通常よりも高速で撮像する検知システムが提案されている(特許文献1参照)。この種の検知システムでは、撮像画像中の特定の色や輝度等を抽出して対象物を検出している。
特開2018−93437号公報
しかしながら、従来の検知システムでは、色や輝度が類似する複数の物体が前後に重なり合っている場合、撮像画像では複数の物体の画像が重なり合うために、物体間の実距離が離れていても、物体同士を識別できないおそれがある。このため、例えば、物体が移動体である場合に移動体を追尾しようとしても、移動体同士が重なり合ってから別れる場合には、追尾対象を誤ってしまうおそれがある。
そこで、本開示では、色や輝度、特徴点等が類似する複数の物体を精度よく識別できる検出装置、検出システム及び検出方法を提供するものである。
上記の課題を解決するために、本開示によれば、対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、を備える、検出装置が提供される。
前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備えてもよい。
前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出してもよい。
前記グルーピング制御部は、前記対象物の色、輝度及び特徴点の少なくとも一つが同一又は類似である複数の前記対象物の画像の少なくとも一部が重なり合っており、かつ前記第1検出部で検出された前記複数の対象物の距離がそれぞれ異なる場合には、前記複数の対象物をそれぞれ異なるグループに分類してもよい。
前記グルーピング制御部は、前記対象物のグルーピングを行った後に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングしてもよい。
前記対象物の移動に応じて前記撮像画像内で前記対象物の画像を追跡する追跡部を備えてもよい。
前記グルーピング制御部は、前記追跡部で追跡している最中に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングし、
前記追跡部は、再度グルーピングした後の前記対象物の画像を追跡してもよい。
前記第1検出部は、所定の範囲からの光を受光して、前記所定の範囲内に存在する前記対象物までの距離を検出し、
前記グルーピング制御部は、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物を、前記第1検出部で検出された前記対象物までの距離に基づいてグルーピングし、
前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出してもよい。
前記第2検出部は、前記撮像画像から、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物の画像位置に対応する制限範囲内で距離を検出するように前記第1検出部に指示し、
前記第1検出部は、前記制限範囲内に含まれる前記対象物までの距離を検出し、
前記グルーピング制御部は、前記第2検出部で検出された前記対象物の画像位置と、前記第1検出部で検出された前記対象物までの距離とに基づいて、前記対象物をグルーピングしてもよい。
前記第2検出部は、前記座標情報とともに、前記対象物の画像を含む所定の撮像範囲の画像データを出力してもよい。
前記第2検出部は、前記座標情報とともに、前記対象物の面積、動き方向及び重心位置の少なくとも一つを含む情報を出力してもよい。
前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、を備えてもよい。
前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、を備え、
前記グルーピング制御部は、前記第1半導体装置又は前記第2半導体装置に設けられてもよい。
前記第1検出部及び前記第2検出部を有する半導体装置を備えてもよい。
本開示の他の一態様によれば、対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、
前記第1検出部及び前記第2検出部を制御する制御部と、を備える検出システムが提供される。
前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、
前記制御部を有する第3半導体装置と、を備えてもよい。
前記第1半導体装置、前記第2半導体装置又は前記第3半導体装置に設けられ、前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備えてもよい。
本開示の他の一態様によれば、対象物で反射された光に基づいて、前記対象物までの距離を第1検出部で検出し、
第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つと、前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する、検出方法が提供される。
一実施形態による検出装置を備えた検出システムの概略構成を示すブロック図。 高速ビジョンセンサが撮像する画角内に、同一又は類似する色又は輝度の複数の対象物が存在する例を示す図。 高速ビジョンセンサの画角内で前後に重なる複数の対象物のうち、一部の対象物のみが移動する例を示す図。 図3Aの撮影画像の一例を示す図。 第1グルーピング手法を説明する図。 第1グルーピング手法の処理手順を示すフローチャート。 第2グルーピング手法を説明する図。 第2グルーピング手法の処理手順を示すフローチャート。 第1グルーピング手法を採用したときの再グループ化処理を説明する図。 図8Aに続く図。 第2グルーピング手法を採用したときの再グループ化処理を説明する図。 図9Aに続く図。 ToFセンサ内にグルーピング制御部を設けた検出装置を備えた検出システムのブロック図。 直接ToF方式のToFセンサを有する検出装置を備えた検出システム2bのブロック図。 図11の一変形例による検出システムの概略構成を示すブロック図。 図1の高速ビジョンセンサとToFセンサの機能を統合したToFセンサを有する検出装置を備えた検出システムの概略構成を示すブロック図。 アプリケーションプロセッサの内部にグルーピング制御部を設けた検出システムのブロック図。 移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図。 撮像部の設置位置の例を示す図。
以下、図面を参照して、検出装置、検出システム及び検出方法の実施形態について説明する。以下では、検出装置及び検出システムの主要な構成部分を中心に説明するが、検出装置及び検出システムには、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
図1は一実施形態による検出装置1を備えた検出システム2の概略構成を示すブロック図である。図1の検出システム2は、ToF(Time of Flight)センサ(第1検出部)3と、高速ビジョンセンサ(第2検出部)4と、アプリケーションプロセッサ(以下、AP又は制御部とも呼ぶ)5とを備えている。このうち、ToFセンサ3と高速ビジョンセンサ4は検出装置1に含まれている。
ToFセンサ3は、対象物で反射された光に基づいて、対象物までの距離を検出する。ToFセンサ3の距離検出手法には、パルス状の光信号の飛行時間を直接計測する直接ToF方式と、受光信号の位相差を利用して間接的に距離を計測する間接ToF方式があるが、本実施形態によるToFセンサ3は、どちらの方式でも採用可能である。
高速ビジョンセンサ4は、対象物の色、輝度及び特徴点の少なくとも一つとToFセンサ3で検出された距離とに基づいて、所定の画角で撮像された撮像画像に含まれる対象物の画像を抽出して、抽出した対象物の画像の座標情報を少なくとも検出する。高速ビジョンセンサ4は、座標情報とともに、対象物の画像を含む所定の撮像範囲の画像データを出力してもよい。所定の撮像範囲とは、所定の画角で撮像された撮像画像中の対象物の画像を含む部分的な画素領域である。
高速ビジョンセンサ4は、1秒間に例えば1000フレームの速度で対象物の検出と追跡を行うことができる。高速ビジョンセンサ4は、対象物の画像の座標情報とともに、対象物の面積、動きの方向、及び対象物の重心位置の少なくとも一つの情報を出力してもよい。
アプリケーションプロセッサ5は、高速ビジョンセンサ4とToFセンサ3の動作を制御する。また、アプリケーションプロセッサ5は、高速ビジョンセンサ4とToFセンサ3からセンシング結果を受信して、種々の信号処理を行う。
高速ビジョンセンサ4とToFセンサ3は、それぞれチップ化することができる。高速ビジョンセンサ4の機能を有する第1半導体装置と、ToFセンサ3の機能を有する第2半導体装置とを例えばベース基板上に実装して検出装置1を構成することができる。あるいは、複数の半導体層を積層した積層チップに、高速ビジョンセンサ4の機能を実現する回路とToFセンサ3の機能を実現する回路を形成してもよい。この場合、例えば、積層チップの上チップ側に、高速ビジョンセンサ4とToFセンサ3の一部、具体的には光信号を投光及び受光する回路を形成し、下チップ側に、残りの部分、具体的には制御回路などを形成してもよい。また、光信号を投光する回路は、別チップ構成にしてもよい。
図1の高速ビジョンセンサ4は、画素アレイ部11と、画像処理部12と、ISP(Image Signal Processor)13と、色検出部14と、点検出部15と、追跡(トラッキング)部16と、出力インタフェース(I/F)部17と、グルーピング制御部18と、通信&全体制御部19と、を有する。
画素アレイ部11は、縦横に配置された複数の画素を有し、各画素で光電変換された画素信号を出力する。画像処理部12は、例えば画素信号をA/D変換して、デジタルの画像データを生成する。ISP13は、A/D変換後の画像データに対して、種々の信号処理を行う。ISP13が行う信号処理の具体的な内容は問わないが、例えば、クランプ処理、欠陥補正処理、レンズシェーディング処理などである。
色検出部14は、ISP13から出力された画像データから、特定の色又は輝度を有する対象物の画像を検出する。色検出部14が検出するべき特定の色又は輝度は、例えばアプリケーションプロセッサ5により指定される。色検出部14は、特定の色又は輝度を有する対象物が検出されると、検出された対象物の座標情報等をグルーピング制御部18に送信する。色検出部14は、特定の色又は輝度を有する複数の対象物の画像を検出してもよい。この場合、色検出部14は、各対象物の画像の座標情報等を区別して、グルーピング制御部18に送信する。より具体的には、色検出部14は、2値化処理、モーメント算出処理、重心算出処理、動きベクトル処理、及び動物体検出処理などを行う。
点検出部15は、ISP13から出力された画像データから、特徴点を検出する。特徴点とは、撮像画像に含まれる対象物の画像を特徴づける画素データである。点検出部15は、例えば所定のフィルタ処理を施して特徴点を抽出する。フィルタ処理は、例えば、移動平均フィルタやメディアンフィルタなどによるノイズ除去処理、Sobelフィルタなどの輪郭検出処理、ラプラシアンフィルタなどによるエッジ検出処理などである。また、点検出部15は、画像データのオイラー数を求めて、対象物の個数を算出してもよい。オイラー数とは、成分数から孔の数を引いた数である。アプリケーションプロセッサ5は、点検出部15に対して、特徴点を検出するのに必要な情報を通知する。
追跡部16は、色検出部14及び点検出部15の検出結果に基づいて、追跡するべき対象物を特定し、対象物の移動に合わせて対象物を追跡する。より詳細には、追跡部16は、撮像画像に含まれる対象物の画像を、撮像画像の範囲内で追跡し続け、対象物の画像の最新の座標情報等を出力する。
出力I/F部17は、対象物の画像の座標情報等を出力する。出力I/F部17は、例えば、MIPI(Mobile Industry Processor Interface)、SPI(Serial Peripheral Interface)などの規格に従って、対象物の画像の座標情報等をシリアル信号として出力する。このシリアル信号は、アプリケーションプロセッサ5に送られる。
グルーピング制御部18は、ToFセンサ3で検出された距離と、高速ビジョンセンサ4で検出された対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、撮像画像中の対象物の画像をグルーピングする。高速ビジョンセンサ4は、グルーピング制御部18でグルーピングされたグループごとに、対象物の画像の座標情報を検出する。
グルーピング制御部18は、対象物の色、輝度及び特徴点の少なくとも一つが同一又は類似である複数の対象物の画像の少なくとも一部が重なり合っており、かつToFセンサ3で検出された複数の対象物の距離がそれぞれ異なる場合には、複数の対象物をそれぞれ異なるグループに分類する。
グルーピング制御部18は、対象物の画像をグルーピングした後に、対象物が移動して撮像画像内で複数の対象物の画像の少なくとも一部が重なり合った場合、ToFセンサ3で検出された距離と、対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、複数の対象物を再度グルーピングする。これを本明細書では、再グループ化処理と呼ぶ。
通信&全体制御部19は、ToFセンサ3及びアプリケーションプロセッサ5との通信を制御するとともに、高速ビジョンセンサ4内の各部の動作を制御する。より具体的には、通信&全体制御部19は、アプリケーションプロセッサ5からの制御信号を、I2C(Inter-Integrated Circuit)やSPIなどの規格に従って受信し、その制御信号に基づいて、高速ビジョンセンサ4内の各部の動作を制御する。例えば、通信&全体制御部19は、アプリケーションプロセッサ5からの制御信号に基づいて、色検出部14で検出するべき特定の色や輝度に関する情報を色検出部14に設定したり、点検出部15で検出するべき特徴点に関する情報を点検出部15に設定したりする。
また、通信&全体制御部19は、ToFセンサ3との間で各種信号を送受する制御を行う。高速ビジョンセンサ4とToFセンサ3とは、例えばSPIなどの規格に従って、シリアル通信を行う。通信&全体制御部19は、ToFセンサ3に対して対象物の距離検出を指示する信号を送信するとともに、ToFセンサ3で検出された対象物までの距離に関する情報を受信して、グルーピング制御部18に送信する。
図1のToFセンサ3は、間接ToF方式の概略的なブロック構成を示している。ToFセンサ3は、通信&全体制御部21と、発光タイミング制御部22と、画素変調部23と、画素アレイ部24と、画素制御部25と、A/Dコンバータ(ADC)26と、データ処理部27と、出力I/F部28と、測距開始制御部29と、を有する。
通信&全体制御部21は、高速ビジョンセンサ4及びアプリケーションプロセッサ5との通信を制御するとともに、ToFセンサ3内の各部の動作を制御する。より具体的には、通信&全体制御部21は、アプリケーションプロセッサ5からの制御信号を、I2CやSPIなどの規格に従って受信し、その制御信号に基づいて、ToFセンサ3内の各部の動作を制御する。また、通信&全体制御部21は、高速ビジョンセンサ4からの距離検出指示信号を受信して発光タイミング制御部22に送信するとともに、距離検出結果を示す情報をデータ処理部27から取得して、高速ビジョンセンサ4に送信する。
発光タイミング制御部22は、高速ビジョンセンサ4からの距離検出指示信号に基づいて、距離計測用の光信号を発光するタイミングを制御する。距離計測用の光信号を発光する不図示の発光素子は、ToFセンサに外付けされている。
画素変調部23は、画素アレイ部24から画素信号を読み出すタイミングを制御する。間接ToF方式では、複数の異なる位相で受光された光信号に基づいて対象物までの距離を検出するため、画素変調部23にて、画素信号の読み出しタイミングを制御する。
画素制御部25は、通信&全体制御部21からの制御信号により、画素アレイ部24から読み出すべき画素を間引く処理など、読み出すべき画素領域を制御する。
画素アレイ部24から読み出された画素信号は、ADC26でデジタルの画素データに変換された後、データ処理部27で種々の信号処理が施されて、出力I/F部28から出力される。データ処理部27は、それぞれ異なる位相で受光された光信号に応じた画素データに基づいて、対象物までの距離情報を検出する。検出された距離情報は、通信&全体制御部21に送信される。
測距開始制御部29は、外部から入力される測距開始トリガ信号に基づいて、測距開始のタイミングを制御する。測距開始トリガ信号が高速ビジョンセンサ4以外から入力される場合、測距開始のタイミングを高速ビジョンセンサ4の動作と同期させる必要がある。一方、測距開始トリガ信号が高速ビジョンセンサ4から入力される場合は、測距開始トリガ信号に同期して測距を開始すればよいため、測距開始制御部29を省略することができる。
図2は、高速ビジョンセンサ4が撮像する画角内に、同一又は類似する色又は輝度の複数の対象物が存在する例を示す図である。より詳細には、図2(a)に示すように、高速ビジョンセンサ4の近い位置に対象物Aが存在し、遠い位置に対象物Bが存在する例を示している。対象物AとBが、図2(b)に示すように、高速ビジョンセンサ4の画角内で、前後に重なる位置に撮像された場合には、対象物AとBの色が同一又は類似であることから、高速ビジョンセンサ4単体では、対象物AとBを識別することが困難であり、同一の対象物であると誤認識するおそれがある。この場合、高速ビジョンセンサ4内の追跡部16は、対象物Aの画像と対象物Bの画像を合わせた画像の重心位置を基準に、追跡処理を行おうとする。その後、図2(c)に示すように、対象物Aが移動して対象物AとBの相対距離が離れると、上述した重心位置を基準として対象物Aの追跡処理を行うことができなくなる。
図3A及び図3Bは、高速ビジョンセンサ4の画角内で前後に重なる複数の対象物のうち、一部の対象物のみが移動する例を示す図である。図3A及び図3Bでは、後方に位置する人間Dが、前方側に手を伸ばしてカードCを振っている例を示している。この場合、高速ビジョンセンサ4には、人間DとカードCが重なって撮像される。人間DとカードCの双方に特徴点が存在するため、高速ビジョンセンサ4単体では、カードCと人間Dを分離して取り扱うことができず、カードCの動きを精度よく追跡できないおそれがある。
本実施形態による検出装置1及び検出システム2は、図2と図3A〜図3Bに示した状況でも、対象物を精度よく抽出して追跡することができることを特徴としている。本実施形態によるグルーピング制御部18は、高速ビジョンセンサ4の撮像画像に含まれる複数の対象物の画像を、ToFセンサ3による距離検出結果に基づいてグルーピングする。グルーピング制御部18によるグルーピングの仕方に複数通りが考えられる。以下では、代表的な第1グルーピング手法と第2グルーピング手法を順に説明する。
図4は第1グルーピング手法を説明する図、図5は第1グルーピング手法の処理手順を示すフローチャートである。第1グルーピング手法では、高速ビジョンセンサ4が所定の画角で撮像を行うとともに、高速ビジョンセンサ4が撮像した画角と同一又は類似の画角内で、ToFセンサ3が対象物までの距離を検出する(ステップS1)。すなわち、ToFセンサ3は高速ビジョンセンサ4の撮像範囲を含む範囲で、対象物までの距離を検出する。
ToFセンサ3は、上述した範囲内に存在する対象物の距離により分類してグルーピング制御部18に送信する(ステップS2)。例えば、対象物までの距離を、例えば近距離、中距離、遠距離の3つに分類し、その分類結果をグルーピング制御部18に送信する。あるいは、より細かい距離ごとに分類してもよい。グルーピング制御部18は、ToFセンサ3の分類結果に基づいて、高速ビジョンセンサ4の撮像画像から対象物の画像を抽出して、グルーピングを行う(ステップS3)。例えば、図4の例では、グルーピング制御部18は、ToFセンサ3の距離検出結果に基づいて、高速ビジョンセンサ4の画角内に存在する対象物AとBを別々のグループに分類する。このように、高速ビジョンセンサ4は、撮像画像中に重なり合った対象物AとBの画像が存在しても、ToFセンサ3による分類結果に基づいて、対象物Aと対象物Bを別々のグループにグルーピングすることができる。
その後、追跡部16は、グルーピングされた対象物AとBの重心位置をそれぞれ計算して、重心位置を基準として対象物AとBの追跡を行う。
図6は第2グルーピング手法を説明する図、図7は第2グルーピング手法の処理手順を示すフローチャートである。第2グルーピング手法では、まず高速ビジョンセンサ4が所定の画角で撮像を行い(ステップS11)、撮像画像に基づいて、色、輝度又は特徴点の検出を行って対象物を抽出し、ToFセンサ3が測距を行うべき範囲r1を特定する(ステップS12)。特定された範囲r1は、対象物を含む範囲である。高速ビジョンセンサ4が特定した範囲r1は、ToFセンサ3に送信される(ステップS13)。ToFセンサ3は、高速ビジョンセンサ4が特定した範囲r1内で測距を行って、対象物までの距離を検出する(ステップS14)。グルーピング制御部18は、ToFセンサ3の距離検出結果に基づいて、ToFセンサ3で検出された対象物までの距離を、例えば、近接距離、中距離又は遠距離に分類する(ステップS15)。そして、グルーピング制御部18は、分類された距離情報に基づいて、高速ビジョンセンサ4の撮像画像に含まれる対象物の画像をグルーピングする(ステップS16)。これにより、撮像画像中に重なり合った対象物の画像が存在しても、ToFセンサ3による距離検出結果に基づいて、対象物Aと対象物Bを別々のグループにグルーピングすることができる。
ステップS16では、例えば、高速ビジョンセンサ4が、近接した領域内に複数の特徴点を検出したときに、これら特徴点までの距離が似通っていれば、これら特徴点を同じグループに分類してもよい。また、ステップS12で高速ビジョンセンサ4が特定した範囲r1内に、距離が異なる複数の対象物が存在することがToFセンサ3で検出されると、グルーピング制御部18は、ステップS16において、高速ビジョンセンサ4がステップS12で特定した範囲を分解して、各対象物を別々のグループに分類する。逆に、高速ビジョンセンサ4がステップS12で特定した複数の近接した範囲が、ステップS14でToFセンサ3により同じ距離であると検出された場合、ステップS16でグルーピング制御部18は、これら範囲を一つのグループに統合する。
第1グルーピング手法又は第2グルーピング手法にてグルーピングされた別々のグループに属する複数の対象物は、追跡部16にて個別に追跡することができる。ところが、別々のグループに属する複数の対象物の相対距離が近づくと、撮像画像中の複数の対象物の画像同士が少なくとも部分的に重なり合う場合がありうる。この場合、グルーピング制御部18は、再クループ化処理を行う。
図8A及び図8Bは第1グルーピング手法を採用したときの再グループ化処理を説明する図である。まず、図8Aに示すように、1フレーム目は、図5に示した処理手順で、高速ビジョンセンサ4の撮像画像内の複数の対象物をグルーピングする。その後、2フレーム目以降では、グループごとに、各グループ内の対象物の追跡処理を行う。撮像画像内の複数の対象物の画像が重なり合わない限りは、1フレーム目でグルーピングした情報に基づいて、グループごとに対応する対象物の追跡処理を精度よく継続することができる。
図8Bに示すように、N(Nは2以上の整数)フレーム目で、撮像画像内の複数の対象物の画像の少なくとも一部が重なり合ったとすると、高速ビジョンセンサ4内のグルーピング制御部18は、再度、ToFセンサ3に対して、高速ビジョンセンサ4と同一又は類似する画角内での対象物までの距離検出を指示する。この指示を受けて、ToFセンサ3は各対象物の距離を検出し、その検出結果をグルーピング制御部18に送信する。グルーピング制御部18は、再び、ToFセンサ3で検出された距離情報と、高速ビジョンセンサ4内の色検出部14と点検出部15で検出された色、輝度及び特徴点の少なくとも一つの情報とに基づいて、高速ビジョンセンサ4が撮像した撮像画像内の各対象物の画像をグルーピングする。これにより、N+1フレーム以降では、グループごとに、対応する対象物の追跡処理を再び精度よく行うことができる。
図9A及び図9Bは第2グルーピング手法を採用したときの再グループ化処理を説明する図である。まず、図9Aに示すように、1フレーム目は、図7に示した処理手順で、高速ビジョンセンサ4から指定された範囲r1内でToFセンサ3が対象物の距離検出を行い、その距離検出結果に基づいて、グルーピング制御部18は、高速ビジョンセンサ4が指定した範囲r1内の対象物のグルーピングを行う。その後、2フレーム目以降では、グループごとに、各グループ内の対象物の追跡処理を行う。撮像画像内の複数の対象物が重なり合わない限りは、1フレーム目でグルーピングした情報が有効であり、グループごとに対応する対象物の追跡処理を継続することができる。
図9Bに示すように、N(Nは2以上の整数)フレーム目で、撮像画像内の複数の対象物が前後に重なり合ったとすると、高速ビジョンセンサ4は、再度、指定した範囲r1内での距離検出をToFセンサ3に指示する。ToFセンサ3は、高速ビジョンセンサ4から指定された範囲r1内で対象物の距離検出を再度行い、その距離検出結果に基づいて、グルーピング制御部18は、再び、各範囲内の対象物のグルーピングを行う。
第1グルーピング手法と第2グルーピング手法は任意に組み合わせて実施してもよい。例えば、図8A、図8B及び図9A、図9Bの例において、1フレーム目では第1グルーピング手法にてグルーピングを行い、その後再グループ化処理を行う際には第2グルーピング手法にてグルーピングを行ってもよい。逆に、1フレーム目では第2グルーピング手法にてグルーピングを行い、その後再グループ処理を行う際には第1グルーピング手法にてグルーピングを行ってもよい。
図1では、高速ビジョンセンサ4内にグルーピング制御部18を設ける例を示したが、グルーピング制御部18は、高速ビジョンセンサ4以外の場所に設けてもよい。図10はToFセンサ3a内にグルーピング制御部18を設けた検出装置1aを備えた検出システム2aのブロック図である。図10のToFセンサ3a内のグルーピング制御部18は、第1グルーピング手法を採用する場合には、ToFセンサ3aが検出した対象物の距離情報と、高速ビジョンセンサ4a内の色検出部14が検出した対象物の色又は輝度情報と、点検出部15が検出した特徴点の情報とに基づいて、撮像画像内の各対象物のグルーピングを行う。また、図10のToFセンサ3a内のグルーピング制御部18は、第2グルーピング手法を採用する場合には、高速ビジョンセンサ4aから指定された範囲内でToFセンサ3aが対象物の距離を検出した結果に基づいて、撮像画像内の対象物のグルーピングを行う。グルーピング制御部18がグルーピングした情報(以下、グルーピング情報)は、高速ビジョンセンサ4aに送信される。高速ビジョンセンサ4a内の追跡部16は、ToFセンサ3a内のグルーピング制御部18から送信されたグルーピング情報に基づいて、グループごとに、グループ内の対象物の追跡を行う。
上述した図1〜図10では、間接ToF方式で距離を検出するToFセンサ3を検出装置1が有する例を説明したが、検出装置1は直接ToF方式で距離を検出するToFセンサ3を備えていてもよい。
図11は直接ToF方式のToFセンサ3bを有する検出装置1bを備えた検出システム2bのブロック図である。図11のToFセンサ3bは、通信&全体制御部31と、SPAD(Single Photon Avalanche Diode)制御部32と、SPADアレイ&読み出し回路33と、サンプリング回路34と、測距処理部35と、発光タイミング制御部36と、出力I/F部37と、クロック生成部38とを備えている。
SPADアレイ&読み出し回路33内のSPADアレイは、縦横に配置された複数のSPADを有する。各SPADは、入射された単一フォトンに応じた電気信号を出力する。この電気信号は、読み出し回路を介して出力される。読み出し回路は、光パルス信号が受光された後にSPADの両端電圧を初期電圧に戻すクエンチング動作を行う。SPADアレイ&読み出し回路33から出力された電気信号は、サンプリング回路34でサンプリングされる。
測距処理部35は、ヒストグラム生成部35aと、距離算出部35bとを有する。ヒストグラム生成部35aは、受光された複数の光パルス信号の受光時刻と、受光された光パルス信号の数との関係を表すヒストグラムを生成する。距離算出部35bは、FIRフィルタ処理、エコー判定処理、ピーク検出処理、及び距離算出処理などを行う。距離算出部35bで算出された距離情報は出力I/F部37を介して出力される。
発光タイミング制御部36は、不図示の発光素子の発光タイミングを制御する。発光素子に送られる発光トリガ信号は、測距処理部35にも送られる。測距処理部35内の距離算出部35bは、ヒストグラム生成部35aで生成されたヒストグラムに基づいて受光タイミングを検出し、発光トリガ信号が出力された発光タイミングと受光タイミングとの時間差により、対象物までの距離を検出する。
図11の検出装置1bは、図1の検出装置1と同様に、高速ビジョンセンサ4内にグルーピング制御部18を有する。ToFセンサ3bは、距離計測結果を高速ビジョンセンサ4に送信して、高速ビジョンセンサ4内のグルーピング制御部18にて距離画像内の各対象物のグルーピングを行う。
図11の検出装置1bでは、高速ビジョンセンサ4内にグルーピング制御部18を有するが、グルーピング制御部18は高速ビジョンセンサ4以外の場所に設けてもよい。図12は図11の一変形例による検出システム2cの概略構成を示すブロック図である。図12の検出システム2cは、直接ToF方式のToFセンサ3c内にグルーピング制御部18を設けている。図12のToFセンサ3c内のグルーピング制御部18は、図10のToFセンサ3a内のグルーピング制御部18と同様に、高速ビジョンセンサ4a内の色検出部14で検出された色又は輝度情報と、点検出部15で検出された特徴点の情報とを受信するとともに、ToFセンサ3で検出された距離情報に基づいて、各対象物のグルーピングを行う。
上述した図1〜図12では、検出装置1(1a、1b、1c)内に高速ビジョンセンサ4(4a)とToFセンサ3(3a、3b、3c)とを備える例を説明したが、高速ビジョンセンサ4(4a)とToFセンサ3(3a、3b、3c)を統合したセンサを検出装置1内に設けてもよい。この場合、統合したセンサは一つの半導体装置(チップ)で実現可能である。
図13は図1の高速ビジョンセンサ4とToFセンサ3の機能を統合したToFセンサ3dを有する検出装置1dを備えた検出システム2の概略構成を示すブロック図である。図13のToFセンサ3dは、図1のToFセンサ3と同様の間接ToF方式のブロック構成に加えて、図1の高速ビジョンセンサ4のブロック構成を備えている。図13では、図1の検出装置1内の各部に対応する箇所には同一符号を付しており、詳細な説明は省略する。なお、図13の統合センサは、間接ToF方式の代わりに、直接ToF方式で距離検出を行ってもよい。この場合、図11のToFセンサ3bに高速ビジョンセンサ4を統合した構成になる。
図1では、高速ビジョンセンサ4とToFセンサ3とが、それぞれの通信&全体制御部19、21を介してSPI等の規格に従ってシリアル通信を行うが、図13では、一つのToFセンサ3dの内部に高速ビジョンセンサ4の機能を備えているため、例えば配線パターンを介して各種信号の送受を行うことができ、高速通信が可能となる。また、複数の半導体装置間でシリアル通信を行う場合と比べて、S/N比を向上でき、信号レベルも小さくできるため、消費電力を削減できる。
上述した図1〜図12では、高速ビジョンセンサ4(4a)とToFセンサ3(3a、3b、3c)のいずれかにグルーピング制御部18を設ける例を示したが、アプリケーションプロセッサ5の内部にグルーピング制御部18を設けてもよい。図14はアプリケーションプロセッサ5aの内部にグルーピング制御部18を設けた検出システム2eのブロック図である。図14のグルーピング制御部18は、第1グルーピング手法を採用する場合には、高速ビジョンセンサ4が検出した撮像画像内の対象物の色、輝度及び特徴点の少なくとも一つの情報を高速ビジョンセンサ4から受信するとともに、ToFセンサ3から、各対象物の距離情報を受信し、これらの受信情報に基づいて、各対象物のグルーピングを行う。また、図14のグルーピング制御部18は、第2グルーピング手法を採用する場合には、高速ビジョンセンサ4から指示された範囲内でToFセンサ3が距離検出を行った情報と、高速ビジョンセンサ4が検出した撮像画像内の対象物の色、輝度及び特徴点の少なくとも一つの情報とに基づいて、各対象物のグルーピングを行う。グルーピングされた情報は、高速ビジョンセンサ4に送信され、高速ビジョンセンサ4内の追跡部16で追跡処理を行う。
図14の検出装置1は、間接ToF方式のToFセンサ3を有するが、図11と同様に、直接ToF方式のToFセンサ3を有していてもよい。
このように、本実施形態では、高速ビジョンセンサ4(4a)で検出された対象物の色、輝度及び特徴点の少なくとも一つと、ToFセンサ3(3a〜3d)で検出された対象物の距離情報とに基づいて、高速ビジョンセンサ4(4a)の撮像画像内の各対象物のグルーピングを行う。追跡部16は、グルーピングされたグループごとに、対象物の追跡処理を行う。追跡処理を行っている最中に、複数の対象物の画像が撮像画像内で前後に重なった場合には、再度、高速ビジョンセンサ4(4a)で検出された対象物の色、輝度及び特徴点の少なくとも一つと、ToFセンサ3(3a〜3d)で検出された対象物の距離情報とに基づいて、再グループ化処理を行う。これにより、撮像画像内で複数の対象物の画像が前後に重なった場合でも、各対象物の画像を区別して精度よく追跡し続けることができる。
このように、本実施形態によれば、高速ビジョンセンサ4(4a)とToFセンサ3(3a〜3d)とを連携させることで、高速ビジョンセンサ4(4a)では識別が難しかった、色や輝度が同一又は類似している複数の対象物を精度よく識別して、各対象物を追跡することが可能となる。
(移動体への応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図16は、撮像部12031の設置位置の例を示す図である。
図16では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図16には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、撮像部12031に、本開示による撮像素子を実装することができる。撮像部12031に、本開示に係る技術を適用することにより、電磁ノイズの発生を抑制しつつ、距離画像の解像度を向上させることができ、車両12100の機能性および安全性を高めることができる。
なお、本技術は以下のような構成を取ることができる。
(1)対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、を備える、検出装置。
(2)前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備える、(1)に記載の検出装置。
(3)前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出する、(2)に記載の検出装置。
(4)前記グルーピング制御部は、前記対象物の色、輝度及び特徴点の少なくとも一つが同一又は類似である複数の前記対象物の画像の少なくとも一部が重なり合っており、かつ前記第1検出部で検出された前記複数の対象物の距離がそれぞれ異なる場合には、前記複数の対象物をそれぞれ異なるグループに分類する、(2)又は(3)に記載の検出装置。
(5)前記グルーピング制御部は、前記対象物のグルーピングを行った後に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングする、(2)乃至(4)のいずれか一項に記載の検出装置。
(6)前記対象物の移動に応じて前記撮像画像内で前記対象物の画像を追跡する追跡部を備える、(2)乃至(5)のいずれか一項に記載の検出装置。
(7)前記グルーピング制御部は、前記追跡部で追跡している最中に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングし、
前記追跡部は、再度グルーピングした後の前記対象物の画像を追跡する、(6)に記載の検出装置。
(8)前記第1検出部は、所定の範囲からの光を受光して、前記所定の範囲内に存在する前記対象物までの距離を検出し、
前記グルーピング制御部は、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物を、前記第1検出部で検出された前記対象物までの距離に基づいてグルーピングし、
前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出する、(2)乃至(7)のいずれか一項に記載の検出装置。
(9)前記第2検出部は、前記撮像画像から、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物の画像位置に対応する制限範囲内で距離を検出するように前記第1検出部に指示し、
前記第1検出部は、前記制限範囲内に含まれる前記対象物までの距離を検出し、
前記グルーピング制御部は、前記第2検出部で検出された前記対象物の画像位置と、前記第1検出部で検出された前記対象物までの距離とに基づいて、前記対象物をグルーピングする、(2)乃至(7)のいずれか一項に記載の検出装置。
(10)前記第2検出部は、前記座標情報とともに、前記対象物の画像を含む所定の撮像範囲の画像データを出力する、(1)乃至(9)のいずれか一項に記載の検出装置。
(11)前記第2検出部は、前記座標情報とともに、前記対象物の面積、動き方向及び重心位置の少なくとも一つを含む情報を出力する、(1)乃至(9)のいずれか一項に記載の検出装置。
(12)前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、を備える、(1)乃至(11)のいずれか一項に記載の検出装置。
(13)前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、を備え、
前記グルーピング制御部は、前記第1半導体装置又は前記第2半導体装置に設けられる、(2)乃至(11)のいずれか一項に記載の検出装置。
(14)前記第1検出部及び前記第2検出部を有する半導体装置を備える、(1)乃至(11)のいずれか一項に記載の検出装置。
(15)対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、
前記第1検出部及び前記第2検出部を制御する制御部と、を備える検出システム。
(16)前記第1検出部を有する第1半導体装置と、
前記第2検出部を有する第2半導体装置と、
前記制御部を有する第3半導体装置と、を備える、(15)に記載の検出システム。
(17)前記第1半導体装置、前記第2半導体装置又は前記第3半導体装置に設けられ、前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備える、(16)に記載の検出システム。
(18)対象物で反射された光に基づいて、前記対象物までの距離を第1検出部で検出し、
第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つと、前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する、検出方法。
本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1、1a、1b、1c、1d 検出装置、2、2a、2b、2c、2d 検出システム、3、3a、3b、3c、3d ToFセンサ、4、4a 高速ビジョンセンサ、5 アプリケーションプロセッサ、11 画素アレイ部、12 画像処理部、13 ISP、14 色検出部、15 点検出部、16 追跡部、17 出力I/F部、18 グルーピング制御部、19 通信&全体制御部、21 通信&全体制御部、22 発光タイミング制御部、23 画素変調部、24 画素アレイ部、25 画素制御部、26 ADC、27 データ処理部、28 出力I/F部、29 測距開始制御部、31 通信&全体制御部、32 SPAD制御部、33 SPADアレイ&読み出し回路、34 サンプリング回路、35 測距処理部、35a ヒストグラム生成部、35b 距離算出部、36 発光タイミング制御部、37 出力I/F部、38 クロック生成部、12000 車両制御システム、12010 駆動系制御ユニット、12020 ボディ系制御ユニット、12030 車外情報検出ユニット、12031 撮像部、12040 車内情報検出ユニット、12041 運転者状態検出部、12050 統合制御ユニット、12051 マイクロコンピュータ、12052 音声画像出力部、12053 車載ネットワークI/F、12061 オーディオスピーカ、12062 表示部、12063 インストルメントパネル

Claims (18)

  1. 対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
    前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、を備える、検出装置。
  2. 前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備える、請求項1に記載の検出装置。
  3. 前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出する、請求項2に記載の検出装置。
  4. 前記グルーピング制御部は、前記対象物の色、輝度及び特徴点の少なくとも一つが同一又は類似である複数の前記対象物の画像の少なくとも一部が重なり合っており、かつ前記第1検出部で検出された前記複数の対象物の距離がそれぞれ異なる場合には、前記複数の対象物をそれぞれ異なるグループに分類する、請求項2に記載の検出装置。
  5. 前記グルーピング制御部は、前記対象物のグルーピングを行った後に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングする、請求項2に記載の検出装置。
  6. 前記対象物の移動に応じて前記撮像画像内で前記対象物の画像を追跡する追跡部を備える、請求項2に記載の検出装置。
  7. 前記グルーピング制御部は、前記追跡部で追跡している最中に前記撮像画像内で複数の前記対象物の画像の少なくとも一部が重なり合った場合、前記第1検出部で検出された距離と、前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記複数の対象物を再度グルーピングし、
    前記追跡部は、再度グルーピングした後の前記対象物の画像を追跡する、請求項6に記載の検出装置。
  8. 前記第1検出部は、所定の範囲からの光を受光して、前記所定の範囲内に存在する前記対象物までの距離を検出し、
    前記グルーピング制御部は、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物を、前記第1検出部で検出された前記対象物までの距離に基づいてグルーピングし、
    前記第2検出部は、前記グルーピング制御部でグルーピングされたグループごとに、前記対象物の画像の座標情報を検出する、請求項2に記載の検出装置。
  9. 前記第2検出部は、前記撮像画像から、色、輝度又は特徴点の少なくとも一つに基づいて抽出された前記対象物の画像位置に対応する制限範囲内で距離を検出するように前記第1検出部に指示し、
    前記第1検出部は、前記制限範囲内に含まれる前記対象物までの距離を検出し、
    前記グルーピング制御部は、前記第2検出部で検出された前記対象物の画像位置と、前記第1検出部で検出された前記対象物までの距離とに基づいて、前記対象物をグルーピングする、請求項2に記載の検出装置。
  10. 前記第2検出部は、前記座標情報とともに、前記対象物の画像を含む所定の撮像範囲の画像データを出力する、請求項1に記載の検出装置。
  11. 前記第2検出部は、前記座標情報とともに、前記対象物の面積、動き方向及び重心位置の少なくとも一つを含む情報を出力する、請求項1に記載の検出装置。
  12. 前記第1検出部を有する第1半導体装置と、
    前記第2検出部を有する第2半導体装置と、を備える、請求項1に記載の検出装置。
  13. 前記第1検出部を有する第1半導体装置と、
    前記第2検出部を有する第2半導体装置と、を備え、
    前記グルーピング制御部は、前記第1半導体装置又は前記第2半導体装置に設けられる、請求項2に記載の検出装置。
  14. 前記第1検出部及び前記第2検出部を有する半導体装置を備える、請求項1に記載の検出装置。
  15. 対象物で反射された光に基づいて、前記対象物までの距離を検出する第1検出部と、
    前記対象物の色、輝度及び特徴点の少なくとも一つと前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する第2検出部と、
    前記第1検出部及び前記第2検出部を制御する制御部と、を備える検出システム。
  16. 前記第1検出部を有する第1半導体装置と、
    前記第2検出部を有する第2半導体装置と、
    前記制御部を有する第3半導体装置と、を備える、請求項15に記載の検出システム。
  17. 前記第1半導体装置、前記第2半導体装置又は前記第3半導体装置に設けられ、前記第1検出部で検出された距離と、前記第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つとに基づいて、前記対象物をグルーピングするグルーピング制御部を備える、請求項16に記載の検出システム。
  18. 対象物で反射された光に基づいて、前記対象物までの距離を第1検出部で検出し、
    第2検出部で検出された前記対象物の色、輝度及び特徴点の少なくとも一つと、前記第1検出部で検出された前記距離とに基づいて、所定の画角で撮像された撮像画像に含まれる前記対象物の画像を抽出して、抽出した画像の座標情報を検出する、検出方法。
JP2020094573A 2020-05-29 2020-05-29 検出装置、検出システム及び検出方法 Pending JP2021190848A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020094573A JP2021190848A (ja) 2020-05-29 2020-05-29 検出装置、検出システム及び検出方法
PCT/JP2021/018999 WO2021241360A1 (ja) 2020-05-29 2021-05-19 検出装置、検出システム及び検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020094573A JP2021190848A (ja) 2020-05-29 2020-05-29 検出装置、検出システム及び検出方法

Publications (1)

Publication Number Publication Date
JP2021190848A true JP2021190848A (ja) 2021-12-13

Family

ID=78745193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020094573A Pending JP2021190848A (ja) 2020-05-29 2020-05-29 検出装置、検出システム及び検出方法

Country Status (2)

Country Link
JP (1) JP2021190848A (ja)
WO (1) WO2021241360A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029382A1 (ja) * 2022-08-05 2024-02-08 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024052001A (ja) * 2022-09-30 2024-04-11 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5609425B2 (ja) * 2010-08-24 2014-10-22 株式会社ニコン 画像処理装置、撮像装置、及び画像処理プログラム
JP6660751B2 (ja) * 2016-02-04 2020-03-11 日立オートモティブシステムズ株式会社 撮像装置
KR102572366B1 (ko) * 2017-07-27 2023-08-30 소니 세미컨덕터 솔루션즈 가부시키가이샤 반도체 장치 및 전자 기기

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029382A1 (ja) * 2022-08-05 2024-02-08 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法

Also Published As

Publication number Publication date
WO2021241360A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
US10746874B2 (en) Ranging module, ranging system, and method of controlling ranging module
US11805330B2 (en) Image recognition device, solid-state imaging device, and image recognition method
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
US11454723B2 (en) Distance measuring device and distance measuring device control method
US20220317298A1 (en) Distance measurement sensor
WO2021241360A1 (ja) 検出装置、検出システム及び検出方法
CN110832346A (zh) 电子装置和电子装置的控制方法
US20210297589A1 (en) Imaging device and method of controlling imaging device
KR20220016056A (ko) 화상 인식 장치 및 화상 인식 방법
KR20220006520A (ko) 화상 인식 장치 및 화상 인식 방법
WO2021065494A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021059682A1 (ja) 固体撮像素子、電子機器、および、固体撮像素子の制御方法
US20220276379A1 (en) Device, measuring device, distance measuring system, and method
WO2021065500A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021065495A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021182190A1 (ja) 撮像装置、撮像システム及び撮像方法
US20220224830A1 (en) Imaging device and imaging method
CN109076168B (zh) 控制装置、控制方法和计算机可读介质
US20230142762A1 (en) Sensing system
WO2021251057A1 (ja) 光検出回路および測距装置
US20230062562A1 (en) Sensing system and distance measuring system
US20240205569A1 (en) Imaging device, electronic device, and light detecting method
US20230228875A1 (en) Solid-state imaging element, sensing system, and control method of solid-state imaging element
WO2021100593A1 (ja) 測距装置及び測距方法
US20220268890A1 (en) Measuring device and distance measuring device