JP2022161328A - 情報処理システム、情報処理装置および情報処理方法 - Google Patents

情報処理システム、情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2022161328A
JP2022161328A JP2021066052A JP2021066052A JP2022161328A JP 2022161328 A JP2022161328 A JP 2022161328A JP 2021066052 A JP2021066052 A JP 2021066052A JP 2021066052 A JP2021066052 A JP 2021066052A JP 2022161328 A JP2022161328 A JP 2022161328A
Authority
JP
Japan
Prior art keywords
sensor
unit
data
information
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021066052A
Other languages
English (en)
Inventor
雄二 永松
Yuji Nagamatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2021066052A priority Critical patent/JP2022161328A/ja
Priority to PCT/JP2022/002933 priority patent/WO2022215323A1/ja
Publication of JP2022161328A publication Critical patent/JP2022161328A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】演算量を低減することが可能な情報処理システム、情報処理装置および情報処理方法を提供する。【解決手段】本開示の一側面に係る情報処理システムは、第1センサ部と、第1センサ部から得られた第1センサデータを処理する第1処理部と、第2センサ部と、第2センサ部から得られた第2センサデータを処理する第2処理部とを備えている。第1処理部は、第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域を設定するための設定情報を生成する。第2処理部は、設定情報に基づいて、第2処理部によって処理する第2センサデータの処理領域を設定する。【選択図】図1

Description

本開示は、情報処理システム、情報処理装置および情報処理方法に関する。
車両の自動運転や移動型ロボットの走行などでは、複数のセンサを用いて、障害となり得る物体の認識や、周囲の環境状況を把握し、経路計画等を行う情報処理システムが広く知られている(例えば、特許文献1参照)。
特開2018-5050号公報
このような情報処理システムでは、リアルタイム性や省エネの観点から、演算量を低減することが望ましい。従って、演算量を低減することが可能な情報処理システム、情報処理装置および情報処理方法を提供することが望ましい。
本開示の第1の側面に係る情報処理システムは、第1センサ部と、第1センサ部から得られた第1センサデータを処理する第1処理部と、第2センサ部と、第2センサ部から得られた第2センサデータを処理する第2処理部とを備えている。第1処理部は、第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域を設定するための設定情報を生成する。第2処理部は、設定情報に基づいて、第2処理部によって処理する第2センサデータの処理領域を設定する。
本開示の第1の側面に係る情報処理システムでは、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。
本開示の第2の側面に係る情報処理システムは、第1センサ部と、第1センサ部から得られた第1センサデータを処理する第1処理部と、第2センサ部と、第2センサ部を制御する制御部とを備えている。第1処理部は、第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成する。制御部は、設定情報に基づいて、第2センサ部のセンシング領域を設定する。
本開示の第2の側面に係る情報処理システムでは、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。
本開示の第3の側面に係る情報処理装置は、生成部と、設定部とを備えている。生成部は、第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成する。設定部は、設定情報に基づいて、第2センサデータの処理領域を設定する。
本開示の第3の側面に係る情報処理装置では、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。
本開示の第4の側面に係る情報処理装置は、生成部と、設定部とを備えている。生成部は、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成する。設定部は、設定情報に基づいて、前記第2センサ部のセンシング領域を設定する。
本開示の第4の側面に係る情報処理装置では、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。
本開示の第5の側面に係る情報処理方法は、以下の2つを含む。
(A1)第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成すること
(A2)設定情報に基づいて、第2センサデータの処理領域を設定すること
本開示の第5の側面に係る情報処理方法では、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。
本開示の第6の側面に係る情報処理方法は、以下の2つを含む。
(B1)第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成すること
(B2)設定情報に基づいて、前記第2センサ部のセンシング領域を設定すること
本開示の第6の側面に係る情報処理方法では、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。
本開示の第1の実施の形態に係る情報処理システムの概略構成例を表す図である。 図1の情報処理システムにおける情報処理手順例を表す図である。 画像データおよびデプスデータの一例を表す図である。 図1の情報処理システムの概略構成の一変形例を表す図である。 図4の情報処理システムにおける補正量の導出例を表す図である。 本開示の第2の実施の形態に係る情報処理システムの概略構成例を表す図である。 図6の情報処理システムにおける情報処理手順例を表す図である。 熱画像データおよびデプスデータの一例を表す図である。 本開示の第3の実施の形態に係る情報処理システムの概略構成例を表す図である。 図9の情報処理システムにおける補正量の導出例を表す図である。 図9の情報処理システムにおける情報処理手順例を表す図である。 本開示の第4の実施の形態に係る情報処理システムの概略構成例を表す図である。 図12の情報処理システムにおける情報処理手順例を表す図である。 通常の画像および偏光画像の一例を表す図である。 本開示の第5の実施の形態に係る情報処理システムの概略構成例を表す図である。 図15の情報処理システムにおける補正量の導出例を表す図である。 図15の情報処理システムにおける情報処理手順例を表す図である。 本開示の第6の実施の形態に係る情報処理システムの概略構成例を表す図である。 本開示の第7の実施の形態に係る情報処理システムの概略構成例を表す図である。 本開示の第8の実施の形態に係る情報処理システムの概略構成例を表す図である。
以下、本開示を実施するための形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。

1.第1の実施の形態(図1~図3)
RGBセンサ部およびデプスセンサ部を用いた例
2.第1の実施の形態の変形例(図4,図5)
RGBセンサ部とデプスセンサ部との間の位置ズレを補正する例
3.第2の実施の形態(図6~図8)
熱画像センサ部およびデプスセンサ部を用いた例
4.第3の実施の形態(図9~図11)
画像センサ部および超音波センサ部を用いた例
5.第4の実施の形態(図12~図14)
偏光センサ部および超音波センサ部を用いた例
6.第5の実施の形態(図15~図17)
デプスセンサ部およびドップラーセンサ部を用いた例
7.第6の実施の形態(図18)
RGBセンサ部、デプスセンサ部および熱画像センサ部を用いた例
8.第7の実施の形態(図19)
RGBセンサ部、デプスセンサ部および超音波センサ部を用いた例
9.第8の実施の形態(図20)
RGBセンサ部、熱画像センサ部および超音波センサ部を用いた例
<1.第1の実施の形態>
[構成]
図1は、本開示の第1の実施の形態に係る情報処理システム100の概略構成例を表したものである。情報処理システム100は、2つのセンサを備えており、具体的には、RGBセンサ部110およびデプスセンサ部130を備えている。情報処理システム100は、さらに、2つのデータ処理部を備えており、具体的には、データ処理部120,140を備えている。データ処理部120は、RGBセンサ部110で得られた画像センサデータ110Aを処理する。データ処理部140は、デプスセンサ部130で得られたデプスセンサデータ130Aを処理する。
RGBセンサ部110が本開示の「第1センサ部」「画像センサ」の一具体例に相当する。データ処理部120が本開示の「第1処理部」の一具体例に相当する。デプスセンサ部130が本開示の「第2センサ部」「デプスセンサ」の一具体例に相当する。データ処理部140が本開示の「第2処理部」の一具体例に相当する。
RGBセンサ部110は、例えば、単願もしくは双眼の可視光画像センサ(カメラ)である。RGBセンサ部110は、外部の所定の領域を撮像対象領域(センシング領域)として撮像し、それにより画像センサデータ110Aを画素ごとに取得する。RGBセンサ部110は、取得したn画素分の画像センサデータ110Aをデータ処理部120に出力する。
データ処理部120は、RGBセンサ部110から入力されたn画素分の画像センサデータ110Aを処理する。データ処理部120は、例えば、n画素分の画像センサデータ110Aを処理し、それにより、画像データ120Aを生成する。データ処理部120は、例えば、必要に応じて、画像データ120Aに対して所定の画像処理(例えば、ガンマ補正やホワイトバランス補正など)を行ってもよい。データ処理部120は、生成した画像データ120Aを外部に出力する。
データ処理部120は、さらに、画像データ120Aに対して1または複数の領域を設定する。この場合、画像データ120Aに対して設定される領域は、ROI(Region Of Interest)と呼ばれる。以下では、画像データ120Aに対して設定される領域を「ROI」と称する。また、ROIについての情報を「ROI情報120B」と称する。ROI情報120Bは、例えば、画像データ120Aに対して設定される1または複数のROIの、画像データ120A内での位置についての情報を含む。そのような情報には、例えば、ROIの左上隅のXY座標、ROIのX方向の幅、ROIのY方向の幅などが含まれる。
ROIの設定には、例えば、パターンマッチングや、ニューラルネットワークなどの機械学習モデルが用いられ得る。データ処理部120は、例えば、所定の対象物についての画像データ(以下、「比較対象画像データ」と称する。)と、パターンマッチングを行うプログラムと、このプログラムを実行する実行部とを有している。このプログラムには、例えば、画像データ120Aに、比較対象画像データに対応する特定のパターンが出現するか否か、さらに、どこに出現するかを特定し、特定した位置についての情報を出力するための一連の手順が含まれる。データ処理部120は、例えば、ニューラルネットワークを有している。このニューラルネットワークは、例えば、学習用の画像データと、学習用の画像データに含まれる所定の対象物の位置についての情報とを教示データとして学習した学習モデルである。このニューラルネットワークは、画像データ120Aが入力されると、入力された画像データ120Aに含まれる所定の対象物の位置についての情報を出力する。
なお、物体の種類に応じてROIを設定する領域を変更してもよい。例えば、物体が人である場合に、人の背景まで含むようにROIを設定すると、ROIに、背景がノイズとして入り込んでしまう。そこで、物体の種類に応じて、例えば、ROIの横幅を物体の横幅の50%に設定し、ROIの縦幅を物体の縦幅の70%に設定することで、ノイズ(背景)を含まないROIを設定することが可能である。このようにすることで、センサの検知精度を向上させることが可能となる。
データ処理部120は、画像データ120Aに対して1または複数のROIを設定し、設定した1または複数のROIについてのROI情報120Bを生成する。ROI情報120Bが、本開示の「設定情報」の一具体例に相当する。データ処理部120は、生成したROI情報120Bをデータ処理部140に出力する。
デプスセンサ部130は、外部の所定の照射領域(センシング領域)に対して光を照射し、それにより照射領域から反射した反射光を受光する。照射領域は撮像対象領域の少なくとも一部を含む領域に相当する。本実施の形態では、照射領域が撮像対象領域と一致しているものとする。デプスセンサ部130は、例えば、ステレオカメラ、ミリ波レーダー、LiDAR(Light Detection and Ranging)、ToF(Time of Flight)センサなどである。デプスセンサ部130は、受光によりデプスセンサデータ130Aを画素ごとに取得する。デプスセンサ部130がm画素の受光素子を含んで構成されている場合、デプスセンサ部130は、m画素分のデプスセンサデータ130Aを取得する。デプスセンサ部130は、取得したm画素分のデプスセンサデータ130Aをデータ処理部140に出力する。
データ処理部140は、m画素分のデプスセンサデータ130Aを処理し、それにより、デプスデータ140Aを生成する。データ処理部140は、例えば、m画素分のデプスセンサデータ130Aを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ140Aを生成する。データ処理部140は、ROI情報120Bがデータ処理部120から入力された場合には、入力されたROI情報120Bに基づいて、m画素分のデプスセンサデータ130Aを処理し、それにより、デプスデータ140Aを生成する。データ処理部140は、例えば、m画素分のデプスセンサデータ130Aの中から、ROI情報120Bに対応する画素のデータだけを選択的に抽出する。データ処理部140は、例えば、抽出したデータを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ140Aを生成する。このとき、デプスデータ140Aにおいて、ROI情報120Bに対応する画素以外の画素(つまり、ROI情報120Bに非対応の画素)に対応するデプス値は規定の値(例えば、データ無しを意味する数値)となっている。データ処理部140は、生成したデプスデータ140Aを外部に出力する。
[データ処理手順]
次に、情報処理システム100におけるデータ処理手順について説明する。図2は、情報処理システム100におけるデータ処理手順の一例を表したものである。
まず、RGBセンサ部110が、撮像対象領域(センシング領域)を撮像し、それによりn画素分の画像センサデータ110Aを取得する(ステップS101)。RGBセンサ部110は、取得したn画素分の画像センサデータ110Aをデータ処理部120に出力する。デプスセンサ部130は、RGBセンサ部110における撮像と同期して、照射領域(センシング領域)に対して光を照射し、それにより、n画素分のデプスセンサデータ130Aを取得する(ステップS105)。
データ処理部120は、n画素分の画像センサデータ110Aを処理する(ステップS102)。具体的には、データ処理部120は、n画素分の画像センサデータ110Aを処理し、それにより、画像データ120Aを生成する。データ処理部120は、生成した画像データ120Aに対して1または複数のROIを設定し、設定した1または複数のROIについてのROI情報120Bを生成する(ステップS104、図3(A))。なお、図3(A)には、画像データ120Aに5つのROI(ROI(a),ROI(b),ROI(c),ROI(d),ROI(e))が含まれている場合が例示されている。図3(A)には、さらに、ROI(a)の左上隅のXY座標が(Xa,Ya)となっており、ROI(d)の左上隅のXY座標が(Xc,Yc)となっている場合が例示されている。データ処理部120は、生成したROI情報120Bをデータ処理部140に出力する。データ処理部120は、さらに、画像データ120Aを外部に出力する(ステップS103)。
データ処理部140は、データ処理部120から入力されたROI情報120Bに基づいて、m画素分のデプスセンサデータ130Aを処理する(ステップS106)。データ処理部140は、m画素分のデプスセンサデータ130Aに対して、ROI情報120Bに含まれる全てのROIについての情報に基づく処理を行うことで、デプスデータ140Aを生成し、外部に出力する(ステップS107;Y、ステップS108、図3(B))。データ処理部140は、例えば、m画素分のデプスセンサデータ130Aのうち、ROI情報120Bに対応する画素のデータだけを選択的に抽出する。データ処理部140は、さらに、例えば、抽出したデータを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ140Aを生成する。このとき、データ処理部140は、例えば、デプスデータ140Aにおいて、ROI情報120Bに対応する画素以外の画素(つまり、ROI情報120Bに非対応の画素)に対応するデプス値として、規定の値(例えば、データ無しを意味する数値)を設定する。なお、図3(B)では、m画素分のデプスセンサデータ130Aから抽出されたデータに基づいてデプス値が生成された箇所が白抜きで表現されており、デプス値が規定の値となっている箇所がグレーの色で表現されている。このようにして、情報処理システム100におけるデータ処理が行われる。
[効果]
車両の自動運転や移動型ロボットの走行などでは、複数のセンサを用いて、障害となり得る物体の認識や、周囲の環境状況を把握し、経路計画等を行う情報処理システムが広く知られている。そのような情報処理システムでは、例えばRGBカメラによる画像認識や、デプスセンサ、超音波センサによる周辺物体との距離把握などが行われる。従来では、センサ毎にセンサデータの処理を行い、処理されたデータを統合してシステム制御に利用している。ここで、カメラのような広範囲をセンシングするセンサを利用した場合には、不要なデータの処理が多く含まれるので、演算時間や消費エネルギーが増大したり、大きなメモリ容量が必要になったりする。その結果、このような技術を、リアルタイム性や省エネが求められる移動ロボティクスシステムへ実装することが困難になる。一方で、超音波センサなどの狭い領域を検知するセンサを利用した場合には、最適な検知点の探索が必要となる。
周囲の環境状況を把握する目的でセンサを利用する場合、当初は適したセンシング領域が不明である。そのため、取得したセンサデータを用いて周囲の状況を把握し、把握した周囲の状況に基づいて(つまり、センサデータ取得後に)、適したセンシング領域が判明する。カメラのような広範囲をセンシングするセンサでは、取得したデータ全体を処理する必要がある。一方で、超音波センサなどの狭い領域を検知するセンサでは、一定の範囲を検出した後に最適な検知点とそのデータが取得できるため、長い検出時間が必要である。
一方、本実施の形態では、RGBセンサ部110の出力データに基づいてROI情報120Bが生成され、生成されたROI情報120Bに基づいてデプスセンサ部130の出力の処理領域が設定される。これにより、ROI情報120Bを用いずにデプスセンサ部130の出力を処理する場合と比べて、少ない演算量でデプスセンサ部130の出力の処理領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<2.第1の実施の形態の変形例>
以下、上記実施の形態に係る情報処理システム100の変形例について説明する。以下の変形例では、上記実施の形態と共通の構成に同一の符号を付して説明する。
上記実施の形態において、デプスセンサ部130の照射領域(センシング領域)がRGBセンサ部110の撮像対象領域(センシング領域)に一致していなくてもよい。この場合、画像データ120AにおけるROIの位置と、m画素分のデプスセンサデータ130Aから生成されるデプスデータにおけるROIの位置とが互いに一致しない。そこで、上記実施の形態において、情報処理システム100が、ROI情報120Bに含まれるROIの位置と、m画素分のデプスセンサデータ130Aから生成されるデプスデータにおけるROIの位置とを対応付けるデータを備えていてもよい。情報処理システム100は、例えば、図4に示したように、ROI情報120Bに含まれるROIの位置情報と、上記デプスデータにおけるROIの位置とを対応付けるデータが格納されたメモリ150を備えていてもよい。
図5(A)は、デプスデータ140AにおけるROIの一例を表したものである。図5(A)に記載のROIの位置(Xb,Yb)は、図3(A)に記載のROIの位置(Xa,Ya)と比べると、紙面左右方向(X方向)に+ΔXだけオフセットされており、紙面上下方向(Y方向)に+ΔYだけオフセットされている。つまり、画像データ120AにおけるROIの位置(Xa,Ya)に対して補正量(ΔX,ΔY)を加えることにより、デプスデータ140AにおけるROIの位置(Xb,Yb)を導出することができる。
本変形例では、メモリ部150に対して、例えば、補正量(ΔX,ΔY)が格納されている。補正量(ΔX,ΔY)は、例えば、撮像対象領域および照射領域に共通のマーカを設置して取得した画像データ120Aおよびデプスセンサデータ130Aに基づいて取得することが可能である。データ処理部140は、画像データ120AにおけるROIの位置(Xa,Ya)に対して、メモリ部150から読み出した補正量(ΔX,ΔY)を加えることにより、デプスデータ140AにおけるROIの位置(Xb,Yb)を導出する。これにより、画像データ120AにおけるROIの位置と、デプスデータ140AにおけるROIの位置との間にオフセットが存在する場合であっても、補正量(ΔX,ΔY)を用いることで、デプスデータ140AにおけるROIの位置を精度よく導出することができる。その結果、補正量(ΔX,ΔY)を用いずにデプスデータ140Aを処理することで、デプスデータ140AにおけるROIを設定する場合と比べて、少ない演算量でデプスデータ140AにおけるROIを設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
図5(B)は、デプスデータ140AにおけるROIの他の例を表したものである。図5(B)に記載のデプスデータ140Aの縮尺と、図3(A)に記載の画像データ120Aの縮尺とが互いに異なっている。図5(B)に記載のデプスデータ140Aは、図3(A)に記載の画像データ120Aを、左上隅を基準に紙面左右方向(X方向)にLx2/Lx1だけ縮小するとともに、左上隅を基準に紙面上下方向(Y方向)にLy2/Ly1だけ縮小した画像データに対応している。このとき、図5(B)に記載のROIの位置(Xd,Yd)は、図3(A)に記載のROIの位置(Xc,Yc)と比べると、紙面左右方向(X方向)に-Xc×(1-Lx2/Lx1)だけオフセットされており、紙面上下方向(Y方向)に-Yc×(1-Ly2/Ly1)だけオフセットされている。つまり、画像データ120AにおけるROIの位置(Xa,Ya)に対して補正量(-Xc×(1-Lx2/Lx1),-Yc×(1-Ly2/Ly1))を加えることにより、デプスデータ140AにおけるROIの位置(Xb,Yb)を導出することができる。
本変形例では、メモリ部150に対して、例えば、補正量(-(1-Lx2/Lx1),-(1-Ly2/Ly1))が格納されている。補正量(-(1-Lx2/Lx1),-(1-Ly2/Ly1))は、例えば、撮像対象領域および照射領域に共通のマーカを設置して取得した画像データ120Aおよびデプスセンサデータ130Aに基づいて取得することが可能である。データ処理部140は、画像データ120AにおけるROIの位置(Xc,Yc)に対して、メモリ部150から読み出した補正量(-(1-Lx2/Lx1),-(1-Ly2/Ly1))を掛けることにより、デプスデータ140AにおけるROIの位置(Xd,Yd)を導出する。これにより、画像データ120Aの縮尺と、デプスデータ140Aの縮尺とが互いに異なる場合であっても、補正量(-(1-Lx2/Lx1),-(1-Ly2/Ly1))を用いることで、デプスデータ140AにおけるROIの位置を精度よく導出することができる。その結果、補正量(-(1-Lx2/Lx1),-(1-Ly2/Ly1))を用いずにデプスデータ140Aを処理することで、デプスデータ140AにおけるROIを設定する場合と比べて、少ない演算量でデプスデータ140AにおけるROIを設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<3.第2の実施の形態>
[構成]
図6は、本開示の第2の実施の形態に係る情報処理システム200の概略構成例を表したものである。情報処理システム200は、2つのセンサを備えており、具体的には、熱画像センサ部210およびデプスセンサ部130を備えている。情報処理システム200は、さらに、熱画像センサ部210で得られた熱画像センサデータ210Aを処理するデータ処理部220と、デプスセンサ部130で得られたデプスセンサデータ130Aを処理するデータ処理部140とを備えている。
熱画像センサ部210が本開示の「第1センサ部」「画像センサ」の一具体例に相当する。データ処理部220が本開示の「第1処理部」の一具体例に相当する。デプスセンサ部130が本開示の「第2センサ部」「デプスセンサ」の一具体例に相当する。データ処理部140が本開示の「第2処理部」の一具体例に相当する。
熱画像センサ部210は、例えば、サーモアレイセンサ(サーモグラフィ)である。熱画像センサ部210は、外部の所定の領域を撮像対象領域(センシング領域)として撮像し、それにより熱画像センサデータ210Aを画素ごとに取得する。熱画像センサ部210は、取得したn画素分の熱画像センサデータ210Aをデータ処理部220に出力する。
データ処理部220は、熱画像センサ部210から入力されたn画素分の熱画像センサデータ210Aを処理する。データ処理部220は、例えば、n画素分の熱画像センサデータ210Aを処理し、それにより、熱画像データ220Aを生成する。データ処理部220は、例えば、必要に応じて、熱画像データ220Aに対して所定の画像処理(例えば、ガンマ補正やホワイトバランス補正など)を行ってもよい。データ処理部220は、生成した熱画像データ220Aを外部に出力する。
データ処理部220は、さらに、熱画像データ220Aに対して1または複数の領域を設定する。この場合、熱画像データ220Aに対して設定される領域は、ROIと呼ばれる。以下では、熱画像データ220Aに対して設定される領域を「ROI」と称する。また、ROIについての情報を「ROI情報220B」と称する。ROI情報220Bは、例えば、熱画像データ220Aに対して設定される1または複数のROIの、熱画像データ220A内での位置についての情報を含む。そのような情報には、例えば、ROIの左上隅のXY座標、ROIのX方向の幅、ROIのY方向の幅などが含まれる。
ROIの設定には、例えば、パターンマッチングや、ニューラルネットワークなどの機械学習モデルが用いられ得る。データ処理部220は、例えば、所定の対象物についての画像データ(以下、「比較対象画像データ」と称する。)と、パターンマッチングを行うプログラムと、このプログラムを実行する実行部とを有している。このプログラムには、例えば、熱画像データ220Aに、比較対象画像データに対応する特定のパターンが出現するか否か、さらに、どこに出現するかを特定し、特定した位置についての情報を出力するための一連の手順が含まれる。データ処理部220は、例えば、ニューラルネットワークを有している。このニューラルネットワークは、例えば、学習用の熱画像データと、学習用の熱画像データに含まれる所定の対象物の位置についての情報とを教示データとして学習した学習モデルである。このニューラルネットワークは、熱画像データ220Aが入力されると、入力された熱画像データ220Aに含まれる所定の対象物の位置についての情報を出力する。
データ処理部220は、熱画像データ220Aに対して1または複数のROIを設定し、設定した1または複数のROIについてのROI情報220Bを生成する。データ処理部220は、生成したROI情報220Bをデータ処理部240に出力する。
データ処理部140は、ROI情報220Bがデータ処理部220から入力された場合には、入力されたROI情報220Bに基づいて、m画素分のデプスセンサデータ130Aを処理し、それにより、デプスデータ140Aを生成する。データ処理部140は、例えば、m画素分のデプスセンサデータ130Aの中から、ROI情報220Bに対応する画素のデータだけを選択的に抽出する。データ処理部140は、例えば、抽出したデータを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ140Aを生成する。このとき、デプスデータ140Aにおいて、ROI情報220Bに対応する画素以外の画素(つまり、ROI情報220Bに非対応の画素)に対応するデプス値は規定の値(例えば、データ無しを意味する数値)となっている。データ処理部140は、生成したデプスデータ140Aを外部に出力する。
[データ処理手順]
次に、情報処理システム200におけるデータ処理手順について説明する。図7は、情報処理システム200におけるデータ処理手順の一例を表したものである。
まず、熱画像センサ部210が、撮像対象領域を撮像し、それによりn画素分の熱画像センサデータ210Aを取得する(ステップS201)。熱画像センサ部210は、取得したn画素分の熱画像センサデータ210Aをデータ処理部220に出力する。デプスセンサ部130は、熱画像センサ部210における撮像と同期して、照射領域に対して光を照射し、それにより、m画素分のデプスセンサデータ130Aを取得する(ステップS205)。
データ処理部220は、n画素分の熱画像センサデータ210Aを処理する(ステップS202)。具体的には、データ処理部220は、n画素分の熱画像センサデータ210Aを処理し、それにより、熱画像データ220Aを生成する。データ処理部220は、生成した熱画像データ220Aに対して1または複数のROIを設定し、設定した1または複数のROIについてのROI情報220Bを生成する(ステップS204、図8(A))。なお、図8(A)には、熱画像データ220Aに2つのROI(ROI(a),ROI(b))が含まれている場合が例示されている。データ処理部220は、生成したROI情報220Bをデータ処理部140に出力する。データ処理部220は、さらに、熱画像データ220Aを外部に出力する(ステップS203)。
データ処理部140は、データ処理部220から入力されたROI情報220Bに基づいて、m画素分のデプスセンサデータ130Aを処理する(ステップS206)。データ処理部240は、m画素分のデプスセンサデータ130Aに対して、ROI情報220Bに含まれる全てのROIについての情報に基づく処理を行うことで、デプスデータ140Aを生成し、外部に出力する(ステップS207;Y、ステップS208、図8(B))。データ処理部140は、例えば、m画素分のデプスセンサデータ130Aのうち、ROI情報220Bに対応する画素のデータだけを選択的に抽出する。データ処理部140は、さらに、例えば、抽出したデータを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ140Aを生成する。このとき、データ処理部140は、例えば、デプスデータ140Aにおいて、ROI情報220Bに対応する画素以外の画素(つまり、ROI情報220Bに非対応の画素)に対応するデプス値として、規定の値(例えば、データ無しを意味する数値)を設定する。なお、図8(B)では、m画素分のデプスセンサデータ130Aから抽出されたデータに基づいてデプス値が生成された箇所が白抜きで表現されており、デプス値が規定の値となっている箇所がグレーの色で表現されている。このようにして、情報処理システム200におけるデータ処理が行われる。
[効果]
本実施の形態では、熱画像センサ部210の出力データに基づいてROI情報220Bが生成され、生成されたROI情報220Bに基づいてデプスセンサ部130の出力の処理領域が設定される。これにより、ROI情報220Bを用いずにデプスセンサ部130の出力を処理する場合と比べて、少ない演算量でデプスセンサ部130の出力の処理領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<4.第3の実施の形態>
[構成]
図9は、本開示の第3の実施の形態に係る情報処理システム300の概略構成例を表したものである。情報処理システム300は、2つのセンサを備えており、具体的には、RGBセンサ部110および超音波センサ部170を備えている。情報処理システム300は、さらに、RGBセンサ部110で得られた画像センサデータ110Aを処理するデータ処理部120と、超音波センサ部170を制御する制御部160と、超音波センサ部170で得られた超音波センサデータ170Aを処理するデータ処理部180とを備えている。
RGBセンサ部110が本開示の「第1センサ部」「画像センサ」の一具体例に相当する。データ処理部120が本開示の「第1処理部」の一具体例に相当する。制御部160が本開示の「制御部」の一具体例に相当する。超音波センサ部170が本開示の「第2センサ部」「超音波センサ」の一具体例に相当する。
データ処理部120は、画像データ120Aに含まれるターゲットTGを検出し、それにより、ターゲットTGの位置についての情報(ターゲット情報120C)を生成する。ターゲットTGは、超音波センサ部170による超音波照射対象である。ターゲット情報120Cは、例えば、ターゲットTGの、画像データ120A内での位置についての情報を含む。ターゲット情報120Cは、例えば、ターゲットTGの左上隅のXY座標、X方向の幅およびY方向の幅を含む。
ターゲットTGの検出には、例えば、パターンマッチングや、ニューラルネットワークなどの機械学習モデルが用いられ得る。データ処理部120は、例えば、ターゲットTGについての画像データ(以下、「ターゲット画像データ」と称する。)と、パターンマッチングを行うプログラムと、このプログラムを実行する実行部とを有している。このプログラムには、例えば、画像データ120Aに、ターゲット画像データに対応する特定のパターンが出現するか否か、さらに、どこに出現するかを特定し、特定した位置についての情報を出力するための一連の手順が含まれる。データ処理部120は、例えば、ニューラルネットワークを有している。このニューラルネットワークは、例えば、学習用の画像データと、学習用の画像データに含まれるターゲットTGの位置についての情報とを教示データとして学習した学習モデルである。このニューラルネットワークは、画像データ120Aが入力されると、入力された画像データ120Aに含まれるターゲットTGの位置についての情報を出力する。
データ処理部120は、生成したターゲット情報120Cと、照射基準位置IPの、画像データ120A内の位置についての情報(以下、「照射基準位置情報120D)とに基づいて、補正量Cを生成する。補正量Cが、本開示の「設定情報」の一具体例に相当する。照射基準位置IPは、超音波センサ部170の照射位置を初期設定値に設定したときに超音波が照射される領域の中心位置であり、例えば、RGBセンサ部110の撮像対象領域内に設定されている(図10参照)。照射基準位置IPの、画像データ120A内の位置は、例えば、照射基準位置IPに所定のマーカを設置した状態でRGBセンサ部110による撮像を行うことにより得られた画像データ120A内のマーカの座標を導出することにより得られる。図10には、照射基準位置IPの位置座標がX2,Y2となっており、ターゲットTGの左上隅のXY座標がX1,Y1となっている場合が例示されている。
データ処理部120は、画像データ120Aにおける、ターゲットTGの位置座標と、照射基準位置IPの座標との差分を取ることにより、補正量Cを生成する。データ処理部120は、例えば、ターゲットTGの左上隅のXY座標(X1,Y1)と、照射基準位置IPの座標(X2,Y2)との差分(X1-X2,Y1-Y2)を補正量Cとする。データ処理部120は、生成した補正量Cを制御部160に出力する。
制御部160は、例えば、超音波センサ部170を駆動するドライバと、超音波センサ部170から出射される超音波の出射方向を調整するマシンアクチュエータとを有している。制御部160は、補正量Cがデータ処理部120から入力された場合には、入力された補正量Cに基づいて、超音波センサ部170の超音波照射方向(センシング領域)を設定する。制御部160は、例えば、超音波センサ部170の照射位置の初期設定値(X0,Y0)に、補正量C(X1-X2,Y1-Y2)を加えることにより得られた設定値に基づいて、超音波センサ部170の超音波照射方向を設定する。制御部160は、向きが調整された超音波センサ部170に対して、超音波センサ部170を駆動する制御情報160Aを出力する。
超音波センサ部170は、制御部160から入力された制御情報160Aに基づいて、外部の所定の照射領域(センシング領域)に対して超音波を照射し、それにより照射領域から反射した反射波を受信する。超音波センサ部170の照射領域(センシング領域)は、RGBセンサ部110の撮像対象領域(センシング領域)内の一部分の領域に相当する。つまり、超音波センサ部170の照射領域(センシング領域)は、RGBセンサ部110の撮像対象領域(センシング領域)の一部だけと重なっている。超音波センサ部170は、受信により超音波センサデータ170Aを画素ごとに取得する。超音波センサ部170がm画素の受信素子を含んで構成されている場合、超音波センサ部170は、m画素分の超音波センサデータ170Aを取得する。超音波センサ部170は、取得したm画素分の超音波センサデータ170Aをデータ処理部180に出力する。
データ処理部180は、m画素分の超音波センサデータ170Aを処理し、それにより、距離データ180Aを生成する。データ処理部180は、例えば、m画素分の超音波センサデータ170Aを用いて、照射領域までの距離に対応する距離値を算出し、算出した距離値を画素値として格納した距離データ180Aを生成する。データ処理部180は、生成した距離データ180Aを外部に出力する。
[データ処理手順]
次に、情報処理システム300におけるデータ処理手順について説明する。図11は、情報処理システム300におけるデータ処理手順の一例を表したものである。
まず、RGBセンサ部110が、撮像対象領域を撮像し、それによりn画素分の画像センサデータ110Aを取得する(ステップS301)。RGBセンサ部110は、取得したn画素分の画像センサデータ110Aをデータ処理部120に出力する。
データ処理部120は、n画素分の画像センサデータ110Aを処理する(ステップS302)。具体的には、データ処理部120は、n画素分の画像センサデータ110Aを処理し、それにより、画像データ120Aを生成する。データ処理部120は、生成した画像データ120Aを外部に出力する(ステップS303)。データ処理部120は、生成した画像データ120Aに含まれるターゲットTGについての情報(ターゲット情報120C)を生成する。データ処理部120は、生成したターゲット情報120Cと、照射基準位置IPの、画像データ120A内の位置についての情報(以下、「照射基準位置情報120D)とに基づいて、補正量Cを生成する(ステップS304)。データ処理部120は、生成した補正量Cを制御部160に出力する。
制御部160は、入力された補正量Cに基づいて、超音波センサ部170の超音波照射方向を設定する(ステップS305)。制御部160は、向きが調整された超音波センサ部170に対して、超音波センサ部170を駆動する制御情報160Aを出力する。超音波センサ部170は、制御部160から入力された制御情報160Aに基づいて、外部の所定の領域(照射領域)に対して超音波を照射し、それによりm画素分の超音波センサデータ170Aを取得する(ステップS306)。超音波センサ部170は、取得したm画素分の超音波センサデータ170Aをデータ処理部180に出力する。
データ処理部180は、m画素分の超音波センサデータ170Aを処理する(ステップS307)。それにより、データ処理部180は、距離データ180Aを生成する。データ処理部180は、生成した距離データ180Aを外部に出力する(ステップS308)。このようにして、情報処理システム300におけるデータ処理が行われる。
[効果]
本実施の形態では、RGBセンサ部110の出力データに基づいて補正量Cが生成され、生成された補正量Cに基づいて超音波センサ部170の超音波照射方向が設定される。これにより、補正量Cを用いずに広範囲に超音波をスキャン走査する場合と比べて、少ない演算量で超音波センサ部170の超音波照射領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<5.第4の実施の形態>
[構成]
図12は、本開示の第4の実施の形態に係る情報処理システム400の概略構成例を表したものである。情報処理システム300は、2つのセンサを備えており、具体的には、偏光センサ部410および超音波センサ部170を備えている。情報処理システム400は、さらに、2つのデータ処理部を備えており、具体的には、データ処理部420,180を備えている。データ処理部420は、偏光センサ部410で得られた偏光センサデータ410Aを処理する。データ処理部180は、超音波センサ部170で得られた超音波センサデータ170Aを処理する。情報処理システム400は、さらに、超音波センサ部170を制御する制御部160を備えている。
偏光センサ部410が本開示の「第1センサ部」「画像センサ」の一具体例に相当する。データ処理部420が本開示の「第1処理部」の一具体例に相当する。制御部160が本開示の「制御部」の一具体例に相当する。超音波センサ部170が本開示の「第2センサ部」「超音波センサ」の一具体例に相当する。
偏光センサ部410は、偏光センサ(カメラ)である。偏光センサ部410は、外部の所定の領域を撮像対象領域(センシング領域)として撮像し、それにより偏光センサデータ410Aを画素ごとに取得する。偏光センサ部410は、取得したn画素分の偏光センサデータ410Aをデータ処理部420に出力する。
データ処理部420は、偏光センサ部410から入力されたn画素分の偏光センサデータ410Aを処理する。データ処理部420は、例えば、n画素分の偏光センサデータ410Aを処理し、それにより、偏光画像データ420Aを生成する。データ処理部420は、例えば、必要に応じて、画像データ420Aに対して所定の画像処理(例えば、ガンマ補正やホワイトバランス補正など)を行ってもよい。データ処理部420は、生成した偏光画像データ420Aを外部に出力する。
データ処理部420は、偏光画像データ420Aに対して1または複数の領域を設定する。この場合、偏光画像データ420Aに対して設定される領域は、ROIと呼ばれる。以下では、偏光画像データ420Aに対して設定される領域を「ROI」と称する。また、ROIについての情報を「ROI情報420B」と称する。ROI情報420Bは、例えば、偏光画像データ420Aに対して設定される1または複数のROIの、偏光画像データ420A内での位置についての情報を含む。そのような情報には、例えば、ROIの左上隅のXY座標、ROIのX方向の幅、ROIのY方向の幅などが含まれる。ROIの設定には、例えば、パターンマッチングや、ニューラルネットワークなどの機械学習モデルが用いられ得る。偏光画像データ420Aに対して設定されるROIの対象としては、例えば、ガラスや鏡上の傷や、指紋などの汚れなどが挙げられる。
データ処理部420は、偏光画像データ420Aに対して1または複数のROIを設定し、設定した1または複数のROIについてのROI情報420Bを生成する。データ処理部420は、生成したROI情報420Bと、照射基準位置IPの、偏光画像データ420A内の位置についての情報(以下、「照射基準位置情報420D)とに基づいて、補正量Cを生成する。補正量Cが、本開示の「設定情報」の一具体例に相当する。照射基準位置IPは、超音波センサ部170の照射位置を初期設定値に設定したときに超音波が照射される領域の中心位置であり、例えば、偏光センサ部410の撮像対象領域内に設定されている。照射基準位置IPの、偏光画像データ420A内の位置は、例えば、照射基準位置IPに所定のマーカを設置した状態で偏光センサ部410による撮像を行うことにより得られた偏光画像データ420A内のマーカの座標を導出することにより得られる。
データ処理部420は、ROI情報420Bと、照射基準位置IPの座標とに基づいて補正量Cを生成する。データ処理部420は、例えば、偏光画像データ420Aにおける、所定のROIの位置座標と、照射基準位置IPの座標との差分を取ることにより、補正量Cを生成する。データ処理部120は、例えば、所定のROIの左上隅のXY座標(X1,Y1)と、照射基準位置IPの座標(X2,Y2)との差分(X1-X2,Y1-Y2)を補正量Cとする。データ処理部420は、生成した補正量Cを制御部160に出力する。
制御部160は、例えば、超音波センサ部170を駆動するドライバと、超音波センサ部170から出射される超音波の出射方向を調整するマシンアクチュエータとを有している。制御部160は、補正量Cがデータ処理部120から入力された場合には、入力された補正量Cに基づいて、超音波センサ部170の超音波照射方向(センシング領域)を設定する。制御部160は、例えば、超音波センサ部170の照射位置の初期設定値(X0,Y0)に、補正量C(X1-X2,Y1-Y2)を加えることにより得られた設定値に基づいて、超音波センサ部170の超音波照射方向を設定する。制御部160は、向きが調整された超音波センサ部170に対して、超音波センサ部170を駆動する制御情報160Aを出力する。
超音波センサ部170は、制御部160から入力された制御情報160Aに基づいて、外部の所定の照射領域(センシング領域)に対して超音波を照射し、それにより照射領域から反射した反射波を受信する。超音波センサ部170の照射領域(センシング領域)は、偏光センサ部410の撮像対象領域内の一部分の領域に相当する。つまり、超音波センサ部170の照射領域(センシング領域)は、偏光センサ部410の撮像対象領域(センシング領域)の一部だけと重なっている。超音波センサ部170は、受信により超音波センサデータ170Aを画素ごとに取得する。超音波センサ部170がm画素の受信素子を含んで構成されている場合、超音波センサ部170は、m画素分の超音波センサデータ170Aを取得する。超音波センサ部170は、取得したm画素分の超音波センサデータ170Aをデータ処理部180に出力する。
データ処理部180は、m画素分の超音波センサデータ170Aを処理し、それにより、距離データ180Aを生成する。データ処理部180は、例えば、m画素分の超音波センサデータ170Aを用いて、照射領域までの距離に対応する距離値を算出し、算出した距離値を画素値として格納した距離データ180Aを生成する。データ処理部180は、生成した距離データ180Aを外部に出力する。なお、偏光画像データ420Aに対して設定されるROIの対象がガラスや鏡上の傷や、指紋などの汚れである場合には、距離データ180Aに含まれる距離値は、超音波センサ部170からガラスや鏡までの距離に相当する。
[データ処理手順]
次に、情報処理システム400におけるデータ処理手順について説明する。図13は、情報処理システム400におけるデータ処理手順の一例を表したものである。
まず、偏光センサ部410が、撮像対象領域を撮像し、それによりn画素分の偏光センサデータ410Aを取得する(ステップS401)。偏光センサ部410は、取得したn画素分の偏光センサデータ410Aをデータ処理部420に出力する。
データ処理部420は、n画素分の偏光センサデータ410Aを処理する(ステップS402)。具体的には、データ処理部420は、n画素分の偏光センサデータ410Aを処理し、それにより、偏光画像データ420Aを生成する。データ処理部420は、生成した偏光画像データ420Aを外部に出力する(ステップS403)。データ処理部420は、生成した偏光画像データ420Aに含まれる1または複数のROIについてのROI情報420Bを生成する。データ処理部420は、ROI情報420Bと、照射基準位置IPの座標とに基づいて補正量Cを生成する(ステップS404)。データ処理部420は、生成した補正量Cを制御部160に出力する。
制御部160は、入力された補正量Cに基づいて、超音波センサ部170の超音波照射方向を設定する(ステップS405)。制御部160は、向きが調整された超音波センサ部170に対して、超音波センサ部170を駆動する制御情報160Aを出力する。超音波センサ部170は、制御部160から入力された制御情報160Aに基づいて、外部の所定の照射領域(センシング領域)に対して超音波を照射し、それによりm画素分の超音波センサデータ170Aを取得する(ステップS406)。超音波センサ部170は、取得したm画素分の超音波センサデータ170Aをデータ処理部180に出力する。
データ処理部180は、m画素分の超音波センサデータ170Aを処理する(ステップS407)。それにより、データ処理部180は、距離データ180Aを生成する。データ処理部180は、生成した距離データ180Aを外部に出力する(ステップS408)。このようにして、情報処理システム400におけるデータ処理が行われる。
[効果]
本実施の形態では、偏光センサ部410の出力データに基づいて補正量Cが生成され、生成された補正量Cに基づいて超音波センサ部170の超音波照射方向が設定される。これにより、補正量Cを用いずに広範囲に超音波をスキャン走査する場合と比べて、少ない演算量で超音波センサ部170の超音波照射領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
ところで、RGBセンサなどでは、例えば、図14(A)に示したように、ガラスや鏡を検出することが難しい。しかし、本実施の形態では、偏光センサ部410が用いられるので、偏光画像データ420Aに対して設定されるROIの対象を、例えば、図14(B)に示したように、ガラスや鏡上の傷や、指紋などの汚れに対するものとすることにより、RGBセンサなどでは識別が難しいガラスまでの距離を精度良く計測することができる。
<6.第5の実施の形態>
[構成]
図15は、本開示の第5の実施の形態に係る情報処理システム500の概略構成例を表したものである。情報処理システム500は、2つのセンサを備えており、具体的には、デプスセンサ部510およびドップラーセンサ部540を備えている。情報処理システム500は、さらに、デプスセンサ部510で得られたデプスセンサデータ130Aを処理するデータ処理部520と、ドップラーセンサ部540を制御する制御部530と、ドップラーセンサ部540で得られたドップラーセンサデータ540Aを処理するデータ処理部550とを備えている。
デプスセンサ部510が本開示の「第1センサ部」「画像センサ」の一具体例に相当する。データ処理部520が本開示の「第1処理部」の一具体例に相当する。制御部530が本開示の「制御部」の一具体例に相当する。ドップラーセンサ部540が本開示の「第2センサ部」の一具体例に相当する。
デプスセンサ部510は、外部の所定の照射領域(センシング領域)に対して光を照射し、それにより照射領域から反射した反射光を受光する。デプスセンサ部510は、受光によりデプスセンサデータ510Aを画素ごとに取得する。デプスセンサ部510がm画素の受光素子を含んで構成されている場合、デプスセンサ部510は、m画素分のデプスセンサデータ510Aを取得する。デプスセンサ部510は、取得したm画素分のデプスセンサデータ510Aをデータ処理部520に出力する。
データ処理部520は、n画素分のデプスセンサデータ510Aを処理し、それにより、デプスデータ520Aを生成する。データ処理部520は、例えば、n画素分のデプスセンサデータ510Aを用いて、照射領域までの距離に対応するデプス値を算出し、算出したデプス値を画素値として格納したデプスデータ520Aを生成する。データ処理部520は、生成したデプスデータ520Aを外部に出力する。
データ処理部520は、デプスデータ520Aに含まれるターゲットTGを検出し、それにより、ターゲットTGの位置についての情報(ターゲット情報520C)を生成する。ターゲットTGは、ドップラーセンサ部540によるマイクロ波照射対象である。ターゲット情報520Cは、例えば、ターゲットTGの、デプスデータ520A内での位置についての情報を含む。ターゲット情報520Cは、例えば、ターゲットTGの左上隅のXY座標、X方向の幅およびY方向の幅を含む。データ処理部520は、例えば、デプスデータ520Aに含まれる、デプスセンサ部510の視点に対する法線面を検出し、それにより検出された法線面をターゲットTGとする。
データ処理部520は、生成したターゲット情報520Cと、照射基準位置IPの、デプスデータ520A内の位置についての情報(以下、「照射基準位置情報520D)とに基づいて、補正量Cを生成する。補正量Cが、本開示の「設定情報」の一具体例に相当する。照射基準位置IPは、ドップラーセンサ部540のマイクロ波照射位置を初期設定値に設定したときにマイクロ波が照射される領域の中心位置であり、例えば、デプスセンサ部510の撮像対象領域内に設定されている(図16参照)。照射基準位置IPの、デプスデータ520A内の位置は、例えば、照射基準位置IPに所定のマーカを設置した状態でデプスセンサ部510による撮像を行うことにより得られたデプスデータ520A内のマーカの座標を導出することにより得られる。図16には、照射基準位置IPの位置座標がX2,Y2となっており、ターゲットTGの左上隅のXY座標がX1,Y1となっている場合が例示されている。
データ処理部520は、デプスデータ520Aにおける、ターゲットTGの位置座標と、照射基準位置IPの座標との差分を取ることにより、補正量Cを生成する。データ処理部520は、例えば、ターゲットTGの左上隅のXY座標(X1,Y1)と、照射基準位置IPの座標(X2,Y2)との差分(X1-X2,Y1-Y2)を補正量Cとする。データ処理部520は、生成した補正量Cを制御部530に出力する。
制御部530は、例えば、ドップラーセンサ部540を駆動するドライバと、ドップラーセンサ部540から出射されるマイクロ波の出射方向を調整するマシンアクチュエータとを有している。制御部530は、補正量Cがデータ処理部520から入力された場合には、入力された補正量Cに基づいて、ドップラーセンサ部540のマイクロ波照射方向(センシング領域)を設定する。制御部530は、例えば、ドップラーセンサ部540の照射位置の初期設定値(X0,Y0)に、補正量C(X1-X2,Y1-Y2)を加えることにより得られた設定値に基づいて、ドップラーセンサ部540のマイクロ波照射方向を設定する。制御部530は、向きが調整されたドップラーセンサ部540に対して、ドップラーセンサ部540を駆動する制御情報530Aを出力する。
ドップラーセンサ部540は、制御部530から入力された制御情報530Aに基づいて、外部の所定の照射領域(センシング領域)に対してマイクロ波を照射し、それにより照射領域から反射した反射波を受信する。ドップラーセンサ部540の照射領域(センシング領域)は、デプスセンサ部510の撮像対象領域内の一部分の領域に相当する。つまり、ドップラーセンサ部540の照射領域(センシング領域)は、デプスセンサ部510の撮像対象領域(センシング領域)の一部だけと重なっている。ドップラーセンサ部540は、発射した周波数と受信した周波数の差についてのドップラーセンサデータ540Aを画素ごとに取得する。ドップラーセンサ部540がm画素の受信素子を含んで構成されている場合、ドップラーセンサ部540は、m画素分のドップラーセンサデータ540Aを取得する。ドップラーセンサ部540は、取得したm画素分のドップラーセンサデータ540Aをデータ処理部550に出力する。
データ処理部550は、m画素分のドップラーセンサデータ540Aを処理し、それにより、速度データ550Aを生成する。データ処理部550は、例えば、m画素分のドップラーセンサデータ540Aを用いて、ターゲットTGの速度値を算出し、算出した速度値を画素値として格納した速度データ550Aを生成する。データ処理部550は、生成した速度データ550Aを外部に出力する。
[データ処理手順]
次に、情報処理システム500におけるデータ処理手順について説明する。図17は、情報処理システム500におけるデータ処理手順の一例を表したものである。
まず、デプスセンサ部510が、撮像対象領域を撮像し、それによりn画素分のデプスセンサデータ510Aを取得する(ステップS501)。デプスセンサ部510は、取得したn画素分のデプスセンサデータ510Aをデータ処理部520に出力する。
データ処理部520は、n画素分のデプスセンサデータ510Aを処理する(ステップS502)。具体的には、データ処理部520は、n画素分のデプスセンサデータ510Aを処理し、それにより、デプスデータ520Aを生成する。データ処理部520は、生成した画像データ120Aを外部に出力する(ステップS303)。データ処理部120は、生成したデプスデータ520Aに含まれるターゲットTGについての情報(ターゲット情報520C)を生成する。データ処理部520は、生成したターゲット情報520Cと、照射基準位置IPの、デプスデータ520A内の位置についての情報(以下、「照射基準位置情報520D)とに基づいて、補正量Cを生成する(ステップS504)。データ処理部520は、生成した補正量Cを制御部530に出力する。
制御部530は、入力された補正量Cに基づいて、ドップラーセンサ部540のマイクロ波照射方向を設定する(ステップS505)。制御部530は、向きが調整されたドップラーセンサ部540に対して、ドップラーセンサ部540を駆動する制御情報530Aを出力する。ドップラーセンサ部540は、制御部530から入力された制御情報530Aに基づいて、外部の所定の照射領域(センシング領域)に対してマイクロ波を照射し、それによりm画素分のドップラーセンサデータ540Aを取得する(ステップS506)。ドップラーセンサ部540、取得したm画素分のドップラーセンサデータ540Aをデータ処理部550に出力する。
データ処理部550は、m画素分のドップラーセンサデータ540Aを処理する(ステップS507)。それにより、データ処理部550は、速度データ550Aを生成する。データ処理部550は、生成した速度データ550Aを外部に出力する(ステップS508)。このようにして、情報処理システム500におけるデータ処理が行われる。
[効果]
本実施の形態では、デプスセンサ部510の出力データに基づいて補正量Cが生成され、生成された補正量Cに基づいてドップラーセンサ部540のマイクロ波照射方向が設定される。これにより、補正量Cを用いずに広範囲にマイクロ波を照射する場合と比べて、少ない演算量でドップラーセンサ部540のマイクロ波照射領域を設定することができる。また、ドップラーセンサ部540の照射領域を狭くすることで、ドップラ波密度が高くなり、センシング精度が向上する。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<7.第6の実施の形態>
図18は、本開示の第6の実施の形態に係る情報処理システム600の概略構成例を表したものである。情報処理システム600は、3つのセンサを備えており、具体的には、RGBセンサ部110、デプスセンサ部130および熱画像センサ部610を備えている。情報処理システム600は、さらに、3つのデータ処理部を備えており、具体的には、データ処理部120,140,620を備えている。データ処理部620は、熱画像センサ部610で得られた熱画像センサデータ610Aを処理する。
熱画像センサ部610は、例えば、サーモアレイセンサ(サーモグラフィ)である。熱画像センサ部610は、外部の所定の領域を撮像対象領域(センシング領域)として撮像し、それにより熱画像センサデータ610Aを画素ごとに取得する。熱画像センサ部610は、取得したn画素分の熱画像センサデータ610Aをデータ処理部620に出力する。データ処理部120は、生成したROI情報120Bをデータ処理部140,620に出力する。
データ処理部620は、ROI情報120Bがデータ処理部120から入力された場合には、入力されたROI情報120Bに基づいて、n画素分の熱画像センサデータ610Aを処理し、それにより、熱画像データ620Aを生成する。データ処理部620は、例えば、n画素分の熱画像センサデータ610Aの中から、ROI情報120Bに対応する画素のデータだけを選択的に抽出する。データ処理部620は、例えば、抽出したデータを用いて、熱画像データ620Aを生成する。このとき、熱画像データ620Aにおいて、ROI情報120Bに対応する画素以外の画素(つまり、ROI情報120Bに非対応の画素)に対応する値は規定の値(例えば、データ無しを意味する数値)となっている。データ処理部620は、生成した熱画像データ620Aを外部に出力する。
本実施の形態では、RGBセンサ部110の出力データに基づいてROI情報120Bが生成され、生成されたROI情報120Bに基づいてデプスセンサ部130および熱画像センサ部610の出力の処理領域が設定される。これにより、ROI情報120Bを用いずにデプスセンサ部130および熱画像センサ部610の出力を処理する場合と比べて、少ない演算量でデプスセンサ部130および熱画像センサ部610の出力の処理領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<8.第7の実施の形態>
図19は、本開示の第7の実施の形態に係る情報処理システム700の概略構成例を表したものである。情報処理システム700は、3つのセンサを備えており、具体的には、RGBセンサ部110、デプスセンサ部130および超音波センサ部170を備えている。情報処理システム700は、さらに、3つのデータ処理部を備えており、具体的には、データ処理部120,140,180を備えている。データ処理部120は、生成したROI情報120Bをデータ処理部140に出力する。データ処理部120は、さらに、生成した補正量Cをデータ処理部160に出力する。
本実施の形態では、RGBセンサ部110の出力データに基づいてROI情報120Bが生成され、生成されたROI情報120Bに基づいてデプスセンサ部130の出力の処理領域が設定される。本実施の形態では、さらに、RGBセンサ部110の出力データに基づいて補正量Cが生成され、生成された補正量Cに基づいて超音波センサ部170の超音波照射方向が設定される。これにより、ROI情報120Bを用いずにデプスセンサ部130の出力を処理する場合と比べて、少ない演算量でデプスセンサ部130の出力の処理領域を設定することができる。さらに、補正量Cを用いずに広範囲に超音波をスキャン走査する場合と比べて、少ない演算量で超音波センサ部170の超音波照射領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
<9.第8の実施の形態>
図20は、本開示の第8の実施の形態に係る情報処理システム800の概略構成例を表したものである。情報処理システム800は、3つのセンサを備えており、具体的には、RGBセンサ部110、熱画像センサ部210および超音波センサ部170を備えている。情報処理システム800は、さらに、3つのデータ処理部を備えており、具体的には、データ処理部120,220,180を備えている。データ処理部120は、生成したROI情報120Bをデータ処理部220に出力する。データ処理部220は、さらに、生成した補正量Cを制御部160に出力する。
本実施の形態では、RGBセンサ部110の出力データに基づいてROI情報120Bが生成され、生成されたROI情報120Bに基づいて熱画像センサ部210の出力の処理領域が設定される。本実施の形態では、さらに、熱画像センサ部210の出力データに基づいて補正量Cが生成され、生成された補正量Cに基づいて超音波センサ部170の超音波照射方向が設定される。これにより、ROI情報120Bを用いずに熱画像センサ部210の出力を処理する場合と比べて、少ない演算量で熱画像センサ部210の出力の処理領域を設定することができる。さらに、補正量Cを用いずに広範囲に超音波をスキャン走査する場合と比べて、少ない演算量で超音波センサ部170の超音波照射領域を設定することができる。また、データ処理時間や、電力消費量を低減することもでき、データ処理の間にデータを保持するために必要なメモリリソースを削減することもできる。
以上、実施の形態およびその変形例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々変形が可能である。なお、本明細書中に記載された効果は、あくまで例示である。本開示の効果は、本明細書中に記載された効果に限定されるものではない。本開示が、本明細書中に記載された効果以外の効果を持っていてもよい。
また、例えば、本開示は以下のような構成を取ることができる。
(1)
第1センサ部と、
前記第1センサ部から得られた第1センサデータを処理する第1処理部と、
第2センサ部と、
前記第2センサ部から得られた第2センサデータを処理する第2処理部と
を備え、
前記第1処理部は、前記第1センサデータに基づいて、前記第2処理部によって処理する前記第2センサデータの処理領域を設定するための設定情報を生成し、
前記第2処理部は、前記設定情報に基づいて、当該第2処理部によって処理する前記第2センサデータの処理領域を設定する
情報処理システム。
(2)
前記第1処理部は、前記第1センサデータに含まれる1または複数のROI(Region Of Interest)についての情報を前記設定情報とする
(1)に記載の情報処理システム。
(3)
前記第1センサ部のセンシング領域と、前記第2センサ部のセンシング領域との間にオフセットもしくは縮尺の相違が存在しており、
前記第1処理部は、前記第1センサデータに含まれる1または複数のROI(Region Of Interest)に対して、前記オフセットもしくは前記縮尺の相違に対応する補正を行うことにより得られた情報を前記設定情報とする
(1)に記載の情報処理システム。
(4)
前記第1センサ部は、画像センサであり、
前記第2センサ部は、デプスセンサである
(1)ないし(3)のいずれか1つに記載の情報処理システム。
(5)
前記デプスセンサは、ステレオカメラ、レーダー、LiDAR、超音波センサ、またはToFセンサである
(4)に記載の情報処理システム。
(6)
前記第1処理部は、パターンマッチングにより、前記第1センサデータに含まれる前記1または複数のROIを設定する
(2)に記載の情報処理システム。
(7)
前記第1処理部は、ニューラルネットワークを用いることにより、前記第1センサデータに含まれる前記1または複数のROIを設定する
(2)に記載の情報処理システム。
(8)
第3センサ部と、
前記第3センサ部から得られた第3センサデータを処理する第3処理部と
を更に備え、
前記第3処理部は、前記設定情報に基づいて、当該第3処理部によって処理する前記第3センサデータの処理領域を設定する
(1)ないし(7)のいずれか1つに記載の情報処理システム。
(9)
第1センサ部と、
前記第1センサ部から得られた第1センサデータを処理する第1処理部と、
第2センサ部と、
前記第2センサ部を制御する制御部と
を備え、
前記第1処理部は、前記第1センサデータに基づいて、前記第2センサ部のセンシング領域を設定するための設定情報を生成し、
前記制御部は、前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定する
情報処理システム。
(10)
前記第1処理部は、前記第1センサデータに含まれる、前記第2センサ部のターゲットについての情報と、前記第2センサ部の照射基準についての情報とに基づいて、前記設定情報を生成する
(9)に記載の情報処理システム。
(11)
前記第2センサ部のセンシング領域は、前記第1センサ部のセンシング領域の一部だけと重なっている
(9)または(10)に記載の情報処理システム。
(12)
前記第1センサ部は、画像センサであり、
前記第2センサ部は、超音波センサまたはドップラーセンサである
(9)ないし(11)のいずれか1つに記載の情報処理システム。
(13)
第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成する生成部と、
前記設定情報に基づいて、前記第2センサデータの処理領域を設定する設定部と
を備えた
情報処理装置。
(14)
第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成する生成部と、
前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定する設定部と
を備えた
情報処理装置。
(15)
第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成することと、
前記設定情報に基づいて、前記第2センサデータの処理領域を設定することと
を含む
情報処理方法。
(16)
第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成することと、
前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定することと
を含む
情報処理方法。
本開示の第1の側面に係る情報処理システムでは、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
本開示の第2の側面に係る情報処理システムでは、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
本開示の第3の側面に係る情報処理装置では、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
本開示の第4の側面に係る情報処理装置では、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
本開示の第5の側面に係る情報処理方法では、第1センサ部から得られた第1センサデータに基づいて、第2処理部によって処理する第2センサデータの処理領域が設定される。これにより、第1センサデータを用いずに第2センサ部の出力を処理する場合と比べて、少ない演算量で第2センサ部の出力の処理領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
本開示の第6の側面に係る情報処理方法では、第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域が設定される。これにより、第1センサデータを用いずに広範囲に第2センサ部をセンシングさせた場合と比べて、少ない演算量で第2センサ部のセンシング領域を設定することができる。その結果、演算量を低減することが可能な情報処理システムを提供することができる。
100,200,300,400,500,600,700,800…情報処理システム、110…RGBセンサ部、110A…画像センサデータ、120,140,180,220,420,520,550,620…データ処理部、120A…画像データ、130…デプスセンサ部、130A…デプスセンサデータ、140…データ処理部、140A…デプスデータ、150…メモリ部、160,530…制御部、160A…制御情報、170…超音波センサ部、170A…超音波センサデータ、210,610…熱画像センサ部、410…偏光センサ部、510…デプスセンサ部、540…ドップラーセンサ部。

Claims (16)

  1. 第1センサ部と、
    前記第1センサ部から得られた第1センサデータを処理する第1処理部と、
    第2センサ部と、
    前記第2センサ部から得られた第2センサデータを処理する第2処理部と
    を備え、
    前記第1処理部は、前記第1センサデータに基づいて、前記第2処理部によって処理する前記第2センサデータの処理領域を設定するための設定情報を生成し、
    前記第2処理部は、前記設定情報に基づいて、当該第2処理部によって処理する前記第2センサデータの処理領域を設定する
    情報処理システム。
  2. 前記第1処理部は、前記第1センサデータに含まれる1または複数のROI(Region Of Interest)についての情報を前記設定情報とする
    請求項1に記載の情報処理システム。
  3. 前記第1センサ部のセンシング領域と、前記第2センサ部のセンシング領域との間にオフセットもしくは縮尺の相違が存在しており、
    前記第1処理部は、前記第1センサデータに含まれる1または複数のROI(Region Of Interest)に対して、前記オフセットもしくは前記縮尺の相違に対応する補正を行うことにより得られた情報を前記設定情報とする
    請求項1に記載の情報処理システム。
  4. 前記第1センサ部は、画像センサであり、
    前記第2センサ部は、デプスセンサである
    請求項1に記載の情報処理システム。
  5. 前記デプスセンサは、ステレオカメラ、レーダー、LiDAR、超音波センサ、またはToFセンサである
    請求項4に記載の情報処理システム。
  6. 前記第1処理部は、パターンマッチングにより、前記第1センサデータに含まれる前記1または複数のROIを設定する
    請求項2に記載の情報処理システム。
  7. 前記第1処理部は、ニューラルネットワークを用いることにより、前記第1センサデータに含まれる前記1または複数のROIを設定する
    請求項2に記載の情報処理システム。
  8. 第3センサ部と、
    前記第3センサ部から得られた第3センサデータを処理する第3処理部と
    を更に備え、
    前記第3処理部は、前記設定情報に基づいて、当該第3処理部によって処理する前記第3センサデータの処理領域を設定する
    請求項1に記載の情報処理システム。
  9. 第1センサ部と、
    前記第1センサ部から得られた第1センサデータを処理する第1処理部と、
    第2センサ部と、
    前記第2センサ部を制御する制御部と
    を備え、
    前記第1処理部は、前記第1センサデータに基づいて、前記第2センサ部のセンシング領域を設定するための設定情報を生成し、
    前記制御部は、前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定する
    情報処理システム。
  10. 前記第1処理部は、前記第1センサデータに含まれる、前記第2センサ部のターゲットについての情報と、前記第2センサ部の照射基準についての情報とに基づいて、前記設定情報を生成する
    請求項9に記載の情報処理システム。
  11. 前記第2センサ部のセンシング領域は、前記第1センサ部のセンシング領域の一部だけと重なっている
    請求項9に記載の情報処理システム。
  12. 前記第1センサ部は、画像センサであり、
    前記第2センサ部は、超音波センサまたはドップラーセンサである
    請求項11に記載の情報処理システム。
  13. 第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成する生成部と、
    前記設定情報に基づいて、前記第2センサデータの処理領域を設定する設定部と
    を備えた
    情報処理装置。
  14. 第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成する生成部と、
    前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定する設定部と
    を備えた
    情報処理装置。
  15. 第1センサ部から得られた第1センサデータに基づいて、第2センサ部から得られた第2センサデータの処理領域を設定するための設定情報を生成することと、
    前記設定情報に基づいて、前記第2センサデータの処理領域を設定することと
    を含む
    情報処理方法。
  16. 第1センサ部から得られた第1センサデータに基づいて、第2センサ部のセンシング領域を設定するための設定情報を生成することと、
    前記設定情報に基づいて、前記第2センサ部のセンシング領域を設定することと
    を含む
    情報処理方法。
JP2021066052A 2021-04-08 2021-04-08 情報処理システム、情報処理装置および情報処理方法 Pending JP2022161328A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021066052A JP2022161328A (ja) 2021-04-08 2021-04-08 情報処理システム、情報処理装置および情報処理方法
PCT/JP2022/002933 WO2022215323A1 (ja) 2021-04-08 2022-01-26 情報処理システム、情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021066052A JP2022161328A (ja) 2021-04-08 2021-04-08 情報処理システム、情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2022161328A true JP2022161328A (ja) 2022-10-21

Family

ID=83546266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021066052A Pending JP2022161328A (ja) 2021-04-08 2021-04-08 情報処理システム、情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP2022161328A (ja)
WO (1) WO2022215323A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653216B2 (en) * 2003-12-23 2010-01-26 Carnegie Mellon University Polyhedron recognition system
JP5177515B2 (ja) * 2008-06-02 2013-04-03 アイシン精機株式会社 周辺認知支援システム
JP2010020710A (ja) * 2008-07-14 2010-01-28 Mazda Motor Corp 路側固定物検出装置
JP5491242B2 (ja) * 2010-03-19 2014-05-14 本田技研工業株式会社 車両周辺監視装置
JP2012027773A (ja) * 2010-07-26 2012-02-09 Toyota Central R&D Labs Inc 擬似濃淡画像生成装置及びプログラム
JP6587898B2 (ja) * 2015-10-22 2019-10-09 株式会社神戸製鋼所 建設機械の干渉防止装置
EP3804924A4 (en) * 2018-06-11 2021-08-04 Panasonic Intellectual Property Management Co., Ltd. DISTANCE MEASURING SYSTEM AND DISTANCE MEASURING METHOD

Also Published As

Publication number Publication date
WO2022215323A1 (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
CN111191600B (zh) 障碍物检测方法、装置、计算机设备和存储介质
JP6825569B2 (ja) 信号処理装置、信号処理方法、およびプログラム
KR101766603B1 (ko) 화상 처리 장치, 화상 처리 시스템, 화상 처리 방법, 및 컴퓨터 프로그램
EP3653989B1 (en) Imaging device and monitoring device
CN108377380B (zh) 影像扫描系统及其方法
US8508527B2 (en) Apparatus and method of building map for mobile robot
EP1942313A2 (en) Apparatus and method of measuring distance using structured light
EP3432033B1 (en) Object detection device, object detection method, and program
JP2015049200A (ja) 計測装置、方法及びプログラム
CN112017248A (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
WO2022215323A1 (ja) 情報処理システム、情報処理装置および情報処理方法
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
WO2023162730A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP7300331B2 (ja) 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
WO2022195954A1 (ja) センシングシステム
CN112712476B (zh) 用于tof测距的去噪方法及装置、tof相机
US11393185B2 (en) Monitoring device
US20240094740A1 (en) Driving robot generating driving map and controlling method thereof
WO2024063133A1 (ja) 物体検知方法、プログラム、及び物体検知システム
CN111830517B (zh) 调整激光雷达扫描范围的方法、装置及电子设备
WO2023242903A1 (ja) 物体検出装置
Mosed et al. Orientation Correction of Kinect’s 3D Depth Data for Mapping
CN115429158A (zh) 扫地机初始清扫区域确定方法、装置、计算机设备及介质
CN110913255A (zh) 可镭射出虚拟键盘的遥控器及其控制方法