JP7402121B2 - 物体検出システムおよび物体検出方法 - Google Patents

物体検出システムおよび物体検出方法 Download PDF

Info

Publication number
JP7402121B2
JP7402121B2 JP2020095817A JP2020095817A JP7402121B2 JP 7402121 B2 JP7402121 B2 JP 7402121B2 JP 2020095817 A JP2020095817 A JP 2020095817A JP 2020095817 A JP2020095817 A JP 2020095817A JP 7402121 B2 JP7402121 B2 JP 7402121B2
Authority
JP
Japan
Prior art keywords
sensor
space
size
model
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020095817A
Other languages
English (en)
Other versions
JP2021189866A (ja
Inventor
佑人 小松
シャルル リマサンチェス
雄一 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020095817A priority Critical patent/JP7402121B2/ja
Publication of JP2021189866A publication Critical patent/JP2021189866A/ja
Application granted granted Critical
Publication of JP7402121B2 publication Critical patent/JP7402121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、概して、環境に応じた物体を検出するモデルの選定に関する。
近年、各種のシステムにおいて、物体を検出(物体検出)する技術として、深層学習により学習された物体を検出するモデルが用いられている。
滞在状況を表示するシステムにおいては、施設内の各エリアでの人物の滞在状況に関する情報として、人物が滞在するエリアに応じた適切な内容の情報をユーザに提示できるようにする技術が開示されている(特許文献1参照)。
特開2018-181221号公報
近時、センサを備えるエッジデバイスが多種類設置されているマルチモーダルの環境において、当該環境に適したセンサで取得したデータを用いて物体認識したいというニーズがある。
これまでは、一般的に、センサごとに、深層学習が行われた物体を検出するモデル生成されていた。この点は、特許文献1に記載の技術も同様である。しかしながら、マルチモーダルの環境においては、複数の物体を検出するモデルが存在するため、当該環境における物体検出に最適な物体を検出するモデルの選定が困難となっている。
本発明は、以上の点を考慮してなされたもので、所定の空間の環境における物体検出に最適なセンサを選定し得る物体検出システム等を提案しようとするものである。
かかる課題を解決するため本発明においては、所定の空間に設けられている複数のセンサの少なくとも1つのセンサで取得された前記所定の空間の環境を示す環境情報を取得する取得部と、前記取得部により取得された環境情報をもとに、前記複数のセンサの中から、前記所定の空間の環境における物体検出に最適なセンサを選定する選定部と、前記選定部により選定されたセンサで取得されたデータと前記センサの物体を検出するモデルとを用いて物体検出する検出部と、を設けるようにした。
上記構成では、所定の空間に設けられているセンサの中から、所定の空間の環境に最適なセンサが選定されるので、例えば、所定の空間における物体検出を精度よく行うことができる。
本発明によれば、物体検出の精度がよい物体検出システムを実現することができる。
第1の実施の形態による物体検出システムに係る構成の一例を示す図である。 第1の実施の形態によるサーバ装置のハードウェア構成に係る一例を示す図である。 第1の実施の形態によるサーバ装置のソフトウェア構成に係る一例を示す図である。 第1の実施の形態による条件情報の一例を示す図である。 第1の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第1の実施の形態によるモデルの利用に係る処理の一例を示す図である。 第2の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第2の実施の形態によるモデルの利用態様の一例を示す図である。 第2の実施の形態によるモデルの利用態様の一例を示す図である。 第2の実施の形態によるモデルの利用態様の一例を示す図である。 第3の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第4の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第5の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第6の実施の形態によるモデルの生成に係る処理の一例を示す図である。 第7の実施の形態によるモデルの生成に係る処理の一例を示す図である。
(1)第1の実施の形態
以下、本発明の実施形態を図面に基づいて説明する。ただし、本発明は、実施の形態に限定されるものではない。
なお、以下の説明では、同種の要素を区別しないで説明する場合には、枝番を含む参照符号のうちの共通部分(枝番を除く部分)を使用し、同種の要素を区別して説明する場合は、枝番を含む参照符号を使用することがある。例えば、センサを特に区別しないで説明する場合には、「センサ131」と記載し、個々のセンサを区別して説明する場合には、「第1のセンサ131-1」、「第2のセンサ131-2」のように記載することがある。
図1において、100は、全体として第1の実施の形態による物体検出システムを示す。図1は、物体検出システム100に係る構成の一例を示す図である。
物体検出システム100は、サーバ装置110と、クライアント端末120とを備える。サーバ装置110とクライアント端末120とは、通信可能に接続される。サーバ装置110には、部屋、荷台、イベント会場といった所定の空間130にある複数のセンサ131が直接または通信媒体を介して接続される。なお、通信媒体の構成は、必ずしも限定されない。通信媒体は、例えば、USB(Universal Serial Bus)、RS-232C等の各種の通信規格に準拠した通信媒体、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、専用線等である。
サーバ装置110は、空間130の環境(以下、「現場の環境」と記す)における物体検出に最適なセンサ131を選定する。サーバ装置110は、選定したセンサ131のデータおよびセンサ131の物体を検出するモデル(以下、「モデル」と記す)を用いて物体検出を行う。サーバ装置110は、物体検出に係る結果(検出結果)をクライアント端末120に送信する。
モデルは、例えば、既に生成されているモデルであってもよい。この場合、既存のモデルの中から、現場の環境における物体検出に最適なモデルが選定されて物体検出が行われる。また、例えば、モデルは、後述のモデル生成処理により生成されたモデルであってもよい。モデル生成処理では、選定されたセンサ131の学習データが用いられて、深層学習(ディープラーニング)によりモデルが生成される。
クライアント端末120は、サーバ装置110から検出結果を受信し、受信した検出結果を出力する。
センサ131は、可視光カメラ、TOF(Time Of Flight)カメラ、音センサ、光センサ、サーモカメラ等である。センサ131は、エッジデバイスに設けられていてもよい。エッジデバイスは、監視カメラ、ドローン、タブレット端末、スマートフォン等である。
センサ131は、現場の環境を示す環境情報を取得する。環境情報は、画像情報(画像)、音声といった音情報等である。センサ131は、取得した環境情報を所定のタイミングでサーバ装置110に送信する。サーバ装置110は、受信した環境情報を後述の補助記憶装置230に記憶する。なお、所定のタイミングについては、定期的であってもよいし、予め指定された時間ごとであってもよいし、管理者により指示されたタイミングであってもよい。
なお、物体検出システム100は、上述の構成に限らない。例えば、サーバ装置110とクライアント端末120とは、一体の装置であってもよい。また、例えば、サーバ装置110は、センサ131で取得された環境情報を記憶する記憶装置から当該環境情報を取得する構成であってもよい。
図2は、サーバ装置110のハードウェア構成に係る一例を示す図である。
サーバ装置110は、プロセッサ210、主記憶装置220、補助記憶装置230、および通信装置240を備える。
プロセッサ210は、演算処理を行う装置である。プロセッサ210は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ等である。
主記憶装置220は、プログラム、データ等を記憶する装置である。主記憶装置220は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等である。ROMは、SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等である。RAMは、DRAM(Dynamic Random Access Memory)等である。
補助記憶装置230は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置等である。光学式記憶装置は、CD(Compact Disc)、DVD(Digital Versatile Disc)等である。補助記憶装置230に格納されているプログラム、データ等は、主記憶装置220に随時読み込まれる。
通信装置240は、通信媒体を介して他の装置と通信する通信インターフェースである。通信装置240は、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Bus)モジュール、シリアル通信モジュール等である。通信装置240は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また、通信装置240は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。
なお、サーバ装置110は、上述の構成に限らない。例えば、サーバ装置110は、入力装置および/または出力装置を備えてもよい。入力装置は、ユーザから情報を受付けるユーザインターフェースである。入力装置は、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。出力装置は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインターフェースである。出力装置は、例えば、各種情報を可視化する表示装置、音声出力装置(スピーカ)、印字装置等である。表示装置は、LCD(Liquid Crystal Display)、グラフィックカード等である。
付言するならば、クライアント端末120は、ノートパソコン、タブレット端末、スマートフォン等のコンピュータである。クライアント端末120は、構成要素として、プロセッサ、主記憶装置、補助記憶装置、通信装置、入力装置、および出力装置を備える。これらの構成要素については、サーバ装置110と同様であるので、その説明を省略する。
図3は、サーバ装置110のソフトウェア構成に係る一例を示す図である。
サーバ装置110は、取得部310、選定部320、生成部330、検出部340、および出力部350を備える。
取得部310は、空間130に設けられている複数のセンサ131の少なくとも1つのセンサ131で取得された環境情報を取得する。選定部320は、取得部310により取得された環境情報をもとに、複数のセンサ131の中から、空間130の環境における物体検出に最適なセンサ131を選定する。生成部330は、選定部320により選定されたセンサ131の学習データを用いて、深層学習によりモデルを生成する。検出部340は、選定部320により選定されたセンサ131で取得されたデータと当該センサ131の物体検出モデルとを用いて物体検出する。出力部350は、選定の結果、物体検出の結果等を出力する。
サーバ装置110の機能(取得部310、選定部320、生成部330、検出部340、出力部350等)は、例えば、プロセッサ210が補助記憶装置230に格納されたプログラムを主記憶装置220に読み出して実行すること(ソフトウェア)により実現されてもよいし、専用の回路等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、サーバ装置110の機能の一部は、サーバ装置110と通信可能な他のコンピュータにより実現されてもよい。
図4は、主記憶装置220ないし補助記憶装置230に記憶され、センサ131を選定する処理で利用される条件情報の一例(条件テーブル400)を示す図である。
条件テーブル400は、現場の環境における物体検出に最適なセンサ131を選定する際の1つ以上の条件を示す情報を記憶する。より具体的には、条件テーブル400には、条件401毎に、選定可能なセンサ131を示すセンサ情報402が記憶されている。
条件401については、空間130の広さが閾値より広い、空間130において外光の影響がある、空間130における照度が低い、空間130における物体の密集度合いが高い等の条件がある。本実施の形態では、条件401としては、空間130の広さが閾値より広いという「第1の条件」が設定されているケース(第1のケース)を例に挙げて説明する。
センサ情報402は、例えば、各センサ131のスペックをもとに管理者により規定されている。本実施の形態では、現場の環境が「第1の条件」を満たす場合に、第1のセンサ131-1が設定され、現場の環境が「第1の条件」を満たさない場合に、距離を測定可能な第2のセンサ131-2が選定されるケースを例に挙げて説明する。
図5は、モデルの生成に係る処理の一例を示す図である。
S501では、サーバ装置110は、センサ131、外部の記憶装置、または補助記憶装置230から、環境情報を取得する。
S502では、サーバ装置110は、現場の環境の条件に合うセンサ131を選定する。より具体的には、サーバ装置110は、S501で取得した環境情報から、現場の環境における物体検出に最適なセンサ131を選定する。本実施の形態では、サーバ装置110は、環境情報から、空間130の広さを特定する。サーバ装置110は、空間130の広さが閾値(例えば、第2のセンサ131-2の測定可能な距離)以上である場合は、第1のセンサ131-1を選定する。サーバ装置110は、空間130の広さが閾値未満である場合は、第2のセンサ131-2を選定する。
空間130の広さとは、部屋の大きさ(例えば、奥行)、荷台の大きさ(例えば、奥行)、センサ131から地面までの距離(例えば、高さ)等である。
なお、以下では、第1のケースとは、異なるケースについてS502の処理を説明する。
(空間130における外光の影響に応じてセンサ131が設定されている第2のケース)
第2のケースでは、例えば、外光を計測可能なセンサ131が空間130に設けられている。サーバ装置110は、当該センサ131により取得された環境情報をもとに外光の影響があるか否かを示す情報(外光情報)を補助記憶装置230に記憶する。外光の影響がある場合とは、例えば、空間130に、太陽の光(例えば、西日)が差し込む場合である。サーバ装置110は、外光情報を参照して、空間130において外光の影響がある場合は、第1のセンサ131-1を選定する。サーバ装置110は、空間130において外光の影響がない場合は、第1のセンサ131-1よりも外光の影響を受けやすい第2のセンサ131-2を選定する。なお、外光情報は、管理者により補助記憶装置230に登録される態様であってもよい。
(空間130における照度に応じてセンサ131が設定されている第3のケース)
第3のケースでは、例えば、照度を計測可能なセンサ131が空間130に設けられている。サーバ装置110は、当該センサ131により取得された環境情報(照度情報)を補助記憶装置230に記憶する。サーバ装置110は、照度情報を参照し、空間130の照度が閾値以上である場合は、第1のセンサ131-1を選定する。サーバ装置110は、空間130の照度が閾値未満である場合は、照度が閾値より低くても測定可能な第2のセンサ131-2を選定する。
(空間130における物体の密集度合いに応じてセンサ131が設定されている第4のケース)
第4のケースでは、サーバ装置110は、既存の物体を検出するモデルにより物体検出を行い、検出した物体の密集度合い(例えば、物体の数/床面積)を算出する。サーバ装置110は、空間130における物体の密集度合いが閾値以上である場合は、第1のセンサ131-1を選定する。サーバ装置110は、空間130における物体の密集度合いが閾値未満である場合は、第1のセンサ131-1よりも物体の密集度合いの影響を受けやすい第2のセンサ131-2を選定する。なお、サーバ装置110は、空間130に設けられた加重センサで取得された情報をもとに空間130における物体の密集度合いを算出してもよい。また、サーバ装置110は、空間130に設けられたカメラで取得された画像をもとに空間130における密集度合いを算出してもよい。
なお、上述した各条件については、適宜に組み合わせてもよい。
S503では、サーバ装置110は、モデル生成処理を行う。より具体的には、サーバ装置110は、選定したセンサ131(以下、「選定センサ」と記す)の学習データをもとに、選定センサのモデルを深層学習する。深層学習のアルゴリズムについては、公知の技術を適宜に採用することができる。また、選定センサの学習データは、管理者により準備されているものとする。
例えば、サーバ装置110は、選定センサのモデル以外のモデルの生成を省略することにより、管理者は、現場の環境に適したモデルを得るための時間と労力とを削減することができる。
S504では、サーバ装置110は、モデル出力処理を行う。例えば、サーバ装置110は、生成した選定センサのモデルを補助記憶装置230に記憶する。
図6は、モデルの利用に係る処理の一例を示す図である。なお、図6に示すS501およびS502の処理は、図5で説明した内容と同一であるので、その説明を省略する。
S601では、サーバ装置110は、物体検出処理を行う。例えば、S501で取得した選定センサの環境情報をもとに選定センサのモデルを用いて物体検出を行う。また、サーバ装置110は、物体検出の結果を出力する画面情報を生成する。
S602では、サーバ装置110は、結果出力処理を行う。サーバ装置110は、例えば、生成した画面情報をクライアント端末120に送信する。クライアント端末120は、受信した画面情報をもとに画面を表示する。
なお、S502の処理および選定センサのモデルの生成については、選定センサのモデル(S503)が一度設定された後は、行われなくてもよいし、所定のタイミングで行われてもよい。例えば、定期的に、現場の環境にける物体検出に最適なセンサ131が選定される場合は、環境の変化に応じて、最適なセンサ131が選定されることになる。これにより、環境の変化に伴ってモデルを変更することができ、物体検出をより精度よく行うことができるようになる。
本実施の形態によれば、現場の環境における物体検出に最適なセンサが選定され、物体検出が行われる。
(2)第2の実施の形態
本実施の形態では、TOFカメラと可視光カメラとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、可視光カメラとTOFカメラとを例に挙げて説明する。TOFカメラは、所定の距離(例えば、10m)内においては、距離の情報を取得できる。よって、部屋の大きさが所定の大きさより小さい場合は、TOFカメラの学習データを用いることで、可視光カメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、TOFカメラは、可視光カメラよりも外光の影響を受けやすい。よって、外光の影響がある場合は、可視光カメラの学習データを用いることで、TOFカメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
また、補助記憶装置230には、部屋において外光の影響があるか否かを示す外光情報が記憶されている。外光の影響がある場合とは、例えば、部屋に窓があり、太陽の光(例えば、西日)が差し込む場合である。外光情報は、例えば、視光カメラ等が取得した画像から算出できる輝度値の変化等であってもよいし、管理者により補助記憶装置230に登録されていてもよい。
図7は、モデルの生成に係る処理の一例を示す図である。
S701では、サーバ装置110は、TOFカメラおよび視光カメラの画像を取得する。
S702では、サーバ装置110は、取得した画像から部屋の大きさを検出(算出)する。例えば、サーバ装置110は、画像の解像度に対する部屋の大きさ(例えば、部屋の奥行)を算出する。
S703では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否か(広い部屋であるか否か、例えば、部屋の奥行が10mより長いか否か)を判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S706に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより広くない(狭い)と判定した場合、S704に処理を移す。
S704では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S706に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S705に処理を移す。
S705では、サーバ装置110は、TOFカメラを選定する。
S706では、サーバ装置110は、可視光カメラを選定する。
S707では、サーバ装置110は、モデル生成処理を行う。より具体的には、サーバ装置110は、選定センサの学習データの一部をもとに深層学習を行い、モデルを生成する(S707-1)。続いて、サーバ装置110は、深層学習に用いなかった学習データをもとに、生成した選定センサのモデルを評価する(S707-2)。
この際、サーバ装置110は、複数種類の深層学習アルゴリズムのフレームワーク(FW)を用いて、複数種類のモデルを生成して評価してもよい。
S708では、サーバ装置110は、モデル出力処理を行う。例えば、サーバ装置110は、生成したモデルを補助記憶装置230に記憶する。サーバ装置110は、S707にて生成した最も評価が高いモデルを出力してもよいし、評価の結果をクライアント端末120に送信し、ユーザにより指定されたモデルを出力してもよい。
図8は、モデルの利用態様の一例を示す図である。
図8に示すように、狭いイベント会場であり、かつ、外光の影響がないと判定された場合、TOFカメラが選定される。TOFカメラのモデルでは、物体811の検出が、顔領域の面積812をもとに行われる。また、例えば、広いイベント会場であると判定された場合、可視光カメラが選定される。可視光カメラのモデルでは、物体821の検出が、人(例えば、顔)の肌を示す領域である肌領域の面積822をもとに行われる。
例えば、広いイベント会場であると判定された場合、可視光カメラのモデルが用いられて物体検出が行われた結果が含まれる画面830がクライアント端末120に表示される。
画面830には、物体検出された人物の数(人数)を示す情報831と、イベント会場の定員に対する人数の割合を示す情報832と、人数の時系列を示す情報833とが含まれる。
画面830によれば、例えば、ユーザは、現在の人数、時系列の人数等を把握できるので、人数に応じたプレゼンテーション(質疑応答の時間配分、説明の順序の変更等)を行うことができるようになる。
なお、サーバ装置110は、部屋の大きさに応じてセンサ131を選定したが、これに限るものではない。
例えば、サーバ装置110は、部屋の大きさに代えて、センサ131の高さに応じてセンサ131を選定してもよい。サーバ装置110は、地面からの高さが所定の高さ(例えば、10m)以上である場合は、S706の処理を行う。サーバ装置110は、地面からの高さが所定の高さ未満である場合は、S704の処理を行う。続いて、モデルの利用態様について、図9を用いて説明する。
図9は、モデルの利用態様の一例を示す図である。
図9に示すように、TOFカメラと可視光カメラとを備える飛行体が低い位置にあり、かつ、外光の影響がないと判定された場合(遮光されたドーム球場、倉庫等)、TOFカメラが選定され、TOFカメラのモデルが用いられて物体911の検出が行われる。また、飛行体が高い位置にあると判定された場合(例えば、屋外のイベント会場)、可視光カメラが選定され、可視光カメラのモデルが用いられて物体921の検出が行われる。
例えば、飛行体が高い位置にあると判定された場合、可視光カメラのモデルが用いられて物体検出が行われた結果が含まれる画面930がクライアント端末120に表示される。
画面930には、物体検出された人物の人(人数)を示す情報931と、イベント会場の定員に対する人数の割合を示す情報932と、人数の時系列を示す情報933とが含まれる。
画面930によれば、例えば、ユーザは、現在の人数、時系列の人数等を把握できるので、人数に応じたセキュリティ対策(警備員の配置、入場制限等)を行うことができるようになる。
また、例えば、サーバ装置110は、部屋の大きさに代えて、トラックの荷台の大きさまたは位置に応じてセンサ131を選定してもよい。サーバ装置110は、荷台の大きさが所定の大きさより広い場合は、S706の処理を行う。サーバ装置110は、荷台の大きさが所定の大きさより狭い場合は、S704の処理を行う。続いて、モデルの利用態様について、図10を用いて説明する。
図10は、モデルの利用態様の一例を示す図である。
図10に示すように、トラックの荷台が近い位置または狭い荷台であり、かつ、外光の影響がないと判定された場合、TOFカメラが選定され、TOFカメラのモデルが用いられて物体1011の検出が行われる。また、トラックの荷台が遠い位置または広い荷台であると判定された場合、可視光カメラが選定され、可視光カメラのモデルが用いられて物体1021の検出が行われる。
例えば、トラックの荷台が所定の位置より近い位置であると判定され、かつ、外光の影響がないと判定された場合、画面1030がクライアント端末120に表示される。
画面1030には、物体検出された荷物の数(荷物数)を示す情報1031と、荷台の最大積載数に対する荷物数の割合を示す情報1032と、荷物数の時系列を示す情報1033とが含まれる。
画面1030によれば、例えば、ユーザは、現在の荷物数、時系列の荷物数等を把握できるので、荷物数に応じたオペレーション(積み込みの指示、荷物の手配等)を行うことができるようになる。
本実施の形態では、空間130の広さと外光の影響とに最適な、可視光カメラの物体を検出するモデルまたはTOFカメラの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、TOFカメラのモデルと、可視光カメラのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(3)第3の実施の形態
本実施の形態では、可視光カメラと音センサとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態または第2の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、マイク、超音波センサ等の音センサと可視光カメラとを例に挙げて説明する。部屋の大きさが所定の大きさより小さい場合は、可視光カメラの学習データを用いることで、音センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、可視光カメラは、音センサよりも外光の影響を受けやすい。よって、外光の影響がある場合は、音センサの学習データを用いることで、可視光カメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
図11は、モデルの生成に係る処理の一例を示す図である。
S1101では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否かを判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S1104に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより狭いと判定した場合、S1102に処理を移す。
S1102では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S1104に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S1103に処理を移す。
S1103では、サーバ装置110は、可視光カメラを選定する。
S1104では、サーバ装置110は、音センサを選定する。
なお、S701およびS702では、サーバ装置110は、可視光カメラで取得された画像をもとに部屋の大きさを算出したが、これに限らない。例えば、サーバ装置110は、音センサで取得された音情報(例えば、人物による会話または音センサが発した音が部屋の壁で反射された反射音)をもとに部屋の大きさを算出してもよい。
本実施の形態では、空間130の広さと外光の影響とに最適な、可視光カメラの物体を検出するモデルまたは音センサの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、音センサのモデルと、可視光カメラのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(4)第4の実施の形態
本実施の形態では、光センサと可視光カメラとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態または第2の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、可視光カメラと光センサとを例に挙げて説明する。部屋の大きさが所定の大きさより小さい場合は、光センサの学習データを用いることで、可視光カメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、光センサは、可視光カメラよりも外光の影響を受けやすい。よって、外光の影響がある場合は、可視光カメラの学習データを用いることで、光センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
図12は、モデルの生成に係る処理の一例を示す図である。
S1201では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否かを判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S1204に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより狭いと判定した場合、S1202に処理を移す。
S1202では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S1204に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S1203に処理を移す。
S1203では、サーバ装置110は、光センサを選定する。
S1204では、サーバ装置110は、可視光カメラを選定する。
なお、S701およびS702では、サーバ装置110は、光センサで取得された画像をもとに部屋の大きさを算出したが、これに限らない。例えば、サーバ装置110は、光センサで取得された光情報(例えば、光センサが発した光が部屋の壁で反射された反射光)をもとに部屋の大きさを算出してもよい。
本実施の形態では、空間130の広さと外光の影響とに最適な、光センサの物体を検出するモデルまたは可視光カメラの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、可視光カメラのモデルと、光センサのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(5)第5の実施の形態
本実施の形態では、TOFカメラと音センサとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態または第2の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、音センサとTOFカメラとを例に挙げて説明する。部屋の大きさが所定の大きさより小さい場合は、TOFカメラの学習データを用いることで、音センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、TOFカメラは、音センサよりも外光の影響を受けやすい。よって、外光の影響がある場合は、音センサの学習データを用いることで、TOFカメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
図13は、モデルの生成に係る処理の一例を示す図である。
S1301では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否かを判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S1304に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより狭いと判定した場合、S1302に処理を移す。
S1302では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S1304に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S1303に処理を移す。
S1303では、サーバ装置110は、TOFカメラを選定する。
S1304では、サーバ装置110は、音センサを選定する。
本実施の形態では、空間130の広さと外光の影響とに最適な、TOFカメラの物体を検出するモデルまたは音センサの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、音センサのモデルと、TOFカメラのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(6)第6の実施の形態
本実施の形態では、光センサとTOFカメラとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態または第2の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、TOFカメラと光センサとを例に挙げて説明する。部屋の大きさが所定の大きさより小さい場合は、光センサの学習データを用いることで、TOFカメラの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、光センサは、TOFカメラよりも外光の影響を受けやすい。よって、外光の影響がある場合は、TOFカメラの学習データを用いることで、光センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
図14は、モデルの生成に係る処理の一例を示す図である。
S1401では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否かを判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S1404に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより狭いと判定した場合、S1402に処理を移す。
S1402では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S1404に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S1403に処理を移す。
S1403では、サーバ装置110は、光センサを選定する。
S1404では、サーバ装置110は、TOFカメラを選定する。
本実施の形態では、空間130の広さと外光の影響とに最適な、光センサの物体を検出するモデルまたはTOFカメラの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、TOFカメラのモデルと、光センサのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(7)第7の実施の形態
本実施の形態では、光センサと音センサとが所定の部屋に設けられている場合に、部屋の大きさと外光の影響とに応じてセンサが選定される構成について説明する。第1の実施の形態または第2の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜に省略する。
本実施の形態では、センサ131としては、音センサと光センサとを例に挙げて説明する。部屋の大きさが所定の大きさより小さい場合は、光センサの学習データを用いることで、音センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。ただし、光センサは、音センサよりも外光の影響を受けやすい。よって、外光の影響がある場合は、音センサの学習データを用いることで、光センサの学習データを用いるときよりも物体検出の精度がよいモデルを生成することができる。
図15は、モデルの生成に係る処理の一例を示す図である。
S1501では、サーバ装置110は、環境情報(音情報および光情報)を取得する。
S1502では、サーバ装置110は、音情報をもとに、部屋の大きさを検出する。例えば、サーバ装置110は、人物による会話または音センサが発した音が部屋の壁で反射された反射音をもとに部屋の大きさを計算する。
S1503では、サーバ装置110は、部屋の大きさが所定の大きさより広いか否かを判定する。サーバ装置110は、部屋の大きさが所定の大きさより広いと判定した場合、S1506に処理を移す。サーバ装置110は、部屋の大きさが所定の大きさより狭いと判定した場合、S1504に処理を移す。
S1504では、サーバ装置110は、外光情報をもとに、外光の影響があるか否かを判定する。サーバ装置110は、外光の影響があると判定した場合、S1506に処理を移す。サーバ装置110は、外光の影響がないと判定した場合、S1505に処理を移す。
S1505では、サーバ装置110は、光センサを選定する。
S1506では、サーバ装置110は、音センサを選定する。
本実施の形態では、空間130の広さと外光の影響とに最適な、光センサの物体を検出するモデルまたは音センサの物体を検出するモデルが用いられるので、空間130の広さと外光の影響とに応じて物体検出を精度よく行うことができる。
なお、本実施の形態については、モデルを生成して当該モデルを利用する態様について説明したが、この態様に限らない。例えば、既に生成されている、音センサのモデルと、光センサのモデルとが補助記憶装置230に記憶されていて、この中から、空間130の広さと外光の影響とに最適なモデルが用いられる態様であってもよい。
(8)付記
上述の実施の形態には、例えば、以下のような内容が含まれる。
上述の実施の形態においては、本発明を物体検出システムに適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のシステム、装置、方法、プログラムに広く適用することができる。
また、上述の実施の形態において、各テーブルの構成は一例であり、1つのテーブルは、2以上のテーブルに分割されてもよいし、2以上のテーブルの全部または一部が1つのテーブルであってもよい。
また、上述の実施の形態において、説明の便宜上、テーブルを用いて各種のデータを説明したが、データ構造は限定されるものではなく、情報等と表現してもよい。
また、上述の実施の形態において、情報の出力は、ディスプレイへの表示に限るものではない。情報の出力は、スピーカによる音声出力であってもよいし、ファイルへの出力であってもよいし、印刷装置による紙媒体等への印刷であってもよいし、プロジェクタによるスクリーン等への投影であってもよいし、その他の態様であってもよい。
また、上述の実施の形態において示した画面は、一例であり、受け付ける情報が同じであればどのような画面デザインであってもよい。例えば、各パラメータの名称をタイトル行にもち、各行が個々のパラメータの入力セルとなっているような表算出シート状の画面デザインであってもよい。また、画面は、ファイルの入力を受け付けるインターフェースを持ち、指定されたファイルの情報を基に画面の内容を更新してもよい。
また、上記の説明において、各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
上述した実施の形態は、例えば、以下の特徴的な構成を有する。
物体検出システム(例えば、物体検出システム100)は、取得部(例えば、取得部310)と、選定部(例えば、選定部320)と、検出部(例えば、検出部340)とを備える。
上記取得部は、所定の空間(例えば、空間130)に設けられている複数のセンサ(例えば、第1のセンサ131-1、第2のセンサ131-2、第Nのセンサ131-N)の少なくとも1つのセンサで取得された上記所定の空間の環境を示す環境情報を取得する(例えば、S501参照)。上記取得部は、取得部310、サーバ装置110、回路等である。
上記複数のセンサは、可視光カメラ、TOFカメラ、サーモカメラ、音センサ、光センサ等である。また、上記物体検出システムでは、センサについては、種類(広角であるか否か、赤外線の照射範囲が広いか否か、マイクに指向性がある否か、光線の照射範囲が広いか否か等)が異なる場合は、異なるセンサとして扱ってもよい。
上記環境情報は、空間の広さを示す情報であってもよいし、空間における外光の影響を示す情報であってもよいし、空間における物体の密集度合いを示す情報であってもよいし、空間における照度を示す情報であってもよい。
上記選定部は、上記取得部により取得された環境情報をもとに、上記複数のセンサの中から、上記所定の空間の環境における物体検出に最適なセンサを選定する(例えば、S502参照)。上記選定部は、選定部320、サーバ装置110、回路等である。
上記選定部は、上記環境情報をもとに、空間の広さ、センサがある高さ等を算出してセンサを選定する。この際、上記選定部は、条件情報を参照して条件に合うセンサを選定してもよいし、予め設計された条件分岐(処理内容)に従ってセンサを選定してもよい。
例えば、選定部は、空間の広さが閾値以上である場合は、広角レンズの可視光カメラを選定し、空間の広さが閾値未満である場合は、広角レンズでない可視光カメラを選定する。例えば、選定部は、空間の広さが閾値以上である場合は、赤外線の照射範囲の広いTOFカメラを選定し、空間の広さが閾値未満である場合は、赤外線の照射範囲の狭いTOFカメラを選定する。また、例えば、選定部は、空間の広さが閾値以上である場合は、可視光カメラを選定し、空間の広さが閾値未満である場合は、サーモカメラを選定する。
上記検出部は、上記選定部により選定されたセンサで取得されたデータと上記センサの物体を検出するモデルとを用いて物体検出する(例えば、S601参照)。上記検出部は、検出部340、サーバ装置110、回路等である。
上記構成では、所定の空間に設けられているセンサの中から、所定の空間の環境に最適なセンサが選定されるので、例えば、所定の空間における物体検出を精度よく行うことができる。
上記所定の空間には、第1のセンサ(例えば、可視光カメラ)と、距離を測定可能な第2のセンサ(例えば、TOFカメラ)とが設けられている。
上記選定部は、上記取得部により取得された環境情報(例えば、画像情報)をもとに、上記空間の広さ(部屋の大きさ、荷台の大きさ等)を算出し、上記空間の広さが閾値以上であると判定した場合は、上記第1のセンサを選定する。
上記構成では、例えば、閾値が第2のセンサの測定可能な距離である場合に、空間の広さが閾値以上であるときには、第1のセンサが選ばれるので、第2のセンサが選定されることにより物体検出の精度が低下しまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記第2のセンサは、上記第1のセンサよりも外光の影響を受けやすいセンサである。
上記選定部は、上記所定の空間において外光の影響があるか否かを示す外光情報に基づいて外光の影響があるか否かを判定する(例えば、S704参照)。上記選定部は、上記空間の広さが上記閾値未満であると判定し、かつ、外光の影響があると判定した場合、上記第1のセンサを選定する(例えば、S706参照)。上記選定部は、上記空間の広さが上記閾値未満であると判定し、かつ、外光の影響がないと判定した場合、上記第2のセンサを選定する(例えば、S705参照)。
外光情報は、所定の空間に設けられているセンサにより取得された情報をもとに算出される情報であってもよいし、管理者により入力される情報であってもよい。
上記構成では、外光の影響がある場合には、第1のセンサが選ばれるので、第2のセンサが選定されることにより物体検出の精度が低下しまう事態を回避することができるようになる。このように、上記構成では、外光の影響を加味したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間では、第1のセンサと、距離を測定可能な第2のセンサとを備える飛行体(ドローン、ヘリコプター、飛行船、気球等)が飛行する。
上記選定部は、上記取得部により取得された環境情報をもとに、上記飛行体の高さを算出し、上記飛行体の高さ(高度、飛行体から地面までの距離等)が閾値以上であると判定した場合は、上記第1のセンサを選定する。
上記環境情報は、上記第1のセンサまたは上記第2のセンサにより取得された情報であってもよいし、飛行体が備える高度計等の他のセンサによって取得された情報であってもよいし、その他のセンサによって取得された情報であってもよい。
上記構成では、例えば、閾値が第2のセンサの測定可能な距離である場合に、飛行体の高さが閾値以上であるときには、第1のセンサが選ばれるので、第2のセンサが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、センサの高さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間(部屋、イベント会場、作業場所等)には、可視光カメラとTOFカメラとが設けられている。上記取得部は、上記可視光カメラまたは上記TOFカメラから上記所定の空間を示す画像情報(画像)を取得する。上記選定部は、上記取得部により取得された画像情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記可視光カメラを選定する(例えば、S706参照)。
上記構成では、例えば、閾値がTOFカメラの測定可能な距離である場合に、空間の広さが閾値以上であるときには、可視光カメラが選ばれるので、TOFカメラが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間には、音センサと可視光カメラとが設けられている。上記取得部は、上記可視光カメラから上記所定の空間を示す画像情報を取得する。上記選定部は、上記取得部により取得された画像情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記音センサを選定する(例えば、S1104参照)。
上記構成では、例えば、閾値が可視光カメラの測定可能な距離である場合に、空間の広さが閾値以上であるときには、音センサが選ばれるので、可視光カメラが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間には、可視光カメラと光センサとが設けられている。上記取得部は、上記可視光カメラから上記所定の空間を示す画像情報を取得する。上記選定部は、上記取得部により取得された画像情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記可視光カメラを選定する(例えば、S1204参照)。
上記構成では、例えば、閾値が光センサの測定可能な距離である場合に、空間の広さが閾値以上であるときには、可視光カメラが選ばれるので、光センサが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間には、音センサとTOFカメラとが設けられている。上記取得部は、上記TOFカメラから上記所定の空間を示す画像情報を取得する。上記選定部は、上記取得部により取得された画像情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記音センサを選定する(例えば、S1304参照)。
上記構成では、例えば、閾値がTOFカメラの測定可能な距離である場合に、空間の広さが閾値以上であるときには、音センサが選ばれるので、TOFカメラが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間には、TOFカメラと光センサとが設けられている。上記取得部は、上記TOFカメラから上記所定の空間を示す画像情報を取得する。上記選定部は、上記取得部により取得された画像情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記TOFカメラを選定する(例えば、S1404参照)。
上記構成では、例えば、閾値が光センサの測定可能な距離である場合に、空間の広さが閾値以上であるときには、TOFカメラが選ばれるので、光センサが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記所定の空間には、音センサと光センサとが設けられている。上記取得部は、上記音センサから上記所定の空間を示す音情報を取得する。上記選定部は、上記取得部により取得された音情報をもとに、上記空間の広さを算出し、上記空間の広さが閾値以上であると判定した場合は、上記音センサを選定する(例えば、S1504参照)。
上記構成では、例えば、閾値が光センサの測定可能な距離である場合に、空間の広さが閾値以上であるときには、音センサが選ばれるので、光センサが選定されることにより物体検出の精度が低下してしまう事態を回避することができるようになる。このように、上記構成では、空間の広さに適したセンサが選定されるので、物体検出を精度よく行うことができる。
上記物体検出システムは、上記複数のセンサの各々に対応した物体を検出するモデルを記憶する記憶装置(主記憶装置220、補助記憶装置230等)を備える。上記検出部は、上記記憶装置に記憶されている物体を検出するモデルから、上記選定部により選定されたセンサの物体を検出するモデルを特定し、上記センサで取得されたデータと上記物体を検出するモデルとを用いて物体検出する(例えば、S601参照)。
上記構成では、所定の空間に設けられているセンサの中から、空間の環境における物体検出に最適なセンサが選定され、既に設けられている物体を検出するモデルの中から、選定されたセンサの物体を検出するモデルが特定される。このように、物体検出システムでは、既存の物体を検出するモデルが利用されるので、空間の環境に合った物体を検出するモデルを新たに生成することなく、物体検出を精度よく行うことができる。
上記物体検出システムは、上記選定部により選定されたセンサの学習データを用いて、深層学習により物体を検出するモデルを生成する生成部を備える。生成部は、生成部330、サーバ装置110、回路等である。上記検出部は、上記選定部により選定されたセンサで取得されたデータと、上記生成部により生成された物体を検出するモデルとを用いて物体検出する(例えば、図5、図6参照)。
上記構成では、所定の空間に設けられているセンサの中から、空間の環境における物体検出に最適なセンサが選定され、当該センサの物体を検出するモデルが生成されるので、複数のセンサの全てについて物体を検出するモデルを生成することなく、物体検出を精度よく行うことができる。
また上述した構成については、本発明の要旨を超えない範囲において、適宜に、変更したり、組み替えたり、組み合わせたり、省略したりしてもよい。
「A、B、およびCのうちの少なくとも1つ」という形式におけるリストに含まれる項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができると理解されたい。同様に、「A、B、またはCのうちの少なくとも1つ」の形式においてリストされた項目は、(A)、(B)、(C)、(AおよびB)、(AおよびC)、(BおよびC)または(A、B、およびC)を意味することができる。
100……物体検出システム、310……取得部、320……選定部、330……生成部、340……検出部。

Claims (11)

  1. 所定の空間に設けられている複数のセンサの少なくとも1つのセンサで取得された前記所定の空間の環境を示す環境情報を取得する取得部と、
    前記取得部により取得された環境情報をもとに、前記複数のセンサの中から、前記所定の空間の環境における物体検出に最適なセンサを選定する選定部と、
    前記選定部により選定されたセンサで取得されたデータと前記センサの物体を検出するモデルとを用いて物体検出する検出部と、
    を備え
    前記所定の空間には、第1のセンサと、距離を測定可能な第2のセンサとが設けられ、
    前記選定部は、前記取得部により取得された環境情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記第1のセンサを選定し、
    前記第2のセンサは、前記第1のセンサよりも外光の影響を受けやすいセンサであり、
    前記選定部は、前記所定の空間において外光の影響があるか否かを示す外光情報に基づいて外光の影響があるか否かを判定し、前記空間の広さが前記閾値未満であると判定し、かつ、外光の影響があると判定した場合、前記第1のセンサを選定し、前記空間の広さが前記閾値未満であると判定し、かつ、外光の影響がないと判定した場合、前記第2のセンサを選定する、
    物体検出システム。
  2. 前記所定の空間では、第1のセンサと、距離を測定可能な第2のセンサとを備える飛行体が飛行し、
    前記選定部は、前記取得部により取得された環境情報をもとに、前記飛行体の高さを算出し、前記飛行体の高さが閾値以上であると判定した場合は、前記第1のセンサを選定する、
    請求項1に記載の物体検出システム。
  3. 前記所定の空間には、可視光カメラとTOFカメラとが設けられ、
    前記取得部は、前記可視光カメラまたは前記TOFカメラから前記所定の空間を示す画像情報を取得し、
    前記選定部は、前記取得部により取得された画像情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記可視光カメラを選定する、
    請求項1に記載の物体検出システム。
  4. 前記所定の空間には、音センサと可視光カメラとが設けられ、
    前記取得部は、前記可視光カメラから前記所定の空間を示す画像情報を取得し、
    前記選定部は、前記取得部により取得された画像情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記音センサを選定する、
    請求項1に記載の物体検出システム。
  5. 前記所定の空間には、可視光カメラと光センサとが設けられ、
    前記取得部は、前記可視光カメラから前記所定の空間を示す画像情報を取得し、
    前記選定部は、前記取得部により取得された画像情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記可視光カメラを選定する、
    請求項1に記載の物体検出システム。
  6. 前記所定の空間には、音センサとTOFカメラとが設けられ、
    前記取得部は、前記TOFカメラから前記所定の空間を示す画像情報を取得し、
    前記選定部は、前記取得部により取得された画像情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記音センサを選定する、
    請求項1に記載の物体検出システム。
  7. 前記所定の空間には、TOFカメラと光センサとが設けられ、
    前記取得部は、前記TOFカメラから前記所定の空間を示す画像情報を取得し、
    前記選定部は、前記取得部により取得された画像情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記TOFカメラを選定する、
    請求項1に記載の物体検出システム。
  8. 前記所定の空間には、音センサと光センサとが設けられ、
    前記取得部は、前記音センサから前記所定の空間を示す音情報を取得し、
    前記選定部は、前記取得部により取得された音情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記音センサを選定する、
    請求項1に記載の物体検出システム。
  9. 前記複数のセンサの各々に対応した物体を検出するモデルを記憶する記憶装置を備え、
    前記検出部は、前記記憶装置に記憶されている物体を検出するモデルから、前記選定部により選定されたセンサの物体を検出するモデルを特定し、前記センサで取得されたデータと前記物体を検出するモデルとを用いて物体検出する、
    請求項1に記載の物体検出システム。
  10. 前記選定部により選定されたセンサの学習データを用いて、深層学習により物体を検出するモデルを生成する生成部を備え、
    前記検出部は、前記選定部により選定されたセンサで取得されたデータと、前記生成部により生成された物体を検出するモデルとを用いて物体検出する、
    請求項1に記載の物体検出システム。
  11. 取得部が、所定の空間に設けられている複数のセンサの少なくとも1つのセンサで取得された前記所定の空間の環境を示す環境情報を取得することと、
    選定部が、前記取得部により取得された環境情報をもとに、前記複数のセンサの中から、前記所定の空間の環境における物体検出に最適なセンサを選定することと、
    検出部が、前記選定部により選定されたセンサで取得されたデータと前記センサの物体を検出するモデルとを用いて物体検出することと、
    を含み、
    前記所定の空間には、第1のセンサと、距離を測定可能な第2のセンサとが設けられ、
    前記選定部は、前記取得部により取得された環境情報をもとに、前記空間の広さを算出し、前記空間の広さが閾値以上であると判定した場合は、前記第1のセンサを選定し、
    前記第2のセンサは、前記第1のセンサよりも外光の影響を受けやすいセンサであり、
    前記選定部は、前記所定の空間において外光の影響があるか否かを示す外光情報に基づいて外光の影響があるか否かを判定し、前記空間の広さが前記閾値未満であると判定し、かつ、外光の影響があると判定した場合、前記第1のセンサを選定し、前記空間の広さが前記閾値未満であると判定し、かつ、外光の影響がないと判定した場合、前記第2のセンサを選定する、
    物体検出方法。
JP2020095817A 2020-06-02 2020-06-02 物体検出システムおよび物体検出方法 Active JP7402121B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020095817A JP7402121B2 (ja) 2020-06-02 2020-06-02 物体検出システムおよび物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020095817A JP7402121B2 (ja) 2020-06-02 2020-06-02 物体検出システムおよび物体検出方法

Publications (2)

Publication Number Publication Date
JP2021189866A JP2021189866A (ja) 2021-12-13
JP7402121B2 true JP7402121B2 (ja) 2023-12-20

Family

ID=78849533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020095817A Active JP7402121B2 (ja) 2020-06-02 2020-06-02 物体検出システムおよび物体検出方法

Country Status (1)

Country Link
JP (1) JP7402121B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124230A1 (ja) 2011-03-17 2012-09-20 日本電気株式会社 撮影装置、撮影方法、及びプログラム
US20180075168A1 (en) 2015-03-24 2018-03-15 Carrier Corporation System and method for capturing and analyzing multidimensional building information
JP2020010204A (ja) 2018-07-09 2020-01-16 株式会社東芝 センシングシステム、保守端末装置、データ配布方法、および画像センサ
JP2020047276A (ja) 2018-09-19 2020-03-26 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド センサーキャリブレーション方法と装置、コンピュータ機器、媒体及び車両
US20200118451A1 (en) 2018-10-12 2020-04-16 Aurora Flight Sciences Corporation Adaptive Sense and Avoid System
JP2020071665A (ja) 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置
WO2020090251A1 (ja) 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124230A1 (ja) 2011-03-17 2012-09-20 日本電気株式会社 撮影装置、撮影方法、及びプログラム
US20180075168A1 (en) 2015-03-24 2018-03-15 Carrier Corporation System and method for capturing and analyzing multidimensional building information
JP2020010204A (ja) 2018-07-09 2020-01-16 株式会社東芝 センシングシステム、保守端末装置、データ配布方法、および画像センサ
JP2020047276A (ja) 2018-09-19 2020-03-26 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド センサーキャリブレーション方法と装置、コンピュータ機器、媒体及び車両
US20200118451A1 (en) 2018-10-12 2020-04-16 Aurora Flight Sciences Corporation Adaptive Sense and Avoid System
WO2020090251A1 (ja) 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
JP2020071665A (ja) 2018-10-31 2020-05-07 富士通株式会社 行動認識方法、行動認識プログラムおよび行動認識装置

Also Published As

Publication number Publication date
JP2021189866A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
US10013793B2 (en) Focus guidance within a three-dimensional interface
KR101108743B1 (ko) 홀로그래픽 사용자 인터페이스 통신을 위한 방법 및 장치
EP3178082B1 (en) Information processing apparatus and information processing method
US9460160B1 (en) System and method for selecting user generated content related to a point of interest
CN108961157B (zh) 图片处理方法、图片处理装置及终端设备
CN107636666A (zh) 用于控制对于计算设备上的应用的准许请求的方法和系统
US8719317B1 (en) Structured data conversion system
KR20160048901A (ko) 증강 현실 환경에서 평면의 범위를 결정하기 위한 시스템 및 방법
US12020379B2 (en) Virtual anchoring systems and methods for extended reality
US9292753B2 (en) Parallel face detection and tracking system
CN107077753A (zh) 对三维显示进行注释
CN101248460B (zh) 断面图像显示装置以及断面图像显示方法
US11366570B2 (en) Recall probability based data storage and retrieval
US20180012073A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
US20210117040A1 (en) System, method, and apparatus for an interactive container
CN108780377A (zh) 使用计算设备的对象管理和可视化
KR20200071266A (ko) 사이니지 장치 및 그 제어 방법
JPWO2016152486A1 (ja) 表示装置、表示制御方法、表示制御プログラムおよび表示システム
JP7402121B2 (ja) 物体検出システムおよび物体検出方法
Kember The Becoming-Photographer in Technoculture
JP7107015B2 (ja) 点群処理装置、点群処理方法およびプログラム
KR102404667B1 (ko) 증강현실 기반의 컨텐츠 제공 장치 및 방법
US20240093992A1 (en) Building change detection device, building change detection system, and building change detection method
JP2009237863A (ja) 電子ファイル管理装置および仮想店舗管理装置
KR102387642B1 (ko) 드론 기반의 항공 사진 측량 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7402121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150