WO2022004413A1 - 情報処理装置、情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2022004413A1
WO2022004413A1 PCT/JP2021/023053 JP2021023053W WO2022004413A1 WO 2022004413 A1 WO2022004413 A1 WO 2022004413A1 JP 2021023053 W JP2021023053 W JP 2021023053W WO 2022004413 A1 WO2022004413 A1 WO 2022004413A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition model
noise
unit
image
information
Prior art date
Application number
PCT/JP2021/023053
Other languages
English (en)
French (fr)
Inventor
博隆 石川
諭 渡辺
佳美 小川
航太 米澤
嘉博 熊谷
秀樹 安藤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/002,680 priority Critical patent/US20230290137A1/en
Publication of WO2022004413A1 publication Critical patent/WO2022004413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • surveillance cameras and the like have been installed everywhere on the streets, and in-vehicle cameras that can capture the surrounding environment of the vehicle are also installed in the traveling vehicle, making it easy to capture images in various places. It is becoming possible to obtain it.
  • a surveillance camera or the like analyzes a captured image to detect a person or recognize a specific person.
  • the information processing device on one aspect of the present technology includes a model switching unit that switches the recognition model according to the amount of noise in the captured image, and the model switching unit is the first recognition learned from the noise-free image. Switch between the model and the second recognition model trained on the noisy image.
  • the information processing apparatus is trained in the first recognition model learned in the noise-free image and the noisy image according to the amount of noise in the captured image. Switch with the second recognition model.
  • the information processing device may be an independent device or an internal block constituting one device.
  • moving objects are automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots (mobile robots), etc. It can be a construction machine, an agricultural machine (tractor), etc.
  • the user device 30 includes a display unit (not shown) that displays to the user, an operation unit (not shown) that accepts operations from the user, and a speaker (not shown) that outputs voice to the user. Omitted) etc. may be possessed.
  • the above authentication information shall have a data format common to the data distribution system 1. That is, the authentication server 40 is used as an authentication API (Application Programming Interface), and can authenticate the sensor device 10 and the service server 20 and associate them with each other.
  • the data distribution system 1 secures the security of the data distribution system 1 by incorporating such an authentication server 40, and each sensor device 10 is connected to each user device 30 via the service server 20. Can be linked with.
  • the authentication server 40 can be realized by hardware such as a CPU, ROM, and RAM. The authentication server 40 may authenticate the user device 30.
  • the model transmission unit 240 transmits the recognition model acquired from the model generation unit 238 described above to the sensor device 10 corresponding to each recognition model via the communication unit 270.
  • the difference extraction unit 426 acquires an image input by the image input unit 422, that is, an image captured by the sensor unit 100 and an image in which noise is reduced by the denoise processing unit 424, and these two images. Extract the difference between. That is, the difference between the image captured by the sensor unit 100 and the image in which the noise component of the image is reduced is calculated.
  • the difference extraction unit 426 performs a process of extracting a noise component.
  • an API called SetSceneMode is used.
  • the API called SetSceneMode is an API for setting the SceneMode
  • the SceneMode is a person detection, a moving object detection, and the like.
  • the recognition model for noise is used, and the outside of the tunnel is bright and the amount of noise is estimated not to be large, so the normal recognition model is used.
  • the noise recognition model is switched to the normal recognition model. In this way, it is possible to estimate the amount of noise according to the installation position of the sensor device 10 and set a recognition model suitable for the estimated amount of noise.
  • FIG. 17 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本技術は、ノイズレベルに応じた認識モデルを用いて、精度が保たれた処理が行われることができるようにする情報処理装置、情報処理方法、並びにプログラムに関する。 撮像された画像のノイズ量に応じて、認識モデルを切り替えるモデル切替部を備え、モデル切替部は、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える。認識モデルは、AI機能による処理に用いられる。例えば、監視カメラと監視カメラからのデータを配信するサーバから構成されるシステムに適用できる。

Description

情報処理装置、情報処理方法、並びにプログラム
 本技術は、情報処理装置、情報処理方法、並びにプログラムに関し、例えば、状況に適した認識モデルで処理できるようにした情報処理装置、情報処理方法、並びにプログラムに関する。
 近年、街頭のいたるところに監視カメラ等が設置され、さらに、走行する車両にも、当該車両の周囲環境を撮像することができる車載カメラが搭載されており、様々な場所における撮像画像を容易に取得することができるようになってきている。また、監視カメラなどでは撮影された画像を解析することで、人を検出したり、特定の人を認識したりすることも行われている。
 撮像された画像を解析することで人を検出する場合など、その検出の精度を保つために、カメラで撮像された画像のぼけ量や鮮明度に応じて異なるパラメータを用いて被写体検出処理を行うことが特許文献1に記載されている。また特許文献2には、どのようなタスクを分析するのかによりモデルを選択することが記載されている。
特開2019-186911号公報 特表2018-510399号公報
 例えば、AI(Artificial Intelligence)機能により、撮像された画像から人を検出するような処理を実行したとき、ノイズのある画像とノイズがない画像とで、処理の精度が異なってしまう可能性があった。このような処理の精度が異なってしまうようなことがないようにすることが望まれている。
 本技術は、このような状況に鑑みてなされたものであり、処理の精度が異なるようなことがないようにすることができるようにするものである。
 本技術の一側面の情報処理装置は、撮像された画像のノイズ量に応じて、認識モデルを切り替えるモデル切替部を備え、前記モデル切替部は、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える。
 本技術の一側面の情報処理方法は、情報処理装置が、撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える。
 本技術の一側面のプログラムは、コンピュータに、撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える処理を実行させる。
 本技術の一側面の情報処理装置、情報処理方法、並びにプログラムにおいては、撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとが切り替えられる。
 なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 また、プログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。
本技術を適用したデータ配信システムの一実施の形態の構成を示す図である。 センサデバイスの構成例を示す図である。 サービスサーバの構成例を示す図である。 認識モデルの生成について説明するための図である。 配信データの一例を示す図である。 前処理部が行う処理について説明するため図である。 情報処理方法の一例について説明するための図である。 認識モデル切替処理部の構成例を示す図である。 ノイズ検出部の構成例を示す図である。 認識モデルの切替に係わる処理について説明するためのフローチャートである。 認識モデルの切替に係わる処理について説明するためのフローチャートである。 認識モデルの切替の開始に係わる処理について説明するためのフローチャートである。 認識モデルの切替の開始に係わる他の処理について説明するためのフローチャートである。 認識モデルの切替の開始に係わる他の処理について説明するためのフローチャートである。 パーソナルコンピュータの構成例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
 <データ配信システムの概略構成>
 図1を参照して、本開示の実施の形態に係るデータ配信システム1の構成例を説明する。図1は、本開示の実施の形態に係るデータ配信システム1の概略的な機能構成を示したシステム図である。詳細には、図1に示すように、本実施の形態に係るデータ配信システム1は、複数のセンサデバイス10a,10b,10c、サービスサーバ20、複数のユーザデバイス30a,30b,30c、および認証サーバ40を主に含むことができる。
 これらの各装置は、例えば、図示しない基地局等(例えば、携帯電話機の基地局、無線LAN(Local Area Network)のアクセスポイント等)を介してネットワーク(図示省略)に接続されることにより、データ配信システム1が構築されることとなる。なお、上記ネットワークで用いられる通信方式は、有線又は無線(例えば、第5世代通信システム、WiFi(登録商標)、Bluetooth(登録商標)等)を問わず任意の方式を適用することができるが、大容量のデータを安定して高速送信することができる通信方式を用いることができる。
 また、データ配信システム1に含まれるセンサデバイス10やユーザデバイス(要求元)30は、図1に図示されるようにそれぞれ3つであることに限定されるものではなく、本実施の形態に係るデータ配信システム1には、それぞれ3つ以上含まれていてもよい。すなわち、本実施の形態に係るデータ配信システム1は、複数のセンサデバイス10を管理し、複数のユーザデバイス30からの要求を受け付け、それらにデータを送信することができる。以下に、本実施の形態に係るデータ配信システム1に含まれる各装置の概略について説明する。
 <センサデバイス>
 センサデバイス10は、設置された周囲環境のセンシングデータ(例えば、画像、音声等)を取得し、取得したセンシングデータから取得される配信データ(所定のデータ)を、後述するユーザデバイス30等の外部装置に送信することができる。また、センサデバイス10は、AI(Artificial Intelligence)機能が搭載されていることが望ましく、後述するサービスサーバ20から送信された認識モデルに基づき、取得したセンシングデータが、ユーザからの要求(配信リクエスト)に該当するかどうかを認識することができる。センサデバイス10は、センシングデータを扱う情報処理装置として機能する。
 例えば、センサデバイス10は、自動車等の移動体に搭載された撮像装置(カメラ)や、ユーザの携帯するスマートフォンに搭載された撮像装置、自宅や店舗等に設置された監視カメラ等の撮像装置であることができ、この場合、センシングデータは画像となる。この場合、これら撮像装置は、設置された周囲に位置する被写体からの光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することによって画像を取得することができる。
 なお、以下の説明においては、特段のことわりがない限りは、移動体とは、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット(移動ロボット)、建設機械、農業機械(トラクタ)等であることができる。
 また、センサデバイス10は、上述した撮像装置であることに限定されるものではない。例えば、センサデバイス10は、被写体までの距離(深さ)を計測する深度センサ、周囲環境の音を集音するマイクロフォン等の集音装置、周囲環境の温度及び湿度を計測する温度センサ及び湿度センサ、河川等の水位を測定する水位センサ等であってもよい。
 なお、センサデバイス10は、データ配信システム1に共通するインタフェース(データ転送形式、データ転送方法等)を持つものであれば、その内部構成については、基本的に限定されるものではない。従って、本実施の形態に係るデータ配信システム1は、仕様の異なる様々なセンサデバイス10を取り込むことができる。なお、センサデバイス10の詳細構成については後述する。
 <サービスサーバ>
 サービスサーバ20は、後述するユーザデバイス30から、上記センシングデータから生成され得る配信データの配信を要求する配信リクエストを受け付けるコンピュータである。またサービスサーバ20は、センサデバイス10やユーザデバイス30とデータの授受を行い、処理する情報処理装置として機能する。
 またサービスサーバ20は、複数の配信リクエスト(要求)を統合し、配信リクエストに応じた認識モデルを生成し、生成した認識モデルを上述したセンサデバイス10へ送信することができる。当該認識モデルは、センサデバイス10での認識に供されることとなるが、この詳細については後述する。
 また、サービスサーバ20は、必要に応じて、センサデバイス10から配信データを受信し、受信した配信データを、上記配信リクエストに該当するユーザデバイス30へ送信することもできる。例えば、サービスサーバ20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random ACCESS Memory)等のハードウェアにより実現されることができる。なお、サービスサーバ20の詳細構成につては後述する。
 <ユーザデバイス>
 ユーザデバイス30は、ユーザによって携帯され、もしくは、ユーザの近傍に設置され、ユーザから入力された情報を受け付け、受け付けた当該情報を配信リクエストとしてサービスサーバ20へ送信したり、配信リクエストに係る配信データを受信したりすることができる端末である。例えば、ユーザデバイス30は、タブレット型PC(Personal Computer)、スマートフォン、携帯電話、ラップトップ型PC、ノート型PC等のモバイル端末、HMD(Head Mounted Display)等のウェアラブルデバイスなど情報処理装置とすることができる。
 さらに詳細には、ユーザデバイス30は、ユーザに向けて表示を行う表示部(図示省略)や、ユーザからの操作を受け付ける操作部(図示省略)や、ユーザに向けて音声出力を行うスピーカ(図示省略)等を有していてもよい。
 なお、ユーザデバイス30には、例えば、データ配信システム1に共通するアプリケーション(アプリ)、もしくは、上述したサービスサーバ20と共通する仕様を持つアプリケーションがインストールされることができる。ユーザデバイス30は、上述のようなアプリケーションがインストールされることにより、データ配信システム1に共通する形式等を持つ、配信リクエストを生成し、送信したり、配信データを受け取ったりすることが可能となる。
 ユーザは、ユーザデバイス30を介して、サービスサーバ20へ配信リクエストを送信する。当該配信リクエストは、ユーザが配信を要求するデータの内容(データタイプ)等を指定する情報を含む。例えば、当該配信リクエストは、配信を要求する対象となるオブジェクト(例えば、顔、人物、動物、移動体、テキスト、道路(歩道、横断歩道、道幅、標識等)、ロゴ、バーコード等)と、オブジェクトに関するどのような情報(例えば、数量、速度、位置、状態、年齢、性別、特定した名前、推定結果等)を要求するのかを指定する情報(データタイプ)とからなるオブジェクト情報を含むことができる。
 また、当該配信リクエストは、配信データのデータフォーマット(例えば、画像、テキスト等)を指定するデータフォーマット情報を含むことができる。さらに、当該配信リクエストは、ユーザもしくはユーザデバイス30の識別情報(ID(identification))を含むことができる。なお、上記配信リクエストには、サービスサーバ20で認識モデルを生成する際に利用される各種データが含まれていてもよい(詳細は後述する)。
 上記配信リクエストは、データ配信システム1に共通するデータ形式を持つ。例えば、配信リクエストは、オブジェクト情報やデータフォーマット情報に対応する文字列や数字列を含むことができる。この場合、ユーザから高い頻度で要求されるオブジェクト情報やデータフォーマット情報については、対応する文字列や数字列を予め決定し、サービスサーバ20が保有する記憶部(図示省略)にデータベース(図示省略)として格納する。
 そして、サービスサーバ20は、上記データベースを参照することにより、配信リクエストに含まれる文字列等に対応するオブジェクト情報及びデータフォーマット情報を認識することができる。また、ユーザが所望するオブジェクト情報及びデータフォーマット情報に対応する文字列等が上記データベースに存在しない場合には、これらオブジェクト情報及びデータフォーマット情報は、上記配信リクエスト内で直接的に記述されてもよい。もしくは、この場合、ユーザが所望するオブジェクト情報及びデータフォーマット情報に対応する文字列を新たに決定して、決定した文字列等を、上記配信リクエスト及び上記データベースに記述してもよい。
 <認証サーバ>
 認証サーバ40は、センサデバイス10やサービスサーバ20からそれぞれの認証情報(ID)を受信し、これらの各装置が、本実施の形態に係るデータ配信システム1によるサービスを提供する、もしくは提供される権限を有するか否かを判定するコンピュータである。さらに、認証サーバ40は、権限を有する装置に対して、サービスへのアクセスを可能にするキーや、サービスを提供するもしくはサービスを提供されるためのコマンド等を送信する。
 そして、上記認証情報は、データ配信システム1に共通するデータ形式を持つものとする。すなわち、認証サーバ40は、認証API(Application Programming Interface)として用いられ、センサデバイス10とサービスサーバ20とを認証し、互いに紐づけることができる。本実施の形態に係るデータ配信システム1は、このような認証サーバ40を組み込むことにより、当該データ配信システム1のセキュリティを確保し、各センサデバイス10を、サービスサーバ20を介して各ユーザデバイス30と紐づけることができる。また、認証サーバ40は、例えば、CPU、ROM、RAM等のハードウェアにより実現されることができる。なお、認証サーバ40は、ユーザデバイス30に対する認証を行ってもよい。
 なお、本実施の形態に係るデータ配信システム1においては、センサデバイス10やサービスサーバ20は、それぞれ単一の装置によって実現されていなくてもよく、有線又は無線の各種のネットワーク(図示省略)を介して接続され、互いに協働する複数の装置によって実現されてもよい。
 <センサデバイスの詳細構成例>
 次に、図2を参照して、本実施の形態に係るセンサデバイス10の詳細構成を説明する。図2は、本実施の形態に係るセンサデバイス10の機能構成例を示すブロック図である。詳細には、図2に示すように、センサデバイス10は、センサ部100と、測位部110と、処理部130と、記憶部160と、通信部170とを主に有する。以下に、センサデバイス10の各機能ブロックについて順次説明する。
 センサ部100は、センシングデータを取得し、取得したセンシングデータを後述する処理部130へ出力する。詳細には、センサデバイス10が撮像装置であった場合には、センサ部100は、被写体から発せられる光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及び、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有することとなる。
 なお、センサ部100は、センサデバイス10内に固定されるように設けられていてもよく、センサデバイス10に脱着可能に設けられていてもよい。
 また、センサ部100は、撮像装置の他にも、深度センサとしてTOF(Time of Flight)センサ(図示省略)を含んでいてもよい。TOFセンサは、被写体からの反射光の戻り時間を直接的又は間接的に計測することにより、TOFセンサと被写体との間の距離及び凹凸等の形状情報(深度情報/画像)を取得することができる。さらに、センサ部100は、集音装置(マイク)、温度センサ、気圧センサ、湿度センサ、風向風速センサ、日照センサ、降水量センサ、水位センサ等を含んでいてもよく、周囲環境からセンシングデータを取得することができれば特に限定されるものではない。
 測位部110は、配信リクエストに該当するセンシングデータが取得された際のセンサデバイス10の測位データを取得し、取得した測位データを、処理部130(詳細には、データ生成部144)に出力する。例えば、当該測位データは、配信データとともに、後述する処理部130の配信部146により、ユーザデバイス30へ送信されることとなる。
 測位部110は、具体的には、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、測位部110は、GNSS衛星からの信号に基づいて、センサデバイス10の現在地の緯度・経度を示す測位データを生成することができる。また、例えば、RFID(Radio Frequency Identification)、Wi-Fiのアクセスポイント、無線基地局の情報等からユーザの相対的な位置関係を検出することが可能なため、このような通信装置を上記測位部110として利用することも可能である。なお、測位部110は、センサデバイス10に設けられていなくてもよい。
 処理部130は、センサ部100が取得したセンシングデータを処理し、配信データを生成する機能を有する。処理部130は、例えば、CPUやGPU(Graphics Processing Unit)等の処理回路や、ROM、RAM等により実現される。詳細には、図2に示すように、処理部130は、ID送信部132と、key受信部134と、センサデータ取得部136と、前処理部138と、モデル取得部140と、認識部142と、データ生成部144と、配信部146とを主に有する。以下に、処理部130の有する各機能部の詳細について説明する。
 ID送信部132は、後述する通信部170を介して、センサデバイス10の認証情報(ID)を認証サーバ40に送信する。当該認証情報は、認証サーバ40にて、センサデバイス10が、本実施の形態に係るデータ配信システム1によるサービスを提供する権限を有するか否かを判定する際に用いられる。本実施の形態に係るデータ配信システム1は、このような認証により、当該データ配信システム1のセキュリティを確保している。
 key受信部134は、後述する通信部170を介して、認証サーバ40から送信されたサービスへのアクセスを可能にするキーや、サービスを提供するためのコマンド等を受信し、受信したキー等を後述するモデル取得部140へ出力する。当該モデル取得部140は、key受信部134で受信したキー等を用いて、サービスサーバ20から認識モデルを取得することができる。
 センサデータ取得部136は、センサ部100を制御して、センサ部100から出力されたセンシングデータを取得し、取得したセンシングデータを後述する前処理部138又は認識部142へ出力する。
 前処理部138は、後述するモデル取得部140が取得した認識モデルに含まれる情報(例えば、認識モデルを生成する際に用いた教師データに関する情報等)に応じて、センサデータ取得部136から出力されたセンシングデータを前処理して、前処理したセンシングデータを後述する認識部142へ出力する。
 詳細には、認識部142は、機械学習で得られた、配信リクエストに対応する認識モデルを用いて、センシングデータが当該配信リクエストに該当することになるかどうかを認識する。そこで、センシングデータが認識モデルに近い形態を持つように前処理を行うことにより、上記認識に好適なセンシングデータを認識部142に提供することができる。その結果、本実施の形態によれば、認識部142の認識の精度を向上させることができる。なお、前処理部138での前処理の詳細については、後述する。
 モデル取得部140は、後述する通信部170を介して、サービスサーバ20から、配信リクエストに対応する認識モデルを取得し、取得した認識モデルを前処理部138及び認識部142に出力する。なお、当該認識モデルの詳細については後述する。
 認識部142は、AI機能等を利用して、モデル取得部140から出力された認識モデルに基づき、センサデータ取得部136から出力されたセンシングデータ、もしくは、前処理部138で前処理されたセンシングデータが、配信リクエストに該当するかどうかを認識することができる。
 より具体的には、認識部142は、例えば、センシングデータとしての画像に、配信リクエストで指定されたオブジェクトの画像が含まれるかどうかを認識することができる(言い換えると、オブジェクトの認識)。そして、認識部142は、認識結果を後述するデータ生成部144に出力する。なお、当該認識モデルは、サービスサーバ20における機械学習で得られ、例えば、配信リクエストで指定されたオブジェクトの画像や音声等のデータから得られた当該オブジェクトを特徴づける特徴情報であることができる。上述のような認識をセンサデバイス10で行うことから、センシングデータの取得後すぐに認識を行うことができる。なお、認識部142における認識の詳細については後述する。
 データ生成部144は、上述した認識部142でセンシングデータが配信リクエストに該当すると認識された場合、当該センシングデータに対して当該配信リクエストに応じた処理を行い、配信データを生成することができる。例えば、データ生成部144は、センシングデータから配信リクエストで指定されたオブジェクトに関するデータのみを抽出したり、抽象化したり、テキストデータ化したりすることにより、配信データを生成することができる。
 より具体的には、当該配信データは、配信リクエストで指定された、オブジェクトの属性情報、数量情報、位置情報、状態情報、動作情報、周囲環境情報、及び、予測情報のうちの少なくとも1つの情報を含むことができる。さらに、配信データのデータフォーマットは、画像データ、音声データ、テキストデータ等であることができ、特に限定されるものではない。このように、センサデバイス10にて、配信リクエストに該当したセンシングデータを処理して、配信データを生成することから、リアルタイムで配信を実現することができる。
 また、データ生成部144は、センシングデータが配信リクエストに該当しない場合には、配信データを生成、配信することはない。従って、本実施の形態によれば、センシングデータが配信リクエストに該当するか否かに関係なくセンシングデータを送信する場合に比べて、データ送信の負荷を減らすことができる。
 さらに、データ生成部144は、例えば、配信データから、センシングデータに含まれるプライバシに関する情報(例えば、人物が特定できる程度の人物の撮像)を排除することができる。また、データ生成部144は、例えば、配信データ上で、プライバシに関する情報にマスクがかけることができる。このようにすることで、プライバシの保護を確保している。なお、このような処理の例については後述する。
 配信部146は、上述したデータ生成部144で生成した配信データを、ユーザデバイス30又はサービスサーバ20へ配信する。なお、配信部146は、複数の異なる配信データをユーザデバイス30又はサービスサーバ20へ配信することもできる。例えば、配信部146は、上記情報として、配信データに対応するセンシングデータが取得された際の日時の情報、配信データを配信した日時の情報、データタイプ、データフォーマット、配信量、配信先(例えばユーザデバイス30の認識情報)等を出力する。
 記憶部160は、処理部130が各種処理を実行するためのプログラム、情報等や、処理によって得た情報を格納する。記憶部160は、例えば、HDD(Hard Disk Drive)等の記憶装置により実現される。
 通信部170は、サービスサーバ20等の外部装置との間で情報の送受信を行うことができる。通信部170は、データの送受信を行う機能を有する通信インタフェースと言える。なお、通信部170は、通信アンテナ、送受信回路やポート等の通信デバイス(図示省略)により実現される。
 <サービスサーバの詳細構成>
 次に、図3を参照して、本実施の形態に係るサービスサーバ20の詳細構成を説明する。図3は、本実施の形態に係るサービスサーバ20の機能構成例を示すブロック図である。詳細には、図3に示すように、サービスサーバ20は、処理部230と、記憶部260と、通信部270とを主に有する。以下に、サービスサーバ20の各機能ブロックについて順次説明する。
 処理部230は、後述する通信部270を介して、ユーザデバイス30から配信リクエストを取得し、取得した配信リクエストに応じた認識モデルを生成し、生成した認識モデルを、センサデバイス10へ送信したりする機能を有する。処理部230は、例えば、CPUやGPU等の処理回路や、ROM、RAM等により実現される。詳細には、図3に示すように、処理部230は、ID送信部232と、リクエスト受付部234と、能力情報取得部236と、モデル生成部238と、モデル送信部240と、データ取得部242と、配信部246とを主に有する。以下に、処理部230の有する各機能部の詳細について説明する。
 ID送信部232は、後述する通信部270を介して、サービスサーバ20の認証情報(ID)を認証サーバ40に送信する。当該認証情報は、認証サーバ40にて、サービスサーバ20が、本実施の形態に係るデータ配信システム1によるサービスを提供される権限を有するか否かを判定する際に用いられる。本実施の形態に係るデータ配信システム1は、このような認証により、当該データ配信システム1のセキュリティを確保している。
 リクエスト受付部234は、後述する通信部270を介して、1つ又は複数のユーザデバイス30から配信リクエストを受け付け、受け付けた配信リクエストを後述するモデル生成部238へ出力する。なお、リクエスト受付部234は、共通する配信リクエストについては、これらを統合して出力してもよい。
 能力情報取得部236は、後述する通信部270を介して、各センサデバイス10のセンシング能力(センシングの種別、精度、位置、範囲、粒度等)や演算能力を示す能力情報を予め取得し、取得した能力情報を後述するモデル生成部238に出力する。なお、能力情報取得部236は、センサデバイス10の機能等がアップデートされた際に、能力情報を再取得することが好ましい。
 そして、後述するモデル生成部238において、各センサデバイス10の能力情報に基づいて、各センサデバイス10の能力に応じた認識モデルが生成されることとなる。従って、本実施の形態によれば、センサデバイス10の機能等がアップデートされた際に能力情報を再取得するようにすることで、現時点の各センサデバイス10の能力に応じるものになるように認識モデルを更新することができる。
 モデル生成部238は、リクエスト受付部234からの配信リクエスト及び能力情報取得部236からの能力情報に基づき、各センサデバイス10の能力に応じて、配信リクエストに対応する認識モデルを機械学習により生成することができる。さらに、モデル生成部238は、生成した認識モデルを、後述するモデル送信部240に出力することができる。
 なお、モデル生成部238は、機械学習に必要なデータを、ユーザデバイス30又は図示しない他のサーバから取得してもよい。モデル生成部238は、各センサデバイス10に好適な認識モデルを生成することができることから、センサデバイス10における認識を実現することができる。また、センサデバイス10の機能等がアップデートされた際に能力情報を再取得し、認識モデルを再生成することも可能であることから、認識モデルを動的に変えて、センサデバイス10での認識を向上させることができる。
 また、モデル生成部238は、モデル生成部238の機械学習で用いたデータに関する情報(例えば、認識モデルを生成する際に用いた教師データに関する情報等)を、認識モデルに含ませてもよい。当該情報は、センサデバイス10の前処理部138において、センシングデータが認識モデルに近い形態を持つように前処理を行う際に用いられる。さらに、モデル生成部238は、センサデバイス10の能力情報に基づく、配信リクエストで指定された配信データを生成するために求められるセンシングデータを取得するための、センサデバイス10のセンサ部100の設定に関する設定情報を、認識モデルに含ませてもよい。なお、モデル生成部238はサービスサーバ20と別個の装置として設けられていてもよく、特に限定されるものではない。
 モデル送信部240は、上述したモデル生成部238から取得した認識モデルを、各認識モデルに対応するセンサデバイス10へ、通信部270を介して送信する。
 データ取得部242は、後述する通信部270を介して、センサデバイス10から配信リクエストに対応する配信データを取得し、取得した配信データを後述する配信部246に出力する。なお、センサデバイス10からユーザデバイス30へ直接配信データを送信する場合には、当該データ取得部242は設けられていなくてもよい。
 配信部246は、上述したデータ取得部242で取得した配信データを、後述する通信部270を介して、配信リクエストに該当するユーザデバイス30へ配信する。なお、センサデバイス10からユーザデバイス30へ直接配信データを送信する場合には、当該配信部246は設けられていなくてもよい。
 記憶部260は、処理部230が各種処理を実行するためのプログラム、情報等や、処理によって得た情報を格納する。なお、記憶部260は、例えば、HDD等の記憶装置により実現される。
 通信部270は、センサデバイス10、ユーザデバイス30等の外部装置との間で情報の送受信を行うことができる。言い換えると、通信部270は、データの送受信を行う機能を有する通信インタフェースと言える。なお、通信部270は、通信アンテナ、送受信回路やポート等の通信デバイス(図示省略)により実現される。
 <本実施の形態に係る認識について>
 次に、図4から図6を参照して、本実施の形態に係る認識の一例について説明する。図4は、本実施の形態に係る認識モデル310の生成例を説明するための説明図であり、図5は、本実施の形態に係る配信データの例を説明するための説明図であり、図6は、本実施の形態に係る前処理の例を説明するための説明図である。
 本実施の形態に係る認識で用いられるモデルの生成について説明する。認識モデルは、上述したように、サービスサーバ20のモデル生成部238で生成される。上記モデル生成部238は、図4に示すように、例えば、サポートベクターレグレッションやディープニューラルネットワーク等の教師付き学習器238aを有するものとする。
 学習器238aには、例えば、配信リクエストで指定される配信を要求する対象となるオブジェクトに関する情報である複数の教師データ302-1~302-nが入力される。そして、当該学習器238aは、入力された複数の教師データ302-1~302-nを機械学習することにより、センサデバイス10の認識部142での認識で用いられる認識モデル310を生成することができる。
 複数のセンサデバイス10は、そのセンシング能力や演算能力が互いに異なり、すなわち、認識できる能力が互いに異なるため、学習器238aは、上述した各センサデバイス10の能力情報に応じて各認識モデル310を生成することが好ましい。従って、様々な仕様を持つ複数のセンサデバイス10が含まれていても、各センサデバイス10の能力に応じた認識モデル310を生成することができることから、各センサデバイス10で認識を行うことができる。
 より詳細には、上記学習器238aは、例えば、配信リクエストで指定される配信を要求する対象となるオブジェクト300-1~300-nでそれぞれラベル付けされた、当該オブジェクトに関する教師データ302-1~302-nが入力される。そして、学習器238aは、コンボリューショナルニューラルネットワーク等による機械学習により、複数の教師データ302-1~302-nから、当該オブジェクトの特徴点、特徴量を抽出する。このように抽出された特徴点等の情報が、各センサデバイス10で取得されたセンシングデータに当該オブジェクトの情報が含まれているかどうかを認識するための認識モデル310となる。
 ここで、具体例を示して、本実施の形態に係る認識モデル310の生成について説明する。例えば、ユーザからの配信リクエストにより、センサデバイス10で取得した画像(センシングデータ)を用いて、所定の人物(オブジェクト)を探索することを要求された場合(配信データは、所定の人物の位置情報となる場合)を説明する。
 サービスサーバ20は、上記配信リクエストを送信したユーザデバイス30又は図示しないサーバから、認識モデル310を生成する際に利用する複数の教師データ302として、所定の人物の複数の画像を取得する。そして、サービスサーバ20は、図4に示すように、取得した複数の画像(教師データ)302-1~302-nを、所定の人物(オブジェクト)300-1~300-nというラベルをそれぞれに付して、学習器238aに入力する。さらに、学習器238aは、複数の画像(教師データ)302-1~302-nを用いた機械学習により、複数の画像(教師データ)302-1~302-nから、所定の人物(オブジェクト)300の画像の特徴点、特徴量を抽出し、画像(センシングデータ)から所定の人物(オブジェクト)300の画像を認識するための認識モデル310を生成する。
 なお、上述の例と同様に、ユーザからの配信リクエストにより、センサデバイス10で取得したセンシングデータ(ここでは、特にセンシングデータの種別を限定していない)を用いて、所定の人物(オブジェクト)を探索することを要求された場合には、学習器238aは、各センサデバイス10で取得可能なセンシングデータの種別に応じて認識モデル310を生成してもよい。
 より具体的には、学習器238aは、画像を取得することが可能なセンサデバイス10のために画像から所定の人物の画像を認識するための認識モデル310を生成し、環境音を取得することが可能なセンサデバイス10のために環境音から所定の人物の音声を認識するための認識モデル310を生成する。従って、様々な仕様を持つ複数のセンサデバイス10が含まれていても、各センサデバイス10の能力に応じた認識モデル310を生成することができることから、各センサデバイス10で認識を行うことができる。
 また、上述したように、認識モデル310は、機械学習で用いた教師データ302に関する情報を含んでいてもよい。ここで、教師データ302に関する情報とは、教師データ302の種別(例えば、画像、音声等)や、教師データの品質(ひずみ補償レベル、画素欠陥、ホワイトバランス、画像サイズ、彩度、輝度、ガンマ、コントラスト、エッジ強調レベル、フォーカス、露出レベル、解像度、ダイナミックレンジ、ノイズリダクションレベル等)であることができる。
 このような教師データ302に関する情報は、先に説明したセンサデバイス10の前処理部138において、取得されたセンシングデータが認識モデル(詳細には教師データ302)に近い形態を持つように前処理を行う際に用いられることができる。このようにすることで、センサデバイス10の認識部142の認識の精度を向上させることができる。
 また、上述したように、認識モデル310は、配信リクエストで指定された配信データを生成するために求められるセンシングデータを取得するための、センサデバイス10のセンサ部100の設定に関する設定情報を含んでいてもよい。ここで、設定情報とは、センシングデータの種別(例えば、画像、音声等)や、所望するセンシングデータの品質に応じたセンサ部100の設定値(ひずみ補償レベル、ホワイトバランス、画像サイズ、彩度、輝度、ガンマ、コントラスト、エッジ強調レベル、フォーカス、露出レベル、解像度、ダイナミックレンジ、ノイズリダクションレベル等)であることができる。このような設定情報は、センサ部100の設定の際に用いられ、認識モデル310に応じたセンシングデータを取得することを可能にし、ひいては認識部142の認識の精度を向上させることができる。
 なお、学習器238aはサービスサーバ20と別個のサーバに設けられていてもよく、特に限定されるものではない。さらに、学習器238aにおける学習方法は、上述した方法に限定されるものではなく別の方法を用いてもよい。
 <認識モデルを用いた認識>
 次に、上述した認識モデル310を用いた認識について説明する。上述したように、認識モデル310は、センサデバイス10の認識部142で、センシングデータ、もしくは、前処理されたセンシングデータが、配信リクエストに該当するかどうかを認識する際に用いられる。ここで、具体例を示して、本実施の形態に係る認識ついて説明する。
 例えば、ユーザからの配信リクエストにより、センサデバイス10で取得した画像(センシングデータ)を用いて、所定の人物(オブジェクト)を探索することを要求された場合(配信データは、所定の人物の位置情報となる)を説明する。センサデバイス10は、センサ部100から画像を取得する。そして、認識部142は、サービスサーバ20から取得した認識モデル310、詳細には、所定の人物(オブジェクト)300の画像の特徴点、特徴量を参照して、センサ部100から取得した画像に、所定の人物の画像が含まれているかどうかを認識する。すなわち、上述のような認識をセンサデバイス10で行うことから、画像の取得後すぐに認識を行うことができる。
 上述したように、複数のセンサデバイス10は、そのセンシング能力や演算能力が互いに異なり、すなわち、認識できる能力が互いに異なるため、各センサデバイス10の能力情報に応じて、各認識モデル310を生成され、各認識が行われる。例えば、本実施の形態においては、ユーザからの配信リクエストにより、センサデバイス10で取得したセンシングデータ(ここでは、特にセンシングデータの種別を限定していない)を用いて、所定の人物(オブジェクト)を探索することを要求された場合には、画像を取得することが可能なセンサデバイス10の認識部142は、認識モデル310に基づいて、画像から所定の人物の画像を認識し、環境音を取得することが可能なセンサデバイス10の認識部142は、認識モデル310に基づいて、環境音から所定の人物の音声を認識する。
 なお、認識部142は、センサデバイス10と別個の装置に設けられていてもよく、特に限定されるものではない。さらに、認識部142における認識方法は、上述した方法に限定されるものではなく別の方法を用いてもよい。
 次に、図5を参照して、本実施の形態に係る配信データの例について説明する。上述したように、センサデバイス10のデータ生成部144は、センシングデータに対して当該配信リクエストに応じた処理を行い、配信データを生成する。当該配信データは、配信リクエストで指定された、オブジェクトの属性情報、数量情報、位置情報、状態情報、動作情報、周囲環境情報、及び、予測情報のうちの少なくとも1つの情報を含むことができる。
 また、当該配信データは、画像やテキスト等のデータフォーマットを持つことができ、特に限定されるものではない。さらに、配信データには、配信リクエストを送信したユーザもしくはユーザデバイス30の識別情報が含まれていることが好ましい。すなわち、例えば、データ生成部144は、配信リクエストに応じて、センシングデータから配信リクエストで指定されたオブジェクトのデータのみを配信データとして抽出したり、抽象化したり、テキストデータ化したりすることができる。
 このように、データ生成部144が、配信リクエストに該当したセンシングデータを処理して配信データを生成する、リアルタイムでの配信を実現することができる。また、データ生成部144は、センシングデータが配信リクエストに該当しない場合には、配信データを生成、送信することはない。従って、本実施の形態によれば、センシングデータが配信リクエストに該当するか否かに関係なくセンシングデータを送信する場合に比べて、データ送信の負荷を減らすことができる。
 また、データ生成部144は、配信データから、センシングデータに含まれるプライバシに関する情報(例えば、人物が特定できる程度の人物の撮像)を排除することができる。このようにすることで、プライバシの保護を確保にしている。より具体的には、図5の最上段に示される例では、データ生成部144は、配信リクエストに該当するセンシングデータとして道路の画像Aが取得された場合、配信リクエストで指定された看板標識や横断歩道のみを抽出して、配信データAを生成する。
 また、図5の上から2段目に示される例では、データ生成部144は、配信リクエストに該当するセンシングデータとして道路の画像Bが取得された場合、配信リクエストで指定された道路上の標識や車両のみを抽出して、配信データBを生成する。
 また、図5の上から3段目に示される例では、データ生成部144は、配信リクエストに該当するセンシングデータとして道路の画像Cが取得された場合、配信リクエストで指定された看板標識や水たまりのみを抽出して、配信データCを生成する。
 さらに、図5の最下段に示される例では、データ生成部144は、配信リクエストに該当するセンシングデータとして道路の画像Dが取得された場合、配信リクエストで指定された横断歩道や当該横断歩道を渡る人物のみを抽出して、配信データDを生成する。
 次に、図6を参照して、本実施の形態に係る前処理の例について説明する。上述したように、認識部142は、機械学習で得られた認識モデル310を用いて、センシングデータが配信リクエストに該当するかどうかを認識することができる。そして、認識部142での認識の精度を向上させるために、センサデバイス10の前処理部138は、上述した教師データに関する情報に基づいて、センシングデータが認識モデル310に近い形態を持つように前処理を行う。詳細には、前処理部138は、フォーマット、ひずみ補償レベル、画素欠陥、ホワイトバランス、画像サイズ、彩度、輝度、ガンマ、コントラスト、エッジ強調レベル、フォーカス、露出レベル、解像度、ダイナミックレンジ、ノイズリダクションレベル等が教師データ302と同等になるように、センシングデータに対して前処理を行う。
 より具体的には、例えば、センサデバイス10のセンサ部100で、図6の上段に示すような各画像をセンシングデータとして取得した場合には、前処理部138は、画質サイズ及びフォーカスが教師データ302と同等になるように、図6の上段の各画像に対して前処理を行う。そして、前処理部138は、図6の下段に示すような各画像を取得する。本実施の形態によれば、このように、前処理部138で、認識モデル310を生成する際に用いた教師データ302と同等のデータレベルを持つセンシングデータになるように前処理することにより、認識部142での認識の精度をより向上させることができる。
 次に、図7を参照して、本開示の実施の形態に係る情報処理方法について説明する。図7は、本実施の形態に係る情報処理方法の一例を示すシーケンス図である。
 ステップS1において、ユーザデバイス30は、ユーザから入力された情報を受け付け、受け付けた当該情報を配信リクエストとしてサービスサーバ20へ送信する。ステップS2において、サービスサーバ20は、ユーザデバイス30から配信リクエストを受信する。
 ステップS3において、サービスサーバ20は、上述したステップS2で受信した配信リクエストに基づいて、認識モデルを生成し、生成した認識モデルを各センサデバイス10へ送信する。
 ステップS4において、センサデバイス10は、サービスサーバ20から認識モデルを受信する。また、ステップS5において、センサデバイス10は、センシングを行い、センシングデータを取得する。さらに、ステップS6において、センサデバイス10は、上述したステップS4で受信した認識モデルに基づいて、上述したステップS5で取得したセンシングデータが配信リクエストに該当するかどうかを認識する。
 センサデバイス10は、上述したステップS6でセンシングデータが配信リクエストに該当すると認識したことに基づいて、当該センシングデータに対して配信リクエストに応じた処理を行い、配信データを生成する。さらに、ステップS7において、センサデバイス10は、生成した配信データを、配信リクエストに係るユーザデバイス30へ直接送信する。
 なお、他の実施の形態として、センサデバイス10からユーザデバイス30に、配信データが、直接送信されるのではなく、サービスサーバ20を介して送信されるようにしても良い。
 ステップS8において、ユーザデバイス30は、センサデバイス10から送信された配信データを受信する。
 以上説明したように、上述した本実施の形態によれば、様々なセンサデバイス10が取得したセンシングデータから得られる情報を様々なユーザが容易に利用することが可能なフレームワークを構築することができる。
 <認識モデルの切り替え機能の追加>
 センサデバイス10は、上述したように、自動車等の移動体に搭載された撮像装置(カメラ)や、ユーザの携帯するスマートフォンに搭載された撮像装置、自宅や店舗等に設置された監視カメラ等の撮像装置などである。
 センサデバイス10で撮像される画像に、ノイズが乗ってしまうことがある。ノイズが多くなると、認識モデルによる認識の精度が落ちる可能性がある。認識モデルは、図4を参照して説明したように、例えば、サポートベクターレグレッションやディープニューラルネットワーク等の教師付き学習器238aにより学習されたモデルである。
 例えば、学習器238aがディープニューラルネットワーク技術を適用して学習を行う場合、ノイズが無い画像で学習を行うことが多い。ノイズがない画像で学習が行われた認識モデルは、ノイズのない画像を処理するときの精度は良いが、ノイズのある画像を処理するときの精度は落ちる可能性がある。
 ノイズが入った画像を処理する場合、ノイズが入った画像に最適化された認識モデルを用いる方が、ノイズの入っていない画像で学習された認識モデルを用いるよりも検出精度、認識精度が高くなる。
 このようなことを考慮し、センサデバイス10で撮像される画像にノイズが入っている場合、ノイズ入りの画像で学習した認識モデルを用いるようにし、ノイズが入っていない場合、ノイズなしの画像で学習した認識モデルを用いるようにする。以下、ノイズ入りの画像で学習した認識モデルを、ノイズ用認識モデルと記述し、ノイズなしの画像で学習した認識モデルを、通常認識モデルと記述する。
 ノイズ用認識モデルを、図4を参照して説明したように生成する場合、ノイズ入りの画像を複数枚(ノイズ入り画像のデータセット)用意し、学習を行うことで生成することができる。また、ノイズなし画像に人工的にノイズを乗せた画像を生成し、そのノイズ入りの画像を用いて学習が行われるようにすることもできる。
 このようにしてノイズ用認識モデルと通常認識モデルを生成した場合、ノイズ用認識モデルの方が、通常認識モデルよりも層が深くなる(規模が大きくなる)傾向にある。認識モデルの違いはこのように、層の深さなどが異なり、処理対象とするものに適した学習が行われた認識モデルによれば、高い性能で処理することができる。
 以下の説明では、通常認識モデルを用いて処理を行い、センサデバイス10で撮像されている画像に乗っているノイズの量が多くなってきたと判定された場合、ノイズ用認識モデルに切り替えて処理を行う場合を例に挙げて説明を続ける。
 図8は、ノイズ量に応じて認識モデルを切り替える場合の、センサデバイス10とサービスサーバ20から構成されるシステムが有する機能構成例を示す図である。センサデバイス10とサービスサーバ20から構成されるシステムは、認識モデルの切り替えに係わる処理を実行する認識モデル切替処理部400を有する。
 認識モデル切替処理部400は、ノイズ検出部420、認識モデル切替判断部440、および認識モデル切替部460を備える。ノイズ検出部420は、センサデバイス10のセンサ部100で撮像される画像にのっているノイズ量を検出する。
 認識モデル切替判断部440は、ノイズ検出部420で検出さえたノイズの量に基づいて、認識モデルを切り替えるか否かを判断する。例えば、認識モデル切替判断部440は、ノイズ検出部420で検出されたノイズ量が所定の閾値以上になったと判定されるとき、認識モデルをノイズ用認識モデルに切り替えると判断する。
 認識モデル切替部460は、認識モデル切替判断部440で認識モデルを切り替えると判断されたとき、認識モデルの切り替えに係わる処理を実行する。認識モデルは、上記した実施の形態においては、サービスサーバ20側からセンサデバイス10側に送信され、センサデバイス10は、送信されてきた認識モデルを用いて処理を行う。このような場合、認識モデル切替部460は、サービスサーバ20からセンサデバイス10にノイズ用認識モデルを送信させ、センサデバイス10に、ノイズ用認識モデルでの処理の開始を指示する処理を行う。
 図9は、ノイズ検出部420の構成例を示す図である。ノイズ検出部420は、画像入力部422、デノイズ処理部424、差分抽出部426、およびノイズ量算出部428を含む構成とされている。
 画像入力部422は、センサデバイス10のセンサ部100で撮像された画像を入力する。画像入力部422に入力された画像は、デノイズ処理部424と差分抽出部426に供給される。
 デノイズ処理部424は、入力された画像から、ノイズを除去する処理、例えばNR(Noise Reduction)の処理を実行し、画像にのっているノイズが軽減された画像を生成し、差分抽出部426に供給する。
 差分抽出部426は、画像入力部422により入力された画像、すなわちこの場合、センサ部100で撮像された画像と、デノイズ処理部424によりノイズが低減された画像を取得し、この2枚の画像の差分を抽出する。すなわちセンサ部100で撮像された画像と、その画像のノイズ成分を低減した画像との差分が算出される。
 センサ部100で撮像された画像のノイズ成分が少なかった場合、ノイズ成分を低減した画像との差分は、小さいくなる。また、センサ部100で撮像された画像のノイズ成分が大きかった場合、ノイズ成分を低減した画像との差分は、大きくなる。差分抽出部426は、ノイズ成分を抽出する処理を行う。
 ノイズ量算出部428は、差分抽出部426で抽出された差分、すなわちノイズ成分を用いて、ノイズ量を算出する。例えばノイズ量算出部428は、次式(1)により求められる。
 ノイズ量n=Σabs(sub)  ・・・(1)
 式(1)は、差分抽出部426で算出された差分の絶対値を累積加算する式である。例えば、差分抽出部426で、画素毎に差分が算出され、ノイズ量算出部428で、画素毎に算出された差分が累積加算されることで、1画像における差分値、すなわちノイズ量が算出される。
 ノイズ量算出部428で算出されたノイズ量は、認識モデル切替判断部440に供給される。認識モデル切替判断部440は、ノイズ量算出部428で算出されたノイズ量が、認識モデルを切り替えるレベルであるか否かを判断する。認識モデル切替判断部440は、
 ノイズ量n>閾値 
であるか否かを判断することで、認識モデルを切り替えるレベルであるか否かを判断する。この閾値は、認識モデルを切り替えると判断するノイズ量として設定されている値となる。
 図10のフローチャートを参照して、認識モデル切替処理部400の処理について説明を加える。ステップS11において、画像のノイズレベルが閾値以上であるか否かが判定される。ステップS11における処理は、ノイズ検出部420によりノイズ量が算出され、その算出されたノイズ量が、認識モデルを切り替えるレベルであるか否かを、認識モデル切替判断部440が判断することで行われる。
 ステップS11において、画像のノイズレベルが閾値以上ではないと判定された場合、ステップS12に処理は進められる。ステップS12において、ノイズなし画像用の認識モデル(通常認識モデル)が用いられた認識処理を行うモード(以下、適宜、通常モードと記述する)に設定される。
 一方で、ステップS11において、画像のノイズレベルは閾値以上であると判定された場合、ステップS13に処理は進められる。ステップS13において、ノイズあり画像用の認識モデル(ノイズ用認識モデル)が用いられた認識処理を行うモード(以下、適宜、ノイズ対応モードと記述する)に設定される。
 このように、ノイズレベルに応じて、用いられる認識モデルが設定される。
 <認識モデルの切り替えに係わる処理>
 図11のフローチャートを参照し、センサデバイス10とサービスサーバ20との間で行われる処理について説明する。図11には、NICE(Network of Intelligent Camera Ecosystem)Allianceで規定されている仕様を適用したときに用いられるAPI(Application Programming Interface)を図中右側に記載してある。このことは、本技術は、NICE規格に基づいて処理を実行することが可能であることを示す記載であるが、NICE規格にのみに本技術の適用範囲が限定されることを示す記載ではない。すなわち、本技術は、NICE規格に適用することができるし、NICE規格以外の規格に対しても適用できる。
 ステップS101において、サービスサーバ20からセンサデバイス10に対して情報要求が出される。この要求に応じて、センサデバイス10は、ステップS102において、センサデバイス10の情報通知を、サービスサーバ20に対して行う。このステップS101とステップS102において実行されるセンサデバイス10に関する情報の授受を、NICE規格に基づいて行う場合、GetCapabilitiesというAPIが用いられる。
 GetCapabilitiesというAPIは、デバイスの能力を問い合わせるためのAPIであり、例えば、動画や静止画を撮影する能力があるか、フォーマットとしてJPEGやH.264などW扱えるか、どのSceneModeに対応しているかなどの情報を授受するためのAPIである。
 本技術を適用した場合、GetCapabilitiesというAPIを用いて授受されるセンサデバイス10の情報には、ノイズ検出部420で検出されたノイズ量(ノイズレベル)に関する情報も含まれる。
 ステップS103において、サービスサーバ20は、モード設定を行う。サービスサーバ20は、センサデバイス10からのセンサデバイス10の能力や状態に関する情報を受信しており、この情報を元に、適切なモードを設定する。設定されるモードは、通常モード、またはノイズ対応モードである。
 また、モードが設定されるとは、認識部142(図8)が用いる認識モデルが設定されることも含まれる。換言すれば、設定されるモードに対応するAI機能が設定される。ステップS103で設定されるモードは、通常モードであり、設定される認識モデルは、通常認識モデルである。
 上記したように、認識部142は、AI機能を利用して、モデル取得部140から出力された認識モデルに基づき、センサデータ取得部136から出力されたセンシングデータ、もしくは、前処理部138で前処理されたセンシングデータが、配信リクエスト、例えば特定の人を認識するというリクエストに該当するかどうかを認識する。このようなAI機能を利用した認識に用いられる認識モデルが、ステップS103において設定される。
 ステップS103おいて実行されるモード設定に関する処理を、NICE規格に基づいて行う場合、SetSceneModeというAPIが用いられる。SetSceneModeというAPIは、SceneModeを設定するAPIであり、SceneModeは、人検出、動体検出などである。
 ステップS104において、センサデバイス10は、設定された認識モデルを用いた検出処理を行う。例えば、センサ部100で取得された画像から、人を検出する処理や、人を認識する処理が実行される。
 ステップS105において、センサデバイス10は、検出処理で検出された情報を、サービスサーバ20に送信する。送信される情報は、例えば、検出された人の座標に関する情報である。
 ステップS105において実行される検出結果の通知を、NICE規格に基づいて行う場合、SetSceneMarkというAPIが用いられる。このSetSceneMarkというAPIは、SetSceneModeで設定したトリガにかかったときに、そのトリガにかかった情報を送信するAPIである。例えば、SetSceneModeで人検出が設定されていた場合、人が検出されたときのサムネイル、タイムスタンプなどのメタ情報が送信される。
 ステップS104における検出処理と、ステップS105の検出結果の通知の処理は、繰り返し行われる。検出処理と通知処理が繰り返し行われている一方で、図10を参照して説明した認識モデルの切替の処理も行われている。図10を参照して説明したフローチャートのステップS11において、センサデバイス10で撮像されている画像のノイズレベルが閾値以上になったと判定された場合、通常モードからノイズ対応モードに遷移する処理(認識モデルの切り替えに係わる処理)が開始される。
 このようなモード遷移の処理が開始されると、図11に示したフローチャートのステップS121において、センサデバイス10の情報が通知される。なお、モード遷移の処理の開始は、センサデバイス10側からの指示により行うか、サービスサーバ20側からの指示により行うかなど、複数の実施の形態があるため、詳細は後述する。
 ステップS121において、モード遷移の開始、換言すれ認識モデルの変更の開始は、センサデバイス10から、ノイズレベル情報が、サービスサーバ20に対して送信されることで行われる。
 このようなモード遷移の開始(認識モデルの変更の開始)のために、センサデバイス10から、サービスサーバ20にセンサデバイス10の情報を送信するAPIについては、NICE規格では未定義の通信である。このような通信を行うAPIを、NICE規格に新たに定義することで、モード遷移の開始に係わる通信をNICE規格でも扱えるようにすることができる。
 ステップS122において、サービスサーバ20は、センサデバイス10に対して、モード設定を行う。このステップS122におけるモード設定の処理は、ステップS103におけるモード設定の処理と基本的に同様に行われる。サービスサーバ20は、センサデバイス10からのセンサデバイス10のノイズ量に関する情報を受信すると、そのノイズ量に適したモードを設定する。図11に示した例では、ステップS122において、ノイズ対応モードが設定される。ステップS122におけるモード設定に係わる処理を、NICE規格に基づいて行う場合、SetSceneModeというAPIを用いることができる。
 ステップS122において、ノイズ対応モードに切り替えられることにより、サービスサーバ20は、ノイズ用認識モデルをセンサデバイス10に送信し、センサデバイス10は、モデル取得部140(図2)でノイズ用認識モデルを取得し、認識部142が用いる認識モデルとして設定する。このように認識モデルの設定が行われることで、センサデバイス10は、ノイズ用認識モデルでの処理を開始する。
 ステップS123において、センサデバイス10は、設定されたノイズ用認識モデルを用いた検出処理を行う。この検出処理は、ステップS104と同様に、例えば、センサ部100で取得された画像から、人を検出する処理や、人を認識する処理が実行される。
 ステップS124において、センサデバイス10は、検出処理で検出された情報を、サービスサーバ20に送信する。送信される情報は、例えば、検出された人の座標に関する情報である。
 なおここでは、通常認識モデルから、ノイズ用認識モデルに切り替えられる場合を例に挙げて説明したが、ノイズ用認識モデルを用いた処理が行われているときに、ノイズ量が減少し、閾値以下になった場合には、通常認識モデルに戻される。すなわち、本実施の形態においては、ノイズ量が増加したときには、ノイズ用認識モデルが用いられ、ノイズ量が少ないときには、通常認識モデルが用いられる。このようにすることで、ノイズ量に応じた最適な認識モデルを用いた処理を行うことができるようになり、認識モデルを用いた処理の精度が落ちるようなことを防ぐことができる。
 <認識モデルの切り替えに係わる第1の処理について>
 認識モデルの切り替えに係わる第1の処理について説明する。図12は、認識モデルの切り替えの開始を、センサデバイス10側から指示(要求)を出す場合の処理について説明するためのフローチャートである。
 ステップS201において、センサデバイス10のノイズ検出部420は、ノイズ量を検出する。ステップS202において、検出されたノイズ量は、閾値以上であるか否かが判定される。ステップS202における処理は、センサデバイス10の認識モデル切替判断部440により行われる。
 ステップS202において、検出されたノイズ量は、閾値以上ではないと判定された場合、処理は、ステップS201に戻され、それ以降の処理が繰り返される。
 ここでは、通常モード(通常認識モデル)と、ノイズ対応モード(ノイズ用認識モデル)の2モードがある場合を例に挙げて説明しているが、2以上のモード(2以上のノイズレベルにあった認識モデル)があるようにしても良い。複数のモードがある場合、ステップS202の処理が行われる時点で設定されているモードに合った閾値との比較が行われ、判定が行われる。すなわち、閾値は、モード毎に設定されている。
 ステップS201とステップS203の処理は、所定の周期で繰り返し行われる。所定の周期とは、フレーム毎でも良いし、数フレーム毎であってもよい。ステップS202において、検知されたノイズ量は、閾値以上であると判定された場合、ステップS203に処理は進められる。
 ステップS203において、センサデバイス10は、サービスサーバ20に対して、モード変更の要求、換言すれば、ノイズ量に応じた認識モデルへの変更の要求を出す。サービスサーバ20は、ステップS204において、センサデバイス10からのモード変更の要求を受け取ると、ステップS205において、変更後のモードを設定、この場合、変更後の認識モデルを送信する。
 センサデバイス10は、ステップS206において、サービスサーバ20からの認識モデル、例えばノイズ用認識モデルを受信することで、ノイズ対応モードへと遷移する。この後、センサデバイス10は、設定された認識モデルに基づく処理を開始する。ステップS203乃至S206の処理は、図11のステップS121とステップS122において実行される処理に該当する。
 このように、センサデバイス10側で、モード変更の要求を出すように構成することができる。
 <認識モデルの切り替えに係わる第2の処理について>
 認識モデルの切り替えに係わる第2の処理について説明する。図13は、モード遷移の開始を、サービスサーバ20側で判定する場合の処理について説明するためのフローチャートである。
 ステップS221において、センサデバイス10のノイズ検出部420は、ノイズ量を検出する。ステップS222において、センサデバイス10は、検出したノイズ量に関する情報を、サービスサーバ20に対して送信する。
 ステップS221、ステップS222の処理は、所定の周期で繰り返し行われる。すなわち、センサデバイス10は、所定の周期毎にノイズ量に関する情報を、サービスサーバ20に送信し、サービスサーバ20は、所定の周期毎に、センサデバイス10のノイズ量に関する情報を受信する。
 ステップS223において、センサデバイス10からの情報を受信したサービスサーバ20は、ステップS224において、センサデバイス10におけるノイズ量は閾値以上であるか否かを判定する。ステップS224において、サービスサーバ20は、センサデバイス10のノイズ量は閾値以上ではないと判定した場合、モード遷移に関する処理としては何もせずに、そのままの状態を維持する。
 一方で、ステップS224において、センサデバイス10のノイズ量は閾値以上であると判定された場合、ステップS225に処理は進められる。ステップS225において、変更後のモードへの設定が行われる。ステップS225以降の処理は、ステップS205(図12)以降の処理と同様である。
 このように、センサデバイス10は、所定の周期で、サービスサーバ20に対して、ノイズ量に関する情報を送信し、サービスサーバ20側で、認識モデルを変更するか否かの判定や、その判定に基づき認識モデルを送信し、送信した認識モデルでの処理を開始するように指示を出すように構成することができる。
 <認識モデルの切り替えに係わる第3の処理について>
 認識モデルの切り替えに係わる第3の処理について説明する。図14は、モード遷移をセンサデバイス10側で完結する場合の処理について説明するためのフローチャートである。
 センサデバイス10は、複数の認識モデルを予めサービスサーバ20から取得し、保持している構成としても良い。例えば、センサデバイス10は、通常認識モデルとノイズ用認識モデルを予めサービスサーバ20から取得し、保持していている構成とすることができる。このように複数の認識モデルをセンサデバイス10側で保持しているような場合、センサデバイス10側の処理だけで、認識モデルを切り替えられるように構成することも可能である。
 ステップS241乃至S243における各処理は、ステップS201乃至S203(図12)における各処理と同様の処理である。ステップS243において、ノイズ量は閾値以上であると判定された場合、ステップS244に処理は進められる。
 ステップS244において、センサデバイス10は、ノイズ量に適した認識モデルを選択し、選択した認識モデルへと切り替える。そして、切り替えた認識モデルによる処理を開始する。
 センサデバイス10は、ステップS245において、認識モデルを切り替えたことをサービスサーバ20に対して通知する。この通知の処理は省略することもできる。サービスサーバ20は、ステップS246において、センサデバイス10からの通知を受信する。
 サービスサーバ20は、通知を受け取ったとき、例えば、センサデバイス10を管理する管理者に、センサデバイス10にノイズが発生していることを通知する処理を実行するようにしても良い。またサービスサーバ20は、通知を受け取ったとき、センサデバイス10側で切り替えられた認識モデルよりも、より適した認識モデルがないか検索し、より適した認識モデルがあった場合には、その認識モデルをセンサデバイス10に送信するようにしても良い。
 本技術によれば、センサデバイス10に発生しているノイズ量に適した認識モデルに切り替え、そのノイズ量に適した認識モデルでの処理を実行させることができる。よって、認識モデルを用いた精度が高い状態を維持した処理を行うことができる。
 上述した実施の形態においては、通常認識モデルとノイズ用認識モデルの2つの認識モデルを切り替える場合を例に挙げて説明したが、2以上の認識モデルを切り替えるような場合にも本技術を適用することはできる。
 またここでは、認識モデルを切り替えるとして説明をしたが、この認識モデルは、同一の学習アルゴリズムで学習された認識モデルであっても良いし、異なる学習アルゴリズムで学習された認識モデルであっても良い。例えば、通常認識モデルはディープラーニング技術を用いて学習された認識モデルであり、ノイズ用認識モデルはアダブースト技術を用いて学習された認識モデルといったように、異なるアルゴリズムによる学習により得られた複数の認識モデルを適切に切り替えることができる構成とすることもできる。
 また上述した実施の形態においては、ノイズ量に応じて認識モデルを切り替える例を挙げて説明したが、ノイズ量以外の指標で認識モデルの切り替えが行われても良い。ノイズ量以外の指標としては、画像のぼけやぶれなどとすることができる。また、ノイズの内容を分析し、ノイズの特性に合った認識モデルに切り替えられるように構成することもできる。
 また上述した実施の形態において、ノイズ量を算出するとき、照度センサから得られる明るさに応じてノイズ量が推定されるようにしても良い。例えば、照度センサから得られる明るさが、明るい場合、低ノイズであると推定され、暗い場合、高ノイズであると推定されるようにし、その推定に基づいて認識モデルが選択され、設定されるようにしても良い。
 上述した実施の形態においては、認識モデルを切り替える場合を例に挙げて説明したが、認識モデルを切り替えるだけでなく、例えば、カメラ信号処理(ノイズ低減処理、ゲインの設定などのパラメータなど)も切り替えられるように構成することもできる。
 また、設置場所やシーン別に認識モデルが切り替えられるようにしても良い。例えば、センサデバイス10が車載カメラである場合、地図情報とGPS情報を用いて、例えばトンネル内を走行しているときと、トンネル外を走行しているときとを検出できるように構成し、トンネル内を走行しているときとトンネル外を走行しているときとで、異なる認識モデルが切り替えられるように構成することもできる。
 トンネル内は暗く、ノイズ量が大きくなると推定されるため、ノイズ用認識モデルが用いられるようにし、トンネル外は明るく、ノイズ量は大きくならない推定されるため、通常認識モデルが用いられるようにする。例えば、トンネル内からトンネル外に出るとき、ノイズ用認識モデルから通常認識モデルに切り替えられる。このように、センサデバイス10の設置位置に応じたノイズ量を推定視、その推定したノイズ量に適した認識モデルが設定されるように構成することもできる。
 <記録媒体について>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503は、バス504により相互に接続されている。バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 撮像された画像のノイズ量に応じて、認識モデルを切り替えるモデル切替部を備え、
 前記モデル切替部は、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
 情報処理装置。
(2)
 前記認識モデルは、AI(Artificial Intelligence)機能による処理に用いられる
 前記(1)に記載の情報処理装置。
(3)
 前記ノイズ量が閾値以下の場合、前記第1の認識モデルを用いた処理を行い、前記ノイズ量が前記閾値以上の場合、前記第2の認識モデルを用いた処理を行う
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記撮像された画像と前記画像に対してノイズを低減する処理を施した画像との差分を抽出することで前記ノイズ量が算出される
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
 前記モデル切替部は、前記ノイズ量が閾値以上であると判定した場合、他の装置に前記第2の認識モデルの設定を要求する
 前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
 所定の周期毎に、他の装置に前記ノイズ量に関する情報を送信し、前記他の装置において前記ノイズ量が閾値以上であると判定されたときに、前記他の装置から送信されてくる前記第2の認識モデルに切り替える
 前記(1)乃至(4)のいずれかに記載の情報処理装置。
(7)
 前記第1の認識モデルと前記第2の認識モデルは、異なる学習アルゴリズムにより学習された認識モデルである
 前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記認識モデルを切り替えるとき、信号処理も切り替える
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記ノイズの内容を分析し、前記ノイズに適した認識モデルに切り替えられる
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記ノイズ量は、照度センサにより計測された明るさにより推定される
 前記(1)乃至(3)、(5)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記画像を撮像するデバイスの設置位置に応じた前記ノイズ量を推定し、推定したノイズ量に適した前記認識モデルに切り替えられる
 前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
 センシングを行うセンサデバイスであり、前記他の装置は、前記センサデバイスによりセンシングされた情報を取得するサーバである
 前記(5)または(6)に記載の情報処理装置。
(13)
 情報処理装置が、
 撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
 情報処理方法。
(14)
 コンピュータに、
 撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
 処理を実行させるためのプログラム。
 1 データ配信システム, 2 サービスサーバ, 10 センサデバイス, 20 サービスサーバ, 30 ユーザデバイス, 40 認証サーバ, 100 センサ部, 110 測位部, 130 処理部, 132 ID送信部, 134 key受信部, 136 センサデータ取得部, 138 前処理部, 140 モデル取得部, 142 認識部, 144 データ生成部, 146 配信部, 160 記憶部, 170 通信部, 230 処理部, 232 ID送信部, 234 リクエスト受付部, 236 能力情報取得部, 238 モデル生成部, 240 モデル送信部, 242 データ取得部, 243 認識部, 246 配信部, 260 記憶部, 270 通信部, 302 教師データ, 310 認識モデル, 400 認識モデル切替処理部, 420 ノイズ検出部, 422 画像入力部, 424 デノイズ処理部, 426 差分抽出部, 428 ノイズ量算出部 440 認識モデル切替判断部, 460 認識モデル切替部

Claims (14)

  1.  撮像された画像のノイズ量に応じて、認識モデルを切り替えるモデル切替部を備え、
     前記モデル切替部は、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
     情報処理装置。
  2.  前記認識モデルは、AI(Artificial Intelligence)機能による処理に用いられる
     請求項1に記載の情報処理装置。
  3.  前記ノイズ量が閾値以下の場合、前記第1の認識モデルを用いた処理を行い、前記ノイズ量が前記閾値以上の場合、前記第2の認識モデルを用いた処理を行う
     請求項1に記載の情報処理装置。
  4.  前記撮像された画像と前記画像に対してノイズを低減する処理を施した画像との差分を抽出することで前記ノイズ量が算出される
     請求項1に記載の情報処理装置。
  5.  前記モデル切替部は、前記ノイズ量が閾値以上であると判定した場合、他の装置に前記第2の認識モデルの設定を要求する
     請求項1に記載の情報処理装置。
  6.  所定の周期毎に、他の装置に前記ノイズ量に関する情報を送信し、前記他の装置において前記ノイズ量が閾値以上であると判定されたときに、前記他の装置から送信されてくる前記第2の認識モデルに切り替える
     請求項1に記載の情報処理装置。
  7.  前記第1の認識モデルと前記第2の認識モデルは、異なる学習アルゴリズムにより学習された認識モデルである
     請求項1に記載の情報処理装置。
  8.  前記認識モデルを切り替えるとき、信号処理も切り替える
     請求項1に記載の情報処理装置。
  9.  前記ノイズの内容を分析し、前記ノイズに適した認識モデルに切り替えられる
     請求項1に記載の情報処理装置。
  10.  前記ノイズ量は、照度センサにより計測された明るさにより推定される
     請求項1に記載の情報処理装置。
  11.  前記画像を撮像するデバイスの設置位置に応じた前記ノイズ量を推定し、推定したノイズ量に適した前記認識モデルに切り替えられる
     請求項1に記載の情報処理装置。
  12.  センシングを行うセンサデバイスであり、前記他の装置は、前記センサデバイスによりセンシングされた情報を取得するサーバである
     請求項5に記載の情報処理装置。
  13.  情報処理装置が、
     撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
     情報処理方法。
  14.  コンピュータに、
     撮像された画像のノイズ量に応じて、ノイズがない画像で学習された第1の認識モデルと、ノイズがある画像で学習された第2の認識モデルとを切り替える
     処理を実行させるためのプログラム。
PCT/JP2021/023053 2020-07-01 2021-06-17 情報処理装置、情報処理方法、並びにプログラム WO2022004413A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/002,680 US20230290137A1 (en) 2020-07-01 2021-06-17 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020113756 2020-07-01
JP2020-113756 2020-07-01

Publications (1)

Publication Number Publication Date
WO2022004413A1 true WO2022004413A1 (ja) 2022-01-06

Family

ID=79316131

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023053 WO2022004413A1 (ja) 2020-07-01 2021-06-17 情報処理装置、情報処理方法、並びにプログラム

Country Status (2)

Country Link
US (1) US20230290137A1 (ja)
WO (1) WO2022004413A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186911A (ja) * 2018-04-10 2019-10-24 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
JP2020038514A (ja) * 2018-09-05 2020-03-12 キヤノン株式会社 学習データ生成装置、学習データ生成方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186911A (ja) * 2018-04-10 2019-10-24 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
JP2020038514A (ja) * 2018-09-05 2020-03-12 キヤノン株式会社 学習データ生成装置、学習データ生成方法、及びプログラム

Also Published As

Publication number Publication date
US20230290137A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
US11606516B2 (en) Image processing device, image processing method, and image processing system
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6683280B1 (ja) センサ装置、信号処理方法
JP7014218B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7420734B2 (ja) データ配信システム、センサデバイス及びサーバ
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6705534B2 (ja) センサ装置、信号処理方法
JPWO2019039282A1 (ja) 画像処理装置および画像処理方法
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2020241294A1 (ja) 信号処理装置、信号処理方法、および、測距モジュール
JP2019106588A (ja) 画像処理装置、画像処理方法及び撮像装置
WO2020203240A1 (ja) 情報処理装置および情報処理方法
WO2022004412A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
WO2020195965A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022004413A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
JPWO2019215979A1 (ja) 画像処理装置、車載装置、画像処理方法及びプログラム
EP3471397B1 (en) Image capture control device and method, and vehicle
CN116964591A (zh) 信息处理装置、信息处理系统、信息处理方法和记录介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21834064

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21834064

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP