JP2018136211A - 環境認識システム及び学習装置 - Google Patents
環境認識システム及び学習装置 Download PDFInfo
- Publication number
- JP2018136211A JP2018136211A JP2017031089A JP2017031089A JP2018136211A JP 2018136211 A JP2018136211 A JP 2018136211A JP 2017031089 A JP2017031089 A JP 2017031089A JP 2017031089 A JP2017031089 A JP 2017031089A JP 2018136211 A JP2018136211 A JP 2018136211A
- Authority
- JP
- Japan
- Prior art keywords
- brightness
- information
- environment
- output
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Image Analysis (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
【課題】周囲の環境の複雑な状況に対応可能にする技術を提供する。【解決手段】本発明の一側面に係る環境認識システムは、周囲の環境の明るさに関する明るさ情報を検出するセンサ装置と、前記周囲の環境の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器に、前記センサ装置により得られた前記明るさ情報を入力することで、前記周囲の環境における明るさの程度及び明るさの決定因子の情報を含む環境情報群を算出する情報処理装置と、を備える。【選択図】図5
Description
本発明は、環境認識システム及び学習装置に関する。
特許文献1には、日射量検出手段により検出した日射量に基づいて、車両用空調の風量を制御する車両用空調制御装置が提案されている。また、特許文献2には、赤外線センサにより検出した赤外線照度と可視光センサにより検出した可視光照度とに基づいて、車両のヘッドライトの点灯及び消灯を制御する車両用ライト制御装置が提案されている。
特許文献1及び2に例示されるように、従来、周囲の環境の明るさを示す情報が様々な装置で利用されている。しかしながら、本件発明者は、これらの装置において次のような問題点があることを見出した。すなわち、従来の装置では、基本的には、各種センサにより検出可能な明るさの程度を示す情報のみを利用している。そのため、周囲の環境の単純な状況しか認識することができず、複雑な状況に対応することができない、という問題点があることを本件発明者は見出した。
例えば、センサにより検出した明るさの程度を示す情報に基づいて、車両のヘッドライトを制御するケースを想定したとする。このケースにおいて、陸橋、ビル等の建築物に光を遮られた場面と、トンネル等の構造物内に進入した場面とで、同じ程度の明るさであったとする。このとき、単純な方法では、前者の場面で点灯させず、後者の場面で点灯させるようにヘッドライトを制御するのは困難であった。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、周囲の環境の複雑な状況に対応可能にする技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る環境認識システムは、周囲の環境の明るさに関する明るさ情報を検出するセンサ装置と、前記周囲の環境の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器に、前記センサ装置により得られた前記明るさ情報を入力することで、前記周囲の環境における明るさの程度及び明るさの決定因子の情報を含む環境情報群を取得する情報処理装置と、を備える。
上記構成によれば、周囲の環境の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器を用いることで、明るさの程度だけではなく、その明るさを決定付ける決定因子をも特定することができる。したがって、同じ程度の明るさであったとしても、そのシーンの状況を識別することができるため、周囲の環境の複雑な状況に対応することができる。なお、明るさ情報とは、明るさを示す何らかの情報であればよく、例えば、画像、明るさの測定値等であってよい。環境情報群とは、複数件の環境情報を含んでいる状態を指し、少なくとも明るさの程度を示す1件の情報及び明るさの決定因子を示す1件の情報を含む。また、環境情報とは、周囲の環境の明るさの程度又はその明るさを決定付ける決定因子を示す情報を指す。
上記一側面に係る環境認識システムにおいて、前記環境情報群は、異なる種類の複数件の環境情報を含んでよく、前記学習器は、前記各件の環境情報毎に設けられ、対応する前記各件の環境情報をそれぞれ出力する複数の出力部を含んでよい。当該構成によれば、異なる種類の複数件の環境情報を出力することができる。
上記一側面に係る環境認識システムにおいて、前記情報処理装置は、前記環境情報を利用するモジュールに対して前記環境情報群に含まれる複数件の環境情報を選択的に出力する出力選択部を備えてよく、前記出力選択部は、前記各出力部から出力される環境情報の中から利用する環境情報を選択し、選択した環境情報を前記モジュールに対して出力してもよい。当該構成によれば、出力する環境情報により、モジュールの制御を行うことができる。なお、モジュールは、環境情報を利用可能な装置であれば、特に限定されなくてもよく、例えば、空調装置、車両のヘッドライト、ディスプレイのバックライト等、何らかの物理状態を変化させるハードウェア若しくはソフトウェアの一単位、又は、ハードウェア若しくはソフトウェアの一単位の組合せ、を含む。また、モジュールは、例えば、車両におけるECU(Engine Control Unit)のように、ハードウェア若しくはソフトウェアの一単位、又は、これらの組合せの複数個について、統合的に制御する統合制御装置を含むものである。なお、出力選択部は、モジュールに対して、直接的、又は、間接的に環境情報を出力することができる。すなわち、情報処理装置とモジュールとが直接的に接続されることにより、出力選択部の出力が、直接的にモジュールに対して出力されてもよく、情報処理装置とモジュールとが所定の中継器を介して接続されることにより、出力選択部の出力が間接的にモジュールに対して出力されてもよい。
上記一側面に係る環境認識システムにおいて、前記出力選択部は、前記各出力部から出力される環境情報の内容に基づいて、前記各出力部から出力される環境情報の中から利用する環境情報を選択し、選択した環境情報を前記モジュールに対して出力してもよい。当該構成によれば、環境情報の内容に基づいてその環境情報の出力先を決定することで、モジュールの複雑な制御を可能にする。
上記一側面に係る環境認識システムにおいて、前記複数の出力部は、前記環境情報を利用する複数のモジュールに対応付けられており、それぞれ対応する当該各モジュールに前記各件の環境情報を出力してもよい。当該構成によれば、出力する環境情報により、モジュールの制御を行うことができる。
上記一側面に係る環境認識システムにおいて、前記センサ装置は、3つ以上の異なる方向からそれぞれ明るさ情報を検出するように構成されてよい。当該構成によれば、3つ以上の異なる方向から明るさ情報を検出するようにすることで、周囲の環境の解析精度を高めることができる。
上記一側面に係る環境認識システムにおいて、前記センサ装置は、前記周囲の環境からの光をそれぞれ集光する複数の集光部を有する光学部材、及びそれぞれ前記各集光部に対応して設けられ、前記各集光部の集光した光を受けて、前記周囲の環境を映した撮像画像を前記明るさ情報としてそれぞれ形成可能に構成された複数の撮像素子を備える光学センサにより構成されてよい。当該構成によれば、複数件の撮像画像を明るさ情報として取得するようにすることで、周囲の環境の解析精度を高めることができる。
上記一側面に係る環境認識システムにおいて、前記複数の集光部のうち少なくとも1つの集光部はその他の集光部と異なる光学特性を有してよい。当該構成によれば、多様な光学特性が反映された複数件の撮像画像を明るさ情報として取得するようにすることで、周囲の環境の解析精度を高めることができる。なお、光学特性とは、集光部の光学的な特性のことであり、例えば、集光角度、屈折率、透過する光の帯域(光学濃度)、透明性の尺度である濁度、透過率、白さの度合いを示す白色度、色味を示す色調等、集光部の前後で光の状態を変動させる何らかの特性である。
上記一側面に係る環境認識システムにおいて、前記複数の集光部のうち少なくとも一部の光学特性は不規則性を有してよい。当該構成によれば、多様な光学特性が反映された複数件の撮像画像を明るさ情報として取得するようにすることで、周囲の環境の解析精度を高めることができる。なお、「複数の集光部のうち少なくとも一部の光学特性が不規則性を有している」とは、いずれかの隣接する集光部同士で光学特性が相違する状態を指す。ただし、不規則性を有する範囲は、光学部材の一部に限られなくてもよく、光学部材の全体であってもよい。
上記一側面に係る環境認識システムにおいて、前記光学部材は、レンズアレイ、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含んでよい。当該構成によれば、多様な光学特性が反映された複数件の撮像画像を明るさ情報として取得可能な光学センサを簡易に作製することができる。
上記一側面に係る環境認識システムにおいて、前記センサ装置は、1又は複数の照度センサにより構成されてよい。当該構成によれば、明るさ情報を取得可能なセンサ装置を簡易に作製することができる。
上記一側面に係る環境認識システムにおいて、前記学習器は、ニューラルネットワーク、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成されてよい。当該構成によれば、周囲の環境の明るさの程度及び明るさの決定因子を出力する学習器を簡易に構築することができる。
上記一側面に係る環境認識システムにおいて、前記明るさの程度は、所定の物理単位を用いた連続量、及び/又は明るさを段階的に示す明るさレベルで示されてよい。当該構成によれば、明るさの程度を示す環境情報として、所定の物理単位を用いた連続量、及び/又は明るさを段階的に示す明るさレベルを出力する環境認識システムを提供することができる。
上記一側面に係る環境認識システムにおいて、前記所定の物理単位は、照度、日射量、光束、光度、輝度、光度エネルギ、及び視感度の少なくともいずれかで示されてよい。当該構成によれば、明るさの程度を示す環境情報として、照度、日射量、光束、光度、輝度、光度エネルギ、及び視感度の少なくともいずれかで示された連続量を出力する環境認識システムを提供することができる。
上記一側面に係る環境認識システムにおいて、前記明るさの決定因子は、光を遮る遮蔽物の有無、当該遮蔽物の種類、太陽の有無、天候、時刻、及び都市度の少なくともいずれかで示されてよい。当該構成によれば、明るさの決定因子を示す環境情報として、光を遮る遮蔽物の有無、当該遮蔽物の種類、太陽の有無、天候、時刻、及び都市度の少なくともいずれかを出力する環境認識システムを提供することができる。なお、都市度とは、都市の発展度合を示すものであり、例えば、大都会、都会、中小都市、農村、郊外、人里離れた場所等を識別するのに利用可能な情報である。
また、本発明の一側面に係る学習装置は、周囲の環境の明るさに関する明るさ情報を検出するセンサ装置から当該明るさ情報を取得する情報取得部と、取得した前記明るさ情報を入力すると、前記周囲の環境の明るさの程度及び明るさの決定因子の情報を含む環境情報群を出力するように学習器を学習させる学習処理部と、を備える。当該構成によれば、周囲の環境の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器を構築する学習装置を提供することができる。
本発明によれば、周囲の環境の複雑な状況に対応可能にする技術を提供することができる。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。例えば、以下では、本実施形態として、車両に搭載する車載システムに本発明を適用した例を示す。しかしながら、本発明の適用対象は、車載システムに限定される訳ではなく、実施の形態に応じて適宜選択されてよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る環境認識システム100及び学習装置2の適用場面の一例を模式的に例示する。本実施形態に係る環境認識システム100は、自動車等の車両に搭載され、周囲の環境6における明るさの程度及び明るさの決定因子を解析する情報処理システムである。
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る環境認識システム100及び学習装置2の適用場面の一例を模式的に例示する。本実施形態に係る環境認識システム100は、自動車等の車両に搭載され、周囲の環境6における明るさの程度及び明るさの決定因子を解析する情報処理システムである。
図1に示されるとおり、環境認識システム100は、光学センサ3と車載装置1とを備えている。光学センサ3は、周囲の環境6の撮像を行うことで、当該周囲の環境6の明るさに関する明るさ情報として、当該周囲の環境6を映した撮像画像を形成する。光学センサ3は、本発明の「センサ装置」に相当する。光学センサ3は、例えば、走行方向前方の状況を撮像可能なように車両に搭載される。
車載装置1は、周囲の環境6における明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器(後述するニューラルネットワーク7)を有している。車載装置1は、光学センサ3により得られた明るさ情報(本実施形態では、撮像画像)を当該学習器に入力することで、周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む環境情報群を取得する。車載装置1は、本発明の「情報処理装置」に相当する。また、車載装置1は、学習済みの学習器を利用して有して所定の情報処理を行う「学習結果利用装置」に相当する。環境情報群は、複数件の環境情報を含んでいる状態を指す。また、環境情報は、周囲の環境の明るさの程度又はその明るさを決定付ける決定因子を示す情報を指す。なお、本実施形態に係る車載装置1は、これにより得られる環境情報群を利用して、車両に搭載される空調装置101及びヘッドライト102を制御する。空調装置101及びヘッドライト102はそれぞれ本発明の「モジュール」に相当する。
一方、本実施形態に係る学習装置2は、環境認識システム100が利用する学習器を構築する、すなわち、光学センサ3により得られた明るさ情報の入力に応じて周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む環境情報群を出力するように学習器の機械学習を行うコンピュータである。具体的には、学習装置2は、上記光学センサ3から明るさ情報を取得し、取得した明るさ情報を入力すると、周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む環境情報群を出力するように学習器(後述するニューラルネットワーク8)を学習させる。
これにより、上記環境認識システム100で利用する学習済みの学習器が作成される。車載装置1は、例えば、ネットワーク10を介して、学習装置2により作成された学習済みの学習器を取得することができる。なお、ネットワーク10の種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
以上のとおり、本実施形態によれば、周囲の環境6の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器を用いることで、明るさの程度だけではなく、その明るさを決定付ける決定因子をも特定することができる。したがって、同じ程度の明るさであったとしても、そのシーンの状況を識別することができるため、周囲の環境6の複雑な状況に対応することができる。例えば、車載装置1は、同じ程度の明るさであったとしても、その明るさを決定付ける決定因子に基づいて、空調装置101及びヘッドライト102の制御を変えることができる。
§2 構成例
[ハードウェア構成]
<車載装置>
次に、図2を用いて、本実施形態に係る車載装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る車載装置1のハードウェア構成の一例を模式的に例示する。
[ハードウェア構成]
<車載装置>
次に、図2を用いて、本実施形態に係る車載装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る車載装置1のハードウェア構成の一例を模式的に例示する。
図2に示されるとおり、本実施形態に係る車載装置1は、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、外部インタフェース16、及びドライブ17が電気的に接続されたコンピュータである。本実施形態に係る車載装置1は、本発明の「情報処理装置」に相当する。なお、図2では、通信インタフェース及び外部インタフェースをそれぞれ、「通信I/F」及び「外部I/F」と記載している。
制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部12は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部11で実行される環境認識処理プログラム121、学習済みの学習器に関する情報を示す学習結果データ122等を記憶する。
環境認識処理プログラム121は、後述する周囲の環境6における明るさの程度及び明るさの決定因子を解析する処理(図7)を車載装置1に実行させるためのプログラムである。また、学習結果データ122は、学習済みの学習器の設定を行うためのデータである。詳細は後述する。
通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。入力装置14は、例えば、ボタン、タッチパネル、マイクロフォン等の入力を行うための装置である。出力装置15は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。外部インタフェース16は、USB(Universal Serial Bus)ポート等であり、光学センサ3、空調装置101、ヘッドライト102等の外部装置と接続するためのインタフェースである。なお、通信インタフェース13と外部インタフェース16とは、同一の接続形式のインタフェースであってもよい。
ドライブ17は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むための装置である。ドライブ17の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記環境認識処理プログラム121及び/又は学習結果データ122は、この記憶媒体91に記憶されていてもよい。
記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。車載装置1は、この記憶媒体91から、環境認識処理プログラム121及び/又は学習結果データ122を取得してもよい。
ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、車載装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。車載装置1は、複数台の情報処理装置で構成されてもよい。また、車載装置1は、提供されるサービス専用に設計されたPLC(programmable logic controller)等の情報処理装置の他、汎用のデスクトップPC(Personal Computer)、タブレットPC、携帯電話等が用いられてもよい。
<光学センサ>
次に、図3A及び図3Bを用いて、本実施形態に係る光学センサ3の構成の一例について説明する。図3Aは、本実施形態に係る光学センサ3の構成の一例を模式的に例示する。図3Bは、本実施形態に係る光学センサ3のレンズアレイ31及び各撮像素子32の関係を模式的に例示する。
次に、図3A及び図3Bを用いて、本実施形態に係る光学センサ3の構成の一例について説明する。図3Aは、本実施形態に係る光学センサ3の構成の一例を模式的に例示する。図3Bは、本実施形態に係る光学センサ3のレンズアレイ31及び各撮像素子32の関係を模式的に例示する。
図3A及び図3Bに示されるとおり、本実施形態に係る光学センサ3は、3×3個のレンズ311を備えるレンズアレイ31と、それぞれ各レンズ311に対応して設けられる3×3個の撮像素子32と、各撮像素子32における撮像画像の形成を制御する制御部33と、制御部33で実行されるプログラム等を記憶する記憶部34と、を備えている。
(レンズアレイ)
本実施形態に係るレンズアレイ31は、本発明の「光学部材」に相当し、例えば、マイクロレンズアレイである。ただし、レンズアレイ31の各レンズ311の寸法は、マイクロスケールに限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、各レンズ311の大きさは、使用する各撮像素子32に対応して決定可能である。
本実施形態に係るレンズアレイ31は、本発明の「光学部材」に相当し、例えば、マイクロレンズアレイである。ただし、レンズアレイ31の各レンズ311の寸法は、マイクロスケールに限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、各レンズ311の大きさは、使用する各撮像素子32に対応して決定可能である。
各レンズ311は、本発明の「集光部」に相当し、各撮像素子32に周囲の環境6からの光を集光するように適宜構成される。各レンズ311の光学特性は、実施の形態に応じて適宜決定されてよい。光学特性は、集光部の光学的な特性のことであり、例えば、集光角度、屈折率、透過する光の帯域(光学濃度)、透明性の尺度である濁度、透過率、白さの度合いを示す白色度、色味を示す色調等、集光部の前後で光の状態を変動させる何らかの特性である。全てのレンズ311の光学特性は、同一であってもよいし、各レンズ311の光学特性は相違していてもよい。各レンズ311の所望の光学特性は、各レンズの大きさ、素材、及び形状の少なくともいずれかを適宜調節して設計することで実現可能である。
このようなレンズアレイ31は、公知の材料及び公知の加工方法により適宜作製することができる。例えば、レンズアレイ31は、樹脂材料、ガラス材料等の光を透過可能な材料を、射出成形、切削加工、溶接等の加工方法で加工することで作製することができる。なお、レンズアレイ31は、モータ(不図示)等により、入射する光の光軸方向に適宜変動して、焦点を調整可能に構成されてよい。
(撮像素子)
図3Bに示されるとおり、本実施形態に係る各撮像素子32は、5×5個の受光素子321を備えるイメージセンサである。各受光素子321は、例えば、CMOS(Complementary MOS)、CCD(Charge Coupled Device)等で構成される。これにより、各撮像素子32は、レンズアレイ31の各レンズ311の集光した光を受けて、周囲の環境6を映した撮像画像を形成可能に構成される。なお、図3Bの例では、各撮像素子32は、5×5の画素数の撮像画像を形成可能に構成されている。
図3Bに示されるとおり、本実施形態に係る各撮像素子32は、5×5個の受光素子321を備えるイメージセンサである。各受光素子321は、例えば、CMOS(Complementary MOS)、CCD(Charge Coupled Device)等で構成される。これにより、各撮像素子32は、レンズアレイ31の各レンズ311の集光した光を受けて、周囲の環境6を映した撮像画像を形成可能に構成される。なお、図3Bの例では、各撮像素子32は、5×5の画素数の撮像画像を形成可能に構成されている。
各撮像素子32の大きさは、例えば、撮像対象とする周囲の環境6における被写体の大きさ、被写体内の識別対象部分の大きさ、被写体までの距離等の要因に基づいて適宜決定することができる。なお、各撮像素子32としては、被写体の大きさ及び被写体までの距離に応じて、鉛直方向に100〜数100ピクセル及び水平方向に100〜数100ピクセルの解像度を有する撮像素子を用いるのが好ましい。このとき、各撮像素子の縦横比(アスペクト比)は、検出範囲の縦横比により決定することができる。
(制御部及び記憶部)
制御部33は、例えば、CPUを含むマイクロプロセッサにより構成され、記憶部34は、RAM、ROM等のメモリにより構成される。制御部33は、記憶部34に記憶されるプログラムに従って、各撮像素子32における撮像画像の形成を制御する。そして、制御部33は、各撮像素子32により形成した撮像画像を、記憶部34及び/又は接続される外部装置(本実施形態では、車載装置1又は学習装置2)に転送する。
制御部33は、例えば、CPUを含むマイクロプロセッサにより構成され、記憶部34は、RAM、ROM等のメモリにより構成される。制御部33は、記憶部34に記憶されるプログラムに従って、各撮像素子32における撮像画像の形成を制御する。そして、制御部33は、各撮像素子32により形成した撮像画像を、記憶部34及び/又は接続される外部装置(本実施形態では、車載装置1又は学習装置2)に転送する。
<学習装置>
次に、図4を用いて、本実施形態に係る学習装置2のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る学習装置2のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
図4に示されるとおり、本実施形態に係る学習装置2は、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、外部インタフェース26、及びドライブ27が電気的に接続されたコンピュータである。なお、図4では、図2と同様に、通信インタフェース及び外部インタフェースをそれぞれ、「通信I/F」及び「外部I/F」と記載している。
制御部21〜ドライブ27及び記憶媒体92はそれぞれ、上記車載装置1の制御部11〜ドライブ17及び記憶媒体91と同様である。ただし、学習装置2の記憶部22は、制御部21で実行される学習プログラム221、学習器の学習に利用する学習データ222、学習プログラム221を実行して作成した学習結果データ122等を記憶する。
学習プログラム221は、学習装置2に後述するニューラルネットワークの学習処理(図8)を実行させるためのプログラムである。また、学習データ222は、周囲の環境6における明るさの程度及び明るさの決定因子を解析可能に学習器の学習を行うためのデータである。詳細は後述する。
なお、上記車載装置1と同様に、学習プログラム221及び/又は学習データ222は、記憶媒体92に記憶されていてもよい。これに応じて、学習装置2は、利用する学習プログラム221及び/又は学習データ222を記憶媒体92から取得してもよい。
また、上記車載装置1と同様に、学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。更に、学習装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、デスクトップPC等が用いられてもよい。
[機能構成]
<車載装置>
次に、図5を用いて、本実施形態に係る車載装置1の機能構成の一例を説明する。図5は、本実施形態に係る車載装置1の機能構成の一例を模式的に例示する。
<車載装置>
次に、図5を用いて、本実施形態に係る車載装置1の機能構成の一例を説明する。図5は、本実施形態に係る車載装置1の機能構成の一例を模式的に例示する。
車載装置1の制御部11は、記憶部12に記憶された環境認識処理プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された環境認識処理プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る車載装置1は、明るさ情報取得部111、環境情報取得部112、及び出力選択部113を備えるコンピュータとして機能する。
明るさ情報取得部111は、周囲の環境6の明るさに関する明るさ情報として、各撮像素子32により形成された各撮像画像123を光学センサ3から取得する。環境情報取得部112は、各撮像素子32により得られた各撮像画像123を、周囲の環境6の明るさの程度及び明るさの決定因子を識別するための学習を行った学習器の入力として用いて、当該学習器の演算処理を行うことにより、当該学習器から出力値を得る。そして、環境情報取得部112は、学習器から得られた出力値に基づいて周囲の環境6における明るさの程度及び明るさの決定因子を特定することで、当該周囲の環境6の明るさの程度及び明るさの決定因子の情報を含む環境情報群(すなわち、複数件の環境情報)を取得する。出力選択部113は、環境情報を利用するモジュール(本実施形態では、空調装置101及びヘッドライト102)に対して環境情報群に含まれる複数件の環境情報を選択的に出力する。
次に、学習器について説明する。図5に示されるとおり、本実施形態に係る車載装置1は、周囲の環境6における明るさの程度及び明るさの決定因子を示す情報を含む所望の環境情報群を出力可能に学習した学習器として、ニューラルネットワーク7を利用する。ニューラルネットワーク7は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層71、中間層(隠れ層)72、及び出力層73を備えている。
図5では、ニューラルネットワーク7は1層の中間層72を備えており、入力層71の出力が中間層72の入力となり、中間層72の出力が出力層73の入力となっている。ただし、中間層72の数は1層に限られなくてもよく、ニューラルネットワーク7は、中間層72を2層以上備えてもよい。
各層71〜73は、1又は複数のニューロンを備えている。例えば、入力層71のニューロンの数は、各撮像画像123の画素数に応じて設定することができる。中間層72のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層73のニューロンの数は、解析対象とする環境情報の種類数に応じて設定することができる。
なお、出力層73のニューロンは、本発明の「出力部」に相当する。本実施形態では、出力層73は、異なる種類の複数件の環境情報を環境情報群として出力可能なように複数のニューロンを含む。出力層73の各ニューロンは、環境情報毎に設けられ、対応する各件の環境情報を示す出力値を出力するように構成される。
隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。図5の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。
各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。車載装置1は、このようなニューラルネットワーク7の入力層71に上記各撮像画像123を入力することで出力層73の各ニューロンから得られる出力値に基づいて周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む複数件の環境情報を特定する。
なお、このようなニューラルネットワーク7の構成(例えば、ニューラルネットワーク7の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ122に含まれている。車載装置1は、学習結果データ122を参照して、周囲の環境6における明るさの程度及び明るさの決定因子を解析する処理に用いる学習済みニューラルネットワーク7の設定を行う。
<学習装置>
次に、図6を用いて、本実施形態に係る学習装置2の機能構成の一例を説明する。図6は、本実施形態に係る学習装置2の機能構成の一例を模式的に例示する。
次に、図6を用いて、本実施形態に係る学習装置2の機能構成の一例を説明する。図6は、本実施形態に係る学習装置2の機能構成の一例を模式的に例示する。
学習装置2の制御部21は、記憶部22に記憶された学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示されるとおり、本実施形態に係る学習装置2は、学習データ取得部211、及び学習処理部212を備えるコンピュータとして機能する。
学習データ取得部211は、学習データ222として、光学センサ3の各撮像素子32の撮像した各撮像画像223及び各撮像画像223に映る周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む複数件の環境情報224(環境情報群)の組を取得する。学習処理部212は、学習データ222を用いて、取得した各撮像画像223を入力すると、各件の環境情報224に対応する出力値を出力するように学習器を学習させる。
図6に示されるとおり、本実施形態では、学習対象となる学習器は、ニューラルネットワーク8である。学習器の一例であるニューラルネットワーク8は、入力層81、中間層(隠れ層)82、及び出力層83を備え、上記ニューラルネットワーク7と同様に構成される。各層81〜83は、上記各層71〜73と同様である。
学習処理部212は、ニューラルネットワークの学習処理により、3×3件分の撮像画像223を入力すると、周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む複数件の環境情報それぞれを出力層83の各ニューロンから出力するニューラルネットワーク8を構築する。そして、学習処理部212は、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。
<その他>
車載装置1及び学習装置2の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、車載装置1及び学習装置2の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、車載装置1及び学習装置2それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
車載装置1及び学習装置2の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、車載装置1及び学習装置2の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、車載装置1及び学習装置2それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
§3 動作例
[車載装置]
次に、図7を用いて、車載装置1の動作例を説明する。図7は、車載装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[車載装置]
次に、図7を用いて、車載装置1の動作例を説明する。図7は、車載装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(起動)
まず、利用者は、車載装置1を起動し、起動した車載装置1に環境認識処理プログラム121を実行させる。車載装置1の制御部11は、学習結果データ122を参照して、ニューラルネットワーク7の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、周囲の環境6における明るさの程度及び明るさの決定因子の解析を行う。なお、車載装置1の起動は、車両のエンジンスタートにより行われてよい。
まず、利用者は、車載装置1を起動し、起動した車載装置1に環境認識処理プログラム121を実行させる。車載装置1の制御部11は、学習結果データ122を参照して、ニューラルネットワーク7の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、周囲の環境6における明るさの程度及び明るさの決定因子の解析を行う。なお、車載装置1の起動は、車両のエンジンスタートにより行われてよい。
(ステップS101)
ステップS101では、制御部11は、明るさ情報取得部111として機能し、外部インタフェース16を介して接続される光学センサ3の各撮像素子32から、当該各撮像素子32により撮像した撮像画像123を明るさ情報として取得する。本実施形態では、光学センサ3は、3×3個の撮像素子32を備えているため、本ステップS101では、制御部11は、基本的には1回の撮像毎に3×3件の撮像画像123を取得する。
ステップS101では、制御部11は、明るさ情報取得部111として機能し、外部インタフェース16を介して接続される光学センサ3の各撮像素子32から、当該各撮像素子32により撮像した撮像画像123を明るさ情報として取得する。本実施形態では、光学センサ3は、3×3個の撮像素子32を備えているため、本ステップS101では、制御部11は、基本的には1回の撮像毎に3×3件の撮像画像123を取得する。
(ステップS102)
次のステップS102では、制御部11は、環境情報取得部112として機能し、ステップS101で取得した各撮像画像123をニューラルネットワーク7の入力として用いて、当該ニューラルネットワーク7の演算処理を行うことにより、当該ニューラルネットワーク7から出力値を得る。
次のステップS102では、制御部11は、環境情報取得部112として機能し、ステップS101で取得した各撮像画像123をニューラルネットワーク7の入力として用いて、当該ニューラルネットワーク7の演算処理を行うことにより、当該ニューラルネットワーク7から出力値を得る。
本実施形態では、制御部11は、上記ステップS101で取得した3×3件の撮像画像123それぞれに含まれる各画素の画素値をニューラルネットワーク7の入力層71に含まれる各ニューロンに入力する。入力となる各画素値と入力層71の各ニューロンとの対応関係は、実施の形態に応じて適宜設定されてよい。次に、制御部11は、順伝搬の方向に各層71〜73に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、ニューラルネットワーク7の出力層73に含まれる複数のニューロンそれぞれから出力値を得る。
(ステップS103)
次のステップS103では、制御部11は、環境情報取得部112として機能し、ステップS102でニューラルネットワーク7から得られた出力値に基づいて周囲の環境6における明るさの程度及び明るさの決定因子を特定することで、当該周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む環境情報群を取得する。
次のステップS103では、制御部11は、環境情報取得部112として機能し、ステップS102でニューラルネットワーク7から得られた出力値に基づいて周囲の環境6における明るさの程度及び明るさの決定因子を特定することで、当該周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む環境情報群を取得する。
上記のとおり、ニューラルネットワーク7は、光学センサ3の各撮像素子32から得られる各撮像画像123を入力すると、明るさの程度を示す情報及び明るさの決定因子を示す情報を含む異なる種類の複数件の所望の環境情報それぞれに対応する出力値を出力するように学習済みである。出力層73に含まれる複数のニューロンはそれぞれ、環境情報毎に設けられ、対応する各件の環境情報を示す出力値を出力する。ニューラルネットワーク7の各出力値と各件の環境情報の内容との対応関係は、適宜設定可能であり、例えば、テーブル形式等のデータにより与えることができる。
そこで、制御部11は、ニューラルネットワーク7の各出力値と各件の環境情報の内容との対応関係を示す情報を参照することで、ステップS102で出力層73の各ニューロンから得られた各出力値に基づいて、各件の環境情報の内容を特定する。これにより、制御部11は、明るさの程度を示す情報及び明るさの決定因子を示す情報を含む異なる種類の複数件の環境情報(環境情報群)を取得することができる。
環境情報群に含まれる環境情報の件数は、明るさの程度を示す情報及び明るさの決定因子を示す情報それぞれが少なくとも1件ずつ含まれているのであれば、実施の形態に応じて適宜設定されてよい。例えば、制御部11は、明るさの程度を示す環境情報として、所定の物理単位を用いた連続量を示す情報、及び/又は明るさを段階的に示す明るさレベルを示す情報を取得することができる。所定の物理単位は、照度、日射量、光束、光度、輝度、光度エネルギ、及び視感度の少なくともいずれかで示されてよい。
また、例えば、制御部11は、明るさの決定因子を示す環境情報として、光を遮る遮蔽物の有無、当該遮蔽物の種類、太陽の有無、天候、時刻、及び都市度の少なくともいずれかを示す情報を取得することができる。なお、都市度とは、都市の発展度合を示すものであり、例えば、大都会、都会、中小都市、農村、郊外、人里離れた場所等を識別するのに利用可能な情報である。
(ステップS104)
次のステップS104では、制御部11は、出力選択部113として機能し、環境情報を利用するモジュールに対して、上記ステップS103で取得した環境情報群に含まれる複数件の環境情報を選択的に出力する。
次のステップS104では、制御部11は、出力選択部113として機能し、環境情報を利用するモジュールに対して、上記ステップS103で取得した環境情報群に含まれる複数件の環境情報を選択的に出力する。
具体的には、本実施形態では、環境情報を利用するモジュールとして、空調装置101及びヘッドライト102が車両に搭載されている。そこで、制御部11は、上記ステップS103で取得した複数件の環境情報の中から空調装置101及びヘッドライト102で利用する環境情報をそれぞれ選択する。そして、制御部11は、選択した環境情報を空調装置101及びヘッドライト102それぞれに出力する。
例えば、上記ステップS103で取得される複数件の環境情報には、明るさの程度を示す環境情報として日射量を示す情報が含まれ、明るさの決定因子を示す環境情報として天候を示す情報が含まれていてもよい。この場合、制御部11は、上記ステップS103で取得される複数件の環境情報の中から日射量を示す情報及び天候を示す情報を選択し、選択した日射量を示す情報及び天候を示す情報を空調装置101に出力してもよい。
これにより、制御部11は、日射量及び天候に基づいて、空調装置101を制御することができる。例えば、各件の環境情報に基づいて周囲の環境6における日射量が一定値以上であり、かつ天候が晴れであると判定できるときに、制御部11は、車内の温度を下げるように空調装置101を制御してもよい。一方、各件の環境情報に基づいて周囲の環境6における日射量が一定値以下であり、かつ天候が雨であると判定できるときに、車内の温度を上げるように空調装置101を制御してもよい。
また、例えば、上記ステップS103で取得される複数件の環境情報には、明るさの程度を示す環境情報として日射量を示す情報が含まれ、明るさの決定因子を示す情報として日差しの向きを示す情報が含まれてもよい。この場合、制御部11は、上記ステップS103で取得される複数件の環境情報の中から日射量を示す情報及び日差しの向きを示す情報を選択し、選択した日射量を示す情報及び日差しの向きを示す情報を空調装置101に出力してもよい。
これにより、制御部11は、日射量及日差しの向きに基づいて、空調装置101を制御することができる。例えば、日射量に基づいて風量及び/又は温度を変動させる制御を実行する場合において、制御部11は、日差しの向きに基づき、朝方、夕方等の直射日光が直接的に車両内に差し込む時間帯に、風量及び/又は温度の変動量を更に増減させることができる。また、制御部11は、日差しの向きに基づき、当該日差しが指し込む方向側の空調制御を変動させることができる。このとき、制御部11は、日差しが指し込む方向側の空調制御として、維持制御、当該日差しが指し込む方向側の空調制御とは反対の量に制御、若しくは、当該日差しが指し込む方向側の空調制御における制御量よりも少ない変動量に制御、の少なくとも何れかを実行することができる。
また、例えば、上記ステップS103で取得される複数件の環境情報には、明るさの程度を示す環境情報として照度を示す情報が含まれ、明るさの決定因子を示す環境情報として遮蔽物の種類を示す情報が含まれていてもよい。この場合、制御部11は、上記ステップS103で取得される複数件の環境情報の中から照度を示す情報及び遮蔽物の種類を示す情報を選択し、選択した照度を示す情報及び遮蔽物の種類を示す情報をヘッドライト102に出力してもよい。
これにより、制御部11は、照度及び遮蔽物の種類に基づいて、ヘッドライト102を制御することができる。例えば、各件の環境情報に基づいて周囲の環境6における照度が一定値以下であり、かつ遮蔽物がトンネルであると判定できるときに、制御部11は、これらの環境情報をヘッドライト102に出力することで、ヘッドライト102を点灯するように制御してもよい。一方、各件の環境情報に基づいて周囲の環境6における照度が一定値以下であり、かつ遮蔽物がビルであると判定できるときに、制御部11は、これらの環境情報をヘッドライト102に出力することで、ヘッドライト102を点灯させないように制御してもよい。
また、上記のように各モジュールに対して環境情報を固定的に割り当てるのではなく、制御部11は、各モジュールに対して環境情報を流動的に割り当ててもよい。具体的には、制御部11は、上記ステップS103で取得した各件の環境情報の内容に基づいて、上記ステップS103で取得した複数件の環境情報の中から空調装置101及びヘッドライト102で利用する環境情報をそれぞれ選択するようにしてもよい。
例えば、上記ステップS103で取得される複数件の環境情報には、明るさの程度を示す環境情報として日射量を示す情報及び光度エネルギを示す情報の2種類の情報が含まれ、明るさの決定因子を示す環境情報として天候を示す情報が含まれてもよい。この場合、制御部11は、天候を示す情報の内容に基づいて、空調装置101で利用する環境情報を選択してもよい。
これにより、制御部11は、天候に基づいて、空調装置101に出力する環境情報を変更することができる。例えば、天候を示す情報に基づいて天候が晴れと判定できるときに、制御部11は、日射量を示す情報を空調装置101に出力してもよい。一方、天候を示す情報に基づいて天候が雨であると判定できるときに、制御部11は、光度エネルギを示す情報を空調装置101に出力してもよい。このケースでは、空調装置101は、晴れの時には日射量に基づいて車内温度を制御し、雨の時には光度エネルギに基づいて車内温度を制御することができる。
以上のように、複数件の環境情報の中から選択した環境情報を空調装置101及びヘッドライト102それぞれに出力した後、制御部11は、本動作例に係る処理を終了する。
[学習装置]
次に、図8を用いて、学習装置2の動作例を説明する。図8は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
次に、図8を用いて、学習装置2の動作例を説明する。図8は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS201)
ステップS201では、制御部21は、学習データ取得部211として機能し、光学センサ3により撮像した複数件の撮像画像223並びに各撮像画像223に映る周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む複数件の環境情報224の組を学習データ222として取得する。
ステップS201では、制御部21は、学習データ取得部211として機能し、光学センサ3により撮像した複数件の撮像画像223並びに各撮像画像223に映る周囲の環境6における明るさの程度及び明るさの決定因子の情報を含む複数件の環境情報224の組を学習データ222として取得する。
学習データ222は、ニューラルネットワーク8に対して、明るさの程度を示す情報及び明るさの決定因子を示す情報を含む所望の環境情報群を解析可能に学習させるためのデータである。このような学習データ222は、例えば、車両の走行中に、当該車両に搭載した光学センサ3により周囲の環境6を様々な条件で撮像し、得られる各撮像画像に撮像条件を紐付けることで作成することができる。
詳細には、制御部21は、光学センサ3により、所定の決定因子に基づき明るさが所定の程度となっている周囲の環境6を撮像する。これにより、制御部21は、光学センサ3の各撮像素子32から、解析対象となる所定の明るさの程度及び所定の明るさの決定因子が表れた周囲の環境6を映した複数件の撮像画像223を取得することができる。本実施形態では、光学センサ3は、3×3個の撮像素子32を備えているため、制御部21は、1回の撮像毎に3×3件の撮像画像223を取得することができる。
次に、制御部21は、各撮像画像223に表れる所定の明るさの程度を示す情報及び所定の明るさの決定因子を示す情報を含む複数件の環境情報224の内容(すなわち、教師データ)の入力を適宜受け付ける。そして、制御部21は、入力により与えられた複数件の環境情報224を各撮像画像223に紐付けることで、学習データ222を作成することができる。この学習データ222の作成は、オペレータ等が入力装置24を用いて手動で行ってもよいし、ロボット等により自動で行われてもよい。
ここで、この学習データ222の作成は、上記のように学習装置2により行われてもよいし、学習装置2以外の他の情報処理装置により行われてもよい。学習装置2が学習データ222を作成する場合には、制御部21は、本ステップS201において、上記学習データ222の作成処理を実行することで、学習データ222を取得することができる。一方、学習装置2以外の他の情報処理装置が学習データ222を作成する場合には、学習装置2は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により作成された学習データ222を取得することができる。なお、本ステップS201で取得する学習データ222の件数は、ニューラルネットワーク8の学習を行うことができるように、実施の形態に応じて適宜決定されてよい。
(ステップS202)
次のステップS202では、制御部21は、学習処理部212として機能して、ステップS201で取得した学習データ222を用いて、各撮像画像223を入力すると各件の環境情報224に対応する出力値を出力するようにニューラルネットワーク8を学習させる。
次のステップS202では、制御部21は、学習処理部212として機能して、ステップS201で取得した学習データ222を用いて、各撮像画像223を入力すると各件の環境情報224に対応する出力値を出力するようにニューラルネットワーク8を学習させる。
具体的には、まず、制御部21は、学習処理を行う対象となるニューラルネットワーク8を用意する。用意するニューラルネットワーク8の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部21は、再学習を行う対象となる学習結果データ122に基づいて、ニューラルネットワーク8を用意してもよい。
次に、制御部21は、ステップS201で取得した学習データ222に含まれる複数件の撮像画像223を入力データとし、複数件の環境情報224を教師データとして、ニューラルネットワーク8の学習を行う。このニューラルネットワーク8の学習には、勾配降下法、確率的勾配降下法等が用いられてよい。
例えば、制御部21は、各撮像画像223の各画素値を入力層81の入力として用いて、ニューラルネットワーク8の順伝播方向の演算処理を行う。これにより、制御部21は、ニューラルネットワーク8の出力層83に含まれる各ニューロンから出力される出力値を得る。次に、制御部21は、出力層83の各ニューロンから出力された出力値と当該各ニューロンに対応する環境情報224の示す値との誤差を算出する。続いて、制御部21は、誤差逆伝搬法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部21は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。
制御部21は、各件の学習データ222について、出力層83に含まれる各ニューロンから出力される各出力値が対応する環境情報224の示す値と一致するまでこの一例の処理を繰り返すことにより、ニューラルネットワーク8の学習を行う。これにより、各撮像画像223を入力すると各件の環境情報224に対応する出力値を出力するニューラルネットワーク8を構築することができる。
(ステップS203)
次のステップS203では、制御部21は、学習処理部212として機能して、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク8の学習処理を終了する。
次のステップS203では、制御部21は、学習処理部212として機能して、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク8の学習処理を終了する。
なお、制御部21は、上記ステップS203の処理が完了した後に、作成した学習結果データ122を車載装置1に転送してもよい。また、制御部21は、上記ステップS201〜S203の学習処理を定期的に実行することで、学習結果データ122を定期的に更新してもよい。そして、制御部21は、作成した学習結果データ122を当該学習処理の実行毎に車載装置1に転送することで、車載装置1の保持する学習結果データ122を定期的に更新してもよい。
[作用・効果]
以上のように、本実施形態では、上記ステップS102において、周囲の環境6の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みのニューラルネットワーク7を用いている。学習のパートでも同様に、周囲の環境6の明るさの程度及び明るさの決定因子を識別可能なようにニューラルネットワーク8の学習が行われる。これにより、上記ステップS103では、明るさの程度を示す情報だけではなく、明るさを決定付ける決定因子を示す情報をも取得することができる。
以上のように、本実施形態では、上記ステップS102において、周囲の環境6の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みのニューラルネットワーク7を用いている。学習のパートでも同様に、周囲の環境6の明るさの程度及び明るさの決定因子を識別可能なようにニューラルネットワーク8の学習が行われる。これにより、上記ステップS103では、明るさの程度を示す情報だけではなく、明るさを決定付ける決定因子を示す情報をも取得することができる。
したがって、本実施形態によれば、同じ程度の明るさであったとしても、明るさの決定因子を示す情報に基づいてそのシーンの状況を識別することができるため、周囲の環境6の複雑な状況に対応することができる。例えば、上記ステップS104では、車載装置1は、同じ程度の明るさである場合に、遮蔽物がトンネルであるときにはヘッドライト102を点灯させ、遮蔽物がビルであるときにはヘッドライト102を点灯させないようにすることができる。
また、本実施形態では、上記ステップ104において、制御部11は、環境情報の内容に基づいて、各モジュールで利用する環境情報を選択してもよい。これにより、モジュールの複雑な制御が可能になる。例えば、上記のとおり、晴れの時には日射量に基づいて空調装置101を制御し、雨の時には光度エネルギに基づいて空調装置101を制御することができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<4.1>
例えば、上記実施形態では、図5及び図6に示されるとおり、各ニューラルネットワーク(7、8)として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク(7、8)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(7、8)は、入力層及び中間層を畳み込み層及びプーリング層として利用する畳み込みニューラルネットワークであってもよい。また、例えば、各ニューラルネットワーク(7、8)は、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークであってもよい。なお、各ニューラルネットワーク(7、8)の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
例えば、上記実施形態では、図5及び図6に示されるとおり、各ニューラルネットワーク(7、8)として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク(7、8)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(7、8)は、入力層及び中間層を畳み込み層及びプーリング層として利用する畳み込みニューラルネットワークであってもよい。また、例えば、各ニューラルネットワーク(7、8)は、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークであってもよい。なお、各ニューラルネットワーク(7、8)の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
<4.2>
また、上記実施形態では、周囲の環境6における明るさの程度及び明るさの決定因子を解析する車載装置1と学習器(ニューラルネットワーク)の学習を行う学習装置2とは別々のコンピュータで構成されている。しかしながら、車載装置1及び学習装置2の構成はこのような例に限定されなくてもよく、車載装置1及び学習装置2の両方の機能を有するシステムを1台又は複数台のコンピュータで実現してもよい。例えば、上記環境認識システム100自体が、学習装置2による学習器の生成機能を備えていてもよい。このとき、車載装置1と学習装置2とは内部通信(内部バス)を介して情報通信可能に接続される。
また、上記実施形態では、周囲の環境6における明るさの程度及び明るさの決定因子を解析する車載装置1と学習器(ニューラルネットワーク)の学習を行う学習装置2とは別々のコンピュータで構成されている。しかしながら、車載装置1及び学習装置2の構成はこのような例に限定されなくてもよく、車載装置1及び学習装置2の両方の機能を有するシステムを1台又は複数台のコンピュータで実現してもよい。例えば、上記環境認識システム100自体が、学習装置2による学習器の生成機能を備えていてもよい。このとき、車載装置1と学習装置2とは内部通信(内部バス)を介して情報通信可能に接続される。
<4.3>
また、上記実施形態では、車載装置1は、各件の環境情報を空調装置101及びヘッドライト102に出力している。しかしながら、環境情報の出力先は、空調装置101及びヘッドライト102のようなモジュールに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、車載装置1は、出力装置15により利用者に対して各件の環境情報を出力してもよい。環境情報の出力先となり得るモジュールは、何らかの物理状態を変化させるハードウェア若しくはソフトウェアの一単位、又は、ハードウェア若しくはソフトウェアの一単位の組合せ、を含んでよい。また、当該モジュールは、例えば、車両におけるECU(Engine Control Unit)のように、ハードウェア若しくはソフトウェアの一単位、又は、これらの組合せの複数個について、統合的に制御する統合制御装置を含んでもよい。
また、上記実施形態では、車載装置1は、各件の環境情報を空調装置101及びヘッドライト102に出力している。しかしながら、環境情報の出力先は、空調装置101及びヘッドライト102のようなモジュールに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、車載装置1は、出力装置15により利用者に対して各件の環境情報を出力してもよい。環境情報の出力先となり得るモジュールは、何らかの物理状態を変化させるハードウェア若しくはソフトウェアの一単位、又は、ハードウェア若しくはソフトウェアの一単位の組合せ、を含んでよい。また、当該モジュールは、例えば、車両におけるECU(Engine Control Unit)のように、ハードウェア若しくはソフトウェアの一単位、又は、これらの組合せの複数個について、統合的に制御する統合制御装置を含んでもよい。
また、上記実施形態では、出力選択部113により、各件の環境情報を空調装置101及びヘッドライト102に出力している。出力選択部113は、モジュールに対して、直接的、又は、間接的に環境情報を出力してよい。すなわち、情報処理装置とモジュールとが直接的に接続されることにより、出力選択部113の出力が、直接的にモジュールに対して出力されてもよいし、情報処理装置とモジュールとが所定の中継器を介して接続されることにより、出力選択部113の出力が間接的にモジュールに対して出力されてもよい。ただし、各件の環境情報をモジュールに出力する方法は、このような例に限定されなくてもよく、上記出力選択部113は省略されてもよい。
図9は、本変形例に係る車載装置1Aを模式的に例示する。図9の例では、ニューラルネットワーク7の出力層73に含まれる複数のニューロンがそれぞれ、環境情報を利用する2つのモジュール(空調装置101及びヘッドライト102)に対応付けられている。そして、各ニューロンは、対応する各モジュールに各件の環境情報(出力値)を出力する。これらの点を除き、車載装置1Aは、上記車載装置1と同様の構成を有する。これにより、出力選択部113の処理を省略できる分だけ、環境情報に基づくモジュールの制御を高速に実行することができる。
なお、本変形例において、環境情報を利用するモジュールの数は、2つに限定されなくてもよく、3つ以上であってよい。また、出力層73に含まれるニューロンの数は、環境情報を利用するモジュールの数及び各モジュールで利用する出力値の数に応じて適宜決定されてよい。
<4.4>
また、上記実施形態では、周囲の環境6の明るさに関する明るさ情報を検出するセンサ装置として、光学センサ3を利用している。しかしながら、本発明で利用可能なセンサ装置は、光学センサに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、明るさ情報は、明るさを示す何らかの情報であればよく、上記実施形態に係る撮像画像の他、明るさの測定値等であってもよい。例えば、センサ装置として、赤外線センサ、一般のカメラ等を用いることができる。また、図10に例示するとおり、センサ装置として、照度センサを利用することができる。
また、上記実施形態では、周囲の環境6の明るさに関する明るさ情報を検出するセンサ装置として、光学センサ3を利用している。しかしながら、本発明で利用可能なセンサ装置は、光学センサに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、明るさ情報は、明るさを示す何らかの情報であればよく、上記実施形態に係る撮像画像の他、明るさの測定値等であってもよい。例えば、センサ装置として、赤外線センサ、一般のカメラ等を用いることができる。また、図10に例示するとおり、センサ装置として、照度センサを利用することができる。
図10は、本変形例に係る車載装置1Bを模式的に例示する。車載装置1Bは、外部インタフェース16を介して照度センサ300に接続している。この点を除き、車載装置1Bは、上記車載装置1と同様の構成を有する。照度センサ300は、例えば、フォトトランジスタ等により照度を測定可能に構成される。本変形例では、照度センサ300が本発明の「センサ装置」に相当し、車載装置1Bは、照度センサ300による照度の測定値を明るさ情報としてニューラルネットワーク7の入力に用いる。
なお、車載装置1Bに接続される照度センサ300の数は、1つに限定されなくてもよく、2つ以上であってもよい。車載装置1Bは、異なる方向を向いて配置された複数の照度センサ300に接続することで、異なる方向の明るさ情報を検出することができるようになる。
また、上記実施形態では、光学センサ3は、3×3個の撮像素子32を有しているため、3つ以上の異なる方向からそれぞれ明るさ情報(撮像画像)を検出することができる。本変形例においても、3つ以上の照度センサ300をそれぞれ異なる方向に向けて配置することで、3つ以上の異なる方向からそれぞれ明るさ情報を検出可能にしてもよい。3つ以上の異なる方向から明るさ情報を検出するようにすることで、ニューラルネットワーク7に入力する入力データの多様性を高めることができ、これによって、周囲の環境6における明るさの程度及び明るさの決定因子の解析精度を高めることができる。
<4.5>
また、上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、明るさ情報を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。複数の撮像画像123を入力可能な学習器として、例えば、上記ニューラルネットワークの他、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成された学習器を挙げることができる。
また、上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、明るさ情報を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。複数の撮像画像123を入力可能な学習器として、例えば、上記ニューラルネットワークの他、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成された学習器を挙げることができる。
<4.6>
また、例えば、上記実施形態では、環境認識システムの情報処理装置として車載装置1を例示した。すなわち、車両に搭載する車載システムに本発明を適用した例を示した。しかしながら、情報処理装置の種類は、車載装置に限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、ビル等の建築物に設置されたモジュールを制御する制御装置に本発明が適用されてもよい。
また、例えば、上記実施形態では、環境認識システムの情報処理装置として車載装置1を例示した。すなわち、車両に搭載する車載システムに本発明を適用した例を示した。しかしながら、情報処理装置の種類は、車載装置に限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、ビル等の建築物に設置されたモジュールを制御する制御装置に本発明が適用されてもよい。
また、例えば、上記実施形態では、環境情報を利用するモジュールとして、空調装置101及びヘッドライト102を例示した。しかしながら、環境情報を利用するモジュールは、環境情報を利用可能な装置であれば、このような例に限定されなくてもよく、例えば、カーナビゲーション装置のディスプレイのバックライト等であってもよい。また、環境情報を利用するモジュールは、自動車等の車両に搭載される装置に限られなくてもよく、例えば、室内に設置される空調装置、ブラインド装置、照明等であってよい。
<4.7>
また、例えば、上記実施形態では、レンズアレイ31は、3×3個のレンズ311を備え、これに対応して、光学センサ3は、3×3個の撮像素子32を備えている。しかしながら、レンズアレイ31の備えるレンズ311の個数及び撮像素子32の個数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。加えて、レンズ311と撮像素子32とは1対1で対応していなくてもよい。
また、例えば、上記実施形態では、レンズアレイ31は、3×3個のレンズ311を備え、これに対応して、光学センサ3は、3×3個の撮像素子32を備えている。しかしながら、レンズアレイ31の備えるレンズ311の個数及び撮像素子32の個数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。加えて、レンズ311と撮像素子32とは1対1で対応していなくてもよい。
また、例えば、上記実施形態では、各撮像素子32は、5×5個の受光素子321を備えることで、5×5の画素数の撮像画像を形成可能に構成されている。しかしながら、各撮像素子32の形成する撮像画像の画素数、すなわち、撮像素子32の備える受光素子321の数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。加えて、各撮像素子32の画素数は異なっていてもよい。
<4.8>
また、例えば、上記実施形態では、被写体からの光をそれぞれ集光する複数の集光部を有する光学部材の一例として、レンズアレイを利用した。しかしながら、光学部材の種類は、レンズアレイに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。光学部材は、例えば、レンズアレイの他、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含んでよく、また、レンズ状でなくとも、透過する光を不規則に撮像素子に対して入光させる光学部材、例えば、すりガラス状の板を用いてもよい。ここで、例えば、回折格子、拡散レンズ、ホログラムレンズの場合にはそれぞれ、1つの撮像素子に対して光を入光させる部分が集光部となる。すなわち、回折格子、拡散レンズ、ホログラムレンズはそれぞれ平板状に形成されていることが一般的であるが、このような平板状の光学部材には、当該光学部材を通して光を受光する各撮像素子に対応して、複数の集光部が存在することになる。なお、各撮像素子に対応して設けられる各集光部の集光角度、屈折率、透過する光の帯域等の光学特性は、一致していなくてもよい。
また、例えば、上記実施形態では、被写体からの光をそれぞれ集光する複数の集光部を有する光学部材の一例として、レンズアレイを利用した。しかしながら、光学部材の種類は、レンズアレイに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。光学部材は、例えば、レンズアレイの他、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含んでよく、また、レンズ状でなくとも、透過する光を不規則に撮像素子に対して入光させる光学部材、例えば、すりガラス状の板を用いてもよい。ここで、例えば、回折格子、拡散レンズ、ホログラムレンズの場合にはそれぞれ、1つの撮像素子に対して光を入光させる部分が集光部となる。すなわち、回折格子、拡散レンズ、ホログラムレンズはそれぞれ平板状に形成されていることが一般的であるが、このような平板状の光学部材には、当該光学部材を通して光を受光する各撮像素子に対応して、複数の集光部が存在することになる。なお、各撮像素子に対応して設けられる各集光部の集光角度、屈折率、透過する光の帯域等の光学特性は、一致していなくてもよい。
<4.9>
また、例えば、上記実施形態では、各レンズ311の光学特性は、実施の形態に応じて適宜決定されてよい。そこで、複数(実施形態では、3×3個)のレンズ311のうち少なくとも1つのレンズ311はその他のレンズ311と異なる光学特性を有するように構成してもよい。これにより、得られる撮像画像の多様性を高めることができる。
また、例えば、上記実施形態では、各レンズ311の光学特性は、実施の形態に応じて適宜決定されてよい。そこで、複数(実施形態では、3×3個)のレンズ311のうち少なくとも1つのレンズ311はその他のレンズ311と異なる光学特性を有するように構成してもよい。これにより、得られる撮像画像の多様性を高めることができる。
また、複数のレンズ311のうち少なくとも一部の光学特性は不規則性を有していてもよい。例えば、各レンズ311の光学特性をランダムに設定してもよい。各レンズ311の所望の光学特性は、各レンズ311の大きさ、素材、及び形状の少なくともいずれかを適宜調節して設計することで実現可能である。
これにより、得られる撮像画像の多様性を更に高めることができるため、周囲の環境6における明るさの程度及び明るさの決定因子の解析精度を高めることができる。なお、複数のレンズ311のうちの少なくとも一部の光学特性が不規則性を有しているとは、いずれか隣接するレンズ311同士で光学特性が相違する状態を指す。
ただし、不規則性を有する範囲は、レンズアレイ31の一部に限られなくてもよく、レンズアレイ31の全体であってもよい。例えば、レンズアレイ31全体で光学特性をランダムに設定することで、全てのレンズ311の光学特性が不規則性を有するように構成されてもよい。
また、上記変形例のとおり、このような少なくとも一部の集光部の光学特性が不規則性を有する光学部材は、レンズアレイ以外でも構成可能である。例えば、すりガラス状の光学部材において、表面に不規則な凹凸又は溝を設けることで、凹凸又は溝を設けた範囲で光学特性を不規則に設定することができる。
<4.10>
また、例えば、上記車載装置1は、複数件の学習結果データ122を保持し、利用者の指定に応じて、利用するニューラルネットワーク7を切り替え可能に構成されていてもよい。この場合、車載装置1は、利用者による入力装置14の操作に応じて、各件の学習結果データ122を、ネットワーク10を介して学習装置2から取得してもよいし、ドライブ17を介して記憶媒体91から取得してもよい。また、車載装置1は、学習装置2からの配信を受け付けることで、各件の学習結果データ122を取得してもよい。更に、各件の学習結果データ122はNAS(Network Attached Storage)等のその他の情報処理装置(記憶装置)に格納されていてもよく、車載装置1は、当該その他の情報処理装置にアクセスすることで、各件の学習結果データ122を取得してもよい。
また、例えば、上記車載装置1は、複数件の学習結果データ122を保持し、利用者の指定に応じて、利用するニューラルネットワーク7を切り替え可能に構成されていてもよい。この場合、車載装置1は、利用者による入力装置14の操作に応じて、各件の学習結果データ122を、ネットワーク10を介して学習装置2から取得してもよいし、ドライブ17を介して記憶媒体91から取得してもよい。また、車載装置1は、学習装置2からの配信を受け付けることで、各件の学習結果データ122を取得してもよい。更に、各件の学習結果データ122はNAS(Network Attached Storage)等のその他の情報処理装置(記憶装置)に格納されていてもよく、車載装置1は、当該その他の情報処理装置にアクセスすることで、各件の学習結果データ122を取得してもよい。
1…車載装置(情報処理装置)、100…環境認識システム、
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…外部インタフェース、
17…ドライブ、
111…明るさ情報取得部、112…環境情報取得部、
121…環境認識処理プログラム、122…学習結果データ、
123…撮像画像、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…外部インタフェース、
27…ドライブ、
211…学習データ取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
223…撮像画像、224…環境情報、
3…光学センサ(センサ装置)、
31…レンズアレイ(光学部材)、311…レンズ(集光部)、
32…撮像素子、321…受光素子、
6…周囲の環境、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92…記憶媒体
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…外部インタフェース、
17…ドライブ、
111…明るさ情報取得部、112…環境情報取得部、
121…環境認識処理プログラム、122…学習結果データ、
123…撮像画像、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…外部インタフェース、
27…ドライブ、
211…学習データ取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
223…撮像画像、224…環境情報、
3…光学センサ(センサ装置)、
31…レンズアレイ(光学部材)、311…レンズ(集光部)、
32…撮像素子、321…受光素子、
6…周囲の環境、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92…記憶媒体
Claims (16)
- 周囲の環境の明るさに関する明るさ情報を検出するセンサ装置と、
前記周囲の環境の明るさの程度及び明るさの決定因子を識別するための学習を行った学習済みの学習器に、前記センサ装置により得られた前記明るさ情報を入力することで、前記周囲の環境における明るさの程度及び明るさの決定因子の情報を含む環境情報群を取得する情報処理装置と、
を備える、
環境認識システム。 - 前記環境情報群は、異なる種類の複数件の環境情報を含み、
前記学習器は、前記各件の環境情報毎に設けられ、対応する前記各件の環境情報をそれぞれ出力する複数の出力部を含む、
請求項1に記載の環境認識システム。 - 前記情報処理装置は、前記環境情報を利用するモジュールに対して前記環境情報群に含まれる複数件の環境情報を選択的に出力する出力選択部を備え、
前記出力選択部は、前記各出力部から出力される環境情報の中から利用する環境情報を選択し、選択した環境情報を前記モジュールに対して出力する、
請求項2に記載の環境認識システム。 - 前記出力選択部は、前記各出力部から出力される環境情報の内容に基づいて、前記各出力部から出力される環境情報の中から利用する環境情報を選択し、選択した環境情報を前記モジュールに対して出力する、
請求項3に記載の環境認識システム。 - 前記複数の出力部は、前記環境情報を利用する複数のモジュールに対応付けられており、それぞれ対応する当該各モジュールに前記各件の環境情報を出力する、
請求項2に記載の環境認識システム。 - 前記センサ装置は、3つ以上の異なる方向からそれぞれ明るさ情報を検出するように構成される、
請求項1から5のいずれか1項に記載の環境認識システム。 - 前記センサ装置は、前記周囲の環境からの光をそれぞれ集光する複数の集光部を有する光学部材、及びそれぞれ前記各集光部に対応して設けられ、前記各集光部の集光した光を受けて、前記周囲の環境を映した撮像画像を前記明るさ情報としてそれぞれ形成可能に構成された複数の撮像素子を備える光学センサにより構成される、
請求項1から6のいずれか1項に記載の環境認識システム。 - 前記複数の集光部のうち少なくとも1つの集光部はその他の集光部と異なる光学特性を有する、
請求項7に記載の環境認識システム。 - 前記複数の集光部のうち少なくとも一部の光学特性は不規則性を有している、
請求項7又は8に記載の環境認識システム。 - 前記光学部材は、レンズアレイ、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含む、
請求項7から9のいずれか1項に記載の環境認識システム。 - 前記センサ装置は、1又は複数の照度センサにより構成される、
請求項1から6のいずれか1項に記載の環境認識システム。 - 前記学習器は、ニューラルネットワーク、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成される、
請求項1から11のいずれか1項に記載の環境認識システム。 - 前記明るさの程度は、所定の物理単位を用いた連続量、及び/又は明るさを段階的に示す明るさレベルで示される、
請求項1から12のいずれか1項に記載の環境認識システム。 - 前記所定の物理単位は、照度、日射量、光束、光度、輝度、光度エネルギ、及び視感度の少なくともいずれかで示される、
請求項13に記載の環境認識システム。 - 前記明るさの決定因子は、光を遮る遮蔽物の有無、当該遮蔽物の種類、太陽の有無、天候、時刻、及び都市度の少なくともいずれかで示される、
請求項1から14のいずれか1項に記載の環境認識システム。 - 周囲の環境の明るさに関する明るさ情報を検出するセンサ装置から当該明るさ情報を取得する情報取得部と、
取得した前記明るさ情報を入力すると、前記周囲の環境の明るさの程度及び明るさの決定因子の情報を含む環境情報群を出力するように学習器を学習させる学習処理部と、
を備える、
学習装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017031089A JP2018136211A (ja) | 2017-02-22 | 2017-02-22 | 環境認識システム及び学習装置 |
PCT/JP2018/001305 WO2018155018A1 (en) | 2017-02-22 | 2018-01-18 | Environment recognition system and learning apparatus |
US16/479,619 US20210334551A1 (en) | 2017-02-22 | 2018-01-18 | Environment recognition system and learning apparatus |
CN201880005685.5A CN110140130A (zh) | 2017-02-22 | 2018-01-18 | 环境识别系统和学习设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017031089A JP2018136211A (ja) | 2017-02-22 | 2017-02-22 | 環境認識システム及び学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018136211A true JP2018136211A (ja) | 2018-08-30 |
Family
ID=61148455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017031089A Pending JP2018136211A (ja) | 2017-02-22 | 2017-02-22 | 環境認識システム及び学習装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210334551A1 (ja) |
JP (1) | JP2018136211A (ja) |
CN (1) | CN110140130A (ja) |
WO (1) | WO2018155018A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096868A (ko) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치 |
WO2022102207A1 (ja) * | 2020-11-10 | 2022-05-19 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
US11663691B2 (en) | 2019-10-30 | 2023-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004149047A (ja) * | 2002-10-31 | 2004-05-27 | Denso Corp | 車両用空調装置 |
JP2012171485A (ja) * | 2011-02-21 | 2012-09-10 | Stanley Electric Co Ltd | 前照灯制御装置 |
JP2014012494A (ja) * | 2012-07-05 | 2014-01-23 | Toyota Motor East Japan Inc | 前照灯制御システム |
JP2014106685A (ja) * | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2015135552A (ja) * | 2014-01-16 | 2015-07-27 | 株式会社デンソー | 学習システム、車載装置、及び、サーバ |
JP2016046556A (ja) * | 2014-08-20 | 2016-04-04 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置、走行区画線認識プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3111566B2 (ja) | 1991-12-20 | 2000-11-27 | 株式会社デンソー | 車両用空調制御装置 |
JP6022426B2 (ja) | 2013-09-06 | 2016-11-09 | オムロンオートモーティブエレクトロニクス株式会社 | 車両用ライト制御装置 |
-
2017
- 2017-02-22 JP JP2017031089A patent/JP2018136211A/ja active Pending
-
2018
- 2018-01-18 CN CN201880005685.5A patent/CN110140130A/zh active Pending
- 2018-01-18 WO PCT/JP2018/001305 patent/WO2018155018A1/en active Application Filing
- 2018-01-18 US US16/479,619 patent/US20210334551A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004149047A (ja) * | 2002-10-31 | 2004-05-27 | Denso Corp | 車両用空調装置 |
JP2012171485A (ja) * | 2011-02-21 | 2012-09-10 | Stanley Electric Co Ltd | 前照灯制御装置 |
JP2014012494A (ja) * | 2012-07-05 | 2014-01-23 | Toyota Motor East Japan Inc | 前照灯制御システム |
JP2014106685A (ja) * | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2015135552A (ja) * | 2014-01-16 | 2015-07-27 | 株式会社デンソー | 学習システム、車載装置、及び、サーバ |
JP2016046556A (ja) * | 2014-08-20 | 2016-04-04 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置、走行区画線認識プログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190096868A (ko) * | 2019-07-31 | 2019-08-20 | 엘지전자 주식회사 | 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치 |
KR102220950B1 (ko) * | 2019-07-31 | 2021-02-26 | 엘지전자 주식회사 | 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치 |
US11040650B2 (en) | 2019-07-31 | 2021-06-22 | Lg Electronics Inc. | Method for controlling vehicle in autonomous driving system and apparatus thereof |
US11663691B2 (en) | 2019-10-30 | 2023-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
WO2022102207A1 (ja) * | 2020-11-10 | 2022-05-19 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
JP7492440B2 (ja) | 2020-11-10 | 2024-05-29 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018155018A1 (en) | 2018-08-30 |
CN110140130A (zh) | 2019-08-16 |
US20210334551A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107709688B (zh) | 智能窗的安装模式和云学习 | |
JP6780537B2 (ja) | 光学センサ、学習装置、及び画像処理システム | |
JP2019203691A (ja) | 照明装置 | |
JP2018136211A (ja) | 環境認識システム及び学習装置 | |
CN107749070B (zh) | 深度信息的获取方法和获取装置、手势识别设备 | |
KR101326384B1 (ko) | 모놀리식 이미지 인식 디바이스 및 방법 | |
WO2018142634A1 (ja) | 画像処理システム、光学センサ、及び学習装置 | |
CN102592335A (zh) | 确定由红外成像系统获得的红外图像中的总人数 | |
JP2012068965A (ja) | 画像認識装置 | |
CN105009568A (zh) | 利用融合的紧凑多光谱成像 | |
CN104010864B (zh) | 可配置控制面板 | |
CN104024022B (zh) | 控制面板 | |
KR102507746B1 (ko) | 복수의 파장대역을 감지할 수 있는 카메라를 이용하여 복수의 정보를 생성하는 방법 및 이를 구현한 전자 장치 | |
CN111680564B (zh) | 一种全天候行人重识别方法、系统、设备及存储介质 | |
KR20230120600A (ko) | 오브젝트를 검출하는 전자 장치 및 이의 제어 방법 | |
Weikl et al. | Potentials of combined visible light and near infrared imaging for driving automation | |
WO2022269470A1 (en) | Modular apparatus for the inspection of industrial products and related methods | |
JP7342616B2 (ja) | 画像処理システム、設定方法およびプログラム | |
JP2023077059A (ja) | 外観検査装置及び外観検査方法 | |
US10521690B2 (en) | Pictogram recognition apparatus, pictogram recognition system, and pictogram recognition method | |
EP4293385A1 (en) | Dynamic utilization of broad-spectrum photosensor | |
Núñez et al. | Estimation of solar resource for vehicle-integrated photovoltaics in urban environments using image-based shade detection | |
Granados-López et al. | Pixel‐Based Image Processing for CIE Standard Sky Classification through ANN | |
US20230386187A1 (en) | Method for simulating the effects of the optical quality of windshield | |
JP2011180059A (ja) | 外観検査支援装置および外観検査支援方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201006 |