JP2021124972A - 情報処理システム、および情報処理プログラム - Google Patents

情報処理システム、および情報処理プログラム Download PDF

Info

Publication number
JP2021124972A
JP2021124972A JP2020018198A JP2020018198A JP2021124972A JP 2021124972 A JP2021124972 A JP 2021124972A JP 2020018198 A JP2020018198 A JP 2020018198A JP 2020018198 A JP2020018198 A JP 2020018198A JP 2021124972 A JP2021124972 A JP 2021124972A
Authority
JP
Japan
Prior art keywords
information
captured image
processing system
information processing
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020018198A
Other languages
English (en)
Inventor
拓馬 武藤
Takuma Muto
拓馬 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2020018198A priority Critical patent/JP2021124972A/ja
Publication of JP2021124972A publication Critical patent/JP2021124972A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人の目を含む部位に存在する反射物を撮像部により撮像することで得られる撮像画像をより有効に利用する。
【解決手段】本開示の一例としての情報処理システムは、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する画像取得部と、画像取得部により取得された撮像画像から反射物に映り込んだ情報を読み取って出力する情報出力部と、を備える。
【選択図】図3

Description

本開示は、情報処理システム、および情報処理プログラムに関する。
従来、人の目を撮像することで得られる撮像画像から、瞳孔および虹彩の位置などを検出し、検出した特徴を各種の制御に利用する技術が知られている。
特許第4151624号公報
上記のような従来の技術は、瞳孔および虹彩の位置などといった、人の目の生体的または構造的な特徴を検出する技術である。しかしながら、人の目(および人の目に対応した部位に装着される眼鏡またはコンタクトレンズのような装着物)は、人が視認している情報を映す反射物であると言える。このような観点から、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができれば、有益である。
そこで、本開示の目的は、人の目を含む部位に存在する反射物を撮像部により撮像することで得られる撮像画像をより有効に利用することが可能な情報処理システムおよび情報処理プログラムを提供することである。
本開示の一例としての情報処理システムは、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する画像取得部と、画像取得部により取得された撮像画像から反射物に映り込んだ情報を読み取って出力する情報出力部と、を備える。
上述した情報処理システムによれば、人の目を含む部位に存在する反射物に映り込んだ情報を様々に利用することができる。したがって、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができる。
上述した情報処理システムにおいて、画像取得部は、車両の乗員の目を含む部位に存在する反射物の撮像画像を取得し、情報出力部により出力された情報に基づいて、乗員に対するサービスを実行するサービス実行部をさらに備える。このような構成によれば、車両の乗員の目を含む部位に存在する反射物を撮像することで得られる撮像画像を利用して、乗員に有益なサービスを提供することができる。
この場合において、情報出力部は、撮像画像から、車両の進行の妨げとなる可能性があるオブジェクトに関するオブジェクト情報を読み取って出力し、サービス実行部は、オブジェクト情報に基づいて、オブジェクトを回避するように車両の運動制御を実行する。このような構成によれば、オブジェクト情報に基づいて実行される車両の運動制御により、車両とオブジェクトとの接触を適切に回避することができる。
また、オブジェクト情報に基づいて車両の運動制御を実行する上述した情報処理システムにおいて、サービス実行部は、オブジェクト情報の経時変化に基づいて、反射物においてオブジェクトが徐々に大きくなるように映り込んでいると判定される場合に、オブジェクトを回避するように車両の運動制御を実行する。このような構成によれば、オブジェクト情報の経時変化に基づいて、車両とオブジェクトとの接触の可能性を容易に判定し、判定結果に応じて、車両の運動制御を適切に実行することができる。
また、オブジェクト情報に基づいて車両の運動制御を実行する上述した情報処理システムにおいて、サービス実行部は、反射物が乗員の目の白目部分と黒目部分とを区別可能な態様で撮像画像内に写っている場合、オブジェクト情報に基づいて、白目部分にオブジェクトが映り込んでいると判定される場合に、オブジェクトを回避するように車両の運動制御を実行する。このような構成によれば、白目部分にオブジェクトが映り込んでいるか否かに基づいて、オブジェクトを乗員が意図的に視認しているか否かを容易に判定し、判定結果に応じて、車両の運動制御を適切に実行することができる。
また、オブジェクト情報に基づいて車両の運動制御を実行する上述した情報処理システムにおいて、サービス実行部は、オブジェクトを回避するように車両の運動制御を実行するのに先立って、乗員に対して注意喚起の通知を実行する。このような構成によれば、乗員に何らの通知も実行しないまま車両の運動制御を実行することで乗員に違和感を与えるのを回避することができる。
乗員に対するサービスを実行する上述した情報処理システムにおいて、情報出力部は、撮像画像から、反射物に映り込んでいる施設に関する施設情報を読み取って出力し、サービス実行部は、施設情報に基づいて、乗員に対して施設の利用に関する情報の通知を実行する。このような構成によれば、施設情報に基づいて、たとえば乗員が利用することを望んでいると考えられる施設を判定し、判定結果に応じて、乗員に対して有益な情報を提供することができる。
また、乗員に対するサービスを実行する上述した情報処理システムにおいて、情報出力部は、撮像画像から、反射物に映り込んでいる文字を示す文字情報を読み取って出力し、サービス実行部は、文字情報に基づいて、乗員に対して文字の知覚支援を実行する。このような構成によれば、文字情報に基づいて、たとえば乗員が知覚すべきと考えられる文字を判定し、判定結果に応じて、該当する文字を乗員に容易に知覚させることができる。
また、乗員に対するサービスを実行する上述した情報処理システムにおいて、情報出力部は、撮像画像から、反射物に映り込んでいる対象の色を示す色情報を読み取って出力し、サービス処理部は、色情報に基づいて、乗員に対して色の知覚支援を実行する。このような構成によれば、色情報に基づいて、たとえば乗員が判別すべきと考えられる色を判定し、判定結果に応じて、該当する色を乗員に容易に知覚させることができる。
上述した情報処理システムにおいて、画像取得部は、端末装置のディスプレイを視認中のユーザの目を含む部位に存在する反射物の撮像画像を取得し、情報出力部により出力された情報に基づいて、ユーザに対するサービスを実行するサービス実行部をさらに備える。このような構成によれば、端末装置のユーザの目を含む部位に存在する反射物を撮像することで得られる撮像画像を利用して、端末装置のユーザに有益なサービスを提供することができる。
この場合において、情報出力部は、撮像画像から、反射物に映り込んでいるディスプレイに表示されたコンテンツに関するコンテンツ情報を取得し、サービス実行部は、コンテンツ情報に基づいて、ユーザが見るべきコンテンツを見ていないと判定される場合に、ユーザに対して注意喚起の通知を実行する。このような構成によれば、コンテンツ情報に基づいて実行される注意喚起の通知により、見るべきコンテンツを見るようユーザに適切に促すことができる。
ユーザに対するサービスを実行する上述した情報処理システムにおいて、情報出力部は、撮像画像から、反射物に映り込んでいるディスプレイに表示された文字を示す文字情報を読み取って出力し、サービス実行部は、文字情報に基づいて、ユーザに対して文字の知覚支援または入力支援を実行する。このような構成によれば、文字情報に基づいて実行される知覚支援または入力支援により、該当する文字を確実にユーザに知覚させること、または該当する文字をユーザが端末装置のアプリケーションなどに入力する際の作業負担を軽減することを実現することができる。
本開示の他の一例としての情報処理プログラムは、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する画像取得ステップと、画像取得ステップにより取得された撮像画像から反射物に映り込んだ情報を読み取り、読み取った情報を出力する情報出力ステップと、をコンピュータに実行させるためのプログラムである。
上述した情報処理プログラムによれば、人の目を含む部位に存在する反射物に映り込んだ情報を様々に利用することができる。したがって、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができる。
図1は、第1の実施形態にかかる情報処理システムが搭載される車両の構成を示した例示的かつ模式的な図である。 図2は、第1の実施形態にかかる車載カメラの配置の一例を示した例示的かつ模式的な図である。 図3は、第1の実施形態にかかる情報処理システムの機能を示した例示的かつ模式的なブロック図である。 図4は、第1の実施形態にかかる画像認識モデルの概要を示した例示的かつ模式的な図である。 図5は、第1の実施形態にかかる情報処理システムにより実行される一連の処理を示した例示的なフローチャートである。 図6は、第2の実施形態にかかる情報処理システムとしての端末装置の外観を示した例示的かつ模式的な図である。 図7は、第2の実施形態にかかる端末装置の機能を示した例示的かつ模式的な図である。 図8は、第1および第2の実施形態を実現するためのコンピュータのハードウェア構成を示した例示的かつ模式的なブロック図である。
以下、本開示の実施形態を図面に基づいて説明する。以下に記載する実施形態の構成、ならびに当該構成によってもたらされる作用および結果は、あくまで一例であって、以下の記載内容に限られるものではない。
<第1の実施形態>
まず、本開示の第1の実施形態にかかる情報処理システム100について説明する。以下に説明するように、第1の実施形態にかかる情報処理システム100は、車両1に搭載される。
図1は、第1の実施形態にかかる情報処理システム100が搭載される車両1の構成を示した例示的かつ模式的な図である。
図1に示されるように、実施形態にかかる車両1は、左右2つの前輪3Fと、左右2つの後輪3Rと、を有した四輪の自動車である。以下では、簡単化のため、前輪3Fおよび後輪3Rを総称して車輪3と記載することがある。実施形態では、4つの車輪3の一部または全部の横滑り角が、操舵部5を用いたドライバの操舵などに応じて変化(転舵)する。
また、図1に示されるように、実施形態にかかる車両1は、乗員(図1には不図示)が乗車する車室2aを有している。車室2a内には、乗員としての運転者X(図2参照)が運転席2bから操作可能な状態で、操舵部5が設けられている。操舵部5は、たとえば、ダッシュボード(インストルメントパネル)12から突出するように設けられたステアリングホイールとして構成される。なお、実施形態において、車室2a内に運転席2b以外の座席が存在しうることは、言うまでもない。
また、車室2a内には、カーナビゲーションシステムなどに利用されるモニタ装置11が設けられている。モニタ装置11は、車室2a内のダッシュボードの車幅方向(左右方向)の中央部に設けられており、各種の画像を出力可能な表示部8と、各種の音を出力可能な音声出力部9と、を有している。なお、図1に示される例において、表示部8は、指またはスタイラスなどの指示体が近接(接触を含む)した位置の座標を検出可能な操作入力部10によって覆われている。これにより、乗員は、表示部8に表示される画像を視認することができるとともに、操作入力部10上で指示体を用いた入力操作(たとえばタッチ操作)を行うことで、各種の操作を入力することができる。
ここで、実施形態では、次の図2に示されるように、操舵部5を支持する支持部5aに、たとえばCCD(Charge Coupled Device)カメラなどとして構成された車載カメラ200が設けられている。
図2は、第1の実施形態にかかる車載カメラ200の配置の一例を示した例示的かつ模式的な図である。
図2に示されるように、車載カメラ200は、運転席2bに着座した乗員としての運転者Xの顔が存在する可能性のある領域を撮像するように構成されている。より具体的に、車載カメラ200は、運転席2bに着座した運転者Xの顔が視野の中心に位置するように、視野角および姿勢が調整されている。これにより、車載カメラ200は、運転者Xの目を含む部位に存在する反射物(目そのもの、眼鏡、またはコンタクトレンズなど)を撮像することで撮像画像を取得する撮像部として機能する。
なお、車載カメラ200の配置は、運転者Xの目を含む部位に存在する反射物を撮像可能な配置であれば、図2に示される例とは異なる配置であってもよい。たとえば、車載カメラ200は、車室2aのオーバーヘッドコンソールと呼ばれる天井部などに設けられていてもよい。
車載カメラ200は、車両1の運転が行われている間、運転者Xの顔の撮像を所定の時間間隔で周期的に実行する。そして、車載カメラ200は、撮像により得た撮像画像に対して画像認識を順次行い、結果を順次出力する。なお、画像認識の詳細については後で説明するため、ここでは説明を省略する。
なお、以下では、車載カメラ200によって得られる撮像画像、すなわち運転席2bに着座した運転者Xの目を含む部位に存在する反射物を撮像することで得られる撮像画像を対象として本開示の技術を適用する例について主として説明するが、本開示の技術は、運転者X以外の乗員を撮像することで得られる撮像画像を対象として適用することも可能である。すなわち、本開示の技術は、車載カメラ200とは異なる位置に設けられる、運転席2b以外の他の座席に着座した乗員の目を含む部位に存在する反射物を撮像する撮像部によって得られる撮像画像を対象としても、同様に実行可能である。
ところで、従来、人の目を撮像することで得られる撮像画像から、瞳孔および虹彩の位置などを検出し、検出した特徴を各種の制御に利用する技術が知られている。
上記のような従来の技術は、瞳孔および虹彩の位置などといった、人の目の生体的または構造的な特徴を検出する技術である。しかしながら、人の目(および人の目に対応した部位に装着される眼鏡またはコンタクトレンズのような装着物)は、人が視認している情報を映す反射物であると言える。このような観点から、人の目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができれば、有益である。
そこで、第1の実施形態にかかる情報処理システム100は、以下に説明するような構成および処理に基づいて、人の目を含む部位に存在する反射物を撮像部により撮像することで得られる撮像画像をより有効に利用することを実現する。
次に、図3を参照して、第1の実施形態にかかる情報処理システム100の機能について説明する。
図3は、第1の実施形態にかかる情報処理システム100の機能を示した例示的かつ模式的なブロック図である。
図3に示されるように、情報処理システム100は、車載カメラ200と、ECU(Electronic Control Unit)300と、制御対象400と、を備えている。これらの装置は、いずれも、車両1に搭載される。また、これらの装置は、たとえばCAN(Controller Area Network)などの車載ネットワークを介して互いに通信可能に接続されている。
車載カメラ200は、画像取得部210と、情報出力部220と、を備えている。また、ECU300は、認識結果取得部310と、サービス実行部320と、を備えている。なお、車載カメラ200とECU300との間における図2に示されるような機能分担は、あくまで一例である。実施形態では、たとえば情報出力部220が車載カメラ200ではなくECU300に搭載されていてもよい。
画像取得部210は、車載カメラ200による撮像結果、すなわち人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する。そして、情報出力部220は、画像取得部210により取得された撮像画像に対して、次の図4に示されるような画像認識モデル221に基づく画像認識を実行する。
図4は、第1の実施形態にかかる画像認識モデル221の概要を示した例示的かつ模式的な図である。
図4に示されるように、画像認識モデル221は、撮像画像の入力に応じて、撮像画像内の反射物に映り込んでいる人および物などのオブジェクトに関するオブジェクト情報と、撮像画像内の反射物に映り込んでいる施設に関する施設情報と、撮像画像内の反射物に映り込んでいる文字を示す文字情報と、撮像画像内の反射物に映り込んでいる色の判別が必要な対象の色を示す色情報と、を出力するように構成されている。画像認識モデル221は、たとえば機械学習により予めトレーニングされたニューラルネットワークとして構成される。
なお、第1の実施形態において、画像認識モデル221は、反射物に映り込んでいる対象に関する情報であれば、オブジェクト情報、施設情報、文字情報、および色情報以外の他の情報も出力しうる。
図3に戻り、情報出力部220は、画像取得部210により取得された撮像画像を画像認識モデル221に入力することで画像認識モデル221から出力される情報を、車両1において提供される各種のサービス(具体例は後述する)を司る制御装置としてのECU300に受け渡す。これにより、ECU300は、車両1の乗員が視認している情報を、車両1において提供される各種のサービスに利用することができる。
より具体的に、ECU300の認識結果取得部310は、車載カメラ200の情報出力部220から出力される情報を受け取る。そして、ECU300のサービス実行部320は、認識結果取得部310により取得される情報に基づいて、車両1の乗員に対して各種のサービスを提供する。
たとえば、認識結果取得部310により取得される情報の一つであるオブジェクト情報によれば、以下のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部320は、車両1の進行の妨げとなる可能性があるオブジェクトに関するオブジェクト情報に基づいて、オブジェクトを回避するように車両1の運動制御を実行しうる。この場合、車両1の加速を制御する加速システムのアクチュエータ、車両1の減速を制御する減速システムのアクチュエータ、車両1の操舵を制御する操舵システムのアクチュエータ、および車両1の変速を制御する変速システムのアクチュエータなどが、車両1の運動制御のためにサービス実行部320の制御のもとで動作する制御対象400となる。
たとえば、車両1の進行の妨げとなる可能性があるオブジェクトが撮像画像内の反射物において時間経過とともに徐々に大きくなる場合、車両1とオブジェクトとが徐々に接近し、接触の可能性があると言える。したがって、これを踏まえて、サービス実行部320は、オブジェクト情報の経時変化に基づいて、撮像画像内の反射物においてオブジェクトが徐々に大きくなるように映り込んでいると判定される場合に、オブジェクトを回避するように車両1の運動制御を実行しうる。オブジェクトは、撮像画像内の反射物に直接的に映り込むだけでなく、バックミラーまたはサイドミラーを介して反射物に間接的に映り込むこともある。
なお、車両1の運動制御は、オブジェクトの回避の要否を判定した上で実行することもできる。オブジェクトの回避の要否は、たとえばオブジェクトの次の行動の予測結果に基づいて判定されうる。オブジェクトの次の行動は、たとえばオブジェクトが歩行者である場合、歩行者の顔または体が車両1の進行方向と同じ方向を向いているか、車両1の進行方向と交差する横方向を向いているか、手元のスマートフォンまたは路面などの確認のために下方向を向いているか、および、車両1の進行方向に対向する方向、つまり車両1の乗員に面した方向を向いているのか、などに応じて予測することができる。
また、反射物が乗員の目の白目部分と黒目部分とを区別可能な態様で撮像画像内に写っている場合、白目部分と黒目部分とのいずれにオブジェクトが映り込んでいるかに応じて、乗員がオブジェクトを意図的に視認しているか否かを判定することができる。たとえば、白目部分にオブジェクトが映り込んでいる場合、乗員がオブジェクトを意図的に視認している可能性は低いと言える。したがって、これを踏まえて、サービス実行部320は、オブジェクト情報に基づいて、白目部分にオブジェクトが映り込んでいると判定される場合に、オブジェクトを回避するように車両1の運動制御を実行しうる。
ただし、乗員に何らの通知も実行しないまま上記のような運動制御を実行すると、乗員に違和感を与える可能性がある。したがって、サービス実行部320は、オブジェクトを回避するように車両1の運動制御を実行するのに先立って、乗員に対して注意喚起の通知を実行しうる。この場合、車室2a内に設けられるモニタ装置11などが、注意喚起の通知のためにサービス実行部320の制御のもとで動作する制御対象400となる。
また、認識結果取得部310により取得される情報の他の一つである施設情報によれば、次のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部320は、施設情報に基づいて、乗員に対して施設の利用に関する情報の通知を実行しうる。この場合、車室2a内に設けられるモニタ装置11などが、施設の利用に関する情報の通知のためにサービス実行部320の制御のもとで動作する制御対象400となる。
たとえば、撮像画像内の反射物に同じ飲食店が継続的に映り込んでいる場合、乗員がその飲食店で飲食をしたいと考えていると判定することができる。したがって、この場合、サービス実行部320は、所定時間以上同じ飲食店に関する施設情報が取得されることに基づいて、飲食店の営業時間およびメニューなどの情報、飲食店で利用可能なクーポン、および飲食店の駐車場へのルートなどのような、飲食店の利用に有益な情報をたとえばインターネットなどを介して取得し、取得した情報を乗員に通知しうる。飲食店以外の様々な施設に関しても同様である。
また、認識結果取得部310により取得される情報の他の一つである文字情報によれば、次のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部320は、文字情報に基づいて、乗員に対して文字の知覚支援を実行しうる。この場合、車室2a内に設けられるモニタ装置11などが、知覚支援のためにサービス実行部320の制御のもとで動作する制御対象400となる。
たとえば、車両1から離れた位置にある標識などに記載された文字は、撮像画像内の反射物に小さく映り込むものと考えられる。このような文字は、乗員の視力によっては、乗員にとって知覚しにくくなっている可能性がある。したがって、この場合、サービス実行部320は、該当の文字が乗員にとって知覚しやすくなるように、該当の文字を表示部8に(たとえば拡大して)表示したり音声出力部9から音声として出力したりしうる。なお、該当の文字を表示部8に表示する際には、乗員の色覚特性に合わせて色の調整などが実施されてもよい。
さらに、認識処理部310により取得される情報の他の一つである色情報によれば、次のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部320は、色情報に基づいて、乗員に対して色の知覚支援を実行しうる。この場合、車室2a内に設けられるモニタ装置11などが、知覚支援のためにサービス実行部320の制御のもとで動作する制御対象400となる。
たとえば、信号機などは、色の判別が必要な対象であるが、乗員が信号機を注視している場合、周囲の光の状況または一時的な視力低下などの影響により、乗員が信号機の色を知覚しにくくなっている可能性がある。したがって、この場合、サービス実行部320は、知覚支援として、該当の色を表す文字を表示部8に表示したり音声出力部9から音声として出力したりする処理を実行しうる。
なお、第1の実施形態の技術は、瞳孔および虹彩の位置などといった、乗員の目の生体的または構造的な特徴を撮像画像から検出し、検出結果に基づいて乗員の視線の向きを推定する技術と併用することも可能である。
以上の構成に基づき、第1の実施形態にかかる情報処理システム100は、車両1に乗員が乗っている場合に、次の図5に示されるような一連の処理を実行する。
図5は、第1の実施形態にかかる情報処理システム100により実行される一連の処理を示した例示的なフローチャートである。
図5に示されるように、第1の実施形態では、まず、S501において、車載カメラ200の画像取得部210は、人の目を含む部位に存在する反射物(目そのもの、眼鏡、またはコンタクトレンズなど)を撮像することで得られる撮像画像を取得する。
そして、S502において、車載カメラ200の情報出力部220は、S501で取得された撮像画像に対する画像認識モデル221を用いた画像認識を実行する。より具体的に、情報出力部220は、S501で取得された撮像画像を画像認識モデル221に入力し、画像認識モデル221から出力される上述したオブジェクト情報、施設情報、および文字情報などの情報を、認識結果として取得する。
そして、S503において、車載カメラ200の情報出力部220は、S502での画像認識の結果を示す認識結果を、ECU300に出力する。
そして、S504において、ECU300の認識結果取得部310は、S503で情報出力部220から出力された認識結果を取得する。
そして、S505において、ECU300のサービス実行部320は、S504で取得された認識結果に基づいて、実行すべきサービスを決定する。たとえば、ECU300のサービス実行部320は、オブジェクト情報に応じて実行すべき車両1の運動制御および当該運動制御の前の注意喚起、施設情報に応じて実行すべき施設の利用に関する情報の通知、文字情報に応じて実行すべき知覚支援、および色情報に応じて実行すべき知覚支援、などといった各種のサービスの制御内容を決定する。
そして、S506において、ECU300のサービス実行部320は、S505で決定された制御内容に応じて制御対象400を制御し、乗員に適切なサービスを提供する。そして、処理が終了する。
以上説明したように、第1の実施形態にかかる情報処理システム100は、画像取得部210と、情報出力部220と、を備えている。画像取得部210は、車両1の乗員の目を含む部位に存在する反射物(目そのもの、眼鏡、またはコンタクトレンズなど)を撮像することで得られる撮像画像を取得する。そして、情報出力部220は、画像取得部210により取得された撮像画像から反射物に映り込んだ情報を読み取って出力する。そして、第1の実施形態において、情報処理システム100は、情報出力部220により出力された情報に基づいて、乗員に対するサービスを実行するサービス実行部320を備えている。
上記のような構成によれば、乗員の目を含む部位に存在する反射物に映り込んだ情報を様々に利用することができる。したがって、乗員の目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができる。より具体的に、上記のような構成によれば、乗員の目を含む部位に存在する反射物を撮像することで得られる撮像画像を利用して、乗員に有益なサービスを提供することができる。
たとえば、第1の実施形態において、情報出力部220は、撮像画像から、車両1の進行の妨げとなる可能性があるオブジェクトに関するオブジェクト情報を読み取って出力しうる。そして、サービス実行部320は、オブジェクト情報に基づいて、オブジェクトを回避するように車両1の運動制御を実行しうる。このような構成によれば、オブジェクト情報に基づいて実行される車両1の運動制御により、車両1とオブジェクトとの接触を適切に回避することができる。
この場合、第1の実施形態において、サービス実行部320は、オブジェクト情報の経時変化に基づいて、反射物においてオブジェクトが徐々に大きくなるように映り込んでいると判定される場合に、オブジェクトを回避するように車両1の運動制御を実行しうる。このような構成によれば、オブジェクト情報の経時変化に基づいて、車両1とオブジェクトとの接触の可能性を容易に判定し、判定結果に応じて、車両1の運動制御を適切に実行することができる。
また、第1の実施形態において、サービス実行部320は、反射物が乗員の目の白目部分と黒目部分とを区別可能な態様で撮像画像内に写っている場合、オブジェクト情報に基づいて、白目部分にオブジェクトが映り込んでいると判定される場合に、オブジェクトを回避するように車両1の運動制御を実行しうる。このような構成によれば、白目部分にオブジェクトが映り込んでいるか否かに基づいて、オブジェクトを乗員が意図的に視認しているか否かを容易に判定し、判定結果に応じて、車両1の運動制御を適切に実行することができる。
また、第1の実施形態において、サービス実行部320は、オブジェクトを回避するように車両1の運動制御を実行するのに先立って、乗員に対して注意喚起の通知を実行しうる。このような構成によれば、乗員に何らの通知も実行しないまま車両1の運動制御を実行することで乗員に違和感を与えるのを回避することができる。
また、第1の実施形態において、情報出力部220は、撮像画像から、反射物に映り込んでいる施設に関する施設情報を読み取って出力しうる。そして、サービス実行部320は、施設情報に基づいて、乗員に対して施設の利用に関する情報の通知を実行しうる。このような構成によれば、施設情報に基づいて、たとえば乗員が利用することを望んでいると考えられる施設を判定し、判定結果に応じて、乗員に対して有益な情報を提供することができる。
また、第1の実施形態において、情報出力部220は、撮像画像から、反射物に映り込んでいる文字を示す文字情報を読み取って出力しうる。そして、サービス実行部320は、文字情報に基づいて、乗員に対して文字の知覚支援を実行しうる。このような構成によれば、文字情報に基づいて、たとえば乗員が知覚すべきと考えられる文字を判定し、判定結果に応じて、該当する文字を乗員に容易に知覚させることができる。
また、第1の実施形態において、情報出力部220は、撮像画像から、反射物に映り込んでいる、色の判別が必要な対象の色を示す色情報を読み取って出力しうる。そして、サービス実行部320は、色情報に基づいて、乗員に対して色の知覚支援を実行しうる。このような構成によれば、色情報に基づいて、たとえば乗員が知覚すべきと考えられる色を判定し、判定結果に応じて、該当する色を乗員に容易に知覚させることができる。
<第2の実施形態>
なお、上述した第1の実施形態では、車両1の乗員を対象に本開示の技術が適用されている。しかしながら、本開示の技術は、車両1の乗員以外にも適用可能である。たとえば、第2の実施形態として、情報処理システムとしてのPC(Personal Computer)のような端末装置600のユーザを対象に本開示の技術を適用する例が考えられる。
図6は、第2の実施形態にかかる情報処理システムとしての端末装置600の外観を示した例示的かつ模式的な図である。
図6に示されるように、端末装置600は、ディスプレイ610と、カメラ620と、操作入力部630と、を備えている。第2の実施形態では、ディスプレイ610を視認しながら操作入力部630などを用いた作業を行っているユーザの目を含む部位に存在する反射物をカメラ620により撮像することで得られる撮像画像が有効に利用される。
なお、図6に示される例では、端末装置600がラップトップPCとして構成されているが、第2の実施形態の技術は、カメラおよびディスプレイが設けられていれば、ラップトップPCとは異なる他の端末装置にも適用可能である。
図7は、第2の実施形態にかかる端末装置600の機能を示した例示的かつ模式的な図である。
図7に示されるように、カメラ620による撮像結果は、画像取得部710と、情報出力部720と、サービス実行部730と、を備えた制御部700に受け渡される。なお、制御部700は、端末装置600の各部の制御を司る機能ブロックである。
画像取得部710は、カメラ620による撮像結果、すなわちディスプレイ610を視認しながら操作入力部630などを用いた作業を行っているユーザの目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する。そして、情報出力部720は、画像取得部710により取得された撮像画像に対して、上述した第1の実施形態にかかる画像認識モデル221(図3参照)と同様の技術的思想に基づいて予め生成された画像認識モデル721に基づく画像認識を実行する。
すなわち、第2の実施形態にかかる画像認識モデル721は、撮像画像の入力に応じて、撮像画像内の反射物に映り込んでいるディスプレイ610に表示された画像などのコンテンツに関するコンテンツ情報と、撮像画像内の反射物に映り込んでいるディスプレイ610に表示された文字を示す文字情報と、を出力するように構成されている。画像認識モデル721は、上述した第1の実施形態にかかる画像認識モデル221(図3参照)と同様、たとえば機械学習により予めトレーニングされたニューラルネットワークとして構成される。
なお、第2の実施形態において、画像認識モデル721は、反射物に映り込んでいる対象に関する情報であれば、コンテンツ情報および文字情報以外の他の情報も出力しうる。
情報出力部720は、画像取得部710により取得された撮像画像を画像認識モデル721に入力することで画像認識モデル721から出力される情報を、サービス実行部730に受け渡す。そして、サービス実行部730は、情報出力部720により出力された情報に基づいて、端末装置600のユーザに対して各種のサービスを提供する。
たとえば、情報出力部720により出力される情報の一つであるコンテンツ情報によれば、次のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部730は、コンテンツ情報に基づいて、ユーザが見るべきコンテンツを見ていないと判定される場合に、ユーザに対して注意喚起の通知を実行しうる。この場合、ディスプレイ610またはスピーカ(不図示)などが、注意喚起の通知のためにサービス実行部730の制御のもとで動作する制御対象750となる。
たとえば、業務中のユーザが業務とは関係無いコンテンツを見ている場合、撮像画像内の反射物には、予め決められたコンテンツと異なるコンテンツが映り込む。したがって、この場合、サービス実行部730は、コンテンツ情報に基づいて、たとえば予め決められたコンテンツと異なるコンテンツに関するコンテンツ情報が所定時間以上継続して取得されたと判定された場合に、業務に戻るようにユーザに対する注意喚起の通知を実行しうる。
また、情報出力部720により出力される情報の他の一つである文字情報によれば、次のようなサービスの提供を実現することが可能である。
より具体的に、サービス実行部730は、文字情報に基づいて、ユーザに対して文字の知覚支援または入力支援を実行しうる。この場合も、ディスプレイ610またはスピーカ(不図示)などが、知覚支援または入力支援のためにサービス実行部730の制御のもとで動作する制御対象750となる。
たとえば、撮像画像内の反射物に映り込んでいる文字は、ユーザが知覚または端末装置600のアプリケーションなどへの入力を望んでいる文字であると考えられる。したがって、この場合、サービス実行部730は、該当の文字がユーザにとって知覚しやすくなるように、該当の文字をディスプレイ610に拡大表示したりスピーカ(不図示)から音声として出力したりする。また、この場合、サービス実行部730は、該当の文字を端末装置600のアプリケーションなどへ入力する際のユーザの作業負担が軽減されるように、該当の文字を端末装置600のアプリケーションなどへ自動で入力しうる。
なお、第2の実施形態の技術も、上述した第1の実施形態の技術と同様に、瞳孔および虹彩の位置などといった、ユーザの目の生体的または構造的な特徴を撮像画像から検出し、検出結果に基づいてユーザの視線の向きを推定する技術と併用することも可能である。
このように、第2の実施形態にかかる端末装置600は、認識結果取得部310(図3参照)に対応する構成は無いものの、上述した第1の実施形態にかかる情報処理システム100と実質的に同様の構成を有している。したがって、第2の実施形態にかかる端末装置600が実行する処理の流れは、上述した第1の実施形態において実行される処理の流れ(図5参照)と実質的に同様である。
以上説明したように、第2実施形態にかかる端末装置600は、画像取得部710と、情報出力部720と、を備えている。画像取得部710は、端末装置600のディスプレイ610を視認中のユーザの目を含む部位に存在する反射物(目そのもの、眼鏡、またはコンタクトレンズなど)を撮像することで得られる撮像画像を取得する。そして、情報出力部720は、画像取得部710により取得された撮像画像から反射物に映り込んだ情報を読み取って出力する。そして、第2の実施形態において、端末装置600は、情報出力部720により出力された情報に基づいて、ユーザに対するサービスを実行するサービス実行部730を備えている。
上記のような構成によれば、端末装置600のユーザの目を含む部位に存在する反射物に映り込んだ情報を様々に利用することができる。したがって、ユーザの目を含む部位に存在する反射物を撮像することで得られる撮像画像をより有効に利用することができる。より具体的に、ユーザの目を含む部位に存在する反射物を撮像することで得られる撮像画像を利用して、ユーザに有益なサービスを提供することができる。
たとえば、第2の実施形態において、情報出力部720は、撮像画像から、反射物に映り込んでいるディスプレイ610に表示されたコンテンツに関するコンテンツ情報を取得しうる。そして、サービス実行部730は、コンテンツ情報に基づいて、ユーザが見るべきコンテンツを見ていないと判定される場合に、ユーザに対して注意喚起の通知を実行しうる。このような構成によれば、コンテンツ情報に基づいて実行される注意喚起の通知により、見るべきコンテンツを見るようユーザに適切に促すことができる。
また、第2の実施形態において、情報出力部720は、撮像画像から、反射物に映り込んでいるディスプレイ610に表示された文字を示す文字情報を読み取って出力しうる。そして、サービス実行部730は、文字情報に基づいて、ユーザに対して文字の知覚支援または入力支援を実行しうる。このような構成によれば、文字情報に基づいて実行される知覚支援または入力支援により、該当する文字を確実にユーザに知覚させること、または該当する文字をユーザが端末装置600のアプリケーションなどに入力する際の作業負担を軽減することを実現することができる。
<第1および第2の実施形態を実現するためのハードウェア構成>
なお、第1の実施形態にかかる情報処理システム100、および第2の実施形態にかかる情報処理システムとしての端末装置600の各機能は、たとえば次の図8に示されるようなハードウェア構成を有するコンピュータ800によって実現される。
図8は、第1および第2の実施形態を実現するためのコンピュータ800のハードウェア構成を示した例示的かつ模式的なブロック図である。
図8に示されるように、第1および第2の実施形態を実現するためのコンピュータ800は、プロセッサ810と、メモリ820と、ストレージ830と、入出力インターフェース(I/F)840と、通信インターフェース(I/F)850と、を備えている。これらのハードウェアは、バス860に接続されている。
プロセッサ810は、たとえばCPU(Central Processing Unit)として構成され、コンピュータ800の各部の動作を統括的に制御する。なお、プロセッサ810は、たとえばGPU(Graphics Processing Unit)のような、画像処理に特化した演算装置を含みうる。この場合、たとえば、第1の実施形態にかかる情報出力部220(図3参照)および第2の実施形態にかかる情報出力部720は、GPUにより実現されうる。
メモリ820は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ810により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ810がプログラムを実行するための作業領域の提供などを実現する。
ストレージ830は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。
入出力インターフェース840は、コンピュータ800へのデータの入力およびコンピュータ800からのデータの出力を制御する。
通信インターフェース850は、コンピュータ800が他の装置と通信を実行することを可能にする。
第1の実施形態にかかる車載カメラ200が有する図3に示されるような機能モジュール群は、車載カメラ200に搭載されるコンピュータ800のプロセッサ810がメモリ820またはストレージ830などに記憶された所定の情報処理プログラムを実行した結果として、ハードウェアとソフトウェアとの協働により実現されうる。
同様に、第1の実施形態にかかるECU300が有する図3に示されるような機能モジュール群、および第2の実施形態にかかる端末装置600が有する図7に示されるような機能モジュール群は、ECU300および端末装置600を実現するコンピュータ800のプロセッサ810がメモリ820またはストレージ830などに記憶された所定の情報処理プログラムを実行した結果として、ハードウェアとソフトウェアとの協働により実現されうる。
ただし、実施形態では、図3および図7に示される機能モジュール群のうち少なくとも一部が、専用のハードウェア(回路:circuitry)のみによって実現されてもよい。
なお、第1および第2の実施形態において実行される情報処理プログラムは、メモリ820またはストレージ830などの記憶装置に予め組み込まれた状態で提供されてもよいし、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な記録媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。
また、第1および第2の実施形態において実行される情報処理プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、第1および第2の実施形態において実行される情報処理プログラムは、インターネットなどのネットワークに接続されたサーバのようなコンピュータ上に格納された状態で、当該コンピュータからネットワーク経由でダウンロードする、といった形で提供されてもよい。
以上、本開示のいくつかの実施形態を説明したが、上述した実施形態はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
100 情報処理システム
210 画像取得部
220 情報出力部
320 サービス実行部
600 端末装置
610 ディスプレイ
710 画像取得部
720 情報出力部
730 サービス実行部

Claims (13)

  1. 人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する画像取得部と、
    前記画像取得部により取得された前記撮像画像から前記反射物に映り込んだ情報を読み取って出力する情報出力部と、
    を備える、情報処理システム。
  2. 前記画像取得部は、車両の乗員の目を含む部位に存在する前記反射物の前記撮像画像を取得し、
    前記情報出力部により出力された前記情報に基づいて、前記乗員に対するサービスを実行するサービス実行部をさらに備える、
    請求項1に記載の情報処理システム。
  3. 前記情報出力部は、前記撮像画像から、前記車両の進行の妨げとなる可能性があるオブジェクトに関するオブジェクト情報を読み取って出力し、
    前記サービス実行部は、前記オブジェクト情報に基づいて、前記オブジェクトを回避するように前記車両の運動制御を実行する、
    請求項2に記載の情報処理システム。
  4. 前記サービス実行部は、前記オブジェクト情報の経時変化に基づいて、前記反射物において前記オブジェクトが徐々に大きくなるように映り込んでいると判定される場合に、前記オブジェクトを回避するように前記車両の前記運動制御を実行する、
    請求項3に記載の情報処理システム。
  5. 前記サービス実行部は、前記反射物が前記乗員の目の白目部分と黒目部分とを区別可能な態様で前記撮像画像内に写っている場合、前記オブジェクト情報に基づいて、前記白目部分に前記オブジェクトが映り込んでいると判定される場合に、前記オブジェクトを回避するように前記車両の前記運動制御を実行する、
    請求項3または4に記載の情報処理システム。
  6. 前記サービス実行部は、前記オブジェクトを回避するように前記車両の前記運動制御を実行するのに先立って、前記乗員に対して注意喚起の通知を実行する、
    請求項3〜5のうちいずれか1項に記載の情報処理システム。
  7. 前記情報出力部は、前記撮像画像から、前記反射物に映り込んでいる施設に関する施設情報を読み取って出力し、
    前記サービス実行部は、前記施設情報に基づいて、前記乗員に対して前記施設の利用に関する情報の通知を実行する、
    請求項2〜6のうちいずれか1項に記載の情報処理システム。
  8. 前記情報出力部は、前記撮像画像から、前記反射物に映り込んでいる文字を示す文字情報を読み取って出力し、
    前記サービス実行部は、前記文字情報に基づいて、前記乗員に対して前記文字の知覚支援を実行する、
    請求項2〜7のうちいずれか1項に記載の情報処理システム。
  9. 前記情報出力部は、前記撮像画像から、前記反射物に映り込んでいる対象の色を示す色情報を読み取って出力し、
    前記サービス処理部は、前記色情報に基づいて、前記乗員に対して前記色の知覚支援を実行する、
    請求項2〜8のうちいずれか1項に記載の情報処理システム。
  10. 前記画像取得部は、端末装置のディスプレイを視認中のユーザの目を含む部位に存在する前記反射物の前記撮像画像を取得し、
    前記情報出力部により出力された前記情報に基づいて、前記ユーザに対するサービスを実行するサービス実行部をさらに備える、
    請求項1に記載の情報処理システム。
  11. 前記情報出力部は、前記撮像画像から、前記反射物に映り込んでいる前記ディスプレイに表示されたコンテンツに関するコンテンツ情報を取得し、
    前記サービス実行部は、前記コンテンツ情報に基づいて、前記ユーザが見るべき前記コンテンツを見ていないと判定される場合に、前記ユーザに対して注意喚起の通知を実行する、
    請求項10に記載の情報処理システム。
  12. 前記情報出力部は、前記撮像画像から、前記反射物に映り込んでいる前記ディスプレイに表示された文字を示す文字情報を読み取って出力し、
    前記サービス実行部は、前記文字情報に基づいて、前記ユーザに対して前記文字の知覚支援または入力支援を実行する、
    請求項10または11に記載の情報処理システム。
  13. 人の目を含む部位に存在する反射物を撮像することで得られる撮像画像を取得する画像取得ステップと、
    前記画像取得ステップにより取得された前記撮像画像から前記反射物に映り込んだ情報を読み取り、読み取った情報を出力する情報出力ステップと、
    をコンピュータに実行させるための、情報処理プログラム。
JP2020018198A 2020-02-05 2020-02-05 情報処理システム、および情報処理プログラム Pending JP2021124972A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020018198A JP2021124972A (ja) 2020-02-05 2020-02-05 情報処理システム、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020018198A JP2021124972A (ja) 2020-02-05 2020-02-05 情報処理システム、および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2021124972A true JP2021124972A (ja) 2021-08-30

Family

ID=77459227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020018198A Pending JP2021124972A (ja) 2020-02-05 2020-02-05 情報処理システム、および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2021124972A (ja)

Similar Documents

Publication Publication Date Title
US10882398B2 (en) System and method for correlating user attention direction and outside view
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
JP7222216B2 (ja) 運転支援装置
US20230249618A1 (en) Display system and display method
FI124068B (en) Procedure for improving driving safety
JP2016103249A (ja) 運転支援装置および運転支援方法
JP5109750B2 (ja) 運転者状態検出装置、意識状態検出方法
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
JP6907250B2 (ja) 車両用表示装置
KR20210113070A (ko) 주의 기반 알림
EP3018629A1 (en) Imaging system
JPWO2018179786A1 (ja) 情報表示装置
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
JP7058800B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
US20180022357A1 (en) Driving recorder system
JPWO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
JP2024074897A (ja) 出力装置
JP6811743B2 (ja) 安全運転支援装置
JP6805974B2 (ja) 走行支援装置及びコンピュータプログラム
JP2019180075A (ja) 運転支援システム、画像処理装置及び画像処理方法
JP5998348B2 (ja) 車両用表示装置、車両用表示装置の表示制御方法
JP2021124972A (ja) 情報処理システム、および情報処理プログラム
JP2011086125A (ja) 視認検出装置
JP2019095892A (ja) 車両用運転支援装置、および車両用運転支援プログラム
JP7262040B2 (ja) 情報提示システム、情報提示方法、プログラム、及び、移動体