JP6449504B1 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP6449504B1
JP6449504B1 JP2018094884A JP2018094884A JP6449504B1 JP 6449504 B1 JP6449504 B1 JP 6449504B1 JP 2018094884 A JP2018094884 A JP 2018094884A JP 2018094884 A JP2018094884 A JP 2018094884A JP 6449504 B1 JP6449504 B1 JP 6449504B1
Authority
JP
Japan
Prior art keywords
information
driver
interest level
processing apparatus
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018094884A
Other languages
English (en)
Other versions
JP2019200614A (ja
Inventor
知柔 今林
知柔 今林
洋治 森
洋治 森
秀人 大前
秀人 大前
悠介 鵜飼
悠介 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Nidec Mobility Corp
Original Assignee
Omron Corp
Omron Automotive Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Automotive Electronics Co Ltd filed Critical Omron Corp
Priority to JP2018094884A priority Critical patent/JP6449504B1/ja
Application granted granted Critical
Publication of JP6449504B1 publication Critical patent/JP6449504B1/ja
Priority to PCT/JP2019/018971 priority patent/WO2019221070A1/ja
Publication of JP2019200614A publication Critical patent/JP2019200614A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】ドライバの関心度をセンシングすることができる情報処理装置を実現する。
【解決手段】ドライバの顔情報を取得し、取得した顔情報から視線を検出し、上記ドライバの視界に存在する各オブジェクトを検出し、検出した視線と検出したオブジェクトとから、上記ドライバが視認しているオブジェクトを判定し、判定したオブジェクトに対する上記ドライバの関心度を示す関心度情報を生成する。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
従来、定点カメラを用いて、特定の人の視線情報分析、および装着型の脳波計による脳情報分析を行い、消費者の注目している箇所を追跡する方法がある。例えば、特許文献1には、表示画像内で注目している箇所および内容等の視聴する側の動向を把握する携帯端末装置が開示されている。
特開2009−5094号公報
一方で、発明者は、自動車などの移動体の運転者が視認する建物などのオブジェクトに対して、当該運転者がどの程度の関心を示しているのかを評価することができれば、効果的な広告や街づくりの観点から有効であるとの知見を得た。
このような技術は、従来のように固定カメラを用いた構成では実現することができない。
本発明の一態様は、上記の問題点に鑑みてなされたものであり、その目的は、ドライバの関心度をセンシングすることができる情報処理装置を実現することにある。
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ドライバの顔情報を取得する顔情報取得部と、上記顔情報取得部から取得した顔情報から視線を検出する視線検出部と、上記ドライバの視界に存在する各オブジェクトを検出するオブジェクト検出部と、上記視線検出部が検出した視線と上記オブジェクト検出部が検出したオブジェクトとから、上記ドライバが視認しているオブジェクトを判定する視認オブジェクト判定部と、上記視認オブジェクト判定部が判定したオブジェクトに対する上記ドライバの関心度を示す関心度情報を生成する関心度情報生成部とを備えている。
本発明の一態様によれば、ドライバの関心度をセンシングすることができる情報処理装置を実現することできる。
本発明の実施形態1に係る情報処理装置の構成要素を示すブロック図である。 本発明の実施形態1に係る情報処理装置における、撮像部が撮影する車外の景色の撮像画像の一例を示す図である。 本発明の実施形態1に係る情報処理装置の処理の流れの一例を示すフローチャートである。 本発明の実施形態2に係る情報処理装置の構成要素を示すブロック図である。 本発明の実施形態2に係る情報処理装置の処理の流れを示すフローチャートである。 本発明の実施形態3に係る情報処理システムの構成要素を示すブロック図である。
<実施形態1>
以下、本発明の一実施形態について、詳細に説明する。以下の特定の項目(実施形態)における構成について、それが他の項目で説明されている構成と同じである場合は、説明を省略する場合がある。また、説明の便宜上、各項目に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
〔情報処理装置〕
本実施形態に係る情報処理装置1は、顔情報取得処理、視線検出処理、オブジェクト検出処理、視認オブジェクト判定処理、関心度情報生成処理等を行う装置である。情報処理装置1は、例えば、車両等に実装されるが、これは本実施形態を限定するものではない。
携帯端末装置2は、スマートフォン、タブレット端末等であってよい。
図1は、本実施形態に係る情報処理装置1の構成要素を示すブロック図である。
情報処理装置1は、顔情報取得部12と、視線検出部13と、オブジェクト検出部11と、視認オブジェクト判定部14と、関心度情報生成部15と、リコメンドエンジン(提案情報生成部)16と、目的地提示部(ナビゲーションシステム)17とを備えている。
(顔情報取得部)
顔情報取得部12は、ドライバの顔情報を取得する。顔情報取得部12が取得するドライバの顔情報は、例えば、ドライバの撮像画像である。このドライバの撮像画像を取得するため、情報処理装置1が実装される車両等には、ドライバの顔を撮像する撮像装置が配置される。
ただし、視線検出部13が視線を検出するために十分な情報を含んでいれば、顔情報取得部12が取得するドライバの顔情報は、ドライバの撮像画像から抽出した顔の各パーツの位置情報等であってもよい。顔情報取得部12がドライバの顔情報を取得する方法は特に限定されないが、例えば、人物の顔を取得するための公知の技術を搭載した顔情報取得装置を用いてドライバの顔情報を取得することができる。顔情報取得部12は、取得した顔情報を視線検出部13に出力する。
(視線検出部)
視線検出部13は、顔情報取得部12から取得した顔情報から視線を検出する。つまり、視線検出部13は、取得した顔画像に含まれるドライバの視線方向を検出する。具体的には、視線検出部13は、顔情報である顔画像に撮像されているドライバの視線角度を特定し、視線角度と視線方向との対応関係を示す視線方向特定情報を参照して、特定した視線角度に対応する視線方向を特定する。
視線方向特定情報において、視線角度と視線方向との対応関係は、適宜設定すればよく、視線方向を所定の数設定してもよいし、対応する視線角度の範囲を任意に設定してよい。
視線方向特定情報は、予め設定されるものである。ただし、カメラの位置およびドライバの顔の位置に基づいて、視線角度と視線方向との対応関係を設定することが望ましいため、ドライバ毎にまたは視線方向を設定する度に、視線方向特定情報を補正することが望ましい。
また、視線検出部13は、所定の期間に撮影された複数の画像から、それぞれ複数の視線角度を特定し、その複数の視線角度の平均値、最多頻出角度または中間値等に対応する視線方向を特定してもよい。これにより、ドライバの視線角度が安定しない場合であっても、信頼度の高いドライバの視線方向を特定することができる。
また、視線検出部13は、画像に撮像されているドライバの視線角度を特定し、特定した視線角度そのものを視認オブジェクト判定部14に出力してもよい。
なお、画像からユーザの視線方向を検出する方法は上記のものに限らず、公知の技術を用いることが可能である。例えば、虹彩の位置に基づいて視線方向を検出してもよい。
例えば、視線の検出方法としては、特に限定されないが、情報処理装置1に、点光源(不図示)を設け、点光源からの光の角膜反射像を撮像部で所定時間撮影することにより、ユーザの視線の移動先を検出する方法が挙げられる。点光源の種類は特に限定されず、可視光、赤外光が挙げられるが、例えば赤外線LEDを用いることで、ユーザに不快感を与えることなく、視線の検出をすることができる。視線の検出において、視線が所定時間以上移動しない場合は、同じ場所を注視しているといえる。
視線検出部13は、ドライバの視線を検出するだけでなく、ドライバの瞳孔の状態および瞬きの回数等を参照して、ドライバの状態を検出してもよい。
瞳孔の状態を検出する方法としては、特に限定されないが、例えば、ハフ変換を利用して、目の画像から円形の瞳孔を検出する方法等が挙げられる。一般的に、人間は、集中している場合に開瞳する傾向にあるため、瞳孔のサイズを検出することで、ドライバの集中の度合いを評価することができる。例えば、瞳孔のサイズを所定時間検出し、所定時間内で瞳孔が大きくなっている時間は、ドライバがある対象を注視している可能性が高いといえる。瞳孔のサイズに関して、閾値を設定し、瞳孔のサイズが閾値以上である場合は「開」、瞳孔のサイズが閾値未満である場合は「閉」として評価してもよい。
また、瞬きの回数を検出する方法としては、特に限定されないが、例えば、赤外光をドライバの目に対して照射し、開眼時と、閉眼時との赤外光量反射量の差を検出する方法等が挙げられる。一般的に、人間は、集中している場合、低い頻度で安定した間隔で瞬きをする傾向にあるため、瞬きの回数を検出することで、ドライバの集中度を評価することができる。例えば、瞬きの回数を所定時間検出し、所定時間内で瞬きが安定した間隔で行われている場合、ドライバがある対象を注視している可能性が高いといえる。
視線検出部13は、ドライバの視線を少なくとも検出すればよいが、ドライバの視線と、瞳孔の状態とを、またはドライバの視線と、瞬きの回数とを組み合わせることが好ましい。このように検出方法を組み合わせることで、視線検出部13は、あるオブジェクトを視認しているときのドライバの集中度を好適に評価することができる。
なお、上述のドライバの集中度は、後述するドライバの関心度を評価するための指標として用いることができる。
視線検出部13は、ドライバが視認しているオブジェクトに対する注視時間を計測する。
視線検出部13は、特定した視線方向を視認オブジェクト判定部14に出力する。
(オブジェクト検出部)
オブジェクト検出部11は、ドライバの視界に存在する各オブジェクトを検出する。
オブジェクト検出部11は、撮像部とオブジェクト抽出部とを含んで構成される。撮像部は、車外の景色を撮影して撮像画像を生成する。
図2は、オブジェクト検出部11の撮像部が撮影した車外の景色を示す撮像画像100の一例を示す図である。なお、オブジェクト検出部11の撮像部が撮影した撮像画像100には、車外の景色の画像が主として含まれていればよく、車内の景色の画像が含まれていてもよい。車内の景色の画像に含まれるオブジェクトとしては、例えば、燃料メータ、時計、ナビゲーションシステムの表示画面、同乗者等が挙げられる。
オブジェクト抽出部は、上記撮像部から取得した撮像画像100から、オブジェクトを抽出する。
オブジェクト抽出部は、上記撮像部から取得した撮像画像100からオブジェクトを検出して、検出したオブジェクトを抽出するものである。オブジェクト抽出部は、抽出したオブジェクトを示すオブジェクト情報を生成し、生成したオブジェクト情報を視認オブジェクト判定部に出力する。
また、オブジェクト抽出部は、オブジェクト情報を生成する際に、各オブジェクトの撮像画像100における位置およびサイズをそれぞれ示す位置情報およびサイズ情報を当該オブジェクトの付加情報として、オブジェクト情報に付加してもよい。
なお、本明細書において、オブジェクトとは、撮像画像に含まれる対象物一般のことを指すが、より具体的な例として、車外のオブジェクトとしては、例えば、店舗、ビル等の建物及び看板、道路、交通標識、信号機、人物、動物等が挙げられる。また、車内のオブジェクトとしては、例えば、燃料メータ、時計、ナビゲーションシステムの表示画面、同乗者等が挙げられる。
また、オブジェクト情報とは、撮像画像100中のオブジェクトの領域の画素群の画素値を示す情報であってもよいし、また、オブジェクトのエッジ(輪郭)を示すエッジ情報などのオブジェクトの特徴量を示す情報であってもよい。また、上記オブジェクトの付加情報は、位置情報およびサイズ情報の両方を含んでいなくてもよく、少なくとも1つを含んでいればよい。
一例として、オブジェクト抽出部は、物体検出部および領域抽出部を備え、より詳細には、物体検出部および領域抽出部が、オブジェクト情報を生成する。
物体検出部は、オブジェクトの標準的な画像である画像テンプレートを、情報処理装置1が更に備える記憶部から読み出す。そして、撮像画像と画像テンプレートとのマッチングを行い、撮像画像の中に、マッチングした画像テンプレートと同じオブジェクトが含まれているか否かを判定するものである。物体検出部は、マッチングした画像テンプレートと同じオブジェクトが含まれていると判定すると、当該オブジェクトを撮像画像から抽出し、抽出したオブジェクトを示すオブジェクト情報を生成する。
また、物体検出部は、オブジェクトの標準的な画像の特徴量を示す特徴量テンプレートを記憶部から読み出すと共に、撮像画像の特徴量を算出し、撮像画像の特徴量と特徴量テンプレートとのマッチングを行う。そして、撮像画像の中に、マッチングした特徴量テンプレートの示す特徴量を有するオブジェクトと同じオブジェクトが含まれているか否かを判定する。物体検出部は、マッチングした特徴量テンプレートの示す特徴量を有するオブジェクトと同じオブジェクトが含まれていると判定すると、当該オブジェクトを撮像画像から抽出し、抽出したオブジェクトを示すオブジェクト情報を生成する。
物体検出部は、上述した車外のオブジェクトまたは車内のオブジェクトを検出する。
また、物体検出部は、画像テンプレートまたは特徴量テンプレートに当該テンプレートの示すオブジェクトの名称が対応付けられている場合、抽出したオブジェクトを示すオブジェクト情報に、当該オブジェクトの名称を示すオブジェクト名称情報を付加情報として付加してもよい。
領域抽出部は、Saliency Map、領域分割処理(セグメンテーション)などのアルゴリズムを用いて、クエリ画像の中から特徴的な領域(画素群)を抽出し、抽出した領域をオブジェクトの領域として特定し、オブジェクト情報を生成するものである。
領域抽出部は、例えば、Saliency Mapを用いる場合、撮像画像から、色、輝度、エッジ等の特徴量のコントラストを示すfeature mapをそれぞれ生成し、各feature mapの各画素を加算平均してsaliency map(SM)を生成し、SMにおけるコントラストが高い領域(例えば、画素値が所定値以上の画素群)を抽出する。Saliency Mapは、人間の視覚処理をモデル化したものであり、Saliency Mapを用いて領域を抽出することにより、人間が注目しやすい(注目すると考えられる)領域を自動的に特定することができる。
また、領域分割処理として、具体的には、近接画素の統合による領域分割処理、画素特徴量のクラス分けによる領域分割処理、または、エッジを利用したスネーク(snakes)と呼ばれる手法による領域分割処理等を適用してもよい。
また、物体検出部及び領域抽出部は、後述する視認オブジェクト判定部14と同様に、機械学習を用いて実現される構成としてもよい。
(視認オブジェクト判定部)
視認オブジェクト判定部14は、視線検出部13が検出した視線とオブジェクト検出部11が検出したオブジェクトとから、ドライバが視認しているオブジェクトを判定する。視認オブジェクト判定部14の具体的な処理について、図2を用いて説明する。
例えば、図2のように、撮像画像100に、各オブジェクトの画像が配置されている場合を想定する。視認オブジェクト判定部14は、ドライバが搭乗する車両の位置情報、および当該車両の位置情報の至近の地図情報を参照して、各オブジェクトの画像領域における座標を取得することができる。視認オブジェクト判定部14は、取得した各オブジェクトの画像領域の座標と、視線検出部13から取得した視線情報とを照合して、ドライバの視線の位置座標が、どのオブジェクトの画像領域の座標内にあるかを判定する。例えば、図2に示されるように、ドライバの視線の先Aの位置座標が、オブジェクトOBの画像領域の座標内にあると判定された場合、視認オブジェクト判定部14は、ドライバの視線の位置座標が、オブジェクトOBの画像領域の座標内に留まっている時間のカウントを開始する。このように、ドライバの視線の位置座標と、オブジェクトの画像領域の座標とを照合することで、ドライバがどのオブジェクトを視認しているかを好適に判定することができる。また、視線の情報に加えて、(視線検出部)で記載したように、瞳孔の状態および瞬きの回数の検出結果を参照することで、ドライバがどのオブジェクトを集中して視認しているかをさらに好適に判定することができる。
視認オブジェクト判定部14は、視線移動時間を検出してもよい。視線移動時間を検出する方法としては、特に限定されないが、例えば、特定のオブジェクトの一部が撮像画像に表示されてから、ドライバの視線の位置座標が、当該オブジェクトの画像領域の座標内に移動するまでの時間を計測する方法が挙げられる。また、ドライバの視線の位置座標が特定のオブジェクトから他のオブジェクトに移動するまでの時間を計測する方法であってもよい。
視認オブジェクト判定部14は、計測された時間、ドライバの表情の変化等を参照して、ドライバの関心度が高いオブジェクトを好適に判定することができる。
なお、視認オブジェクト判定部14は、ドライバが視認しているオブジェクト情報を、機械学習により算出することもできる。ドライバが視認しているオブジェクト情報を取得するための学習処理の具体的な構成は本実施形態を限定するものではないが、例えば、以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。
・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Baysian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、データをニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データアーギュメンテーション(Deta Argumentation)等の手法を用いることができる。
また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよい。より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。
また、ニューラルネットワークとして、数十〜数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。
(関心度情報生成部)
関心度情報生成部15は、視認オブジェクト判定部14が判定したオブジェクトに対するドライバの関心度を示す関心度情報を生成する。例えば、関心度情報生成部15は、オブジェクト検出部11によって検出したオブジェクト数、視線検出部13によって検出した注視時間、視線移動時間、瞳孔の状態、瞬きの回数、及び集中度の少なくとも何れかを参照して関心度情報を作成する。
関心度情報生成部15が参照する各種の情報と、生成する関心度情報との関係は、例えば以下のようなものが挙げられる。
(オブジェクト数)
関心度情報生成部15は、撮像画像中のオブジェクト数に対する、ドライバが視認したオブジェクト数の割合が小さいほど、当該ドライバが視認したオブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
例えば、撮像画像中のオブジェクトが20個あり、ドライバが視認したオブジェクトが1個である場合は、注視時間が同じであるとき、撮像画像中のオブジェクトが1個しかなく、ドライバが視認したオブジェクトが1個である場合よりも、ドライバは視認したオブジェクトにより注目しているといえる。それゆえ、前者の場合は、後者の場合よりもドライバが視認したオブジェクトに対する関心度が高いと判定する。
また、撮像画像中のオブジェクトが10個あり、ドライバが視認したオブジェクトが1個である場合は、撮像画像中のオブジェクトが10個あり、ドライバが視認したオブジェクトが5個である場合よりも、ドライバは視認したオブジェクトにより注目しているといえる。それゆえ、前者の場合は、後者の場合よりもドライバが視認したオブジェクトに対する関心度が高いと判定する。
(注視時間)
関心度情報生成部15は、あるオブジェクトに対する注視時間が長いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を生成する。
(視線移動時間)
関心度情報生成部15は、特定のオブジェクトの一部が撮像画像に表示されてから、ドライバの視線の位置座標が、当該オブジェクトの画像領域の座標内に移動するまでの時間が短いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
また、関心度情報生成部15は、ドライバの視線の位置座標が特定のオブジェクトから他のオブジェクトに移動するまでの時間間隔が長いほど、当該ドライバが視認した各オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(瞳孔の状態)
関心度情報生成部15は、あるオブジェクトを視認しているときのドライバの瞳孔のサイズが大きくなっているほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(瞬きの回数)
関心度情報生成部15は、あるオブジェクトを視認しているときのドライバの瞬きが低い頻度で安定した間隔で行われているほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(集中度)
関心度情報生成部15は、あるオブジェクトを視認しているときのドライバの集中度が高いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
関心度情報生成部15は、参照する各種の情報に対する所定の閾値を設けることにより、関心度が高いか否かを判定すればよい。
なお、関心度情報生成部15は、視認オブジェクト判定部14と同様に、関心度情報を機械学習により算出する構成としてもよい。
関心度情報生成部15は、作成した関心度情報をリコメンドエンジン16に出力する。
(リコメンドエンジン)
リコメンドエンジン16は、関心度情報生成部15が生成した関心度情報を参照して、上記ドライバへの提案情報を生成する。
リコメンドエンジン16は、一例として、関心度情報生成部15が生成した関心度情報に含まれるドライバの潜在的な関心が示唆されたオブジェクトの情報を参照して、当該潜在的な関心が示唆されたオブジェクトに関連する提案を含む提案情報を生成する。
リコメンドエンジン16により生成された提案情報は、目的地提示部17によって、表示又は音声にてドライバに通知される。また、リコメンドエンジン16により生成された提案情報は、直接的に、又は他のサーバや基地局を介して携帯端末装置2に送信され、当該携帯端末装置2が提案情報を表示してもよい。
以下、表1を参照して、リコメンドエンジン16が作成する具体的な関心度情報を例示する。
Figure 0006449504
(CASE1)
関心度情報生成部15が生成した関心度情報に、ドライバが第1のカテゴリに属する店舗又は看板に注目していることを示す情報が含まれる場合に、リコメンドエンジン16は、休憩場所およびトイレの少なくとも何れかに立ち寄る旨の提案を提案情報に含ませる。
表1のCASE1は、町のよくある光景で注目した対象物、および当該対象物に応じた提案情報の一例を示す。第1のカテゴリに属する店舗としては、例えば、表1に示すように、コンビニ、ガソリンスタンド等の燃焼供給所、給電所、ファミレス等の飲食店等が挙げられる。
(CASE2)
関心度情報生成部15が生成した関心度情報に、ドライバが第2のカテゴリに属する店舗又は看板に注目していることを示す情報が含まれる場合に、リコメンドエンジン16は、飲食店およびトイレの少なくとも何れかに立ち寄る旨の提案を提案情報に含ませる。
表1のCASE2は、町のよくある光景で注目した第2のカテゴリに属する店舗又は看板、および当該第2のカテゴリに属する店舗又は看板に応じた提案情報の一例を示す。第2のカテゴリに属する店舗としては、例えば、表1に示すように、ファミレス、ファストフード等の飲食店、ショッピングセンター等が挙げられる。
(CASE3)
関心度情報生成部15が生成した関心度情報に、車内の所定のオブジェクトに注目していることを示す情報が含まれる場合に、リコメンドエンジン16は、燃料供給所、給電所、および自動車用品店の少なくとも何れかに立ち寄る旨の提案を提案情報に含ませる。
表1のCASE3は、車内で目移りした車内のオブジェクト、および当該車内のオブジェクトに応じた提案情報の一例を示す。車内のオブジェクトとしては、例えば、燃料メータ、時計、ナビゲーションシステムの表示画面、同乗者等が挙げられる。燃料供給所には、ガソリンスタンドおよび水素供給所が含まれる。
(CASE4)
関心度情報生成部15が生成した関心度情報に、ドライバが特定のロゴ又はマークに注目していることを示す情報が含まれている場合に、リコメンドエンジン16は、上記特定のロゴ若しくはマーク、又は、上記特定のロゴ若しくはマークに関連する商品に関する情報を提案情報に含ませる。
表1のCASE4は、町中で注目したディスプレイ、および当該ディスプレイに応じた提案情報の一例を示す。上記特定のロゴ若しくはマーク、又は、上記特定のロゴ若しくはマークに関連する商品に関する情報は、運転を終えた帰宅後、スマートフォン等の携帯端末装置に出力されてもよい。
(CASE5)
関心度情報生成部15が生成した関心度情報に、ドライバが特定の車種に注目していることを示す情報が含まれている場合に、リコメンドエンジン16は、上記特定の車種、又は、上記特定の車種に属する自動車に関する情報を提案情報に含ませる。
表1のCASE5は、路上で注目した自動車、および当該自動車に応じた提案情報の一例を示す。車種は、メーカー名であってもよいし、各メーカーの自動車の型名であってもよい。
(目的地提示部)
目的地提示部17は、関心度情報生成部15が生成したドライバへの提案情報を参照して、当該ドライバに目的地を提示する。目的地提示部17は、音声で目的地を提示してもよいし、表示部に画像で目的地を提示してもよく、それらを組み合わせて目的地を提示してもよい。また、目的地提示部17は、目的地までのルートを提示してもよい。
例えば、表1に示すように、CASE1およびCASE2の場合には、目的地提示部17は、至近のスポットの数と、スポットまでの距離および時間を音声案内する。また、CASE3の場合には、目的地提示部17は、目的地および最短ルートを設定する。
〔情報処理装置の処理例1〕
次に、図3のフローチャートを参照して、情報処理装置1の処理について説明する。
まず、情報処理装置1の使用を開始し、ステップ(以下、「ステップ」は省略する)S11およびS14に進む。
S11では、顔情報取得部12が、ドライバの顔情報を取得する。処理の詳細は、(顔情報取得部)に記載の通りである。顔情報取得部12は、取得した顔情報を視線検出部13に送信し、S12に進む。
S12では、視線検出部13が、取得した顔画像から視線を検出し、抽出する。処理の詳細は、(視線検出部)に記載の通りである。
S13では、視線検出部13が、検出した視線からドライバの視線が注目していたか否かを判定し、注目していた場合は(S13のYes)、特定した視線方向を視認オブジェクト判定部14に送信し、S15に進む。また、ドライバの視線が注目していなかった場合は(S13のNo)、S11の処理を再度行う。
S14では、オブジェクト検出部11が、ドライバの視界に存在する各オブジェクトを検出し、抽出する。具体的には、撮像部は、車外の景色を撮影した後、オブジェクト抽出部が、取得した撮像画像100から、オブジェクトを抽出する。処理の詳細は、(オブジェクト検出部)に記載の通りである。オブジェクト検出部11のオブジェクト抽出部は、抽出したオブジェクトを視認オブジェクト判定部に送信し、S15に進む。
S15では、視認オブジェクト判定部14が、視線検出部13が検出した視線とオブジェクト検出部11が検出したオブジェクトとから、ドライバが視認しているオブジェクトを抽出し、S16に進む。
S16では、視認オブジェクト判定部14が、抽出したドライバが視認しているオブジェクトにおいて、ドライバが一定時間注目していたか否かを判定し、ドライバが一定時間注目していた場合(S16のYes)、S17に進む。処理の詳細は、(視認オブジェクト判定部)に記載の通りである。ドライバが一定時間注目していなかった場合(S16のNo)、S15の処理を再度行う。
S17では、関心度情報生成部15が、ドライバの関心度に関する関心度情報を生成する。処理の詳細は、(関心度情報生成部)に記載の通りである。関心度情報生成部15は、作成した関心度情報をリコメンドエンジン16に送信し、S18に進む。
S18では、リコメンドエンジン16が、関心度情報生成部が生成した関心度情報を参照して、ドライバへの提案情報を生成する。処理の詳細は、(リコメンドエンジン)に記載の通りである。
<実施形態2>
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
図4は、本実施形態に係る情報処理装置1の構成要素を示すブロック図である。
情報処理装置1は、位置情報取得部21と、表情推定部22とを更に備えている。
(位置情報取得部)
位置情報取得部21は、ドライバが搭乗する車両の位置情報を取得する。位置情報取得部21は、GPSアンテナ、Wi−Fi(登録商標)アンテナ、方位磁石、および加速度センサ等の少なくとも何れかを備えて構成される。位置情報取得部21は、車両の向いている方角と現在位置等の位置情報と検出可能に構成された位置検出部(図示せず)から位置情報を取得することができる。または、位置情報取得部21は、位置検出部以外から車両の位置を取得してもよい。例えば、車両が無線通信を行いながら移動するものである場合、無線通信の基地局から、車両の位置情報を取得してもよい。なお、本実施形態の説明において単に位置情報といった場合、車両の位置情報を指すものとする。位置情報取得部21は、取得したドライバが搭乗する車両の位置情報をオブジェクト検出部11に出力する。
(表情推定部)
表情推定部22は、ドライバの顔情報からドライバの表情を推定する。表情推定部22は、ドライバ顔情報から当該ドライバの表情を示す表情情報を取得することによって、当該ドライバの表情を推定する。表情推定部22は、視線検出部13で検出した目の特徴量を使用することに加えて、顔情報として顔の各部位の特徴量を組み合わせて使用し、ドライバの表情を推定する。
ドライバの顔情報は、ドライバの表情を推定するために十分な表情情報を含んでいればよいが、例えば、ドライバの笑顔度を示す笑顔情報、悲哀度を示す悲哀情報、緊張度を示す緊張情報等の感情情報を含む。表情推定部22がドライバの表情を推定する方法は、特に限定されないが、例えば、OKAO(登録商標)Vision等の人物の表情を推定するための公知の技術を搭載した表情推定装置を用いて表情を推定することができる。
表情推定部22は、顔情報を参照して、ドライバの表情を推定し、表情情報を算出する。表情推定部22は、表情情報を、関心度情報生成部15に出力する。なお、表情推定部22は、車両に設けられていても、後述するように、サーバ等の車両外に設けられていてもよい。
なお、表情推定部22は、視認オブジェクト判定部14と同様に、ドライバの表情に関する情報を機械学習により算出する構成としてもよい。
表情推定部22は、推定した感情情報を関心度情報生成部15に出力する。
(関心度情報生成部)
関心度情報生成部15は、車両の位置情報およびドライバの表情を更に参照して、関心度情報を生成する。
(位置情報)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの車両の位置が、交通量のより多い場所であるほど、当該オブジェクトに対する関心度が高いと判定する。また、関心度情報生成部15は、あるオブジェクトを視認したときの車両の位置が、所定の場所である場合に、当該当該オブジェクトに対する関心度が高いと判定してもよい。そして、関心度情報生成部15は、判定結果を含む関心度情報を作成する。
(ドライバの表情)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの表情が喜んでいるほど、又は驚いているほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
関心度情報生成部15は、ドライバの生体情報、日時情報、および気象情報のうち少なくとも1つを更に参照して関心度情報を生成してもよい。
生体情報には、例えば、ドライバの脳情報、バイタル情報等が含まれる。脳情報には、ドライバの脳波等の情報が含まれる。脳波を測定する方法としては、特に限定されないが、例えば、公知の脳波計により測定する方法が挙げられる。バイタル情報には、例えば、ドライバの脈拍、血圧、体温、発汗量等の情報が含まれる。バイタルを測定する方法としては、特に限定されないが、例えば、公知の脈拍計、血圧計、体温計、発汗量検出計等により測定する方法が挙げられる。日時情報は、ドライバの運転時の日時情報であり、気象情報は、位置情報取得部21から取得した車両の位置の気象情報である。
(脳波)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの脳波が所定の周波数の範囲であるとき、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(脈拍)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの脈拍数が多いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(血圧)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの血圧が高いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(体温)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの体温が高いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(発汗量)
関心度情報生成部15は、ドライバがあるオブジェクトを視認したときの当該ドライバの発汗量が多いほど、当該オブジェクトに対する関心度が高いと判定し、判定結果を含む関心度情報を作成する。
(リコメンドエンジン)
リコメンドエンジン16は、一例として、関心度情報生成部15が車両の位置情報およびドライバの表情を更に参照して生成した関心度情報に含まれるドライバの潜在的な関心が示唆されたオブジェクトの情報を参照して、当該潜在的な関心が示唆されたオブジェクトに関連する提案を含む提案情報を生成する。
具体的な提案情報としては、実施形態1に説明した例が挙げられる。
また、リコメンドエンジン16は、事故が起こったことを示す事故情報を取得し、上記事故情報が示す事故発生時刻の前の所定の期間においてドライバが視認したオブジェクトを示すオブジェクト情報を含む事故情報を生成してもよい。
なお、上記事故情報は、車両に搭載された衝撃センサ(加速度センサ)が、所定の値以上の衝撃を検知した場合に、当該車両に搭載された事故情報生成部によって生成される構成としてもよいし、そのような衝撃情報を、各車両からサーバに送信し、当該サーバが、当該衝撃情報を参照して事故情報を生成する構成としてもよい。
リコメンドエンジン16は、事故が起こったときの日時情報、車両の位置情報、および気象情報を事故情報に含ませてもよい。生成した事故情報は、安全運転の技能評価の情報として活用することができる。
〔情報処理装置の処理例2〕
次に、図5のフローチャートを参照して、情報処理装置1の処理について説明する。S11〜S17については、〔情報処理装置の処理例1〕で説明した通りであり、相違する点のみ説明する。
まず、情報処理装置1の使用を開始し、S11およびS21に進む。
S21では、位置情報取得部21が、ドライバが搭乗する車両の位置情報を取得する。処理の詳細は、(位置情報取得部)に記載の通りである。位置情報取得部21は、取得したドライバが搭乗する車両の位置情報をオブジェクト検出部11に送信し、S14に進む。
S16では、ドライバが一定時間オブジェクトに注目していた場合(S16のYes)、S22に進む。
S22では、表情推定部22が、ドライバの顔情報からドライバの表情を推定し、S23に進む。処理の詳細は、(表情推定部)に記載の通りである。
S23では、表情推定部22が、視認オブジェクトへの感情変化を測定し、測定した感情情報を関心度情報生成部15に送信し、S17に進む。
〔実施形態3〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
(情報処理システムの構成)
図6は、本発明の実施形態3に係る情報処理システムの構成を示すブロック図である。図6に示すように、情報処理システムは、車両3と、サーバ4と、携帯端末装置2とを備えている。
車両3は、車載カメラ31と、目的地提示部17とを備えている。実施形態1では、目的地提示部17は、情報処理装置1が備える構成であったが、本実施形態では、目的地提示部17は車両3に備えられている。
サーバ4は、顔情報取得部12と、視線検出部13と、オブジェクト検出部11と、視認オブジェクト判定部14と、関心度情報生成部15と、リコメンドエンジン16とを備えている。このように、本実施形態に係るサーバ4は、実施形態1に係る情報処理装置1の備える構成のうち、目的地提示部17以外の構成を備えている。
サーバ4は、実施形態2で説明した位置情報取得部21、及び表情推定部22の少なくとも1つを更に備える構成としてもよい。
また、サーバ及び情報処理装置は、図示しない通信部を備えており、サーバと情報処理装置との情報のやり取りは当該通信部を介して行われる。
車載カメラ31は、実施形態1において説明したオブジェクト検出部11が備える撮像部と同様の構成であり、車外の景色を撮影して周辺環境情報を取得し、取得した周辺環境情報をサーバ4のオブジェクト検出部11に出力する。また、車載カメラ31は、ドライバの顔を撮影して顔情報を取得し、取得した顔情報をサーバ4の顔情報取得部12に出力する。
リコメンドエンジン16は、実施形態1、2と同様に、生成したドライバへの提案情報を目的地提示部17に出力する。
このように、車両3に、視認オブジェクト判定部14、関心度情報生成部15、リコメンドエンジン等が含まれていない態様であっても、サーバ4を経由することにより、処理を行うことができる。
このような構成であっても、ドライバの関心度をセンシングすることができるという効果を奏する。
〔ソフトウェアによる実現例〕
情報処理装置1の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、情報処理装置1に含まれる各部は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 情報処理装置
2 携帯端末装置
3 車両
4 サーバ
11 オブジェクト検出部
12 顔情報取得部
13 視線検出部
14 視認オブジェクト判定部
15 関心度情報生成部
16 リコメンドエンジン(提案情報生成部)
17 目的地提示部(ナビゲーションシステム)
21 位置情報取得部
22 表情推定部
31 車載カメラ

Claims (20)

  1. ドライバの顔情報を取得する顔情報取得部と、
    上記顔情報取得部から取得した顔情報から視線を検出する視線検出部と、
    上記ドライバの視界に存在する各オブジェクトを検出するオブジェクト検出部と、
    上記視線検出部が検出した視線と上記オブジェクト検出部が検出したオブジェクトとから、上記ドライバが視認しているオブジェクトを判定する視認オブジェクト判定部と、
    上記視認オブジェクト判定部が判定したオブジェクトに対する上記ドライバの関心度を示す関心度情報を生成する関心度情報生成部と
    を備え
    上記関心度情報生成部は、上記オブジェクト検出部が検出したオブジェクト数を参照して関心度情報を生成することを特徴とする情報処理装置。
  2. 上記関心度情報生成部は、上記ドライバの瞳孔の状態を更に参照して、関心度情報を生成することを特徴とする請求項1に記載の情報処理装置。
  3. 上記関心度情報生成部は、上記ドライバの瞬きの回数を更に参照して、関心度情報を生成することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 上記関心度情報生成部は、上記ドライバの発汗量を更に参照して、関心度情報を生成することを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 上記関心度情報生成部は、上記ドライバの脳波を更に参照して、関心度情報を生成することを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 上記ドライバが搭乗する車両の位置情報を取得する位置情報取得部を更に備え、
    上記関心度情報生成部は、上記車両の位置情報を更に参照して、関心度情報を生成することを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。
  7. 上記ドライバの顔情報から上記ドライバの表情を推定する表情推定部を更に備え、
    上記関心度情報生成部は、上記ドライバの表情を更に参照して、関心度情報を生成することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
  8. 上記関心度情報生成部は、上記ドライバの生体情報を更に参照して、関心度情報を生成することを特徴とする請求項1〜の何れか1項に記載の情報処理装置。
  9. 上記関心度情報生成部は、日時情報を更に参照して、関心度情報を生成することを特徴とする請求項1〜の何れか1項に記載の情報処理装置。
  10. 上記関心度情報生成部は、気象情報を更に参照して、関心度情報を生成することを特徴とする請求項1〜の何れか1項に記載の情報処理装置。
  11. 上記関心度情報生成部が生成した関心度情報を参照して、上記ドライバへの提案情報を生成する提案情報生成部を更に備えている
    ことを特徴とする請求項1〜10の何れか1項に記載の情報処理装置。
  12. 上記提案情報生成部は、
    事故が起こったことを示す事故情報を取得し、
    上記事故情報が示す事故発生時刻の前の所定の期間において上記ドライバが視認したオブジェクトを示すオブジェクト情報を含む事故情報を生成する
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 上記関心度情報生成部が生成した関心度情報に、上記ドライバが第1のカテゴリに属する店舗又は看板に注目していることを示す情報が含まれる場合に、
    上記提案情報生成部は、休憩場所およびトイレの少なくとも何れかに立ち寄る旨の提案を上記提案情報に含ませる
    ことを特徴とする請求項11又は12に記載の情報処理装置。
  14. 上記関心度情報生成部が生成した関心度情報に、上記ドライバが第2のカテゴリに属する店舗又は看板に注目していることを示す情報が含まれる場合に、
    上記提案情報生成部は、飲食店およびトイレの少なくとも何れかに立ち寄る旨の提案を上記提案情報に含ませる
    ことを特徴とする請求項1113の何れか1項に記載の情報処理装置。
  15. 上記関心度情報生成部が生成した関心度情報に、車内の所定のオブジェクトに注目していることを示す情報が含まれる場合に、
    上記提案情報生成部は、燃料供給所、給電所、および自動車用品店の少なくとも何れかに立ち寄る旨の提案を上記提案情報に含ませる
    ことを特徴とする請求項1114の何れか1項に記載の情報処理装置。
  16. 上記提案情報を参照して、上記ドライバに目的地を提示する目的地提示部を更に備えている
    ことを特徴とする請求項1115の何れか1項に記載の情報処理装置。
  17. 上記関心度情報生成部が生成した関心度情報に、上記ドライバが特定のロゴ又はマークに注目していることを示す情報が含まれている場合に、
    上記提案情報生成部は、
    上記特定のロゴ若しくはマーク、又は、
    上記特定のロゴ若しくはマークに関連する商品
    に関する情報を上記提案情報に含ませる
    ことを特徴とする請求項1116の何れか1項に記載の情報処理装置。
  18. 上記関心度情報生成部が生成した関心度情報に、上記ドライバが特定の車種に注目していることを示す情報が含まれている場合に、
    上記提案情報生成部は、
    上記特定の車種、又は、
    上記特定の車種に属する自動車
    に関する情報を上記提案情報に含ませる
    ことを特徴とする請求項1117の何れか1項に記載の情報処理装置。
  19. 情報処理装置によって実行される情報処理方法であって、
    ドライバの顔情報を取得する顔情報取得ステップと、
    顔情報取得ステップにおいて取得した顔情報から視線を検出する視線検出ステップと、
    ドライバの視界に存在する各オブジェクトを検出するオブジェクト検出ステップと、
    上記視線検出ステップにおいて検出した視線とオブジェクト検出ステップにおいて検出したオブジェクトとから、上記ドライバが視認しているオブジェクトを判定する視認オブジェクト判定ステップと、
    上記視認オブジェクト判定ステップにおいて判定したオブジェクトに対する上記ドライバの関心度を示す関心度情報を生成する関心度情報生成ステップと
    含み、
    上記関心度情報生成ステップでは、上記オブジェクト検出ステップにおいて検出したオブジェクト数を参照して関心度情報を生成することを特徴とする情報処理方法。
  20. 請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理プログラムであって、上記関心度情報生成部としてコンピュータを機能させるための情報処理プログラム。
JP2018094884A 2018-05-16 2018-05-16 情報処理装置、情報処理方法、及び情報処理プログラム Active JP6449504B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018094884A JP6449504B1 (ja) 2018-05-16 2018-05-16 情報処理装置、情報処理方法、及び情報処理プログラム
PCT/JP2019/018971 WO2019221070A1 (ja) 2018-05-16 2019-05-13 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094884A JP6449504B1 (ja) 2018-05-16 2018-05-16 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6449504B1 true JP6449504B1 (ja) 2019-01-09
JP2019200614A JP2019200614A (ja) 2019-11-21

Family

ID=64960352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094884A Active JP6449504B1 (ja) 2018-05-16 2018-05-16 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (2)

Country Link
JP (1) JP6449504B1 (ja)
WO (1) WO2019221070A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022088959A (ja) * 2020-12-03 2022-06-15 京セラ株式会社 電子機器、情報処理装置、集中度算出プログラム、集中度算出方法、コンピュータの学習方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048171A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
JP2007072567A (ja) * 2005-09-05 2007-03-22 Denso Corp 車両走行情報記録装置
JP2009058431A (ja) * 2007-08-31 2009-03-19 Aisin Aw Co Ltd ナビゲーション装置及びナビゲーション用プログラム
JP2009168473A (ja) * 2008-01-10 2009-07-30 Nissan Motor Co Ltd 車載用ナビゲーション装置および車載用ナビゲーション装置における運転者の関心度推定方法
JP2014096632A (ja) * 2012-11-07 2014-05-22 Denso Corp 撮像システム
JP2018055296A (ja) * 2016-09-28 2018-04-05 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048171A (ja) * 2004-07-30 2006-02-16 Toyota Motor Corp 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
JP2007072567A (ja) * 2005-09-05 2007-03-22 Denso Corp 車両走行情報記録装置
JP2009058431A (ja) * 2007-08-31 2009-03-19 Aisin Aw Co Ltd ナビゲーション装置及びナビゲーション用プログラム
JP2009168473A (ja) * 2008-01-10 2009-07-30 Nissan Motor Co Ltd 車載用ナビゲーション装置および車載用ナビゲーション装置における運転者の関心度推定方法
JP2014096632A (ja) * 2012-11-07 2014-05-22 Denso Corp 撮像システム
JP2018055296A (ja) * 2016-09-28 2018-04-05 損害保険ジャパン日本興亜株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP2019200614A (ja) 2019-11-21
WO2019221070A1 (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
CN110167823B (zh) 用于驾驶员监测的系统和方法
Mbouna et al. Visual analysis of eye state and head pose for driver alertness monitoring
CN101269635B (zh) 视场监视设备
US20210081754A1 (en) Error correction in convolutional neural networks
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
García et al. Driver monitoring based on low-cost 3-D sensors
US11315430B2 (en) System, program, and method for detecting information on a person from a video of an on-vehicle camera
JP2014160394A (ja) サービス提供システム
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP4094219A1 (en) Customer behavioural system
JP5016959B2 (ja) 見え方度判定装置
JP2006048171A (ja) 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
JP6459856B2 (ja) 車両運転支援装置、車両運転支援方法、およびプログラム
JP6449504B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2018110023A (ja) 対象検出方法
US20220180640A1 (en) Electronic device for providing response method, and operating method thereof
CN110803170A (zh) 智能用户接口的驾驶辅助系统
JP2004127285A (ja) 画像認識装置、画像認識処理方法および画像認識プログラム
KR20120070888A (ko) 제보방법, 이를 수행하는 전자기기 및 기록매체
JP6305483B2 (ja) コンピュータ装置、サービス提供システム、サービス提供方法およびプログラム
JP2019152734A (ja) デジタル情報表示システム
CN104019820A (zh) 一种基于摄像的自动导航方法及系统
US20200279110A1 (en) Information processing apparatus, information processing method, and program
CN114766027A (zh) 信息处理方法、信息处理装置以及控制程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181205

R150 Certificate of patent or registration of utility model

Ref document number: 6449504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250