JP2016053880A - 車載システム、情報処理方法、およびコンピュータプログラム - Google Patents

車載システム、情報処理方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2016053880A
JP2016053880A JP2014180029A JP2014180029A JP2016053880A JP 2016053880 A JP2016053880 A JP 2016053880A JP 2014180029 A JP2014180029 A JP 2014180029A JP 2014180029 A JP2014180029 A JP 2014180029A JP 2016053880 A JP2016053880 A JP 2016053880A
Authority
JP
Japan
Prior art keywords
image
vehicle
passenger
input
software
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014180029A
Other languages
English (en)
Inventor
友昭 天野
Tomoaki Amano
友昭 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RANDIDO Inc
Original Assignee
RANDIDO Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RANDIDO Inc filed Critical RANDIDO Inc
Priority to JP2014180029A priority Critical patent/JP2016053880A/ja
Priority to PCT/JP2015/004252 priority patent/WO2016035281A1/ja
Publication of JP2016053880A publication Critical patent/JP2016053880A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】直感的で簡易な操作により車外風景の画像データを取得し、該画像データの解析結果と推測された目的に基づき出力内容および出力を実行するハードウェアまたはソフトウェアを決定する車載システムを提供することを目的とする。【解決手段】車窓越しの車外風景の映像を撮影する車外撮像手段と、所定の動作を認識するジェスチャー認識手段と、動作が行われた位置を算出し、映像から画像を切り出して取得する画像取得手段と、取得された画像中の物体を認識する画像解析手段と、環境情報を用いて、認識された物体から目的を推測する目的推測手段と、推測された目的に基づき、出力内容とそれを実行するハードウェアまたはソフトウェアを決定する出力決定手段と、入力情報を前記ハードウェアまたはソフトウェアに入力する入力手段と、を備えることを特徴とする。【選択図】図2

Description

本発明は、風景を撮影して画像データを取得し、該画像データの解析結果と推測された目的に基づき出力内容および出力を実行するハードウェアまたはソフトウェアを決定する車載システム、情報処理方法、およびコンピュータプログラムに関する。
近年、自動車等の移動体に搭載される車載システムにおいて、モバイル機器との連携を可能とするものや、コネクテッド・カーと呼ばれる、自動車に通信機能を与えるものなどが登場し、その多機能化が進んでいる。こうした車載システムは、搭乗者に様々な情報や機能を提供することで、運転の補助や運転時の利便性の向上に寄与する。一方で、多機能化および情報量の増加により、搭乗者が行うべき操作が煩雑化し、目視負担も増大するという問題点も生じている。
例えば、搭乗者が走行中に実際に目にした様々な事物に対して、それに関連する情報を欲するという状況は多々考えられる。一例として、自動車で移動中の搭乗者が、遠くのランドマークや交通案内の標識を目にしてそこまでの経路を知りたいと考えた場合、一般的なナビゲーションシステムでは、ランドマークの名称や地名を入力または選択し、あるいは地図画像上で特定の地点を指定することによって、目的地を設定し、経路を表示させる必要がある。また、別の例として、街中に設置された商品や映画の広告や店舗の看板を見て、詳細な情報を知りたいと考えた場合、車載ディスプレイ上またはモバイル機器上でブラウザを起動し、商品名や映画のタイトル等を文字入力して検索を行うことなどが必要とされる。
従来機器において必要とされるこれらの操作は比較的煩雑であり、特に運転者が走行中に行う場合には危険も伴う。また、適切な地名が分からない場合や、地図上での適切な位置が把握できない場合、または正しい商品名等が不明な場合などに、所望の結果を得られない可能性もある。
このような問題点に鑑み、走行中の車内で搭乗者に情報や機能を提供する車載システムにおいては、より直感的でシンプルな操作により情報・機能を提供可能であることが望ましい。
直感的な操作方法の一つとして、システムや装置への入力を文字ではなく画像で行うという試みがある。例えば特許文献1においては、装置に入力された画像データを検索キーとして画像データベースから類似画像データを抽出し、これに対応付けて記憶されている地点特定情報と共に出力し、目的地設定に利用するナビゲーション装置が提案されている。
特開2004−333233号公報
しかしながら、特許文献1のナビゲーション装置においては、装置に入力するための画像をデジタルカメラ等で撮影すること等により予め用意しておく必要があり、走行中に目にしたものを即座に検索に用いたい場合、行うべき操作は依然として煩雑なものとなってしまう。また、検索結果に対して搭乗者による絞り込みの操作が必要とされており、これが操作の煩雑さを増大させる一因となりうる。また、画像を入力して得られる情報・機能は、目的地としての地点情報と経路案内に限られており、搭乗者が必要とし得る幅広い情報の提供を可能とするものではない。
本発明は以上のような課題を解決するためになされたものであり、直感的で簡易な操作により車外風景の画像データを取得し、該画像データの解析結果と推測された目的に基づき出力内容および出力を実行するハードウェアまたはソフトウェアを決定する車載システムを提供することを目的とする。
上記課題を解決するために、本発明に係る車載システムは、任意のハードウェアまたはソフトウェアと通信および連携が可能な車載システムであって、車窓越しの車外風景の映像を撮影する車外撮像手段と、搭乗者の所定の動作を入力として認識するジェスチャー認識手段と、前記動作が行われた位置を前記車窓上の座標として算出し、前記映像から、前記座標に対応する領域の画像を切り出して取得する画像取得手段と、前記取得された画像を解析して画像中の物体を認識する画像解析手段と、前記システムに蓄積された環境情報を用いて、前記認識された物体から前記搭乗者の目的を推測する目的推測手段と、前記推測された目的に基づき、出力内容とそれを実行するハードウェアまたはソフトウェアを決定する出力決定手段と、前記出力内容の実行に必要な入力情報を前記ハードウェアまたはソフトウェアに入力する入力手段と、を備えることを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、搭乗者を撮影する搭乗者撮像手段と、前記搭乗者撮像手段により得られる搭乗者の目の画像から搭乗者の視線方向を検出する視線方向検出手段と、を更に備え、前記画像取得手段は、前記検出された視線方向を参照して前記座標の補正を行うことを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、前記所定の動作が風景中の関心対象を囲むように前記車窓の付近の空中に指で円状または楕円状の図形を描く動作であり、前記画像取得手段は、前記円状または楕円状の図形によって画定される閉領域に対応する画像を前記映像から取得することを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、前記車窓が画像表示機能を有し、前記取得された画像を表示することが可能であり、前記表示された画像は搭乗者の操作により車窓上の任意の場所に動かして表示させることが可能であり、前記画像解析手段は、搭乗者による前記表示された画像に対する所定の操作に応じて画像の解析を開始することを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、前記画像解析手段が前記取得された画像に含まれる文字情報を認識する文字情報認識手段を備えることを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、前記環境情報が車内環境データ、車外環境データ、搭乗者プロフィールデータ、行動履歴データ、前記行動履歴に基づき推測された搭乗者の現在の感情に関するデータ、または前記車載システムと連携するハードウェアおよびソフトウェアに関するデータを含むことを特徴とする。
本発明の一実施形態によれば、本発明に係る車載システムは、前記出力内容に対する搭乗者の評価を入力可能な評価入力手段を更に備え、前記入力された評価を前記環境情報の一部として利用することを特徴とする。
本発明の一態様によれば、本発明に係る情報処理方法は、車窓越しの車外風景の映像を撮影する車外撮像工程と、搭乗者が前記車窓の付近で行う所定の動作を入力として認識するジェスチャー認識工程と、前記動作が行われた位置を前記車窓上の座標として算出し、前記映像から、前記座標に対応する領域の画像を切り出して取得する画像取得工程と、前記取得された画像を解析して画像中の物体を認識する画像解析工程と、前記装置に蓄積された環境情報を用いて、前記認識された物体から前記搭乗者の目的を推測する目的推測工程と、前記推測された目的に基づき、出力内容とそれを実行するハードウェアまたはソフトウェアを決定する出力決定工程と、前記出力内容の実行に必要な入力情報を前記ハードウェアまたはソフトウェアに入力する入力工程と、を含むことを特徴とする。
本発明の一態様によれば、本発明に係るコンピュータプログラムは、本発明に係る情報処理方法をコンピュータにより実行させることを特徴とする。
本発明によれば、走行中の車内において、搭乗者の簡易で直感的なジェスチャーにより車外の風景内の任意の事物の画像データを取得し、車載システムへの入力とすることができるため、画像データを入力として用いる際に要求される搭乗者の操作は非常に簡単なものとなり、搭乗者は直感的な操作によって即座に必要な情報・機能を得ることができる。
また、入力された画像の解析後、システムに蓄積された種々の環境情報に基づき搭乗者の目的が推測され、当該目的に適した出力が自動で選択実行されるため、画像の入力後に搭乗者に更なる操作が求められることもない。
上記の利点の結果、搭乗者は、直感的かつ簡単な操作により、車外風景中の関心のある事物の画像をハードウェアまたはソフトウェアに対する入力として用いることができ、推測された目的に応じた様々な結果を得ることができる。
本発明に係る車載システムのハードウェア構成の一例を示す図である。 本発明に係る車載システムのソフトウェア構成の一例を示す図である。 本発明に係る車載システムにおける、画像の解析を開始するまでの処理の流れを示すフローチャートである。 本発明に係る車載システムにおける、画像の解析からハードウェア/ソフトウェアへの入力が行われるまでの処理の流れを示すフローチャートである。 本発明に係る車載システムを搭載する自動車における風景画像切り取りの操作を説明する図である。 本発明に係る車載システムを搭載する自動車における風景画像切り取りの操作を説明する図である。 本発明に係る車載システムを搭載する自動車における風景画像切り取りの操作を説明する図である。
(実施例)
以下、本発明の車載システムの実施形態を、図面を参照しながら説明する。なお、以下に示す実施例は本発明の車載システムにおける好適な具体例であり、一般的な自動車の構造および構成に即した種々の限定を付している場合もあるが、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。また、以下に示す実施形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、かつ、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下に示す実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
(ハードウェア構成)
図1は、本発明に係る車載システムのハードウェア構成の一例を示す図である。本実施例における車載システム1は、CPU101、RAM102、ROM103.入力I/F104、出力I/F105、外部メモリI/F106、通信I/F107、およびハードウェアI/F108を備える。また、車載システム1は、タッチパネル111、センサー112、カメラ113、ディスプレイ114、外部メモリ115、NIC116、NFC117を備え、車内LANを介して車載ハードウェア121と接続する。CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。NICは、Network Interface Cardの略称である。
CPU101は、記憶部であるROM103に記憶されているプログラムに従って、システムバスに接続される各デバイスを総括的に制御する。RAM102は、CPU101の主メモリ、ワークエリア等として機能すると共に、入力情報展開領域、環境データ格納領域としても用いられる。ROM103は、各種プログラムおよびデータを格納している。
入力I/F104は、タッチパネル111、センサー112、カメラ113からの入力を制御する。タッチパネル111は、ユーザ操作における入力装置である。その他の入力装置として、キーボードやリモコン、ボタンデバイス等を備えていてもよい。また、後述するように、カメラ113は車内に設置される複数のカメラであり、その一部は、車窓越しに車外の風景を撮影可能な位置に設置されて、車窓および車外風景を撮影して画像データを取得する。本実施例において、これらのカメラは車両が有する全ての窓を撮影するのに必要な数だけ設置されるが、他の構成では、一部の車窓のみを撮影するのに必要な数だけ設置されてもよい。また、カメラ113の他の一部は、搭乗者を撮影可能な位置に設置され、搭乗者の視線方向の検出のために搭乗者の顔を撮影する。センサー112は、搭乗者の所定の動作(ジェスチャー)を認識するためのジェスチャー用センサー、位置データ取得のためのGPS受信機、方位データ取得のための地磁気センサーおよびジャイロスコープ、距離データ取得のための距離センサーを含む。GPSは、Global Positioning Systemの略称である。
出力I/F105は、ディスプレイ114への画面表示を制御する。構成によっては、スピーカへの音声出力を制御するようにしてもよい。外部メモリI/F106は、例えばフラッシュメモリ、SSD(Solid State Disk)等の外部メモリ115とのアクセスを制御する。外部メモリ115は、保存または読み取り可能な記憶媒体として機能し、オペレーティングシステム(OS)、Webブラウザ、およびアプリケーションが記憶されている。アプリケーション、および各モジュール(ソフトウェア)のプログラムは外部メモリ115に記憶され、必要に応じてRAM102に読み出されてCPU101により実行される。これにより、アプリケーションまたは各モジュール(ソフトウェア)の機能を実現する。
通信I/F107は、NIC116やNFC117の通信を制御している。NIC116はネットワークとの接続I/Fである。NIC116は、車載システム1のネットワークへの接続を可能とする。なお、他の構成例においては、携帯網などへの通信を制御して無線基地局とのネットワークに接続可能であってもよい。NFC117は、非接触型の近距離通信ユニットとして機能する接続I/Fである。例えばNFC117は、スマートフォンとの接続を可能とし、ワイヤレス通信によるデータの送受信を制御する。ハードウェアI/F108は、車内LANを介して車載ハードウェア121あるいはECUなどの車載ハードウェア制御ユニットと接続する。本実施例で説明する処理は、外部メモリ115に記録されたプログラムをRAM102にロードし、CPU101が実行することによって実現される。なお、プログラムは、外部メモリ115以外にもRAM102やROM103において記憶されてもよい。
(ソフトウェア構成)
図2は、本実施形態に係る車載システムが行う処理を表す機能ブロック図である。図2に示す各構成部は、図1に示した車載システム1のCPU101がROM103または外部メモリ115に記憶されているプログラムをRAM102にロードし、ロードされたプログラムをCPU101が実行することで実現される。
車外撮像部201は、カメラ113を起動して、車窓越しに車外の風景を撮影し、撮影時刻とともに一時的に記憶する。ジェスチャー認識部202は、センサー112により搭乗者の所定の動作(ジェスチャー)を認識する。本実施例において、搭乗者の所定の動作とは、車窓付近の空中で、風景中の関心対象を囲むように円状または楕円状の図形を描くジェスチャーである。他の実施例において、四角図形や他の比較的簡単な多角形を描くジェスチャーを所定の動作とするように構成してもよい。ジェスチャー認識は、こうした搭乗者による簡易なジェスチャーを認識可能であればよく、任意の公知の手法を用いることが可能である。本実施例においては、カメラで撮影した搭乗者の手指の形状とそれらの動きに基づきジェスチャー認識を行うが、他の実施例において、例えば車窓の内表面に透明なタッチセンサを構成し、搭乗者が車窓に触れながら描いた図形を認識するようにしてもよい。
画像取得部205は、ジェスチャーが行われた位置を車窓上の座標データとして算出する。座標データの算出は、車外風景を撮影した映像に映りこんだ搭乗者の手の映像に基づき算出されてもよいし、別のカメラで撮影した搭乗者の手の映像に基づき算出されてもよい。あるいは、複数のカメラにより捉えられた搭乗者の手の映像に基づき算出されてもよい。本実施例においては、搭乗者の人差し指の先端部が描く軌跡を車窓上に投影して得られる一連の座標データを取得する。
搭乗者撮像部203は、カメラ113を起動して、搭乗者の顔を撮影し、撮影時刻とともに一時的に記憶する。視線方向検出部204は、搭乗者撮像部203が撮影した顔画像から眼球領域を特定し、任意の公知の手法を用いて、ジェスチャー開始時刻における搭乗者の視線方向を検出する。画像取得部205は、ジェスチャー位置座標の取得の際、カメラ113の設置位置および車窓までの距離、搭乗者の顔の位置および車窓までの距離、並びに特定された視線方向に関するデータを用いて、カメラ113と搭乗者の間の視差を推定し、取得した一連の座標に対する補正を行う。当該補正には任意の適切な方法を用いることが可能であるが、例えば、搭乗者が描く図形の大きさから関心対象までの大まかな距離を推定し、推定された距離に基づいて視差量を求め、視差量に基づき取得した一連の座標を特定方向にオフセットさせてもよい。なお、別の実施例において、搭乗者撮像部および視線方向検出部を省略することも可能であり、その場合、視差に基づく取得座標の補正は行われない。
さらに、画像取得部205は、車外風景を撮影した映像から、算出された補正後の座標に対応する領域の画像を切り出して取得する。ジェスチャーが行われた位置の座標に対応する画像を直接切り出すのではなく、上記補正後の座標に対応する画像を切り出すことにより、関心対象、すなわち搭乗者が切り取ることを意図した風景中の事物が切り出された画像中に含まれる可能性が上昇する。本実施例において、画像取得部205は、車外風景を撮影した映像から、搭乗者のジェスチャーが開始された時刻に対応するフレームの画像を抽出し、この画像から、算出された一連の座標データによって描かれる閉領域内の画像を切り出して取得する。なお、別の実施例においては、ジェスチャー位置を車窓上の一点の座標として取得し、この座標を中心とした一定範囲の画像を切り出すようにしてもよい。
画像表示部206は、切り出された画像をディスプレイ114に表示する。画像操作部207は、搭乗者による入力操作を受け付けて、表示されている画像をディスプレイ上の任意の位置に移動させ、また、搭乗者による特定の操作を受け付けて、後述する画像解析部208による画像の解析を開始させる。この特定の操作としては、例えば、タッチパネル111上に表示されている画像の特定位置へのドラッグ&ドロップや、特定方向へのフリックであってよい。本実施例においては、ディスプレイ114およびタッチパネル111は、車窓内表面に設置された透過型のタッチパネルである。搭乗者は、例えば、車両前方の風景画像を切り出して、車両側面の車窓上のタッチパネルに表示させておくことが可能である。本実施例においては、搭乗者が切り出された画像にタッチし、下方向にフリック操作することで、画像の解析を開始する。なお、別の実施例において、例えばディスプレイ114上に、車載システム1と連携するハードウェアまたはソフトウェアを表すアイコンを表示するようにして、搭乗者が、例えばドラッグ&ドロップ操作により、切り出された画像をいずれかのアイコン上に投げ込む操作を行うことで、後述する出力内容を実行するハードウェアまたはソフトウェアを搭乗者が指定できるようにしてもよい。また、別の実施形態では、搭乗者による操作を介さずに、切り出された画像の解析を自動的に開始するようにしてもよい。
画像解析部208は、任意の公知の画像解析技術を用いて、切り出された画像中の物体を認識する。用いられる解析手法は、公知の物体認識技術、シーン解析技術などであってよく、画像データベース209またはインターネットにアクセスして行う類似画像検索技術であってもよい。また、車両の現在位置および方位に関する情報を呼び出して、画像中の物体の位置の推定することにより、物体の特定に利用することも可能である。また、画像解析部208は文字情報認識部を含み、画像中の文字情報を解析して読み取る。
目的推測部210は、画像中に含まれる物体または文字に基づき、搭乗者の目的を推測する。目的の推測は任意の公知の予測モデルを用いて行われ、その際、環境情報管理部211によって環境情報データベース212に収集・蓄積された種々の環境情報が手掛かりとして用いられる。本実施例において、蓄積される環境情報としては、車両内部の情報(例えば、ガソリン残量、室温、時刻など)、車両外部の情報(例えば、天気、気温、現在位置、路面状況など)、搭乗者のプロフィール情報(性別、年齢、趣味、好物など)、行動履歴(訪問頻度が高い場所、生活サイクル、直近の行動、直近の操作など)、行動履歴から推測される搭乗者の現在の感情、または車両システム1がアクセス可能な車載ハードウェア、車両システム1にインストールされたソフトウェアなどのシステム情報が想定されるが、これらに限定されることはない。これらの環境情報は、車載システム1に備えられたセンサー213や各種の入力装置、車載システム1と連携するモバイル機器、またはインターネットアクセスを介して収集される。
出力決定部214は、推測された目的に基づき、画像入力に対する出力の内容と、それを実行するハードウェアまたはソフトウェアを決定する。この決定は、例えば、目的として想定される種々のアクション(「経路検索」「情報検索」「運転制御」「メール送信」など)と、各ハードウェア・ソフトウェアとを予め適切に紐付けておくことにより実現され得る。入力部215は、決定された出力内容の実行に必要な入力情報を、出力実行するハードウェアまたはソフトウェアに入力する。
評価入力部216は、搭乗者の画像入力に対して実行された出力に対する搭乗者からの評価を受け付ける。搭乗者からの評価は、出力内容に対する搭乗者の満足度を示すことが可能な任意の形式で行われるものであってよい。例えば、タッチパネル上で満足度を示す数値を入力または選択させるようにしてもよいし、タッチパネル上に、出力内容が搭乗者の望むものではない場合に、それをシステムに伝えるための仮想ボタンやアイコンを表示してもよい。あるいは、不図示のマイクにより、搭乗者が音声で評価を入力するようにしてもよい。入力された評価は、環境情報管理部211によって環境情報データベース212に記憶され、以降の目的推測の際に参照され得る。
本実施形態において、車載システム1は、車載ハードウェアI/F108を介して車両の制御系ハードウェアと連携可能である。例えば、入力された画像が制限速度を示す標識を示していると判断されると、搭乗者の目的は制限速度を遵守することであるとの推測が行われ、当該制限速度を車両の最高速度とするようにエンジン制御を行うことが可能である。また、本実施形態において、車載システム1には、ナビゲーションソフトウェア、インターネットブラウザ、メールソフトなどのアプリケーションソフトウェアがインストールされており、これらのソフトウェアとの連携が可能である。例えば、入力された画像が特定のランドマークを示していると判断されると、搭乗者の目的は当該ランドマークを目的地とした経路情報であるとの推測が行われ、ナビゲーションソフトウェアを起動してこれらの情報を搭乗者に提供する。また、例えば、入力された画像が商品の広告看板を示していると判断されると、搭乗者の目的は当該商品の詳細情報であるとの推測が行われ、ブラウザを起動してこれらの情報を搭乗者に提供する。なお、目的として想定されるアクションとハードウェアまたはソフトウェアとの紐付けをより詳細に設定することにより、上述の例の他にも様々なハードウェア・ソフトウェアによる出力を実行することが可能である。また、同一の画像を入力した場合に必ず同一の出力内容となるとは限らず、例えば、入力画像がランドマークを示していると判断された場合であっても、既に他の目的地がナビゲーションソフトウェアに設定されている場合にはブラウザを起動して詳細情報を提供したり、当該ランドマークへの訪問が〈例えば搭乗者の勤務地として設定されている場合のように〉生活サイクルの一部に組み込まれている場合はスケジュール管理ソフトを起動してその日のスケジュールを表示するなど、そのときの状況や搭乗者によって様々な出力内容が実行され得る。
(本車載システムの処理のフローチャート)
図3および図4は、本実施例に係る車載システム1の処理の流れを示したフローチャートである。図3は、車載システム1の起動から画像の解析を開始するまでの流れを示す。車載システム1の起動後、ステップ300において、車外撮像部201による車外風景の撮影が開始される。搭乗者が車外の風景中の特定の事物に関心を持ち、特定のジェスチャー、すなわち、車窓付近の空中で風景中の関心対象を囲むように円状または楕円状の図形を描くジェスチャーを行うと、ステップ302でジェスチャー認識部202が当該ジェスチャーが行われたことを認識し、ステップ304で画像取得部205が当該ジェスチャーが行われた位置を車窓上の座標として算出し取得する。本実施例では、画像取得部205は、搭乗者の人差し指の先端部が描く軌跡を車窓上に投影して得られる一連の座標データを取得する。
ステップ304に引き続き、またはステップ304と並行して、ステップ306で視線方向検出部204がジェスチャー開始時刻における搭乗者の視線方向を検出する。ステップ308では、ステップ304で画像取得部205が取得した一連の座標を、ステップ306で検出された搭乗者の視線方向に基づき補正する。続いて、ステップ310において、画像取得部205は、補正後の一連の座標に対応する領域の画像を、ステップ300で撮影開始された車外風景の映像から切り出して取得する。具体的には、車外風景を撮影した映像からジェスチャー開始時刻に対応するフレームの画像を抽出し、この画像から、上記補正後の一連の座標によって画定される閉領域内部の画像を切り出して取得する。
続いて、ステップ312において、画像表示部206により、切り出された画像がディスプレイ114上に表示される。ステップ314において、表示された画像は、搭乗者による操作により、ディスプレイ114上を自由に移動可能である。ここで、搭乗者による特定の操作、すなわち本実施形態においては画像の下方向へのフリック操作が行われると、ステップ316で画像の解析が開始される。
図4は、本実施例に係る車載システム1における、画像の解析開始から入力情報の入力までの処理の流れを示す。図3のステップ316に引き続き、図4のステップ402において、画像解析部208により、ステップ310で取得された画像中の物体認識が行われる。さらに、当該画像中に文字情報が含まれる場合、ステップ404において、画像中の文字情報が解析され読み取られる。
切り取られた画像の物体認識が完了すると、ステップ406において、認識された物体または文字に基づき、搭乗者の目的が推測される。このステップでは、蓄積された種々の環境情報を参照することにより、搭乗者が上記画像を切り出して車載システム1に入力することでどのような情報・機能を要求しているのか、ということが推測される。続いて、ステップ408で推測された目的に基づき出力内容が決定され、ステップ410で当該出力内容を実行するハードウェア/ソフトウェアが決定される。なお、ステップ408とステップ410の実装にあたっては、両ステップを一体的に実行してもよい。その後、ステップ412において、入力部215が、決定されたハードウェアまたはソフトウェアに対して、出力の実行に必要な入力情報を入力する。
ステップ412の入力を受けて、ステップ414において、車載システム1と連携するハードウェアまたはソフトウェアは、入力情報を処理して適切な情報または機能を出力として搭乗者に提供する。その後、ステップ416において、搭乗者による出力に対する評価の入力が受け付けられる。ステップ418において、上記評価は、上記出力が搭乗者の要求に適合するものであったかどうかの指標として、入力および出力の情報とともに記憶される。
図5〜図7は、本発明に係る車載システムを搭載する自動車における風景画像切り取りの操作を説明する図である。図5は、運転中の車内から前方の車窓を通して見える風景を表している。カメラ501は、車外風景または搭乗者を撮影するためのカメラ113の設置例であり、この他にも、前方または側方の車外風景を撮影するための不図示のカメラが適切な位置に複数設置される。搭乗者には、前方の車窓を通してランドマーク502、イベント503、速度規制標識504、道路案内標識505、先行車両506が見えている。
図6において、搭乗者はランドマーク502に興味を持ち、搭乗者の手601により、車窓の近くの空中で、ランドマーク502を囲むような軌跡602を描く。なお、図6に示すとおり、搭乗者は必ずしも綺麗で正確な円または楕円を描く必要はなく、軌跡602のように閉領域を形成しない不完全な楕円形を描いた場合であっても、画像取得処理の段階で適切に補完された閉領域の画像を切り出すことが可能である。
図7は、軌跡602に基づき一定領域の画像が切り出されたあとの車内の状態を表す。この実施例において、車窓の内表面上に透過型のタッチパネルが設置されており、切り出された画像701がタッチパネル上に表示されている。搭乗者は画像701をタッチパネル上の任意の場所に動かして表示させておくことが可能である。また、例えば画像701を下方向にフリック操作することにより、本車載システムに画像の解析を開始させることが可能である。本車載システムは、解析により画像701に含まれる物体がランドマークAであることを特定し、例えば、搭乗者の目的はランドマークAまでの経路案内であると判断してナビゲーションソフトウェアに適切な入力を行う。ナビゲーションソフトウェアは、当該入力を受けて、ランドマークAまでの経路案内を実行する。
図5〜7においては、ランドマーク502の画像を切り出して経路案内を提供する例を説明したが、本車載システムと連携するハードウェアまたはソフトウェア、ならびに目的推測の精度によっては、他にも様々な画像入力とそれに対する出力が可能である。想定される入力‐出力の例としては、例えばイベント503の画像を切り出して入力することで、メールソフトを起動して当該切り出した画像を添付したメールを送信することが可能である。また、速度規制標識504の画像を切り出して入力することで、車両の最高速度を設定することが可能である。また、道路案内標識505の画像を切り出して入力することで、ブラウザソフトウェアを起動して目的地の観光情報を提供することが可能である。また、先行車両506の画像を切り出して入力することで、先行車両506を追従するように自動運転の設定を行うことが可能である。
以上、本実施形態によれば、走行中の車内において、搭乗者の簡易で直感的なジェスチャーにより車外の風景内の任意の事物の画像データを取得し、車載システムまたは装置への入力とすることができるため、画像データを入力として用いる際に要求される搭乗者の操作は非常に簡単なものとなり、搭乗者は直感的な操作によって即座に必要な情報・機能を得ることができる。また、入力された画像の解析後、システムまたは装置に蓄積された種々の情報に基づき搭乗者の目的が推測され、当該目的に適した出力が自動で選択実行されるため、画像の入力後に搭乗者に更なる操作が求められることもない。こうした利点の結果、搭乗者は、直感的かつ簡単な操作により、車外風景中の関心のある事物の画像をハードウェアまたはソフトウェアに対する入力として用いることができ、推測された目的に応じた様々な結果を得ることができる。
(その他の実施形態)
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されるものではない。本発明の目的は、上述の実施例の機能を実現するプログラムコード(コンピュータプログラム)を格納した記憶媒体をシステムあるいは装置に供給し、供給されたシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施例の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、上述した実施形態では、コンピュータがプログラムを実行することにより、各処理部として機能するものとしたが、処理の一部または全部を専用の電子回路(ハードウェア)で構成するようにしても構わない。本発明は、説明された特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。
201 車外撮像部
202 ジェスチャー認識部
203 搭乗者撮像部
204 視線方向検出部
205 画像取得部
206 画像表示部
207 画像操作部
208 画像解析部
209 画像データベース
210 目的推測部
211 環境情報管理部
212 環境情報データベース
213 センサー
214 出力決定部
215 入力部
216 評価入力部
501 カメラ
502 ランドマーク
503 イベント
504 速度規制標識
505 道路案内標識
506 先行車両
601 搭乗者の手
602 軌跡
701 画像

Claims (9)

  1. 任意のハードウェアまたはソフトウェアと通信および連携が可能な車載システムであって、
    車窓越しの車外風景の映像を撮影する車外撮像手段と、
    搭乗者の所定の動作を入力として認識するジェスチャー認識手段と、
    前記動作が行われた位置を前記車窓上の座標として算出し、前記映像から、前記座標に対応する領域の画像を切り出して取得する画像取得手段と、
    前記取得された画像を解析して画像中の物体を認識する画像解析手段と、
    前記システムに蓄積された環境情報を用いて、前記認識された物体から前記搭乗者の目的を推測する目的推測手段と、
    前記推測された目的に基づき、出力内容とそれを実行するハードウェアまたはソフトウェアを決定する出力決定手段と、
    前記出力内容の実行に必要な入力情報を前記ハードウェアまたはソフトウェアに入力する入力手段と、
    を備えることを特徴とする車載システム。
  2. 搭乗者を撮影する搭乗者撮像手段と、
    前記搭乗者撮像手段により得られる搭乗者の目の画像から搭乗者の視線方向を検出する視線方向検出手段と、を更に備え、
    前記画像取得手段は、前記検出された視線方向を参照して前記座標の補正を行う、請求項1に記載の車載システム。
  3. 前記所定の動作が、風景中の関心対象を囲むように前記車窓の付近の空中に指で円状または楕円状の図形を描く動作であり、
    前記画像取得手段は、前記円状または楕円状の図形によって画定される閉領域に対応する画像を前記映像から取得する、請求項1に記載の車載システム。
  4. 前記車窓が画像表示機能を有し、前記取得された画像を表示することが可能であり、
    前記表示された画像は搭乗者の操作により車窓上の任意の場所に動かして表示させることが可能であり、
    前記画像解析手段は、搭乗者による前記表示された画像に対する所定の操作に応じて画像の解析を開始する、請求項1に記載の車載システム。
  5. 前記画像解析手段は、前記取得された画像に含まれる文字情報を認識する文字情報認識手段を備える、請求項1に記載の車載システム。
  6. 前記環境情報が、車内環境データ、車外環境データ、搭乗者プロフィールデータ、行動履歴データ、前記行動履歴に基づき推測された搭乗者の現在の感情に関するデータ、または前記車載システムと連携するハードウェアおよびソフトウェアに関するデータを含む、請求項1に記載の車載システム。
  7. 前記出力内容に対する搭乗者の評価を入力可能な評価入力手段を更に備え、
    前記入力された評価を前記環境情報の一部として利用する、請求項1に記載の車載システム。
  8. 車窓越しの車外風景の映像を撮影する車外撮像工程と、
    搭乗者が前記車窓の付近で行う所定の動作を入力として認識するジェスチャー認識工程と、
    前記動作が行われた位置を前記車窓上の座標として算出し、前記映像から、前記座標に対応する領域の画像を切り出して取得する画像取得工程と、
    前記取得された画像を解析して画像中の物体を認識する画像解析工程と、
    前記装置に蓄積された環境情報を用いて、前記認識された物体から前記搭乗者の目的を推測する目的推測工程と、
    前記推測された目的に基づき、出力内容とそれを実行するハードウェアまたはソフトウェアを決定する出力決定工程と、
    前記出力内容の実行に必要な入力情報を前記ハードウェアまたはソフトウェアに入力する入力工程と、
    を含むことを特徴とする情報処理方法。
  9. 請求項8に記載の方法をコンピュータにより実行させることを特徴とするコンピュータプログラム。
JP2014180029A 2014-09-04 2014-09-04 車載システム、情報処理方法、およびコンピュータプログラム Pending JP2016053880A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014180029A JP2016053880A (ja) 2014-09-04 2014-09-04 車載システム、情報処理方法、およびコンピュータプログラム
PCT/JP2015/004252 WO2016035281A1 (ja) 2014-09-04 2015-08-25 車載システム、情報処理方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014180029A JP2016053880A (ja) 2014-09-04 2014-09-04 車載システム、情報処理方法、およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2016053880A true JP2016053880A (ja) 2016-04-14

Family

ID=55439369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014180029A Pending JP2016053880A (ja) 2014-09-04 2014-09-04 車載システム、情報処理方法、およびコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2016053880A (ja)
WO (1) WO2016035281A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200113154A (ko) * 2019-03-15 2020-10-06 엘지전자 주식회사 차량 제어 장치
JP2021085746A (ja) * 2019-11-27 2021-06-03 パイオニア株式会社 表示制御装置、表示制御方法及び表示制御用プログラム
JP2021163988A (ja) * 2020-03-30 2021-10-11 日産自動車株式会社 画像記録システム及び画像記録方法
JP2021179342A (ja) * 2020-05-12 2021-11-18 株式会社エイチアイ 情報処理方法、プログラム及び車載装置
JP2022071801A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712250A (zh) * 2019-01-24 2019-05-03 深圳前海达闼云端智能科技有限公司 一种基于交通工具的显示方法、装置和终端
DE102019210758B4 (de) * 2019-07-19 2021-05-12 Volkswagen Aktiengesellschaft Bereitstellung und Übertragung von Positionsdaten einer Umgebung eines Kraftfahrzeugs
CN110738704A (zh) * 2019-10-29 2020-01-31 福建省汽车工业集团云度新能源汽车股份有限公司 一种车载无透镜双目成像方法及其汽车

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP5145569B2 (ja) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 対象物特定方法および装置
US9646313B2 (en) * 2011-12-13 2017-05-09 Microsoft Technology Licensing, Llc Gesture-based tagging to view related content
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US9127950B2 (en) * 2012-05-03 2015-09-08 Honda Motor Co., Ltd. Landmark-based location belief tracking for voice-controlled navigation system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200113154A (ko) * 2019-03-15 2020-10-06 엘지전자 주식회사 차량 제어 장치
KR102272309B1 (ko) 2019-03-15 2021-07-05 엘지전자 주식회사 차량 제어 장치
US11314976B2 (en) 2019-03-15 2022-04-26 Lg Electronics Inc. Vehicle control device
JP2021085746A (ja) * 2019-11-27 2021-06-03 パイオニア株式会社 表示制御装置、表示制御方法及び表示制御用プログラム
JP2021163988A (ja) * 2020-03-30 2021-10-11 日産自動車株式会社 画像記録システム及び画像記録方法
JP7383549B2 (ja) 2020-03-30 2023-11-20 日産自動車株式会社 画像記録システム及び画像記録方法
JP2021179342A (ja) * 2020-05-12 2021-11-18 株式会社エイチアイ 情報処理方法、プログラム及び車載装置
JP2022071801A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び情報処理方法
JP7122408B2 (ja) 2020-10-28 2022-08-19 株式会社日本総合研究所 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
WO2016035281A1 (ja) 2016-03-10

Similar Documents

Publication Publication Date Title
WO2016035281A1 (ja) 車載システム、情報処理方法、およびコンピュータプログラム
US11275447B2 (en) System and method for gesture-based point of interest search
JP6456901B2 (ja) 自律走行車においてメディアコンテンツを提示するためのシステム及び方法
US20170284822A1 (en) Input/Output Functions Related to a Portable Device In An Automotive Environment
CN107315511B (zh) 服务显示方法、装置、设备和系统
JP6494589B2 (ja) リアルタイムで動的に決定された感知に基づいて自律走行車においてコンテンツを提供するシステムおよび方法
US9541405B2 (en) Mobile terminal and control method for the mobile terminal
KR102010298B1 (ko) 영상표시장치 및 영상표시장치의 동작방법
KR101866860B1 (ko) 전자기기 및 그것의 제어방법
EP3012589B1 (en) Mobile terminal and method of controlling the same
US9097554B2 (en) Method and apparatus for displaying image of mobile communication terminal
EP2826689A2 (en) Mobile terminal and control method thereof
US20240249520A1 (en) Integrated internal and external camera system in vehicles
US20100305844A1 (en) Mobile vehicle navigation method and apparatus thereof
US20160127529A1 (en) Mobile Communication Terminal, Control Method Thereof, Auxiliary Terminal And Vehicle
JP2019191914A (ja) 情報処理装置、プログラム、及び情報処理方法
WO2020019231A1 (en) Apparatus and method for use with vehicle
US20140181651A1 (en) User specific help
WO2014151054A2 (en) Systems and methods for vehicle user interface
CN108762713B (zh) 预约车辆的定位导航方法、装置以及计算机可读存储介质
WO2019117046A1 (ja) 車載装置、情報提示方法
JP2024129476A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR20140099129A (ko) 전자기기 및 그것의 제어방법