JP2020095350A - 支援装置、支援方法およびプログラム - Google Patents

支援装置、支援方法およびプログラム Download PDF

Info

Publication number
JP2020095350A
JP2020095350A JP2018231164A JP2018231164A JP2020095350A JP 2020095350 A JP2020095350 A JP 2020095350A JP 2018231164 A JP2018231164 A JP 2018231164A JP 2018231164 A JP2018231164 A JP 2018231164A JP 2020095350 A JP2020095350 A JP 2020095350A
Authority
JP
Japan
Prior art keywords
blind spot
wearable device
support device
user
situation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018231164A
Other languages
English (en)
Other versions
JP7147527B2 (ja
Inventor
伊藤 和浩
Kazuhiro Ito
和浩 伊藤
久門 仁
Hitoshi Kumon
仁 久門
俊太郎 篠原
Toshitaro Shinohara
俊太郎 篠原
義孝 不破本
Yoshitaka Fuwamoto
義孝 不破本
潮矢 影山
Shioya Kageyama
潮矢 影山
井上 慎太郎
Shintaro Inoue
慎太郎 井上
清文 中島
Kiyofumi Nakajima
清文 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018231164A priority Critical patent/JP7147527B2/ja
Priority to US16/700,031 priority patent/US11393196B2/en
Priority to CN201911254711.0A priority patent/CN111292555A/zh
Publication of JP2020095350A publication Critical patent/JP2020095350A/ja
Application granted granted Critical
Publication of JP7147527B2 publication Critical patent/JP7147527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Abstract

【課題】ユーザが周辺環境を直感的に把握することができる支援装置、支援方法およびプログラムを提供する。【解決手段】ウェアラブル装置2は、メモリと、ハードウェアを有する制御部18と、を備え、制御部18は、ユーザの視線に関する視線情報を取得し、この視線情報に基づいて、ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成して出力する。【選択図】図3

Description

本発明は、支援装置、支援方法およびプログラムに関する。
車両内のユーザの視点から視た車両周辺の画像を携帯電話に表示する技術が知られている(例えば特許文献1参照)。この技術では、ユーザが車内から携帯電話を向けると、向けた方向の車両が透けた画像が携帯電話のディスプレイ上に表示される。
特開2013−162328号公報
ところで、高速大容量通信の発展に伴って、ネットワークを介して大量の情報を取得できる装置が製造されるようになってきている。このような状況下では、装置が通信によって取得した情報をもとに、装置を装着したユーザの周辺環境に潜む危険をユーザに対して直感的に把握させることが可能になると期待される。
本発明は、上記に鑑みてなされたものであって、ユーザが周辺環境を直感的に把握することができる支援装置、支援方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る支援装置は、ウェアラブル装置と通信可能な支援装置であって、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、前記死角状況情報を前記ウェアラブル装置へ出力する。
また、前記プロセッサは、前記死角状況情報が前記ユーザの視線と一致する領域に表示されるように前記ウェアラブル装置へ前記死角状況情報を出力してもよい。
これによれば、プロセッサが死角領域とユーザの視線とが一致する領域に死角状況情報を出力するため、ユーザは、死角領域の状況を直感的に把握することができる。
また、前記プロセッサは、前記死角領域を撮像した画像データを取得し、前記画像データに基づいて、前記死角領域に物体が存在するか否かを判定し、前記物体が存在すると判定した場合、前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが死角領域に物体が存在している場合に死角状況情報を出力するため、ユーザは、死角領域に物体が存在することを把握することができる。
また、前記プロセッサは、時間的に連続する複数の前記画像データを順次取得し、前記死角領域に前記物体が存在すると判定した場合、複数の前記画像データに基づいて、前記物体が移動体であるか否かを判定し、前記物体が移動体であると判定した場合、前記移動体に応じた前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが死角領域の移動体に応じた死角状況情報を出力するため、ユーザは、死角領域から接近する移動体の状況を把握することができる。
また、前記プロセッサは、前記物体が移動体であると判定した場合、複数の前記画像データに基づいて、前記移動体の速度を算出し、前記移動体と当該支援装置との相対速度に応じた前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが死角領域の移動体と当該支援装置との相対速度に応じた死角状況情報を出力するため、ユーザは、死角領域から接近する移動体の状況をリアルタイムで把握することができる。
また、前記プロセッサは、前記画像データを用いて前記死角状況情報を生成し、前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが死角領域を撮像した画像データを用いて死角状況情報を生成して出力するため、ユーザは、死角領域における現在の状況を把握することができる。
また、前記プロセッサは、前記視線情報に基づいて、前記ユーザが前記遮蔽物を注視したときの注視領域を検出し、前記死角状況情報が前記注視領域に表示されるように前記ウェアラブル装置へ前記死角状況情報を出力してもよい。
これによれば、ユーザが注視した注視領域に死角状況情報が出力されるため、ユーザは、必要な箇所の死角領域の状況を把握することができる。
また、前記プロセッサは、前記ユーザが前記注視領域に対して注視した注視時間が所定時間以上であるか否かを判定し、前記注視時間が所定時間以上である場合、前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、ユーザの注視時間が所定時間以上である場合、プロセッサが死角状況情報を出力するため、ユーザは、所望の時だけ死角領域の状況を把握することができる。
また、前記プロセッサは、前記遮蔽物を撮像した画像データを取得し、前記遮蔽物を撮像した画像データと前記死角領域を撮像した画像データとを所定の比率で合成した合成画像データを生成し、前記合成画像データに対応する合成画像を前記死角状況情報として前記ウェアラブル装置へ出力してもよい。
これによれば、遮蔽物が半透過した合成画像が死角状況情報として出力されるため、ユーザは、死角領域の状況を違和感なく把握することができる。
また、前記プロセッサは、前記画像データに対応する画像を前記死角状況情報として前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが死角領域を撮像した画像データに対応する画像を死角状況情報として出力するため、ユーザは、死角領域の実際の状況を把握することができる。
また、前記プロセッサは、前記遮蔽物を撮像した画像データと前記死角領域を撮像した画像データとに基づいて、前記遮蔽物を仮想的に円柱状、円錐状および球状のいずれかにくり抜いた開口部を有する画像を生成し、前記画像を前記死角状況情報として前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが開口部を有する画像を死角状況情報として出力するため、ユーザは、死角領域の状況を違和感なく把握することができる。
また、前記プロセッサは、当該支援装置が搭載された車両の車速に関する車速情報を取得し、前記車速情報に基づいて、前記車両の車速が所定速度以下であるか否かを判定し、前記車両の車速が前記所定速度以下である場合、前記死角状況情報を前記ウェアラブル装置へ出力してもよい。
これによれば、プロセッサが低速時または停車時のみ死角状況情報を出力するので、むやみに作動して違和感を生じさせることを防止することができる。
また、本発明に係る支援装置は、ユーザが装着可能な支援装置であって、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、前記ユーザの視線に関する視線情報を取得し、前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、前記死角状況情報を出力する。
また、本発明に係る支援方法は、ウェアラブル装置と通信可能な支援装置が実行する支援方法であって、前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、メモリから読み出した前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、前記死角状況情報を前記ウェアラブル装置へ出力する。
また、本発明に係るプログラムは、ウェアラブル装置と通信可能な支援装置に実行させるプログラムであって、前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、前記死角状況情報を前記ウェアラブル装置へ出力する。
本発明によれば、ユーザの視野領域から視て遮蔽物で遮蔽された死角となる死角領域の状況を示す死角状況情報が出力されるため、ユーザが周辺環境を直感的に把握することができるという効果を奏する。
図1は、実施の形態1に係る支援システムの概略構成を示す模式図である。 図2は、実施の形態1に係るウェアラブル装置の概略構成を示す図である。 図3は、実施の形態1に係るウェアラブル装置の機能構成を示すブロック図である。 図4は、実施の形態1に係るウェアラブル装置が実行する処理の概要を示すフローチャートである。 図5は、遮蔽物の一例を模式的に示す図である。 図6は、実施の形態1に係る死角状況情報の一例を模式的に示す図である。 図7は、実施の形態2に係るウェアラブル装置が実行する処理の概要を示すフローチャートである。 図8は、実施の形態1に係る死角状況情報の一例を模式的に示す図である。 図9は、実施の形態3に係るウェアラブル装置が実行する処理の概要を示すフローチャートである。 図10は、実施の形態3に係る死角状況情報の一例を模式的に示す図である。 図11は、実施の形態3の変形例に係る制御部が投影部に出力する死角状況情報の一例を模式的に示す図である。 図12は、実施の形態4に係る支援システムの概略構成を示す図である。 図13は、実施の形態4に係る支援システムの機能構成を示すブロック図である。 図14は、実施の形態4に係る支援装置が実行する処理の概要を示すフローチャートである。 図15は、実施の形態4に係る死角状況情報の一例を模式的に示す図である。 図16は、実施の形態4に係る死角状況情報の別の一例を模式的に示す図である。 図17は、実施の形態4に係る死角状況情報の別の一例を模式的に示す図である。 図18は、実施の形態4に係る死角状況情報に対応する画像における形状の一例を示す図である。 図19は、実施の形態4に係る死角状況情報に対応する画像における別の形状の一例を示す図である。 図20は、実施の形態4に係る死角状況情報に対応する画像における別の形状の一例を示す図である。 図21は、実施の形態5に係る支援システムの概略構成を示す模式図である。 図22は、その他の実施の形態に係るウェアラブル装置の概略構成を示す図である。 図23は、その他の実施の形態に係るウェアラブル装置の概略構成を示す図である。 図24は、その他の実施の形態に係るウェアラブル装置の概略構成を示す図である。 図25は、その他の実施の形態に係るウェアラブル装置の概略構成を示す図である。 図26は、その他の実施の形態に係るウェアラブル装置の概略構成を示す図である。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものでない。また、以下において、同一の部分には同一の符号を付して説明する。
(実施の形態1)
〔支援システムの構成〕
図1は、実施の形態1に係る支援システムの概略構成を示す模式図である。図2は、実施の形態1に係るウェアラブル装置の概略構成を示す図である。図3は、実施の形態1に係るウェアラブル装置の機能構成を示すブロック図である。
図1〜図3に示す支援システム1000は、ユーザU1が装着可能なウェアラブル装置1と、サーバ2と、を備える。ウェアラブル装置1およびサーバ2は、基地局3およびネットワーク4を介して相互に情報通信可能に構成されている。また、ウェアラブル装置1は、複数のGPS衛星5からの信号を受信し、受信した信号に基づいてウェアラブル装置1自身の位置を算出する。また、サーバ2は、基地局3およびネットワーク4を介してGPS衛星5がウェアラブル装置1を装着したユーザU1を含む周辺の上空を撮像して生成した画像データを取得する。なお、実施の形態1では、ウェアラブル装置1が支援装置として機能する。
〔ウェアラブル装置の構成〕
まず、ウェアラブル装置1の構成について説明する。図1〜図3に示すように、ウェアラブル装置1は、撮像装置11と、9軸センサ12と、視線センサ13と、投影部14と、GPS(Global Positioning System)センサ15と、装着センサ16と、通信部17と、制御部18と、を備える。本例題では、9軸センサ12としているが3及び6軸で可能であれば少機能であっても良い。
撮像装置11は、制御部18の制御のもと、例えばユーザの視線の先を撮像することによって画像データを生成し、この画像データを制御部18へ出力する。撮像装置11は、1または複数のレンズで構成される光学系と、この光学系で集光された被写体像を受光することによって画像データを生成するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。撮像装置11は、図2に示すように、ウェアラブル装置1に複数設けられてもよい。
9軸センサ12は、3軸ジャイロセンサ、3軸加速度センサおよび3軸地磁気センサ(コンパス)を用いて構成される。9軸センサ12は、ウェアラブル装置1に生じる角速度および加速度を検出し、この検出結果を制御部18へ出力する。また、9軸センサ12は、地磁気を検出することによって絶対方向を検出し、この検出結果を制御部18へ出力する。
視線センサ13は、ウェアラブル装置1の装着者である運転者の視線の向きを検出し、この検出結果を制御部18へ出力する。視線センサ13は、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ13は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線の向きを検出する。
投影部14は、制御部18の制御のもと、画像、映像および文字情報をウェアラブル装置表示部(例えばレンズ部)や運転者の網膜に向けて投影する。投影部14は、RGBの各々のレーザ光を照射するRGBレーザビーム、レーザ光を反射するMEMSミラー、MEMSミラーから反射されたレーザ光を運転者の網膜へ投影する反射ミラー等を用いて構成される。
GPSセンサ15は、複数のGPS衛星からの信号を受信した信号に基づいてウェアラブル装置1の位置に関する位置情報を算出し、算出した位置情報を制御部18へ出力する。GPSセンサ15は、GPS受信センサ等を用いて構成される。
装着センサ16は、ユーザの装着状態を検出し、この検出結果を制御部18へ出力する。装着センサ16は、例えばユーザがウェアラブル装置1を装着した際の圧力を検出する圧力センサ、ユーザの体温、脈拍、脳波、血圧および発汗状態等のバイタル情報を検出するバイタルセンサ等を用いて構成される。
通信部17は、制御部18の制御のもと、ネットワーク4を介して所定の通信規格に従って各種情報をサーバ2へ送信するとともに、サーバ2から各種情報を受信する。通信部17は、無線通信可能な通信モジュールを用いて構成される。
制御部18は、ウェアラブル装置1を構成する各部の動作を制御する。制御部18は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。制御部18は、視線センサ13からウェアラブル装置1を装着したユーザU1の視線に関する視線情報を取得し、この視線情報に基づいて、ユーザU1の視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成して投影部14に出力する。なお、実施の形態1では、制御部18がプロセッサとして機能する。
〔サーバの構成〕
次に、サーバ2の構成について説明する。サーバ2は、通信部201と、制御部202と、を備える。
通信部201は、制御部202の制御のもと、ネットワーク4および基地局3を介して所定の通信規格に従って各種情報を送信するとともに、各種情報を受信する。また、通信部201は、制御部202の制御のもと、所定の通信規格に従ってウェアラブル装置1に対して各種情報を送信するとともに、GPS衛星5およびウェアラブル装置1から各種情報を受信する。通信部201は、無線通信可能な通信モジュールを用いて構成される。
制御部202は、メモリと、CPU等のいずれかのハードウェアを有するプロセッサを用いて構成される。制御部202は、サーバ2を構成する各部を制御する。
〔ウェアラブル装置の処理〕
次に、ウェアラブル装置1が実行する処理について説明する。図4は、ウェアラブル装置1が実行する処理の概要を示すフローチャートである。
図4に示すように、まず、制御部18は、装着センサ16から入力される検出結果に基づいて、ユーザU1がウェアラブル装置1を装着しているか否かを判定する(ステップS101)。制御部18によってユーザU1がウェアラブル装置1を装着していると判定された場合(ステップS101:Yes)、ウェアラブル装置1は、後述するステップS102へ移行する。
続いて、制御部18は、GPSセンサ15が検出したウェアラブル装置1の位置情報を取得し(ステップS102)、通信部17を介してウェアラブル装置1の位置情報をサーバ2へ送信する(ステップS103)。
その後、制御部18は、撮像装置11が生成した画像データおよび視線センサ13からユーザU1の視線に関する視線情報を取得する(ステップS104)。
続いて、制御部18は、撮像装置11が生成した画像データと視線センサ13から取得した視線情報とに基づいて、ユーザU1が視野領域内の遮蔽物に対して、視線を注視している注視時間が所定時間以上注視しているか否かを判定する(ステップS105)。具体的には、図5に示すように、制御部18は、撮像装置11が生成した画像データと視線センサ13から取得した視線情報とに基づいて、ユーザU1が注視する遮蔽物Q1の注視領域を検出する。そして、制御部18は、遮蔽物Q1の注視領域に対して、ユーザU1が注視する注視時間が所定時間以上、例えば1秒〜2秒以上であるか否かを判定する。ここで、遮蔽物Q1とは、ユーザU1が視認できない死角領域を遮蔽する壁や部材等である。さらに、死角領域とは、遮蔽物Q1によって遮蔽されることによってユーザU1が視認できない領域や空間である。また、所定時間は、ユーザU1の操作やユーザU1が歩く速度に応じて適宜変更することができる。制御部18によってユーザU1が遮蔽物に対して視線を注視する注視時間が所定時間経過していると判定された場合(ステップS105:Yes)、ウェアラブル装置1は、後述するステップS106へ移行する。これに対して、制御部18によってユーザU1が遮蔽物に対して視線を注視する注視時間が所定時間経過していないと判定された場合(ステップS105:No)、ウェアラブル装置1は、後述するステップS108へ移行する。
ステップS106において、制御部18は、通信部17を介してサーバ2からユーザU1の視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を取得する。具体的には、制御部18は、9軸センサ12が検出した検出結果で定まるユーザU1の視野方向の画像データであって、GPSセンサ15が検出した現在のウェアラブル装置1の位置を上空から撮影した現在の画像データをサーバ2から取得する。ここで、現在の画像データとは、例えばGPS衛星5によって取得された画像データである。
続いて、制御部18は、死角状況情報がユーザU1の視線と一致する領域に表示されるように投影部14へ出力する(ステップS107)。具体的には、図6に示すように、制御部18は、遮蔽物Q1における注視領域に死角状況情報A1が表示されるようにサーバ2から取得した画像データに対応する画像を投影部14に出力する。これにより、ユーザU1は、死角状況情報A1が現在の状況の画像のため、遮蔽物Q1から先の死角領域の状況を直感的に把握することができる。
続いて、制御部18は、ユーザU1がウェアラブル装置1を脱着することによって、ウェアラブル装置1による安全支援を終了するか否かを判定する(ステップS108)。制御部18によってウェアラブル装置1による安全支援を終了すると判定された場合(ステップS108:Yes)、ウェアラブル装置1は、本処理を終了する。これに対して、制御部18によってウェアラブル装置1による安全支援を終了しないと判定された場合(ステップS108:No)、ウェアラブル装置1は、上述したステップS101へ戻る。
以上説明した実施の形態1によれば、制御部18が遮蔽物Q1に死角状況情報A1が表示されるように投影部14にサーバ2から取得した画像データを出力するため、ユーザU1は、遮蔽物Q1から先の死角領域の状況を直感的に把握することができる。
また、実施の形態1によれば、制御部18によって死角状況情報がユーザU1の視線と一致する領域に表示されるように投影部14へ出力するため、ユーザU1は、死角状況情報A1が現在の状況の画像のため、遮蔽物Q1から先の死角領域の状況を直感的に把握することができる。
また、実施の形態1によれば、ユーザU1が遮蔽物Q1を注視する注視時間が所定時間以上である場合、制御部18が死角状況情報を出力するため、ユーザは、所望の時だけ死角領域の状況を把握することができる。
(実施の形態2)
次に、実施の形態2について説明する。実施の形態2に係る支援システムは、上述した実施の形態1に係る支援システム1000と同一の構成を有し、ウェアラブル装置が実行する処理が異なる。以下においては、ウェアラブル装置が実行する処理について説明する。なお、上述した実施の形態1に係る支援システム1000と同一の部分には同一の符号を付して詳細な説明は省略する。
〔ウェアラブル装置の処理〕
図7は、実施の形態2に係るウェアラブル装置1が実行する処理の概要を示すフローチャートである。図7において、ステップS201〜ステップS206は、上述した図4のステップS101〜ステップS106それぞれに対応する。
ステップS207において、制御部18は、サーバ2から取得した画像データに対して、周知のパターンマッチング等を行うことによって死角領域に物体が存在するか否かを判定する。例えば、制御部18は、サーバ2から取得した画像データに対応する画像内にパターンマッチング等を行うことによって、人、車、自転車、動物等の物体が存在するか否かを判定する。制御部18によって死角領域に物体が存在すると判定された場合(ステップS207:Yes)、ウェアラブル装置1は、後述するステップS208へ移行する。これに対して、制御部18によって死角領域に物体が存在しないと判定された場合(ステップS207:No)、ウェアラブル装置1は、後述するステップS209へ移行する。
ステップS208において、制御部18は、遮蔽物Q1における注視領域に死角状況情報が表示されるように投影部14へ死角状況情報を出力する。具体的には、図8に示すように、制御部18は、遮蔽物Q1における注視領域に死角状況情報A2,A21が表示されるように投影部14に死角状況情報A2を出力する。これにより、ユーザU1は、死角状況情報A2,A21を直感的に把握することができるので、遮蔽物Q1から先の死角領域に物体が存在することを把握することができる。なお、図8では、死角状況情報A2,A21として矢印やマークのアイコンを出力しているが、矢印やマーク以外にも、例えば物体に応じた図形、記号、カラーおよびメッセージ等、例えば人の場合であれば、人の形状をなすアイコンやメッセージ等であってもよい。もちろん、制御部18は、死角状況情報A2とあわせて、図示しないスピーカ等によって音声を出力させてもよい。
続いて、制御部18は、ユーザU1がウェアラブル装置1を脱着することによって、ウェアラブル装置1による安全支援を終了するか否かを判定する(ステップS209)。制御部18によってウェアラブル装置1による安全支援を終了すると判定された場合(ステップS209:Yes)、ウェアラブル装置1は、本処理を終了する。これに対して、制御部18によってウェアラブル装置1による安全支援を終了しないと判定された場合(ステップS209:No)、ウェアラブル装置1は、上述したステップS201へ戻る。
以上説明した実施の形態2によれば、制御部18が遮蔽物Q1における注視領域に死角状況情報A2が表示されるように投影部14へ死角状況情報A2を出力するため、ユーザU1は、死角状況情報A2を直感的に把握することができるので、遮蔽物Q1から先の死角領域に物体が存在することを把握することができる。
(実施の形態3)
次に、実施の形態3について説明する。実施の形態3に係る支援システムは、上述した実施の形態1に係る支援システム1000と同一の構成を有し、ウェアラブル装置が実行する処理が異なる。以下においては、ウェアラブル装置が実行する処理について説明する。なお、上述した実施の形態1に係る支援システム1000と同一の部分には同一の符号を付して詳細な説明は省略する。
〔ウェアラブル装置の処理〕
図9は、実施の形態3に係るウェアラブル装置1が実行する処理の概要を示すフローチャートである。図9において、ステップS301〜ステップS306は、上述した図4のステップS101〜ステップS106それぞれに対応する。
ステップS307において、制御部18は、サーバ2から取得した画像データに対して、周知のパターンマッチング等を行うことによって死角領域に物体が存在するか否かを判定する。制御部18によって死角領域に物体が存在すると判定された場合(ステップS307:Yes)、ウェアラブル装置1は、後述するステップS308へ移行する。これに対して、制御部18によって死角領域に物体が存在しないと判定された場合(ステップS307:No)、ウェアラブル装置1は、後述するステップS312へ移行する。
ステップS308において、制御部18が死角領域に存在する物体が移動体であるか否かを判定する。具体的には、制御部18は、少なくともサーバ2から取得した時間的に前後する2つの画像データを用いて物体の移動量、例えば物体の移動ベクトルを算出し、この算出した移動量が所定値以上であるか否かを判定する。ここで、移動体とは、子供、動物、歩行者、自転車、バイクおよび車両等であり、一定の速度で移動しているものである。制御部18によって死角領域に存在する物体が移動体であると判定された場合(ステップS308:Yes)、ウェアラブル装置1は、後述するステップS309へ移行する。これに対して、制御部18によって死角領域に存在する物体が移動体でないと判定された場合(ステップS308:No)、ウェアラブル装置1は、後述するステップS310へ移行する。
ステップS309において、制御部18は、撮像装置11が生成した画像データとサーバ2から取得した画像データに基づいて、移動体に応じた死角状況情報を投影部14に出力する。具体的には、図10に示すように、制御部18は、撮像装置11が生成した画像データとサーバ2から取得した死角領域の画像データとを所定の比率(例えば5:5)で合成した合成画像データに対応する合成画像を、遮蔽物Q1における注視領域に表示されるように投影部14に出力する。これにより、遮蔽物Q1から先の死角領域が仮想的に半透過した状態で表示されるため、ユーザU1は、死角領域の現状を違和感なく把握することができる。また、制御部18は、サーバ2から取得した死角領域の画像データに対して、周知のパターンマッチング等を行うことによって子供等の移動体H1を検出した場合において、移動体H1を中心とするマークM1,M2が表示されるように投影部14に出力する。このとき、制御部18は、少なくともサーバ2から取得した時間的に前後する2つの画像データを用いて移動体H1の速度およびウェアラブル装置1を装着したユーザU1の歩行速度およびの各々を算出し、この移動体H1とウェアラブル装置1との相対速度および移動体H1およびウェアラブル装置1を装着したユーザU1の進行方向に基づいて、緊急度を算出する。そして、制御部18は、緊急度に応じて、マークM1,M2の各々の表示態様を変更、例えば緊急度に応じて赤色や黄色で表示されるように投影部14に出力する。これにより、ユーザU1は、死角状況情報A3を直感的に把握することができるので、遮蔽物Q1に隠れる移動体H1の状況を把握することができる。さらに、ユーザU1は、マークM1,M2の状態に基づいて、移動体H1の速度を把握することができるので、移動体H1と出会うまでの時間を予測することができる。なお、図10では、制御部18は、合成比率を5:5で合成していたが、これに限定されることなく、適宜変更することができる。また、制御部18は、死角状況情報A3における移動体H1を正確に表現する必要がなく、画像生成を行う処理速度に応じて簡易的な図形等、例えばアイコンやアバターによって表現するようにしてもよい。ステップS309の後、ウェアラブル装置1は、後述するステップS312へ移行する。
ステップS310において、制御部18は、サーバ2から取得した画像データに基づいて、静物に応じた死角状況情報を投影部14に出力する。具体的には、制御部18は、遮蔽物Q1に相当する領域に死角状況情報A2(上述した図8を参照)が表示されるように投影部14に死角状況情報A2を出力する。これにより、ユーザU1は、死角状況情報A1を直感的に把握することができるので、遮蔽物Q1から先の死角領域に物体が存在することを把握することができる。ステップS310の後、ウェアラブル装置1は、後述するステップS312へ移行する。
続いて、制御部18は、ユーザU1がウェアラブル装置1を脱着することによって、ウェアラブル装置1による安全支援を終了するか否かを判定する(ステップS312)。制御部18によってウェアラブル装置1による安全支援を終了すると判定された場合(ステップS312:Yes)、ウェアラブル装置1は、本処理を終了する。これに対して、制御部18によってウェアラブル装置1による安全支援を終了しないと判定された場合(ステップS312:No)、ウェアラブル装置1は、上述したステップS301へ戻る。
以上説明した実施の形態3によれば、遮蔽物Q1から先の死角領域が仮想的に半透過した状態で表示されるため、ユーザU1は、死角状況情報A3を直感的に把握することができるので、遮蔽物Q1に隠れる移動体H1の状況を違和感なく把握することができる。
また、実施の形態3によれば、制御部18が移動体H1とウェアラブル装置1との相対速度に応じてマークM1,M2の各々の表示態様を変更して表示されるように投影部14に出力するため、ユーザU1は、死角状況情報A3を直感的に把握することができるので、遮蔽物Q1に隠れる移動体H1の状況を把握することができる。
また、実施の形態3によれば、制御部18が画像データを用いて死角状況情報を生成してウェアラブル装置1へ出力するので、ユーザは、死角領域における現在の状況を把握することができる。
(実施の形態3の変形例)
次に、実施の形態3の変形例について説明する。図11は、実施の形態3の変形例に係る制御部18が投影部14に出力する死角状況情報の一例を模式的に示す図である。
図11に示すように、制御部18は、サーバ2から取得した死角領域の画像データと視線センサ13が検出した視線情報とに基づいて、遮蔽物Q1における注視領域を含む所定の領域を仮想的にくり抜いた開口部を有する画像データを生成し、この画像データに対応する画像を死角状況情報A4として投影部14に出力する。これにより、遮蔽物Q1におけるユーザU1が注視した注視領域を含む領域がくり抜かれた状態で、遮蔽物Q1から先の死角領域が表示されるため、ユーザU1は、死角領域の現状を違和感なく把握することができる。さらに、制御部18は、移動体H2とウェアラブル装置1を装着したユーザU1との相対速度および移動体H2とウェアラブル装置1を装着したユーザU1の各々の進行方向に基づいて、緊急度を算出し、緊急度に応じて開口部を任意の色、例えば緊急度に応じて緑色、黄色および赤色で縁取りしてもよい。
以上説明した実施の形態3の変形例によれば、遮蔽物Q1におけるユーザU1が注視した注視領域がくり抜かれた状態で、遮蔽物Q1から先の死角領域が表示されるため、ユーザU1は、死角領域の現状を違和感なく把握することができる。
(実施の形態4)
次に、実施の形態4について説明する。上述した実施の形態1〜3では、ウェアラブル装置1がネットワーク4を介してサーバ2から画像データを取得していたが、実施の形態4に係る支援システムでは、車両内に設けられたECU(Electronic Control Unit)とウェアラブル装置とが連携しながらECUがウェアラブル装置へ死角状況情報を出力することによってウェアラブル装置が死角状況情報を投影して表示する。なお、上述した実施の形態1に係る支援システム1000と同一の構成には同一の符号を付して詳細な説明は省略する。
〔支援システムの構成〕
図12は、実施の形態4に係る支援システムの概略構成を示す図である。図13は、実施の形態4に係る支援システムの機能構成を示すブロック図である。
図12および図13に示す支援システム1001は、ウェアラブル装置1と、ウェアラブル装置1と所定の通信規格に従って双方向に通信を行う支援装置6と、を備える。
〔支援装置の構成〕
支援装置6の構成について説明する。図12および図13に示す支援装置6は、車両600に搭載され、この車両600に搭載された他のECUと連携しながら車両600内の運転者に対して運転時や駐車時の安全を支援する。支援装置6は、イグニッションスイッチ60(以下、「IGスイッチ60」という)と、車速センサ61と、視線センサ62と、撮像装置63と、通信部64と、カーナビゲーションシステム65と、ECU66と、を備える。
IGスイッチ60は、エンジンやモータ等の電気系統の始動および停止を受け付ける。IGスイッチ60は、オン状態となった場合、IG電源を始動させ、オフ状態となった場合、IG電源を停止させる。
車速センサ61は、車両600の走行時における車速を検出し、この検出結果を66へ出力する。
視線センサ62は、運転者の視線を検出し、この検出結果をECU66へ出力する。視線センサ62は、光学系と、CCDまたはCMOSと、メモリと、CPUやGPU等のハードウェアを有するプロセッサを用いて構成される。視線センサ62は、例えば周知のテンプレートマッチングを用いて運転者の目の動かない部分を基準点(例えば目頭)として検出し、かつ、目の動く部分(例えば虹彩)を動点として検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。なお、実施の形態3では、視線センサ62を可視カメラによって運転者の視線を検出しているが、これに限定されることなく、赤外カメラによって運転者の視線を検出してもよい。視線センサ62を赤外カメラによって構成する場合、赤外LED(Light Emitting Diode)等によって赤外光を運転者に照射し、赤外カメラで運転者を撮像することによって生成された画像データから基準点(例えば角膜反射)および動点(例えば瞳孔)を検出し、この基準点と動点との位置関係に基づいて運転者の視線を検出する。
撮像装置63は、図12に示すように、車両600の外部に複数、例えば撮像画角が360°となるように少なくとも前側方、後方および両側方の3箇所以上に設けられる。撮像装置63は、ECU66の制御のもと、車両600の周辺を撮像することによって画像データを生成し、この画像データをECU66へ出力する。撮像装置63は、1または複数のレンズで構成された光学系と、この光学系が集光した被写体像を受光することによって画像データを生成するCCDやCMOS等を用いて構成される。
通信部64は、ECU66の制御のもと、ウェアラブル装置1、他の車両またはユーザ端末装置等に対して所定の通信規格に従って各種情報を送信するとともに、各種情報をウェアラブル装置1、他の車両またはユーザ端末装置等から受信する。また、通信部64は、ECU66の制御のもと、ネットワークを介して所定の通信規格に従って各種情報を図示しないサーバへ送信するとともに、サーバから各種情報を受信する。通信部64は、無線通信可能な通信モジュールを用いて構成される。
カーナビゲーションシステム65は、GPSセンサ651と、地図データベース652と、報知装置653と、を有する。
GPSセンサ651は、複数のGPS衛星や送信アンテナからの信号を受信し、受信した信号に基づいて車両600の位置を算出する。GPSセンサ651は、GPS受信センサ等を用いて構成される。なお、GPSセンサ651を複数個搭載し車両600の向き精度向上を図ってもよい。
地図データベース652は、各種の地図データを記憶する。地図データベース652は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記録媒体を用いて構成されてもよい。
報知装置653は、画像、映像および文字情報を表示する表示部653aと、音声や警報音等の音を発生する音声出力部653bや骨伝導による音声を伝導する伝導部等を有してもよい。表示部653aは、液晶や有機EL等の表示ディスプレイを用いて構成される。音声出力部653bは、スピーカ等を用いて構成される。
このように構成されたカーナビゲーションシステム65は、GPSセンサ651によって取得した現在の車両600の位置を、地図データベース652が記憶する地図データに重ねることによって、車両600が現在走行している道路および目的地までの経路等を含む情報を、表示部653aと音声出力部653bとによって運転者に対して報知する。
ECU66は、支援装置6を構成する各部の動作を制御する。ECU66は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。ECU66は、ウェアラブル装置1を装着したユーザU1の視線に関する視線情報を取得し、この視線情報に基づいて、ユーザU1の視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成して投影部14に出力する。なお、実施の形態3では、ECU66がプロセッサとして機能する。
〔支援装置の処理〕
次に、支援装置6が実行する処理について説明する。図14は、支援装置6が実行する処理の概要を示すフローチャートである。
図14に示すように、ECU66は、ユーザU1が車両600に乗車したか否かを判定する(ステップS401)。例えば、ECU66は、通信部64を介してウェアラブル装置1のGPSセンサ15が検出した位置情報とカーナビゲーションシステム65のGPSセンサ651が検出した位置情報とに基づいて、車両600とウェアラブル装置1との距離を算出し、この算出した距離が所定未満であるか否かを判定し、所定未満である場合、ユーザU1が車両600に乗車したと判定する。ECU66によって運転者が車両600に乗車したと判定された場合(ステップS401:Yes)、支援装置6は、後述するステップS402へ移行する。これに対して、ECU66によってユーザU1が車両600に乗車していないと判定された場合(ステップS401:No)、支援装置6は、本処理を終了する。
ステップS402において、ECU66は、ユーザU1がウェアラブル装置1を装着しているか否かを判定する。具体的には、ECU66は、通信部64を介してウェアラブル装置1の装着センサ16から検出結果を示す装着信号を受信し、受信した装着信号に基づいて、ユーザU1がウェアラブル装置1を装着しているか否かを判定する。ECU66によってユーザU1がウェアラブル装置1を装着していると判定された場合(ステップS402:Yes)、支援装置6は、後述するステップS403へ移行する。これに対して、ECU66によってユーザU1がウェアラブル装置1を装着していないと判定された場合(ステップS402:No)、支援装置6は、後述するステップS407へ移行する。
ステップS403において、ECU66は、車速センサ61から車両600の車速に関する車速情報、視線センサ62から車両600に乗車したユーザU1の視線に視線情報および撮像装置63から画像データを取得する。
続いて、ECU66は、車速センサ61から取得した車速情報に基づいて、車両600の車速が所定速度以下であるか否かを判定する(ステップ404)。例えば、ECU66は、車両600の車速が10km/hであるか否かを判定する。なお、所定速度は、適宜設定することができる。ECU66によって車両600の車速が所定速度以下であると判定された場合(ステップS404:Yes)、支援装置6は、後述するステップS405へ移行する。これに対して、ECU66によって車両600の車速が所定速度以下でないと判定された場合(ステップS404:No)、支援装置6は、後述するステップS410へ移行する。
ステップS405において、ECU66は、視線センサ62からユーザU1の視線に関する視線情報を取得する。
続いて、ECU66は、撮像装置63から取得した画像データに対応する画像に対して、周知のパターンマッチング等を行うことによって車両600の死角領域に物体が存在するか否かを判定する(ステップS406)。ECU66によって車両600の死角領域に物体が存在すると判定された場合(ステップS406:Yes)、支援装置6は、後述するステップS407へ移行する。これに対して、ECU66によって車両600の死角領域に物体が存在しないと判定された場合(ステップS406:No)、支援装置6は、後述するステップS411へ移行する。
ステップS407において、ECU66は、死角領域に存在する物体が移動体であるか否かを判定する。ECU66によって死角領域に存在する物体が移動体であると判定された場合(ステップS407:Yes)、支援装置6は、後述するステップS408へ移行する。これに対して、ECU66によって死角領域に存在する物体が移動体でないと判定された場合(ステップS407:No)、支援装置6は、後述するステップS409へ移行する。
ステップS408において、ECU66は、撮像装置63から取得した死角領域の画像データに基づいて、移動体に応じた死角状況情報を生成して出力する。具体的には、図15に示すように、ECU66は、死角領域において移動体H10が存在する領域、例えばインストメントパネルやフロントピラー等の遮蔽物Q10,Q11における部分を含む所定の領域を仮想的にくり抜いた開口部を有する画像データを生成する。そして、ECU66は、画像データに対応する死角状況情報A10をウェアラブル装置1に出力する。これにより、遮蔽物Q10から先の死角状況情報A10が表示されるため、ユーザU1は、死角領域の状態を直感的に違和感なく把握することができる。この場合において、ECU66は、少なくとも撮像装置63から取得した時間的に前後する2つの画像データを用いて移動体の速度を算出するとともに、車速センサ61から取得した車両600の速度とを取得し、移動体と車両600(自車)との相対速度および移動体と車両600の各々の進行方向を算出し、この移動体および車両600との相対速度および移動体と車両600(自車)との相対速度および移動体と車両600の各々の進行方向に基づいて、緊急度を算出する。そして、ECU66は、緊急度に基づいて、上述した図10のような緊急度に応じたマークM1,M2の各々が表示されるようにウェアラブル装置1に出力してもよい。ステップS408の後、支援装置6は、後述するステップS410へ移行する。
ステップS409において、ECU66は、撮像装置63から取得した死角領域の画像データに基づいて、静物に応じた死角状況情報を生成して出力する。具体的には、ECU66は、撮像装置63から取得した死角領域の画像データに基づいて、静物に応じた死角状況情報(例えば図8等のアイコン)を生成する。そして、ECU66は、遮蔽物Q10の物体が存在する領域に死角状況情報が表示されるようにウェアラブル装置1へ死角状況情報を出力する。ステップS409の後、支援装置6は、後述するステップS410へ移行する。
ステップS410において、ECU66によってIGスイッチ60をオフ状態にすることにより車両600の運転を終了すると判定された場合(ステップS410:Yes)、支援装置6は、本処理を終了する。これに対して、ECU66によってIGスイッチ60をオフ状態にせずに車両600の運転を終了しないと判定された場合(ステップS410:No)、支援装置6は、上述したステップS402へ戻る。
ステップS411において、ECU66は、視線センサ62からユーザU1の視線に関する視線情報に基づいて、車両600における所定の領域、例えばフロントピラーに対するユーザU1の注視する注視時間が所定時間(例えば2秒)経過したか否かを判定する(ステップS411)。ECU66によって車両600における所定の領域に対するユーザU1の注視する注視時間が所定時間経過したと判定された場合(ステップS411:Yes)、支援装置6は、後述するステップS412へ移行する。これに対して、ECU66によって車両600における所定の領域に対するユーザU1の注視する注視時間が所定時間経過していないと判定された場合(ステップS411:No)、支援装置6は、後述するステップS413へ移行する。
ステップS412において、ECU66は、通信部64を介して撮像装置63から取得した画像データを死角状況情報としてウェアラブル装置1へ出力することによって、ウェアラブル装置1に車両600の遮蔽物から先の死角領域における死角状況情報を投影させて表示させる。具体的には、上述した図15と同様に、ECU66は、遮蔽物Q10,Q11における注視領域を仮想的にくり抜いた開口部を有する画像データを生成する。そして、ECU66は、ユーザU1が注視する注視領域に死角状況情報A10が表示されるように画像データに対応する死角状況情報A10をウェアラブル装置1に出力する。これにより、遮蔽物Q10から先の死角状況情報A10が表示されるため、ユーザU1は、死角領域の状態を直感的に違和感なく把握することができる。ステップS412の後、支援装置6は、ステップS410へ移行する。
ステップS413において、ECU66は、視線センサ62からユーザU1の視線に関する視線情報に基づいて、ユーザの視線の先が移動しているか否かを判定する。ECU66によってユーザの視線の先が移動していると判定された場合(ステップS413:Yes)、支援装置6は、後述するステップS414へ移行する。これに対して、ECU66によってユーザの視線の先が移動していないと判定された場合(ステップS413:No)、支援装置6は、ステップS410へ移行する。
ステップS414において、ECU66は、ウェアラブル装置1が死角状況情報を出力中であるか否かを判定する。ECU66によってウェアラブル装置1が死角状況情報を出力中であると判定された場合(ステップS414:Yes)、支援装置6は、後述するステップS415へ移行する。これに対して、ECU66によってウェアラブル装置1が死角状況情報を出力中でないと判定された場合(ステップS414:No)、支援装置6は、ステップS410へ移行する。
ステップS415において、ECU66は、ウェアラブル装置1に死角状況情報を一定時間出力させる。具体的には、図16に示すように、ECU66は、ウェアラブル装置1が死角状況情報A10,A11,A12を出力している場合において、ユーザU1の視線の先が移動したときであっても、ウェアラブル装置1に一定時間、例えば5秒間、死角状況情報A10,A11,A12が投影されて表示されるように画像データの出力を維持する。これにより、ユーザU1は、視線を移動させた場合であっても、移動体や物体の見逃しを確実に防止することができる。ステップS415の後、支援装置6は、ステップS410へ移行する。
以上説明した実施の形態4によれば、ECU66が遮蔽物Q10における注視領域を仮想的にくり抜いた開口部を有する画像データに対応する死角状況情報A10をウェアラブル装置1に出力することによって、ユーザU1が注視した注視領域がくり抜かれた状態で、遮蔽物Q10または遮蔽物Q11から先の死角状況情報A10が表示されるため、ユーザU1は、死角領域の状態を直感的に違和感なく把握することができる。
また、実施の形態4によれば、ECU66が車両600の車速が所定速度以下である場合、死角状況情報A10をウェアラブル装置1に出力するので、むやみに作動して違和感を生じさせることを防止することができる。
なお、実施の形態4では、ECU66が死角状況情報として遮蔽物を仮想的にくり抜いた開口部を有する画像データをウェアラブル装置1へ出力していたが、例えば遮蔽物をシースルー化してもよい。具体的には、図17に示すように、ECU66は、ウェアラブル装置1の撮像装置11および撮像装置63から画像データの各々を取得した後、この2つの画像データを用いて車両600内におけるインストメントパネルやフロントピラー等の遮蔽物を仮想的にシースルー化した画像データをウェアラブル装置1へ出力する。そして、ウェアラブル装置1は、支援装置6から受信した車両600内におけるインパネやピラー等の遮蔽物を仮想的にシースルー化した画像データに対応する画像を投影部14に投影させて表示させる。これにより、ユーザU1は、車両600の遮蔽物がシースルー化されるので、物体の位置を直感的に把握することができる。
まあ、実施の形態4では、ECU66が遮蔽物を仮想的にくり抜いた開口部を有する画像データをウェアラブル装置1へ出力していたが、くり抜く形状は、適宜変更することができる。例えば、図18に示すように、ECU66は、ウェアラブル装置1から所定の距離L1の位置にある遮蔽物Q100を仮想的に円柱状にくり抜いた開口部O1を有する画像データを生成し、この画像データをウェアラブル装置1へ出力してもよい。また、図19に示すように、ECU66は、ウェアラブル装置1から所定の距離L1の位置にある遮蔽物Q100を仮想的に円錐状O2にくり抜いた画像データを生成し、この画像データをウェアラブル装置1に出力してもよい。さらに、図20に示すように、ECU66は、ウェアラブル装置1から所定の距離L1の位置にある遮蔽物Q3を仮想的に球状O3にくり抜いた画像データを生成し、この画像データをウェアラブル装置1へ出力してもよい。
また、実施の形態4では、ECU66がウェアラブル装置1に所定の大きさで画像を投影させて表示させていたが、例えば図21に示すように、親指と人差し指との距離を距離D1から距離D2に移動させるピンチ操作に応じてウェアラブル装置1が投影して表示する画像の大きさを変更させてもよい。
(実施の形態5)
次に、実施の形態5について説明する。上述した実施の形態4では、支援装置のECU66がウェアラブル装置1へ死角状況情報を送信していたが、実施の形態3では、サーバがウェアラブル装置に死角状況情報を送信する。なお、上述した実施の形態4に係る支援システム1001と同一の構成には同一の符号を付して詳細な説明は省略する。
図22は、実施の形態5に係る支援システムの概略構成を示す模式図である。図22に示す支援システム1002は、ユーザU1が装着したウェアラブル装置1と、サーバ2Aと、複数の車両600の各々に搭載された支援装置6と、を備える。ウェアラブル装置1、サーバ2および複数の支援装置6は、基地局3およびネットワーク4を介して相互に情報通信可能に構成されている。
〔サーバの構成〕
次に、サーバ2Aの構成について説明する。サーバ2Aは、通信部201と、制御部202Aと、を備える。
制御部202Aは、メモリと、CPU、GPU、FPGA、DSPおよびASIC等のいずれかのハードウェアを有するプロセッサを用いて構成される。制御部202Aは、通信部201を介してウェアラブル装置1を装着したユーザの視線に関する視線情報を取得し、この視線情報に基づいて、ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成してウェアラブル装置1へ出力する。制御部202Aは、上述した実施の形態1〜3に係る制御部18または上述した実施の形態4に係るECU66と同様の機能を有する。なお、実施の形態5では、制御部202Aがプロセッサとして機能する。
以上説明した実施の形態5によれば、制御部202Aが遮蔽物における注視領域に死角状況情報が表示されるようにウェアラブル装置1へ死角状況情報を出力するため、ユーザU1は、死角状況情報を直感的に把握することができるので、遮蔽物から先の死角領域に物体が存在することを把握することができる。
(その他の実施の形態)
実施の形態1〜5では、運転者が装着可能な眼鏡型のウェアラブル装置1を用いた例を説明していたが、これに限定されることなく、種々のウェアラブル装置に適用することができる。例えば図23に示すように撮像機能を有するコンタクトレンズ型のウェアラブル装置1Aであっても適用することができる。さらに、図24のウェアラブル装置1Bまたは図25の脳内チップ型のウェアラブル装置1CのようにユーザU1の脳へ直接的に伝達する装置であっても適用することができる。さらにまた、図26のウェアラブル装置1Dのようにバイザーを備えたヘルメット形状に構成されてもよい。この場合は、ウェアラブル装置1Dは、バイザーに画像を投影して表示するものであってもよい。
また、実施の形態1〜5では、ウェアラブル装置1が運転者の網膜に投影することによって画像を視認させていたが、例えば眼鏡等のレンズに画像を投影して表示するものであってもよい。
また、実施の形態1〜5では、上述してきた「部」を、「回路」などに読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。
また、実施の形態1〜5に係る支援装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1〜5に係る支援装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施の形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施の形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
1,1A,1B,1C,1D ウェアラブル装置
2,2A サーバ
3 基地局
4 ネットワーク
5 GPS衛星
6 支援装置
11,63 撮像装置
12 9軸センサ
13 視線センサ
14 投影部
15 GPSセンサ
16 装着センサ
17,64 通信部
18 制御部
60 IGスイッチ
61 車速センサ
62 視線センサ
65 カーナビゲーションシステム
66 ECU
201 通信部
202,202A 制御部
600 車両
1000,1001,1002 支援システム
A1〜A4,A10,A11,A12 死角状況情報

Claims (15)

  1. ウェアラブル装置と通信可能な支援装置であって、
    メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、
    前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、
    前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  2. 請求項1に記載の支援装置であって、
    前記プロセッサは、
    前記死角状況情報が前記ユーザの視線と一致する領域に表示されるように前記ウェアラブル装置へ前記死角状況情報を出力する、
    支援装置。
  3. 請求項1または2に記載の支援装置であって、
    前記プロセッサは、
    前記死角領域を撮像した画像データを取得し、
    前記画像データに基づいて、前記死角領域に物体が存在するか否かを判定し、
    前記物体が存在すると判定した場合、前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  4. 請求項3に記載の支援装置であって、
    前記プロセッサは、
    時間的に連続する複数の前記画像データを順次取得し、
    前記死角領域に前記物体が存在すると判定した場合、複数の前記画像データに基づいて、前記物体が移動体であるか否かを判定し、
    前記物体が移動体であると判定した場合、前記移動体に応じた前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  5. 請求項4に記載の支援装置であって、
    前記プロセッサは、
    前記物体が移動体であると判定した場合、複数の前記画像データに基づいて、前記移動体の速度を算出し、
    前記移動体と当該支援装置との相対速度に応じた前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  6. 請求項3〜5のいずれか一つに記載の支援装置であって、
    前記プロセッサは、
    前記画像データを用いて前記死角状況情報を生成し、
    前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  7. 請求項3〜6のいずれか一つに記載の支援装置であって、
    前記プロセッサは、
    前記視線情報に基づいて、前記ユーザが前記遮蔽物を注視したときの注視領域を検出し、
    前記死角状況情報が前記注視領域に表示されるように前記ウェアラブル装置へ前記死角状況情報を出力する、
    支援装置。
  8. 請求項7に記載の支援装置であって、
    前記プロセッサは、
    前記ユーザが前記注視領域に対して注視した注視時間が所定時間以上であるか否かを判定し、
    前記注視時間が所定時間以上である場合、前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  9. 請求項3〜8のいずれか一つに記載の支援装置であって、
    前記プロセッサは、
    前記遮蔽物を撮像した画像データを取得し、
    前記遮蔽物を撮像した画像データと前記死角領域を撮像した画像データとを所定の比率で合成した合成画像データを生成し、
    前記合成画像データに対応する合成画像を前記死角状況情報として前記ウェアラブル装置へ出力する、
    支援装置。
  10. 請求項3〜8のいずれか一つに記載の支援装置であって、
    前記プロセッサは、
    前記画像データに対応する画像を前記死角状況情報として前記ウェアラブル装置へ出力する、
    支援装置。
  11. 請求項10に記載の支援装置であって、
    前記プロセッサは、
    前記遮蔽物を撮像した画像データと前記死角領域を撮像した画像データとに基づいて、前記遮蔽物を仮想的に円柱状、円錐状および球状のいずれかにくり抜いた開口部を有する画像を生成し、
    前記画像を前記死角状況情報として前記ウェアラブル装置へ出力する、
    支援装置。
  12. 請求項3〜11のいずれか一つに記載の支援装置であって、
    前記プロセッサは、
    当該支援装置が搭載された車両の車速に関する車速情報を取得し、
    前記車速情報に基づいて、前記車両の車速が所定速度以下であるか否かを判定し、
    前記車両の車速が前記所定速度以下である場合、前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援装置。
  13. ユーザが装着可能な支援装置であって、
    メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    前記ユーザの視線に関する視線情報を取得し、
    前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、
    前記死角状況情報を出力する、
    支援装置。
  14. ウェアラブル装置と通信可能な支援装置が実行する支援方法であって、
    前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、
    メモリから読み出した前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、
    前記死角状況情報を前記ウェアラブル装置へ出力する、
    支援方法。
  15. ウェアラブル装置と通信可能な支援装置に実行させるプログラムであって、
    前記ウェアラブル装置を装着したユーザの視線に関する視線情報を取得し、
    前記視線情報に基づいて、前記ユーザの視野領域内で遮蔽物により遮蔽された死角領域の状況を示す死角状況情報を生成し、
    前記死角状況情報を前記ウェアラブル装置へ出力する、
    プログラム。
JP2018231164A 2018-12-10 2018-12-10 支援装置、支援方法およびプログラム Active JP7147527B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018231164A JP7147527B2 (ja) 2018-12-10 2018-12-10 支援装置、支援方法およびプログラム
US16/700,031 US11393196B2 (en) 2018-12-10 2019-12-02 Line of sight assistance device and method
CN201911254711.0A CN111292555A (zh) 2018-12-10 2019-12-10 支援装置、支援方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231164A JP7147527B2 (ja) 2018-12-10 2018-12-10 支援装置、支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020095350A true JP2020095350A (ja) 2020-06-18
JP7147527B2 JP7147527B2 (ja) 2022-10-05

Family

ID=70971066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231164A Active JP7147527B2 (ja) 2018-12-10 2018-12-10 支援装置、支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11393196B2 (ja)
JP (1) JP7147527B2 (ja)
CN (1) CN111292555A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433542B1 (ja) 2023-02-24 2024-02-19 三菱電機株式会社 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022084136A (ja) * 2020-11-26 2022-06-07 株式会社東海理化電機製作所 無線通信装置、システムおよびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002286459A (ja) * 2001-03-28 2002-10-03 Nissan Motor Co Ltd 車両用死角モニタの制御装置
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
JP2014035560A (ja) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd 飛び出し検出装置
WO2017145645A1 (ja) * 2016-02-25 2017-08-31 富士フイルム株式会社 運転支援装置、運転支援方法、及び、運転支援プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4329525B2 (ja) 2003-12-16 2009-09-09 株式会社エクォス・リサーチ 車外情報表示装置
US20060016398A1 (en) 2004-05-28 2006-01-26 Laurent Dubost Supporting and lifting device for substrates in vacuum
JP4797588B2 (ja) 2005-11-17 2011-10-19 アイシン精機株式会社 車両周辺表示装置
JP4935571B2 (ja) 2007-08-08 2012-05-23 株式会社デンソー 運転支援装置
JP5053776B2 (ja) * 2007-09-14 2012-10-17 株式会社デンソー 車両用視界支援システム、車載装置、及び、情報配信装置
JP2009184648A (ja) * 2008-02-11 2009-08-20 Aisin Aw Co Ltd 運転支援装置、運転支援方法及びプログラム
JP2010175329A (ja) 2009-01-28 2010-08-12 Mitsubishi Electric Corp 車載情報装置
JP2011213184A (ja) 2010-03-31 2011-10-27 Equos Research Co Ltd シースルー表示装置
JP5516998B2 (ja) 2011-06-09 2014-06-11 アイシン精機株式会社 画像生成装置
JP6077214B2 (ja) 2012-02-06 2017-02-08 富士通テン株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
DE102012022819A1 (de) * 2012-11-17 2014-05-22 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtungen zur Ausgabe von Informationen in einem Kraftfahrzeug
JP6380002B2 (ja) 2014-10-28 2018-08-29 アイシン精機株式会社 周辺監視装置
WO2017136014A2 (en) 2015-11-13 2017-08-10 Flir Systems, Inc. Video sensor fusion and model based virtual and augmented reality systems and methods
CN106448220B (zh) * 2016-09-27 2019-03-22 宇龙计算机通信科技(深圳)有限公司 一种告警的方法及虚拟现实眼镜
KR102366723B1 (ko) * 2016-10-11 2022-02-23 삼성전자주식회사 운송 수단으로 시야 확보 영상을 제공하는 방법, 이를 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10552690B2 (en) * 2016-11-04 2020-02-04 X Development Llc Intuitive occluded object indicator
CN107215275B (zh) * 2017-05-27 2019-07-26 吉利汽车研究院(宁波)有限公司 视图显示方法、视图显示装置及汽车
JP6504529B1 (ja) * 2017-10-10 2019-04-24 マツダ株式会社 車両用表示装置
US10474916B2 (en) * 2017-11-20 2019-11-12 Ashok Krishnan Training of vehicles to improve autonomous capabilities

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002286459A (ja) * 2001-03-28 2002-10-03 Nissan Motor Co Ltd 車両用死角モニタの制御装置
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
JP2014035560A (ja) * 2012-08-07 2014-02-24 Nissan Motor Co Ltd 飛び出し検出装置
WO2017145645A1 (ja) * 2016-02-25 2017-08-31 富士フイルム株式会社 運転支援装置、運転支援方法、及び、運転支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433542B1 (ja) 2023-02-24 2024-02-19 三菱電機株式会社 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法

Also Published As

Publication number Publication date
CN111292555A (zh) 2020-06-16
JP7147527B2 (ja) 2022-10-05
US11393196B2 (en) 2022-07-19
US20200184220A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US11351918B2 (en) Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium
US20190373238A1 (en) Immersive display and method of operating immersive display for real-world object alert
US10838205B2 (en) Head mounted display, control method thereof, and computer program
JP4981566B2 (ja) 運転支援装置および運転支援方法
JP5277974B2 (ja) 運転支援装置
CN111284498B (zh) 驾驶支援装置、系统、方法、可穿戴装置以及存储介质
JP2009043003A (ja) 運転支援装置
WO2019058785A1 (ja) レンズ鏡筒及び撮像装置
US11648878B2 (en) Display system and display method
KR20200131820A (ko) 화상 표시 시스템, 정보 처리 장치, 정보 처리 방법, 프로그램, 및 이동체
US11418909B2 (en) Driver-assistance device, wearable device, driver-assistance method, and computer-readable recording medium
JP7147527B2 (ja) 支援装置、支援方法およびプログラム
JPWO2018159113A1 (ja) 電子機器
KR20170116895A (ko) 고글 또는 헬멧에 탈부착 가능한 헤드업 디스플레이 장치
CN112915549B (zh) 图像处理装置、显示系统、记录介质以及图像处理方法
US11376514B2 (en) Experience system, experience providing method, and computer readable recording medium
JP2019056884A (ja) 重畳画像表示装置
JP2007104036A (ja) 表示装置
JP6805974B2 (ja) 走行支援装置及びコンピュータプログラム
JP2019066564A (ja) 表示装置、表示制御方法、及びプログラム
JP2014172554A (ja) カメラ付き表示装置
JP2009190613A (ja) 車載表示装置
WO2023063066A1 (ja) 支援情報提供方法及び記録媒体
CN113085884A (zh) 移动体控制装置、移动体控制方法及存储介质
JP2019068143A (ja) 表示装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7147527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151