JP2019169042A - Viewpoint switching device and viewpoint switching method - Google Patents
Viewpoint switching device and viewpoint switching method Download PDFInfo
- Publication number
- JP2019169042A JP2019169042A JP2018057710A JP2018057710A JP2019169042A JP 2019169042 A JP2019169042 A JP 2019169042A JP 2018057710 A JP2018057710 A JP 2018057710A JP 2018057710 A JP2018057710 A JP 2018057710A JP 2019169042 A JP2019169042 A JP 2019169042A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- vehicle
- viewing direction
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000009471 action Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、画像の視点を切り替える技術に関する。 The present invention relates to a technique for switching the viewpoint of an image.
従来、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等を目的として、ヒヤリハット画像を記録するドライブレコーダが提案されている(例えば特許文献1参照)。ヒヤリハットとは、 ドライバーが車両を運転している際に、重大な災害や事故には至らないものの、重大な災害や事故に直結してもおかしくない一歩手前の事象のことをいう。このヒヤリハットという名称は、当該事象に直面したドライバーが「ヒヤリ」としたり「ハット」したりすることに由来している。 2. Description of the Related Art Conventionally, a drive recorder that records a near-miss image has been proposed for the purpose of monitoring a driver's safe driving situation by a transportation company, education on safe driving for a driver, and the like (see, for example, Patent Document 1). A near-miss is an event that is one step ahead of a serious disaster or accident that does not lead to a serious disaster or accident when the driver is driving the vehicle. The name of the near-miss is derived from the fact that the driver who faces the event makes a “close” or “hat”.
特許文献1で提案されているドライブレコーダは、ヒヤリハット画像として、ヒヤリハットが発生したときの前方監視カメラの撮影画像を保存している。 The drive recorder proposed in Patent Document 1 stores a photographed image of the front monitoring camera when a near-miss occurs as a near-miss image.
しかしながら、特許文献1で提案されているドライブレコーダによって保存されるヒヤリハット画像を解析しても、当該ドライブレコーダを搭載している車両(自車両)の周囲にいる者(周囲者)から自車両がヒヤリハット発生時にどのように見えていて周囲者が自車両に対してヒヤリハット発生時にどのような印象を持ったかという観点から解析することができなかった。 However, even if the near-miss image stored by the drive recorder proposed in Patent Document 1 is analyzed, the own vehicle can be detected by a person (surrounding person) around the vehicle (own vehicle) on which the drive recorder is mounted. It was not possible to analyze from the viewpoint of how it looked when a near-miss occurred and what the surrounding people had about the vehicle when the near-hat occurred.
本発明は、上記の課題に鑑み、移動体の周囲にいる者から当該移動体がどのように見えているかを容易に確認することができる視点切替技術を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a viewpoint switching technique capable of easily confirming how a moving body is viewed from a person around the moving body.
本発明に係る視点切替装置は、移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得部と、前記撮影画像に写っている人物の視点位置及び視方向を推定する推定部と、前記視点位置及び前記視方向から見た画像を生成する画像生成部と、を備える構成(第1の構成)である。 A viewpoint switching device according to the present invention includes an acquisition unit that acquires a captured image obtained by a camera that captures the periphery of a moving body, an estimation unit that estimates a viewpoint position and a viewing direction of a person shown in the captured image, and An image generation unit that generates an image viewed from the viewpoint position and the viewing direction (first configuration).
上記第1の構成の視点切替装置において、前記推定部は、前記視方向の仰角又は俯角を前記視点位置の高さに基づいて推定する構成(第2の構成)であってもよい。 In the viewpoint switching device having the first configuration, the estimation unit may be configured to estimate an elevation angle or depression angle in the viewing direction based on a height of the viewpoint position (second configuration).
上記第1又は第2の構成の視点切替装置において、前記推定部は、前記撮影画像に写っている人物のうち所定の行動をとっていることが検出された人物を対象として、前記視点位置及び前記視方向を推定する構成(第3の構成)であってもよい。 In the viewpoint switching device having the first or second configuration, the estimation unit is configured to target the person detected to be performing a predetermined action among the persons shown in the captured image, and the viewpoint position and A configuration for estimating the viewing direction (third configuration) may be used.
上記第1〜第3いずれかの構成の視点切替装置において、前記推定部は、前記移動体を運転する運転者の視方向に関する情報を取得し、前記撮影画像に写っている人物のうち前記運転者の視線が向けられたことが検出された人物を対象として、前記視点位置及び前記視方向を推定する構成(第4の構成)であってもよい。 In the viewpoint switching device having any one of the first to third configurations, the estimation unit acquires information related to a viewing direction of a driver who drives the moving body, and the driving among the persons shown in the captured image. It may be a configuration (fourth configuration) for estimating the viewpoint position and the viewing direction for a person who is detected to be directed by the person's line of sight.
上記第1〜第4いずれかの構成の視点切替装置において、前記画像生成部は、3次元地図情報と前記移動体の位置情報とに基づいて、前記視点位置及び前記視方向から見た画像を生成し、前記視点位置及び前記視方向から見た画像は、地図画像内の前記移動体の位置に前記移動体を表す像が重畳された画像である構成(第5の構成)であってもよい。 In the viewpoint switching device having any one of the first to fourth configurations, the image generation unit is configured to display an image viewed from the viewpoint position and the viewing direction based on three-dimensional map information and position information of the moving body. Even if the image generated and viewed from the viewpoint position and the viewing direction is an image in which an image representing the moving body is superimposed on the position of the moving body in a map image (fifth configuration) Good.
上記第5の構成の視点切替装置において、前記画像生成部は、前記移動体の挙動に関する情報を取得し、前記移動体の挙動に関する情報に基づいて前記移動体を表す像の動きを調整する構成(第6の構成)であってもよい。 In the viewpoint switching device having the fifth configuration, the image generation unit acquires information related to the behavior of the moving object, and adjusts the movement of an image representing the moving object based on the information related to the behavior of the moving object. (6th structure) may be sufficient.
本発明に係る視点切替方法は、移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得工程と、前記撮影画像に写っている人物の視点位置及び視方向を推定する推定工程と、前記視点位置及び前記視方向から見た画像を生成する画像生成工程と、を備える構成(第7の構成)である。 The viewpoint switching method according to the present invention includes an acquisition process of acquiring a captured image obtained by a camera that captures the periphery of a moving object, an estimation process of estimating a viewpoint position and a viewing direction of a person shown in the captured image, and And an image generation step of generating an image viewed from the viewpoint position and the viewing direction (seventh configuration).
本発明によれば、移動体の周囲にいる者から当該移動体がどのように見えているかを容易に確認することができる。 ADVANTAGE OF THE INVENTION According to this invention, it can confirm easily how the said mobile body is seen from the person around the mobile body.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
<1.通信システムの構成例>
図1は、通信システムの一構成例を示す図である。図1に示す通信システムは、ドライブレコーダ1と、センターサーバ2と、クライアントサーバ3と、を備える。図1では、ドライブレコーダ1及びクライアントサーバ3をそれぞれ一つしか図示していないが、本実施形態ではセンターサーバ2は、複数のドライブレコーダ1と通信を行うとともに複数のクライアントサーバ3と通信を行う。ドライブレコーダ1がタクシーに搭載される場合、例えば各々のクライアントサーバ3は各タクシー会社に配置するとよい。
<1. Configuration example of communication system>
FIG. 1 is a diagram illustrating a configuration example of a communication system. The communication system shown in FIG. 1 includes a drive recorder 1, a center server 2, and a client server 3. Although only one drive recorder 1 and one client server 3 are shown in FIG. 1, in this embodiment, the center server 2 communicates with a plurality of drive recorders 1 and communicates with a plurality of client servers 3. . When the drive recorder 1 is installed in a taxi, for example, each client server 3 may be arranged in each taxi company.
<2.センターサーバの構成例>
図1に示すように、センターサーバ2は、通信部21と、制御部22と、記憶部23と、を備える。
<2. Configuration example of center server>
As shown in FIG. 1, the center server 2 includes a
通信部21は、不図示のネットワークを介して複数のドライブレコーダ1及び複数のクライアントサーバ3とデータ通信を行う。
The
記憶部23は、各種の情報を不揮発的に記憶する。記憶部23としては、例えばハードディスクドライブ等を用いることができる。本実施形態において、記憶部23は、3次元地図情報23aと、プログラム23bと、ドライバー情報データベース23cと、ヒヤリハット画像23dと、を記憶している。
The
3次元地図情報23aは、建物、路面、白線、道路標識、路面標示のデータ(3次元位置、3次元形状、色等)を有する地図情報である。後述する画像生成部22cは、3次元地図情報23aに基づいて、任意の視点からの任意の視方向の地図画像を作成することができる。ここで、視方向とは、視点の位置から画像や物体等の視認対象物を視る方向である。
The three-
プログラム23bは、センターサーバ2は視点切替装置として機能させるためのプログラムである。
The
ドライバー情報データベース23cは、ドライバーの識別情報(例えば運転免許証番号等)と、ドライバーの属性情報(例えば性別、年代等)とが関連付けられているデータベースである。
The
ヒヤリハット画像23dは、ヒヤリハットが発生したときの撮影画像であり、ドライブレコーダ1からセンターサーバ2にアップロードされる画像である。ヒヤリハット画像23dは、ヒヤリハットが発生したときの静止画像であってもよいが、ヒヤリハットが発生した直前から直後までの一定期間の動画であることが望ましい。ヒヤリハット画像23dを上記のような動画にすることによって、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等がより効果的になるからである。
The near-
制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。制御部22は、記憶部23等と接続され、記憶部23に記憶されたプログラム23bに基づいて情報の処理及び送受信を行い、センターサーバ2の全体を制御する。
The
制御部22は、取得部22aと、推定部22bと、画像生成部22cと、を備えている。記憶部23に記憶されたプログラム23bにしたがってCPUが演算処理を実行することにより、取得部22a等の制御部22の各種機能が実現され、センターサーバ2は視点切替装置として機能する。
The
取得部22aは、ドライブレコーダ1ともに車両に搭載され当該車両の周辺を撮影するカメラで得られた撮影画像を取得する。
The
推定部22bは、取得部22aによって取得された撮影画像に写っている人物の視点位置及び視方向を推定する。
The
画像生成部22cは、推定部22bによって推定された視点位置及び視方向から見た画像を生成する。
The
<3.ドライブレコーダの構成例>
図2は、ドライブレコーダ1の概要を説明するための図である。ドライブレコーダ1は、車両4に搭載される。ドライブレコーダ1は、車両4の適所に配置される。
<3. Example of drive recorder configuration>
FIG. 2 is a diagram for explaining an outline of the drive recorder 1. The drive recorder 1 is mounted on the
ドライブレコーダ1は、車両4に搭載されるカメラ5によって撮影される車両周辺の画像を取得する。ドライブレコーダ1の記録方式は、例えば、カメラ5によって撮影された画像を含む運転状況に関する情報を定期的に記録媒体(不図示)に記録する常時記録方式であってもよく、白線からのはみ出し(車線逸脱)、急ブレーキ、衝突等のイベントが検出された場合に、カメラ5で撮影された画像、及び、イベント内容を含む画像以外の運転状況に関する情報を記録媒体に記録するイベント記録方式であってもよい。ドライブレコーダ1は、ヒヤリハットが検出された場合に、カメラ5で撮影された画像をヒヤリハット画像としてセンターサーバ2にアップロードする。ドライブレコーダ1は、ヒヤリハット画像に走行場所等の運転状況に関する情報を付随させる。ヒヤリハットの検出は、例えば急ブレーキ、急操舵、歩行者や他車両への接近等に基づいて実施される。
The drive recorder 1 acquires an image around the vehicle photographed by the
図3は、ドライブレコーダ1の一構成例を示す図である。ドライブレコーダ1は、装置全体を制御する制御部としてマイクロコンピュータを備える。詳細には、ドライブレコーダ1は、演算処理を行うことで各種の制御機能を実現するCPU11と、演算処理の作業領域となるRAM12と、各種のデータを記憶する不揮発性メモリ13と、を備える。不揮発性メモリ13は、例えばハードディスクやフラッシュメモリで構成される。不揮発性メモリ13は、ファームウェアとしてのプログラムや設定パラメータ等を記憶する。ドライブレコーダ1の各部を制御する機能は、不揮発性メモリ13に予め記憶されるプログラムに従ってCPU11が演算処理を実行することによって実現される。
FIG. 3 is a diagram illustrating a configuration example of the drive recorder 1. The drive recorder 1 includes a microcomputer as a control unit that controls the entire apparatus. Specifically, the drive recorder 1 includes a CPU 11 that realizes various control functions by performing arithmetic processing, a
ドライブレコーダ1には、カメラ5及びマイク6が接続される。カメラ5及びマイク6は、ドライブレコーダ1に含まれてよい。カメラ5は、レンズと撮像素子とを備え、電子的に画像データを取得することができる。本実施形態では、カメラ5は、その光軸が車両4の前方に向けられた状態でフロントガラスの上部付近に配置されている。カメラ5の数及び配置は、適宜変更されてよい。例えば、前方を撮影するフロントカメラと、後方を撮影するバックカメラとが備えられてよい。マイク6は、例えば、ドライブレコーダ1の本体部や車両4の適所に配置される。マイク6は、車両付近の音を集音して音声データを取得する。マイク6の数及び配置は、適宜変更されてよい。例えば、車両4の外部で発生する音を主として集音する車外音用マイクと、ドライバーが発する音声を主として集音する車内音用マイクとが備えられてよい。
A
ドライブレコーダ1は、カメラ5で撮影された画像データを処理する画像処理部14を備える。本実施形態では、画像処理部14はハードウェア回路である。画像処理部14は、カメラ5から入力される画像データの信号に対して所定の画像処理を行い、所定の形式のデジタル画像データを生成する。所定の画像処理には、例えば、A/D変換、輝度補正、コントラスト補正等が含まれる。所定の形式は、例えばJPEG形式等であってよい。画像処理部14で処理された画像データは、RAM12に記憶される。
The drive recorder 1 includes an
RAM12の記憶領域のうちの一部は、リングバッファとして利用される。このリングバッファに対して、画像処理部14で処理された画像データ、及び、マイク6で取得された音声データが常時に記憶される。リングバッファでは、最後の領域までデータが記憶されると、最初の領域に戻って新たなデータが記憶される。すなわち、リングバッファでは、最も古いデータに対して新たなデータが順次に上書きされていく。このため、RAM12においては、常に過去一定時間分の画像データ及び音声データが記憶された状態になる。
A part of the storage area of the
ドライブレコーダ1は、運転者等からの指示を受け付ける操作部7に接続されている。操作部7はドライブレコーダ1に含まれてよい。操作部7は、運転者等が操作しやすいように、ステアリングホイール(不図示)の近傍等、車両4の適所に配置される。また、ドライブレコーダ1は、カードスロット15と、計時回路16と、加速度センサ17と、GPS(Global Positioning System)受信部18と、通信部19と、を備える。
The drive recorder 1 is connected to an
カードスロット15は、メモリカード8を着脱可能に構成される。なお、メモリカード8の代わりに、ハードディスクドライブ、光ディスク、光磁気ディスク、フレキシブルディスク等の他の記録媒体を用いてもよい。
The
RAM12のリングバッファに記憶された画像データ及び音声データ等は、CPU11の指示によって定期的にカードスロット15に装着されたメモリカード8に記録される。
Image data, audio data, and the like stored in the ring buffer of the
計時回路16は、現在時刻に対応した信号を発生してCPU11に出力する。
The
加速度センサ17は、車両4に加わる衝撃の大きさを示す加速度を、重力加速度のGを単位として検出する。検出される加速度は、現在時刻における加速度の瞬間値であり、例えば、互いに直交する3軸あるいは2軸に応じた向きに大きさを持つ。加速度センサ17は、このような加速度に対応した信号をCPU11に出力する。
The
GPS受信部18は、複数のGPS衛星からの信号を受信して、現在時刻における車両4の位置である自車位置を取得する。GPS受信部18は、地球上における経度緯度で表現された位置情報として自車位置を取得して、CPU11に出力する。なお、GPS受信部18は、GPS衛星からの信号に基づき、正確な時刻を検出できる。このために、GPS受信部18が、計時回路16に代わりに用いられてもよい。また、GPS受信部18は、計時回路16の時刻を修正するために利用されてよい。
The
通信部19は、ネットワークを介してセンターサーバ2の通信部21との間でデータの送受信を行う。
The
その他、CPU11には、不図示のCAN(Controller Area Network)バスを介して、車速センサからのデータ等を含む車両走行情報が入力される。車両走行情報には、操舵情報、ブレーキ情報、アクセル情報等が含まれてよい。さらに、CPU11は、不図示のCANを介して、ナビゲーション装置や車両制御ECU(Electronic Control Unit)と接続されてよい。 In addition, vehicle travel information including data from a vehicle speed sensor is input to the CPU 11 via a not-shown CAN (Controller Area Network) bus. The vehicle travel information may include steering information, brake information, accelerator information, and the like. Further, the CPU 11 may be connected to a navigation device or a vehicle control ECU (Electronic Control Unit) via a CAN (not shown).
<4.センターサーバの動作例>
図4は、センターサーバ2の一動作例を示すフローチャートである。センターサーバ2は、ドライブレコーダ1からヒヤリハット画像を通信部21が受信する度に図4に示すフロー動作を行う。
<4. Operation example of center server>
FIG. 4 is a flowchart illustrating an operation example of the center server 2. The center server 2 performs the flow operation shown in FIG. 4 every time the
まず、取得部22aがヒヤリハット画像を取得する(ステップS10)。
First, the
次に、画像生成部22cは、ヒヤリハット画像に付随している走行位置情報及び車両4の進行方向情報と3次元地図情報23aとに基づいて、車両4を運転するドライバーの視点からの車両4の進行方向に沿った視方向の地図画像(以下、自分目線の地図画像)を作成する(ステップS20)。また、画像生成部22cは、ヒヤリハット画像を画像認識して、歩行者、自転車、他車両等の3次元地図情報に含まれていないオブジェクトを抽出し、当該オブジェクトに対応するCG(Computer Graphics)画像を、自分目線の地図画像内の当該オブジェクトが存在するはずの位置に重畳する。したがって、歩行者、自転車、他車両等の典型的なオブジェクトに関しては、各オブジェクトに対応する各CG画像を予め記憶部23に記憶させておくとよい。撮影画像であるヒヤリハット画像の代わりに地図画像を利用することで、ヒヤリハット画像に写り込んでいる人物等のプライバシーを保護することができる。
Next, the
図5は、自分目線の地図画像の表示例である。自分目線の地図画像の表示は、クライアントサーバ3に接続される表示装置によって行われる。図5に示す自分目線の地図画像は、自転車に対応するCG画像A1を含んでいる。また、図5に示す自分目線の地図画像は、後述する相手目線の地図画像に表示を切り替えるためのソフトウェアキーA2も含んでいる。タッチパネルやポインティングデバイス等の操作装置を用いてソフトウェアキーA2をキー操作することで、図5に示す自分目線の地図画像から、後述する相手目線の地図画像に表示を切り替えることができる。 FIG. 5 is a display example of a map image of one's own eyes. The display of the map image of the self-view is performed by a display device connected to the client server 3. 5 includes a CG image A1 corresponding to a bicycle. The self-viewing map image shown in FIG. 5 also includes a software key A2 for switching the display to a partner-viewing map image to be described later. By operating the software key A2 using an operation device such as a touch panel or a pointing device, the display can be switched from the map image of the user's line of sight shown in FIG.
図4に戻って、ステップS20に続くステップS30において、推定部22bは、取得部22aによって取得されたヒヤリハット画像に写っている人物の視点位置及び視方向を推定する。取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、推定部22bは、1人1人の視点位置及び視方向を推定する。また、推定部22bは、ヒヤリハット画像を画像認識して、ヒヤリハット画像に写っている人物を抽出し、例えば抽出した位置から視点の位置を推定し、例えばヒヤリハット画像に写っている人物の顔の向きを認識し、認識した顔の向きによって視方向を推定すればよい。
Returning to FIG. 4, in step S <b> 30 following step S <b> 20, the
なお、推定部22bは、最初に視点位置を推定し、次にその推定した視点位置の高さに基づいて視方向の仰角又は俯角を推定することが望ましい。例えば、取得部22aによって取得されたヒヤリハット画像に写っている人物が子供である場合は、大人である場合に比べて視点位置の高さが低くなるため、視方向の仰角が大きくなると推定すればよい。また例えば、取得部22aによって取得されたヒヤリハット画像に写っている人物がトラックに搭乗している運転者である場合は、歩行者である場合に比べて視点位置の高さが高くなるため、視方向の俯角が大きくなると推定すればよい。
It is desirable that the
上記のように視点位置の高さに基づいて視方向の仰角又は俯角を推定することにより、顔の水平方向に関する向きからでは推定が困難である視方向の仰角又は俯角を推定することが可能となる。 By estimating the elevation angle or depression angle of the viewing direction based on the height of the viewpoint position as described above, it is possible to estimate the elevation angle or depression angle of the viewing direction that is difficult to estimate from the orientation of the face in the horizontal direction. Become.
ステップS30に続くステップS40において、画像生成部22cは、ヒヤリハット画像に付随している走行位置情報と推定部22bの推定結果と3次元地図情報23aとに基づいて、取得部22aによって取得されたヒヤリハット画像に写っている人物の視点及び視方向の地図画像(以下、相手目線の地図画像)を作成する。この相手目線の地図画像を確認することにより、車両4の周囲にいる者から車両4がどのように見えているかを容易に確認することができる。
In step S40 subsequent to step S30, the
取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、画像生成部22cは、1人1人の相手目線の地図画像を作成する。また、画像生成部22cは、車両4に対応するCG画像を、相手目線の地図画像内の車両4が存在するはずの位置に重畳する。したがって、車両4に対応するCG画像を予め記憶部23に記憶させておくとよい。また、相手目線の地図画像内に歩行者、自転車、他車両等の3次元地図情報に含まれていないオブジェクトが存在するはずの位置があれば、画像生成部22cは、自分目線の地図画像の場合と同様に、当該オブジェクトに対応するCG画像を、相手目線の地図画像内の当該オブジェクトが存在するはずの位置に重畳する。撮影画像であるヒヤリハット画像の代わりに地図画像を利用することで、ヒヤリハット画像に写り込んでいる人物等のプライバシーを保護することができる。
When there are a plurality of persons in the near-miss image acquired by the
図6は、相手目線の地図画像の表示例である。相手目線の地図画像の表示は、クライアントサーバ3に接続される表示装置によって行われる。図6に示す相手目線の地図画像は、車両に対応するCG画像A3を含んでいる。また、図6に示す自分目線の地図画像は、上述した図5に示す自分目線の地図画像に表示を切り替えるためのソフトウェアキーA4も含んでいる。タッチパネルやポインティングデバイス等の操作装置を用いてソフトウェアキーA4をキー操作することで、図6に示す相手目線の地図画像から、上述した図5に示す相手目線の地図画像に表示を切り替えることができる。 FIG. 6 is a display example of a map image of the other party's line of sight. The display of the map image of the other party's eye is performed by a display device connected to the client server 3. The map image of the other party's line of sight shown in FIG. 6 includes a CG image A3 corresponding to the vehicle. 6 also includes a software key A4 for switching the display to the map image of the user's own line shown in FIG. 5 described above. By operating the software key A4 using an operation device such as a touch panel or a pointing device, the display can be switched from the map image of the partner line of sight shown in FIG. 6 to the map image of the partner line of sight shown in FIG. .
なお、相手目線の地図画像が動画である場合、画像生成部22cが、ヒヤリハット画像に付随している車両4の走行位置に基づいて、相手目線の地図画像内の車両4が存在するはずの位置を求めても、車両4の走行位置の精度がさほど高くないため、相手目線の地図画像において車両4に対応するCG画像の動きを実際の車両4の動きに合わすことができない。そこで、相手目線の地図画像が動画である場合、画像生成部22cが、ヒヤリハット画像に付随している車両4の挙動に関する情報(操舵情報、ブレーキ情報、アクセル情報など)に基づいて、相手目線の地図画像内の車両4が存在するはずの位置を調整することが望ましい。これにより、車両4の走行位置の精度がさほど高くなくても、相手目線の地図画像において車両4に対応するCG画像の動きを実際の車両4の動きに近づけることができる。
In addition, when the map image of the opponent's line of sight is a moving image, the
ステップS40に続くステップS50において、制御部22は、同一のヒヤリハット画像に関連する自分目線の地図画像と相手目線の地図画像とを紐づける。また、この紐づけにおいて、ヒヤリハット画像に付随している情報を自分目線の地図画像及び相手目線の地図画像にも付随させる。
In step S50 following step S40, the
センターサーバ2は、自分目線の地図画像と相手目線の地図画像をステップS50の紐づけが終わる度にクライアントサーバ3に送信してもよく、自分目線の地図画像と相手目線の地図画像を定期的に(例えば、週に一回、月に一回等)クライアントサーバ3に送信してもよい。例えばドライブレコーダ1がタクシーに搭載される場合、センターサーバ2が各々のクライアントサーバ3に送信する地図画像は、上述したようにプライバシー保護が図られているため、クライアントサーバ3と異なるタクシー会社に属するタクシーに搭載されたドライブレコーダ1から送信されたヒヤリハット画像に関連する地図画像を含むことが望ましい。これにより、異なるタクシー会社に属するタクシーに搭載されたドライブレコーダ1から送信されたヒヤリハット画像に関連する地図画像も確認することができるようになるため、ヒヤリハットの事例が豊富になり、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等がより効果的になる。 The center server 2 may transmit the map image of the user's line of sight and the map image of the other party's line of sight to the client server 3 every time the association in step S50 is completed, (For example, once a week, once a month, etc.) may be transmitted to the client server 3. For example, when the drive recorder 1 is mounted on a taxi, the map image transmitted from the center server 2 to each client server 3 is protected for privacy as described above, and therefore belongs to a taxi company different from the client server 3. It is desirable to include a map image related to the near-miss image transmitted from the drive recorder 1 mounted on the taxi. As a result, the map image related to the near-miss image transmitted from the drive recorder 1 installed in a taxi belonging to a different taxi company can also be confirmed. Monitoring of driver's safe driving situation and education for driver's safe driving become more effective.
<5.変形例>
上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
<5. Modification>
The above-described embodiment is an example in all respects and should not be considered as limiting, and the technical scope of the present invention is indicated by the scope of the claims, not the description of the above-described embodiment. Therefore, it should be understood that all modifications that come within the meaning and range of equivalency of the claims are embraced.
上述した実施形態では、取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、推定部22bが、1人1人の視点位置及び視方向を推定している。しかしながら、取得部22aによって取得されたヒヤリハット画像に写っている人物が多数存在する場合、相手目線の地図画像も多数作成されることになり、相手目線の地図画像を確認する作業が繁雑になる。
In the embodiment described above, when there are a plurality of persons in the near-miss image acquired by the
そこで、推定部22bが、取得部22aによって取得されたヒヤリハット画像に写っている人物のうち所定の行動をとっていることが検出された人物を対象として、視点位置及び視方向を推定するようにしてもよい。これにより、相手目線の地図画像を、例えば危険を感じた人物の視点位置及び視方向から見た画像に限定すること等が可能となる。所定の行動としては、例えば歩行者であれば急な立ち止まり、車両に搭乗しているドライバーであれば急ブレーキ操作や急操舵操作等を挙げることができる。所定の行動の検出は、例えばヒヤリハット画像の画像認識により実行することができる。
Therefore, the
また上記の変形に加えて、又は、上記の変形に代えて、推定部22bが、車両4を運転するドライバーの視方向に関する情報を取得し、取得部22aによって取得されたヒヤリハット画像に写っている人物のうち車両4を運転するドライバーの視線が向けられたことが検出された人物を対象として、視点位置及び視方向を推定するようにしてもよい。これにより、相手目線の地図画像を、例えば車両4を運転するドライバーがヒヤリハット時に注目した人物の視点位置及び視方向から見た画像に限定することが可能となる。車両4を運転するドライバーの視方向は、例えば車両4の車内にドライバーを監視するカメラを設け、ドライバーを監視するカメラの撮影画像から車両4を運転するドライバーの視方向を検出することができる。車両4を運転するドライバーの視方向に関する情報をヒヤリハット画像に付随させることで、推定部22bが、車両4を運転するドライバーの視方向に関する情報を取得することができる。
In addition to or in place of the above-described deformation, the
例えばカメラ5は、必ずしも自動車に搭載される必要はなく、自動車のほか、二輪車、鉄道、船舶等の移動体に用いられるものであればよい。
For example, the
例えば、上述した実施形態では、ヒヤリハット画像を対象として視点切替が実行されているが、視点切替の対象画像はヒヤリハット画像に限定されることはなく、例えば交通事故が発生したときの画像を視点切替の対象画像としてもよい。 For example, in the above-described embodiment, viewpoint switching is performed for a near-miss image, but the target image for viewpoint switching is not limited to the near-hat image, and for example, the viewpoint switching is performed when an traffic accident occurs. The target image may be used.
例えば、上述した実施形態では、3次元地図情報を用いて視点切替が実行されているが、撮影画像を仮想視点画像に変換することによって視点切替が実行されてもよい。 For example, in the above-described embodiment, viewpoint switching is performed using 3D map information, but viewpoint switching may be performed by converting a captured image into a virtual viewpoint image.
撮影画像を仮想視点画像に変換する場合、複数の車載カメラで撮影された撮影画像が用いられる。図7は、4つの車載カメラ(フロントカメラ51、バックカメラ52、左サイドカメラ53、及び右サイドカメラ54)が車両4に配置される位置を例示する図である。
When converting a captured image into a virtual viewpoint image, captured images captured by a plurality of in-vehicle cameras are used. FIG. 7 is a diagram illustrating positions where four on-vehicle cameras (front camera 51, back
フロントカメラ51は車両4の前端に設けられる。フロントカメラ51の光軸51aは上からの平面視で車両4の前後方向に沿っている。フロントカメラ51は車両4の前方向を撮影する。バックカメラ52は車両4の後端に設けられる。バックカメラ52の光軸52aは上からの平面視で車両4の前後方向に沿っている。バックカメラ52は車両4の後方向を撮影する。フロントカメラ51及びバックカメラ52の取付位置は、車両4の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
The front camera 51 is provided at the front end of the
左サイドカメラ53は車両4の左側ドアミラーM1に設けられる。左サイドカメラ53の光軸53aは上からの平面視で車両4の左右方向に沿っている。左サイドカメラ53は車両4の左方向を撮影する。右サイドカメラ54は車両4の右側ドアミラーM2に設けられる。右サイドカメラ54の光軸54aは上からの平面視で車両4の左右方向に沿っている。右サイドカメラ54は車両4の右方向を撮影する。なお、車両4がいわゆるドアミラーレス車である場合には、左サイドカメラ53は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ54は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。
The
各車載カメラの水平方向の画角θは180度以上である。このため、4つの車載カメラ(フロントカメラ51、バックカメラ52、左サイドカメラ53、及び右サイドカメラ54)によって、車両4の水平方向における全周囲を撮影することができる。なお、ここでは、車載カメラの数を4つとしているが、車載カメラの撮影画像を用いて後述する仮想視点画像を作成するために必要な車載カメラの数は4つに限られることはなく、複数のカメラであればよい。一例として、各車載カメラの水平方向の画角θが比較的広い場合は、4つよりも少ない3つのカメラから取得される3つの撮影画像に基づき仮想視点画像を生成してもよい。さらに、別の例として、各車載カメラの水平方向の画角θが比較的狭い場合は、4つよりも多い5つのカメラから得られる5つの撮影画像に基づき仮想視点画像を生成してもよい。
The horizontal angle of view θ of each in-vehicle camera is 180 degrees or more. Therefore, the entire periphery of the
センターサーバ2の画像生成部22cは、4つの撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、画像生成部22cは、図8に示す仮想的な三次元空間における仮想投影面100の第1領域R1にフロントカメラ51の撮影画像を投影して、フロントカメラ51の撮影画像を第1の投影画像に変換する。同様に、画像生成部22cは、図8に示す仮想投影面100の第2〜第4領域R2〜R4それぞれにバックカメラ52の撮影画像、左サイドカメラ53の撮影画像、及び右サイドカメラ54の撮影画像を投影して、バックカメラ52の撮影画像、左サイドカメラ53の撮影画像、及び右サイドカメラ54の撮影画像それぞれを第2〜第4の投影画像に変換する。
The
図8に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、車両4が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、車両4から離れた位置に存在する物体の像の歪みを少なくすることができる。また、第1〜第4領域R1〜R4それぞれは、隣接する他の領域と重複する部分を有している。このような重複部分を設けることで、領域の境界部分に投影される物体の像が投影画像から消失することを防止することができる。
The
画像生成部22cは、複数の投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、画像生成部22cは、第1〜第4の投影画像を仮想投影面100の第1〜第4領域R1〜R4に仮想的に貼り付ける。
The
また、画像生成部22cは、車両4の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両4のモデルは、仮想投影面100が設定される仮想的な三次元空間において、車両4が存在する位置として定められた位置(仮想投影面100の中心部分)に第1領域R1が前側、第4領域R4が後ろ側に成るように配置される。
Further, the
さらに、画像生成部22cは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視方向は、任意の視点位置及び任意の視野方向に設定することができる。
Furthermore, the
画像生成部22cは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出す。また、画像生成部22cは、設定した仮想視点に応じて、ポリゴンのモデルに関してレンダリングを行い、車両4のレンダリング像を生成する。そして、画像生成部22cは、切り出した画像に対して車両4のレンダリング像を重畳した仮想視点画像を生成する。
The
1 ドライブレコーダ
2 センターサーバ
3 クライアントサーバ
4 車両
5 カメラ
21 通信部
22 制御部
23 記憶部
DESCRIPTION OF SYMBOLS 1 Drive recorder 2 Center server 3
Claims (7)
前記撮影画像に写っている人物の視点位置及び視方向を推定する推定部と、
前記視点位置及び前記視方向から見た画像を生成する画像生成部と、
を備える、視点切替装置。 An acquisition unit that acquires a captured image obtained by a camera that captures the periphery of the moving object;
An estimation unit for estimating a viewpoint position and a viewing direction of a person shown in the captured image;
An image generator for generating an image viewed from the viewpoint position and the viewing direction;
Comprising a viewpoint switching device.
前記視点位置及び前記視方向から見た画像は、地図画像内の前記移動体の位置に前記移動体を表す像が重畳された画像である、請求項1〜4のいずれか一項に記載の視点切替装置。 The image generation unit generates an image viewed from the viewpoint position and the viewing direction based on the three-dimensional map information and the position information of the moving body,
The image viewed from the viewpoint position and the viewing direction is an image in which an image representing the moving body is superimposed on the position of the moving body in a map image. Viewpoint switching device.
前記撮影画像に写っている人物の視点位置及び視方向を推定する推定工程と、
前記視点位置及び前記視方向から見た画像を生成する画像生成工程と、
を備える、視点切替方法。 An acquisition step of acquiring a captured image obtained by a camera that captures the periphery of the moving object;
An estimation step of estimating a viewpoint position and a viewing direction of a person shown in the captured image;
An image generation step of generating an image viewed from the viewpoint position and the viewing direction;
A viewpoint switching method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018057710A JP2019169042A (en) | 2018-03-26 | 2018-03-26 | Viewpoint switching device and viewpoint switching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018057710A JP2019169042A (en) | 2018-03-26 | 2018-03-26 | Viewpoint switching device and viewpoint switching method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019169042A true JP2019169042A (en) | 2019-10-03 |
Family
ID=68107447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018057710A Pending JP2019169042A (en) | 2018-03-26 | 2018-03-26 | Viewpoint switching device and viewpoint switching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019169042A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204304A (en) * | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2009043003A (en) * | 2007-08-08 | 2009-02-26 | Denso Corp | Driving support apparatus |
JP2011217202A (en) * | 2010-03-31 | 2011-10-27 | Saxa Inc | Image capturing apparatus |
JP2012155660A (en) * | 2011-01-28 | 2012-08-16 | Denso Corp | Map data generation device and travel support device |
JP2012253428A (en) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | Information processing system, server device, and on-vehicle device |
JP2017046214A (en) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | On-vehicle display control device and on-vehicle display control method |
-
2018
- 2018-03-26 JP JP2018057710A patent/JP2019169042A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204304A (en) * | 2007-02-22 | 2008-09-04 | Hitachi Ltd | Vehicle behavior reproduction method and system |
JP2009043003A (en) * | 2007-08-08 | 2009-02-26 | Denso Corp | Driving support apparatus |
JP2011217202A (en) * | 2010-03-31 | 2011-10-27 | Saxa Inc | Image capturing apparatus |
JP2012155660A (en) * | 2011-01-28 | 2012-08-16 | Denso Corp | Map data generation device and travel support device |
JP2012253428A (en) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | Information processing system, server device, and on-vehicle device |
JP2017046214A (en) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | On-vehicle display control device and on-vehicle display control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101579100B1 (en) | Apparatus for providing around view and Vehicle including the same | |
US8379924B2 (en) | Real time environment model generation system | |
WO2019073920A1 (en) | Information processing device, moving device and method, and program | |
US11180082B2 (en) | Warning output device, warning output method, and warning output system | |
JPWO2019039282A1 (en) | Image processing device and image processing method | |
WO2017163514A1 (en) | Spectacle-type wearable terminal, and control method and control program for same | |
US20200175872A1 (en) | Information providing system, server, onboard device, storage medium, and information providing method | |
KR102635265B1 (en) | Apparatus and method for around view monitoring using lidar | |
CN110023141A (en) | Method and system for the direction in Ackermann steer angle adjustment virtual camera | |
CN105793909B (en) | The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery | |
JP2020080542A (en) | Image providing system for vehicle, server system, and image providing method for vehicle | |
KR20200114054A (en) | In-vehicle avatar processing apparatus and method of controlling the same | |
JP2014036326A (en) | Bird's eye image display device | |
US20210174127A1 (en) | Image processing device, image processing method, and program | |
US20230343108A1 (en) | Systems and methods for detecting projection attacks on object identification systems | |
WO2018150888A1 (en) | Information recording device, information recording method, and information recording program | |
WO2019049709A1 (en) | Image processing device, image processing method, and image display system | |
JP6922169B2 (en) | Information processing equipment and methods, vehicles, and information processing systems | |
JP2019532540A (en) | Method for supporting a driver of a power vehicle when driving the power vehicle, a driver support system, and the power vehicle | |
US10605616B2 (en) | Image reproducing device, image reproducing system, and image reproducing method | |
KR20180094717A (en) | Driving assistance apparatus using avm | |
JP2019169042A (en) | Viewpoint switching device and viewpoint switching method | |
KR100833603B1 (en) | Navigation system for providing bird view and method thereof | |
JP7021899B2 (en) | Image generator and image generation method | |
WO2020008876A1 (en) | Information processing device, information processing method, program, and mobile body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210303 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |