JP2019169042A - Viewpoint switching device and viewpoint switching method - Google Patents

Viewpoint switching device and viewpoint switching method Download PDF

Info

Publication number
JP2019169042A
JP2019169042A JP2018057710A JP2018057710A JP2019169042A JP 2019169042 A JP2019169042 A JP 2019169042A JP 2018057710 A JP2018057710 A JP 2018057710A JP 2018057710 A JP2018057710 A JP 2018057710A JP 2019169042 A JP2019169042 A JP 2019169042A
Authority
JP
Japan
Prior art keywords
image
viewpoint
vehicle
viewing direction
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018057710A
Other languages
Japanese (ja)
Inventor
春樹 白石
Haruki Shiraishi
春樹 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018057710A priority Critical patent/JP2019169042A/en
Publication of JP2019169042A publication Critical patent/JP2019169042A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a viewpoint switching technique capable of easily recognizing how a person around a movable body sees the movable body.SOLUTION: The viewpoint switching device includes an acquisition unit, an estimation unit, and an image generation unit. The acquisition unit acquires a photographed image obtained by a camera photographing the periphery of a movable body. The estimation unit estimates a viewpoint position and a view direction of a person photographed in the photographed image. The image generation unit generates an image viewed from the viewpoint position and the view direction.SELECTED DRAWING: Figure 1

Description

本発明は、画像の視点を切り替える技術に関する。   The present invention relates to a technique for switching the viewpoint of an image.

従来、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等を目的として、ヒヤリハット画像を記録するドライブレコーダが提案されている(例えば特許文献1参照)。ヒヤリハットとは、 ドライバーが車両を運転している際に、重大な災害や事故には至らないものの、重大な災害や事故に直結してもおかしくない一歩手前の事象のことをいう。このヒヤリハットという名称は、当該事象に直面したドライバーが「ヒヤリ」としたり「ハット」したりすることに由来している。   2. Description of the Related Art Conventionally, a drive recorder that records a near-miss image has been proposed for the purpose of monitoring a driver's safe driving situation by a transportation company, education on safe driving for a driver, and the like (see, for example, Patent Document 1). A near-miss is an event that is one step ahead of a serious disaster or accident that does not lead to a serious disaster or accident when the driver is driving the vehicle. The name of the near-miss is derived from the fact that the driver who faces the event makes a “close” or “hat”.

特開2010−79825号公報JP 2010-79825 A

特許文献1で提案されているドライブレコーダは、ヒヤリハット画像として、ヒヤリハットが発生したときの前方監視カメラの撮影画像を保存している。   The drive recorder proposed in Patent Document 1 stores a photographed image of the front monitoring camera when a near-miss occurs as a near-miss image.

しかしながら、特許文献1で提案されているドライブレコーダによって保存されるヒヤリハット画像を解析しても、当該ドライブレコーダを搭載している車両(自車両)の周囲にいる者(周囲者)から自車両がヒヤリハット発生時にどのように見えていて周囲者が自車両に対してヒヤリハット発生時にどのような印象を持ったかという観点から解析することができなかった。   However, even if the near-miss image stored by the drive recorder proposed in Patent Document 1 is analyzed, the own vehicle can be detected by a person (surrounding person) around the vehicle (own vehicle) on which the drive recorder is mounted. It was not possible to analyze from the viewpoint of how it looked when a near-miss occurred and what the surrounding people had about the vehicle when the near-hat occurred.

本発明は、上記の課題に鑑み、移動体の周囲にいる者から当該移動体がどのように見えているかを容易に確認することができる視点切替技術を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a viewpoint switching technique capable of easily confirming how a moving body is viewed from a person around the moving body.

本発明に係る視点切替装置は、移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得部と、前記撮影画像に写っている人物の視点位置及び視方向を推定する推定部と、前記視点位置及び前記視方向から見た画像を生成する画像生成部と、を備える構成(第1の構成)である。   A viewpoint switching device according to the present invention includes an acquisition unit that acquires a captured image obtained by a camera that captures the periphery of a moving body, an estimation unit that estimates a viewpoint position and a viewing direction of a person shown in the captured image, and An image generation unit that generates an image viewed from the viewpoint position and the viewing direction (first configuration).

上記第1の構成の視点切替装置において、前記推定部は、前記視方向の仰角又は俯角を前記視点位置の高さに基づいて推定する構成(第2の構成)であってもよい。   In the viewpoint switching device having the first configuration, the estimation unit may be configured to estimate an elevation angle or depression angle in the viewing direction based on a height of the viewpoint position (second configuration).

上記第1又は第2の構成の視点切替装置において、前記推定部は、前記撮影画像に写っている人物のうち所定の行動をとっていることが検出された人物を対象として、前記視点位置及び前記視方向を推定する構成(第3の構成)であってもよい。   In the viewpoint switching device having the first or second configuration, the estimation unit is configured to target the person detected to be performing a predetermined action among the persons shown in the captured image, and the viewpoint position and A configuration for estimating the viewing direction (third configuration) may be used.

上記第1〜第3いずれかの構成の視点切替装置において、前記推定部は、前記移動体を運転する運転者の視方向に関する情報を取得し、前記撮影画像に写っている人物のうち前記運転者の視線が向けられたことが検出された人物を対象として、前記視点位置及び前記視方向を推定する構成(第4の構成)であってもよい。   In the viewpoint switching device having any one of the first to third configurations, the estimation unit acquires information related to a viewing direction of a driver who drives the moving body, and the driving among the persons shown in the captured image. It may be a configuration (fourth configuration) for estimating the viewpoint position and the viewing direction for a person who is detected to be directed by the person's line of sight.

上記第1〜第4いずれかの構成の視点切替装置において、前記画像生成部は、3次元地図情報と前記移動体の位置情報とに基づいて、前記視点位置及び前記視方向から見た画像を生成し、前記視点位置及び前記視方向から見た画像は、地図画像内の前記移動体の位置に前記移動体を表す像が重畳された画像である構成(第5の構成)であってもよい。   In the viewpoint switching device having any one of the first to fourth configurations, the image generation unit is configured to display an image viewed from the viewpoint position and the viewing direction based on three-dimensional map information and position information of the moving body. Even if the image generated and viewed from the viewpoint position and the viewing direction is an image in which an image representing the moving body is superimposed on the position of the moving body in a map image (fifth configuration) Good.

上記第5の構成の視点切替装置において、前記画像生成部は、前記移動体の挙動に関する情報を取得し、前記移動体の挙動に関する情報に基づいて前記移動体を表す像の動きを調整する構成(第6の構成)であってもよい。   In the viewpoint switching device having the fifth configuration, the image generation unit acquires information related to the behavior of the moving object, and adjusts the movement of an image representing the moving object based on the information related to the behavior of the moving object. (6th structure) may be sufficient.

本発明に係る視点切替方法は、移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得工程と、前記撮影画像に写っている人物の視点位置及び視方向を推定する推定工程と、前記視点位置及び前記視方向から見た画像を生成する画像生成工程と、を備える構成(第7の構成)である。   The viewpoint switching method according to the present invention includes an acquisition process of acquiring a captured image obtained by a camera that captures the periphery of a moving object, an estimation process of estimating a viewpoint position and a viewing direction of a person shown in the captured image, and And an image generation step of generating an image viewed from the viewpoint position and the viewing direction (seventh configuration).

本発明によれば、移動体の周囲にいる者から当該移動体がどのように見えているかを容易に確認することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can confirm easily how the said mobile body is seen from the person around the mobile body.

通信システムの一構成例を示す図The figure which shows the example of 1 structure of a communication system ドライブレコーダの概要を説明するための図Diagram for explaining the outline of the drive recorder ドライブレコーダの一構成例を示す図The figure which shows the example of 1 structure of a drive recorder センターサーバの動作例を示すフローチャートFlow chart showing an example of operation of the center server 自分目線の地図画像の表示例を示す図The figure which shows the example of a display of the map image of one's eyes 相手目線の地図画像の表示例を示す図The figure which shows the example of a display of the map image of an other party's eyes 4つの車載カメラが車両に配置される位置を例示する図The figure which illustrates the position where four in-vehicle cameras are arranged in a vehicle 仮想投影面の例を示す図Diagram showing an example of a virtual projection plane

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

<1.通信システムの構成例>
図1は、通信システムの一構成例を示す図である。図1に示す通信システムは、ドライブレコーダ1と、センターサーバ2と、クライアントサーバ3と、を備える。図1では、ドライブレコーダ1及びクライアントサーバ3をそれぞれ一つしか図示していないが、本実施形態ではセンターサーバ2は、複数のドライブレコーダ1と通信を行うとともに複数のクライアントサーバ3と通信を行う。ドライブレコーダ1がタクシーに搭載される場合、例えば各々のクライアントサーバ3は各タクシー会社に配置するとよい。
<1. Configuration example of communication system>
FIG. 1 is a diagram illustrating a configuration example of a communication system. The communication system shown in FIG. 1 includes a drive recorder 1, a center server 2, and a client server 3. Although only one drive recorder 1 and one client server 3 are shown in FIG. 1, in this embodiment, the center server 2 communicates with a plurality of drive recorders 1 and communicates with a plurality of client servers 3. . When the drive recorder 1 is installed in a taxi, for example, each client server 3 may be arranged in each taxi company.

<2.センターサーバの構成例>
図1に示すように、センターサーバ2は、通信部21と、制御部22と、記憶部23と、を備える。
<2. Configuration example of center server>
As shown in FIG. 1, the center server 2 includes a communication unit 21, a control unit 22, and a storage unit 23.

通信部21は、不図示のネットワークを介して複数のドライブレコーダ1及び複数のクライアントサーバ3とデータ通信を行う。   The communication unit 21 performs data communication with a plurality of drive recorders 1 and a plurality of client servers 3 via a network (not shown).

記憶部23は、各種の情報を不揮発的に記憶する。記憶部23としては、例えばハードディスクドライブ等を用いることができる。本実施形態において、記憶部23は、3次元地図情報23aと、プログラム23bと、ドライバー情報データベース23cと、ヒヤリハット画像23dと、を記憶している。   The storage unit 23 stores various types of information in a nonvolatile manner. As the storage unit 23, for example, a hard disk drive or the like can be used. In the present embodiment, the storage unit 23 stores three-dimensional map information 23a, a program 23b, a driver information database 23c, and a near-miss image 23d.

3次元地図情報23aは、建物、路面、白線、道路標識、路面標示のデータ(3次元位置、3次元形状、色等)を有する地図情報である。後述する画像生成部22cは、3次元地図情報23aに基づいて、任意の視点からの任意の視方向の地図画像を作成することができる。ここで、視方向とは、視点の位置から画像や物体等の視認対象物を視る方向である。   The three-dimensional map information 23a is map information having data (three-dimensional position, three-dimensional shape, color, etc.) of buildings, road surfaces, white lines, road signs, and road markings. The image generation unit 22c described later can create a map image in an arbitrary viewing direction from an arbitrary viewpoint based on the three-dimensional map information 23a. Here, the viewing direction is a direction in which a visual target such as an image or an object is viewed from the viewpoint position.

プログラム23bは、センターサーバ2は視点切替装置として機能させるためのプログラムである。   The program 23b is a program for causing the center server 2 to function as a viewpoint switching device.

ドライバー情報データベース23cは、ドライバーの識別情報(例えば運転免許証番号等)と、ドライバーの属性情報(例えば性別、年代等)とが関連付けられているデータベースである。   The driver information database 23c is a database in which driver identification information (for example, a driver's license number) is associated with driver attribute information (for example, gender, age, etc.).

ヒヤリハット画像23dは、ヒヤリハットが発生したときの撮影画像であり、ドライブレコーダ1からセンターサーバ2にアップロードされる画像である。ヒヤリハット画像23dは、ヒヤリハットが発生したときの静止画像であってもよいが、ヒヤリハットが発生した直前から直後までの一定期間の動画であることが望ましい。ヒヤリハット画像23dを上記のような動画にすることによって、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等がより効果的になるからである。   The near-miss image 23d is a photographed image when a near-miss occurs, and is an image uploaded from the drive recorder 1 to the center server 2. The near-miss image 23d may be a still image when a near-miss occurs, but is preferably a moving image of a certain period from just before the near-miss occurs to immediately after. This is because, by making the near-miss image 23d as a moving image as described above, monitoring of the driver's safe driving situation by the carrier, education on the driver's safe driving, and the like become more effective.

制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。制御部22は、記憶部23等と接続され、記憶部23に記憶されたプログラム23bに基づいて情報の処理及び送受信を行い、センターサーバ2の全体を制御する。   The control unit 22 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The control unit 22 is connected to the storage unit 23 and the like, and processes and transmits / receives information based on the program 23b stored in the storage unit 23, thereby controlling the entire center server 2.

制御部22は、取得部22aと、推定部22bと、画像生成部22cと、を備えている。記憶部23に記憶されたプログラム23bにしたがってCPUが演算処理を実行することにより、取得部22a等の制御部22の各種機能が実現され、センターサーバ2は視点切替装置として機能する。   The control unit 22 includes an acquisition unit 22a, an estimation unit 22b, and an image generation unit 22c. When the CPU executes arithmetic processing according to the program 23b stored in the storage unit 23, various functions of the control unit 22 such as the acquisition unit 22a are realized, and the center server 2 functions as a viewpoint switching device.

取得部22aは、ドライブレコーダ1ともに車両に搭載され当該車両の周辺を撮影するカメラで得られた撮影画像を取得する。   The acquisition unit 22a acquires a captured image obtained by a camera that is mounted on the vehicle together with the drive recorder 1 and captures the periphery of the vehicle.

推定部22bは、取得部22aによって取得された撮影画像に写っている人物の視点位置及び視方向を推定する。   The estimation unit 22b estimates the viewpoint position and viewing direction of the person shown in the captured image acquired by the acquisition unit 22a.

画像生成部22cは、推定部22bによって推定された視点位置及び視方向から見た画像を生成する。   The image generation unit 22c generates an image viewed from the viewpoint position and the viewing direction estimated by the estimation unit 22b.

<3.ドライブレコーダの構成例>
図2は、ドライブレコーダ1の概要を説明するための図である。ドライブレコーダ1は、車両4に搭載される。ドライブレコーダ1は、車両4の適所に配置される。
<3. Example of drive recorder configuration>
FIG. 2 is a diagram for explaining an outline of the drive recorder 1. The drive recorder 1 is mounted on the vehicle 4. The drive recorder 1 is disposed at an appropriate position of the vehicle 4.

ドライブレコーダ1は、車両4に搭載されるカメラ5によって撮影される車両周辺の画像を取得する。ドライブレコーダ1の記録方式は、例えば、カメラ5によって撮影された画像を含む運転状況に関する情報を定期的に記録媒体(不図示)に記録する常時記録方式であってもよく、白線からのはみ出し(車線逸脱)、急ブレーキ、衝突等のイベントが検出された場合に、カメラ5で撮影された画像、及び、イベント内容を含む画像以外の運転状況に関する情報を記録媒体に記録するイベント記録方式であってもよい。ドライブレコーダ1は、ヒヤリハットが検出された場合に、カメラ5で撮影された画像をヒヤリハット画像としてセンターサーバ2にアップロードする。ドライブレコーダ1は、ヒヤリハット画像に走行場所等の運転状況に関する情報を付随させる。ヒヤリハットの検出は、例えば急ブレーキ、急操舵、歩行者や他車両への接近等に基づいて実施される。   The drive recorder 1 acquires an image around the vehicle photographed by the camera 5 mounted on the vehicle 4. The recording method of the drive recorder 1 may be, for example, a constant recording method in which information related to the driving situation including images taken by the camera 5 is periodically recorded on a recording medium (not shown). Lane departure), sudden braking, collision, and other events are detected. This is an event recording method that records information on driving conditions other than images captured by the camera 5 and images including event contents on a recording medium. May be. When a near-miss is detected, the drive recorder 1 uploads an image captured by the camera 5 to the center server 2 as a near-miss image. The drive recorder 1 associates information on the driving situation such as the driving location with the near-miss image. The near-miss detection is performed based on, for example, sudden braking, sudden steering, approach to a pedestrian or another vehicle, and the like.

図3は、ドライブレコーダ1の一構成例を示す図である。ドライブレコーダ1は、装置全体を制御する制御部としてマイクロコンピュータを備える。詳細には、ドライブレコーダ1は、演算処理を行うことで各種の制御機能を実現するCPU11と、演算処理の作業領域となるRAM12と、各種のデータを記憶する不揮発性メモリ13と、を備える。不揮発性メモリ13は、例えばハードディスクやフラッシュメモリで構成される。不揮発性メモリ13は、ファームウェアとしてのプログラムや設定パラメータ等を記憶する。ドライブレコーダ1の各部を制御する機能は、不揮発性メモリ13に予め記憶されるプログラムに従ってCPU11が演算処理を実行することによって実現される。   FIG. 3 is a diagram illustrating a configuration example of the drive recorder 1. The drive recorder 1 includes a microcomputer as a control unit that controls the entire apparatus. Specifically, the drive recorder 1 includes a CPU 11 that realizes various control functions by performing arithmetic processing, a RAM 12 that is a work area for arithmetic processing, and a nonvolatile memory 13 that stores various data. The nonvolatile memory 13 is composed of, for example, a hard disk or a flash memory. The nonvolatile memory 13 stores a program as firmware, setting parameters, and the like. The function of controlling each part of the drive recorder 1 is realized by the CPU 11 executing arithmetic processing according to a program stored in advance in the nonvolatile memory 13.

ドライブレコーダ1には、カメラ5及びマイク6が接続される。カメラ5及びマイク6は、ドライブレコーダ1に含まれてよい。カメラ5は、レンズと撮像素子とを備え、電子的に画像データを取得することができる。本実施形態では、カメラ5は、その光軸が車両4の前方に向けられた状態でフロントガラスの上部付近に配置されている。カメラ5の数及び配置は、適宜変更されてよい。例えば、前方を撮影するフロントカメラと、後方を撮影するバックカメラとが備えられてよい。マイク6は、例えば、ドライブレコーダ1の本体部や車両4の適所に配置される。マイク6は、車両付近の音を集音して音声データを取得する。マイク6の数及び配置は、適宜変更されてよい。例えば、車両4の外部で発生する音を主として集音する車外音用マイクと、ドライバーが発する音声を主として集音する車内音用マイクとが備えられてよい。   A camera 5 and a microphone 6 are connected to the drive recorder 1. The camera 5 and the microphone 6 may be included in the drive recorder 1. The camera 5 includes a lens and an image sensor, and can acquire image data electronically. In the present embodiment, the camera 5 is disposed in the vicinity of the upper portion of the windshield with its optical axis directed toward the front of the vehicle 4. The number and arrangement of the cameras 5 may be changed as appropriate. For example, a front camera for photographing the front and a back camera for photographing the rear may be provided. For example, the microphone 6 is disposed at a proper position of the main body of the drive recorder 1 or the vehicle 4. The microphone 6 collects sound near the vehicle and acquires audio data. The number and arrangement of the microphones 6 may be changed as appropriate. For example, an external sound microphone that mainly collects sound generated outside the vehicle 4 and an in-vehicle sound microphone that mainly collects sound emitted by the driver may be provided.

ドライブレコーダ1は、カメラ5で撮影された画像データを処理する画像処理部14を備える。本実施形態では、画像処理部14はハードウェア回路である。画像処理部14は、カメラ5から入力される画像データの信号に対して所定の画像処理を行い、所定の形式のデジタル画像データを生成する。所定の画像処理には、例えば、A/D変換、輝度補正、コントラスト補正等が含まれる。所定の形式は、例えばJPEG形式等であってよい。画像処理部14で処理された画像データは、RAM12に記憶される。   The drive recorder 1 includes an image processing unit 14 that processes image data captured by the camera 5. In the present embodiment, the image processing unit 14 is a hardware circuit. The image processing unit 14 performs predetermined image processing on a signal of image data input from the camera 5 to generate digital image data in a predetermined format. The predetermined image processing includes, for example, A / D conversion, luminance correction, contrast correction, and the like. The predetermined format may be, for example, the JPEG format. The image data processed by the image processing unit 14 is stored in the RAM 12.

RAM12の記憶領域のうちの一部は、リングバッファとして利用される。このリングバッファに対して、画像処理部14で処理された画像データ、及び、マイク6で取得された音声データが常時に記憶される。リングバッファでは、最後の領域までデータが記憶されると、最初の領域に戻って新たなデータが記憶される。すなわち、リングバッファでは、最も古いデータに対して新たなデータが順次に上書きされていく。このため、RAM12においては、常に過去一定時間分の画像データ及び音声データが記憶された状態になる。   A part of the storage area of the RAM 12 is used as a ring buffer. In the ring buffer, image data processed by the image processing unit 14 and audio data acquired by the microphone 6 are always stored. In the ring buffer, when data is stored up to the last area, it returns to the first area and new data is stored. That is, in the ring buffer, new data is sequentially overwritten on the oldest data. For this reason, the RAM 12 is always in a state where image data and audio data for a certain past time are stored.

ドライブレコーダ1は、運転者等からの指示を受け付ける操作部7に接続されている。操作部7はドライブレコーダ1に含まれてよい。操作部7は、運転者等が操作しやすいように、ステアリングホイール(不図示)の近傍等、車両4の適所に配置される。また、ドライブレコーダ1は、カードスロット15と、計時回路16と、加速度センサ17と、GPS(Global Positioning System)受信部18と、通信部19と、を備える。   The drive recorder 1 is connected to an operation unit 7 that receives an instruction from a driver or the like. The operation unit 7 may be included in the drive recorder 1. The operation unit 7 is disposed at an appropriate position of the vehicle 4 such as in the vicinity of a steering wheel (not shown) so that the driver can easily operate the operation unit 7. Further, the drive recorder 1 includes a card slot 15, a timing circuit 16, an acceleration sensor 17, a GPS (Global Positioning System) receiving unit 18, and a communication unit 19.

カードスロット15は、メモリカード8を着脱可能に構成される。なお、メモリカード8の代わりに、ハードディスクドライブ、光ディスク、光磁気ディスク、フレキシブルディスク等の他の記録媒体を用いてもよい。   The card slot 15 is configured so that the memory card 8 can be attached and detached. Instead of the memory card 8, another recording medium such as a hard disk drive, an optical disk, a magneto-optical disk, or a flexible disk may be used.

RAM12のリングバッファに記憶された画像データ及び音声データ等は、CPU11の指示によって定期的にカードスロット15に装着されたメモリカード8に記録される。   Image data, audio data, and the like stored in the ring buffer of the RAM 12 are periodically recorded in the memory card 8 mounted in the card slot 15 according to an instruction from the CPU 11.

計時回路16は、現在時刻に対応した信号を発生してCPU11に出力する。   The timer circuit 16 generates a signal corresponding to the current time and outputs it to the CPU 11.

加速度センサ17は、車両4に加わる衝撃の大きさを示す加速度を、重力加速度のGを単位として検出する。検出される加速度は、現在時刻における加速度の瞬間値であり、例えば、互いに直交する3軸あるいは2軸に応じた向きに大きさを持つ。加速度センサ17は、このような加速度に対応した信号をCPU11に出力する。   The acceleration sensor 17 detects acceleration indicating the magnitude of impact applied to the vehicle 4 in units of G of gravitational acceleration. The detected acceleration is an instantaneous value of acceleration at the current time, and has a magnitude in a direction corresponding to, for example, three or two axes orthogonal to each other. The acceleration sensor 17 outputs a signal corresponding to such acceleration to the CPU 11.

GPS受信部18は、複数のGPS衛星からの信号を受信して、現在時刻における車両4の位置である自車位置を取得する。GPS受信部18は、地球上における経度緯度で表現された位置情報として自車位置を取得して、CPU11に出力する。なお、GPS受信部18は、GPS衛星からの信号に基づき、正確な時刻を検出できる。このために、GPS受信部18が、計時回路16に代わりに用いられてもよい。また、GPS受信部18は、計時回路16の時刻を修正するために利用されてよい。   The GPS receiver 18 receives signals from a plurality of GPS satellites, and acquires the vehicle position that is the position of the vehicle 4 at the current time. The GPS receiving unit 18 acquires the vehicle position as position information expressed by longitude and latitude on the earth, and outputs the acquired position to the CPU 11. The GPS receiving unit 18 can detect an accurate time based on a signal from a GPS satellite. For this purpose, the GPS receiver 18 may be used in place of the timer circuit 16. The GPS receiver 18 may be used to correct the time of the time measuring circuit 16.

通信部19は、ネットワークを介してセンターサーバ2の通信部21との間でデータの送受信を行う。   The communication unit 19 transmits / receives data to / from the communication unit 21 of the center server 2 via the network.

その他、CPU11には、不図示のCAN(Controller Area Network)バスを介して、車速センサからのデータ等を含む車両走行情報が入力される。車両走行情報には、操舵情報、ブレーキ情報、アクセル情報等が含まれてよい。さらに、CPU11は、不図示のCANを介して、ナビゲーション装置や車両制御ECU(Electronic Control Unit)と接続されてよい。   In addition, vehicle travel information including data from a vehicle speed sensor is input to the CPU 11 via a not-shown CAN (Controller Area Network) bus. The vehicle travel information may include steering information, brake information, accelerator information, and the like. Further, the CPU 11 may be connected to a navigation device or a vehicle control ECU (Electronic Control Unit) via a CAN (not shown).

<4.センターサーバの動作例>
図4は、センターサーバ2の一動作例を示すフローチャートである。センターサーバ2は、ドライブレコーダ1からヒヤリハット画像を通信部21が受信する度に図4に示すフロー動作を行う。
<4. Operation example of center server>
FIG. 4 is a flowchart illustrating an operation example of the center server 2. The center server 2 performs the flow operation shown in FIG. 4 every time the communication unit 21 receives a near-miss image from the drive recorder 1.

まず、取得部22aがヒヤリハット画像を取得する(ステップS10)。   First, the acquisition unit 22a acquires a near-miss image (step S10).

次に、画像生成部22cは、ヒヤリハット画像に付随している走行位置情報及び車両4の進行方向情報と3次元地図情報23aとに基づいて、車両4を運転するドライバーの視点からの車両4の進行方向に沿った視方向の地図画像(以下、自分目線の地図画像)を作成する(ステップS20)。また、画像生成部22cは、ヒヤリハット画像を画像認識して、歩行者、自転車、他車両等の3次元地図情報に含まれていないオブジェクトを抽出し、当該オブジェクトに対応するCG(Computer Graphics)画像を、自分目線の地図画像内の当該オブジェクトが存在するはずの位置に重畳する。したがって、歩行者、自転車、他車両等の典型的なオブジェクトに関しては、各オブジェクトに対応する各CG画像を予め記憶部23に記憶させておくとよい。撮影画像であるヒヤリハット画像の代わりに地図画像を利用することで、ヒヤリハット画像に写り込んでいる人物等のプライバシーを保護することができる。   Next, the image generation unit 22c determines the vehicle 4 from the viewpoint of the driver driving the vehicle 4 based on the traveling position information attached to the near-miss image, the traveling direction information of the vehicle 4, and the three-dimensional map information 23a. A map image in the viewing direction along the traveling direction (hereinafter referred to as a map image of one's own eyes) is created (step S20). In addition, the image generation unit 22c recognizes the near-miss image, extracts objects that are not included in the three-dimensional map information such as pedestrians, bicycles, and other vehicles, and generates a CG (Computer Graphics) image corresponding to the objects. Is superimposed on the position where the object should exist in the map image of the user's line of sight. Therefore, for typical objects such as pedestrians, bicycles, and other vehicles, it is preferable to store each CG image corresponding to each object in the storage unit 23 in advance. By using a map image instead of a near-miss image that is a captured image, it is possible to protect the privacy of a person or the like reflected in the near-miss image.

図5は、自分目線の地図画像の表示例である。自分目線の地図画像の表示は、クライアントサーバ3に接続される表示装置によって行われる。図5に示す自分目線の地図画像は、自転車に対応するCG画像A1を含んでいる。また、図5に示す自分目線の地図画像は、後述する相手目線の地図画像に表示を切り替えるためのソフトウェアキーA2も含んでいる。タッチパネルやポインティングデバイス等の操作装置を用いてソフトウェアキーA2をキー操作することで、図5に示す自分目線の地図画像から、後述する相手目線の地図画像に表示を切り替えることができる。   FIG. 5 is a display example of a map image of one's own eyes. The display of the map image of the self-view is performed by a display device connected to the client server 3. 5 includes a CG image A1 corresponding to a bicycle. The self-viewing map image shown in FIG. 5 also includes a software key A2 for switching the display to a partner-viewing map image to be described later. By operating the software key A2 using an operation device such as a touch panel or a pointing device, the display can be switched from the map image of the user's line of sight shown in FIG.

図4に戻って、ステップS20に続くステップS30において、推定部22bは、取得部22aによって取得されたヒヤリハット画像に写っている人物の視点位置及び視方向を推定する。取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、推定部22bは、1人1人の視点位置及び視方向を推定する。また、推定部22bは、ヒヤリハット画像を画像認識して、ヒヤリハット画像に写っている人物を抽出し、例えば抽出した位置から視点の位置を推定し、例えばヒヤリハット画像に写っている人物の顔の向きを認識し、認識した顔の向きによって視方向を推定すればよい。   Returning to FIG. 4, in step S <b> 30 following step S <b> 20, the estimation unit 22 b estimates the viewpoint position and viewing direction of the person shown in the near-miss image acquired by the acquisition unit 22 a. When there are a plurality of persons shown in the near-miss image acquired by the acquisition unit 22a, the estimation unit 22b estimates the viewpoint position and viewing direction of each person. In addition, the estimation unit 22b recognizes the near-miss image, extracts a person appearing in the near-miss image, estimates the position of the viewpoint from, for example, the extracted position, and, for example, the face direction of the person shown in the near-miss image And the viewing direction may be estimated from the direction of the recognized face.

なお、推定部22bは、最初に視点位置を推定し、次にその推定した視点位置の高さに基づいて視方向の仰角又は俯角を推定することが望ましい。例えば、取得部22aによって取得されたヒヤリハット画像に写っている人物が子供である場合は、大人である場合に比べて視点位置の高さが低くなるため、視方向の仰角が大きくなると推定すればよい。また例えば、取得部22aによって取得されたヒヤリハット画像に写っている人物がトラックに搭乗している運転者である場合は、歩行者である場合に比べて視点位置の高さが高くなるため、視方向の俯角が大きくなると推定すればよい。   It is desirable that the estimating unit 22b first estimates the viewpoint position, and then estimates the elevation angle or depression angle of the viewing direction based on the estimated height of the viewpoint position. For example, if the person shown in the near-miss image acquired by the acquisition unit 22a is a child, the height of the viewpoint position is lower than that of an adult, so that it is estimated that the elevation angle in the viewing direction is increased. Good. In addition, for example, when the person in the near-miss image acquired by the acquisition unit 22a is a driver on a truck, the viewpoint position is higher than the case of a pedestrian, What is necessary is just to estimate that the depression angle of a direction becomes large.

上記のように視点位置の高さに基づいて視方向の仰角又は俯角を推定することにより、顔の水平方向に関する向きからでは推定が困難である視方向の仰角又は俯角を推定することが可能となる。   By estimating the elevation angle or depression angle of the viewing direction based on the height of the viewpoint position as described above, it is possible to estimate the elevation angle or depression angle of the viewing direction that is difficult to estimate from the orientation of the face in the horizontal direction. Become.

ステップS30に続くステップS40において、画像生成部22cは、ヒヤリハット画像に付随している走行位置情報と推定部22bの推定結果と3次元地図情報23aとに基づいて、取得部22aによって取得されたヒヤリハット画像に写っている人物の視点及び視方向の地図画像(以下、相手目線の地図画像)を作成する。この相手目線の地図画像を確認することにより、車両4の周囲にいる者から車両4がどのように見えているかを容易に確認することができる。   In step S40 subsequent to step S30, the image generation unit 22c detects the near-miss acquired by the acquisition unit 22a based on the traveling position information attached to the near-miss image, the estimation result of the estimation unit 22b, and the three-dimensional map information 23a. A map image of the viewpoint and viewing direction of a person shown in the image (hereinafter, a map image of the other party's line of sight) is created. By confirming the map image of the other party's line of sight, it is possible to easily confirm how the vehicle 4 is seen by those around the vehicle 4.

取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、画像生成部22cは、1人1人の相手目線の地図画像を作成する。また、画像生成部22cは、車両4に対応するCG画像を、相手目線の地図画像内の車両4が存在するはずの位置に重畳する。したがって、車両4に対応するCG画像を予め記憶部23に記憶させておくとよい。また、相手目線の地図画像内に歩行者、自転車、他車両等の3次元地図情報に含まれていないオブジェクトが存在するはずの位置があれば、画像生成部22cは、自分目線の地図画像の場合と同様に、当該オブジェクトに対応するCG画像を、相手目線の地図画像内の当該オブジェクトが存在するはずの位置に重畳する。撮影画像であるヒヤリハット画像の代わりに地図画像を利用することで、ヒヤリハット画像に写り込んでいる人物等のプライバシーを保護することができる。   When there are a plurality of persons in the near-miss image acquired by the acquisition unit 22a, the image generation unit 22c creates a map image of each person's eyes. Moreover, the image generation part 22c superimposes the CG image corresponding to the vehicle 4 on the position where the vehicle 4 should exist in the map image of the opponent's line of sight. Therefore, a CG image corresponding to the vehicle 4 may be stored in the storage unit 23 in advance. If there is a position where an object not included in the three-dimensional map information such as a pedestrian, a bicycle, or another vehicle is present in the map image of the other party's line of sight, the image generating unit 22c As in the case, the CG image corresponding to the object is superimposed on the position where the object should exist in the map image of the other party's line of sight. By using a map image instead of a near-miss image that is a captured image, it is possible to protect the privacy of a person or the like reflected in the near-miss image.

図6は、相手目線の地図画像の表示例である。相手目線の地図画像の表示は、クライアントサーバ3に接続される表示装置によって行われる。図6に示す相手目線の地図画像は、車両に対応するCG画像A3を含んでいる。また、図6に示す自分目線の地図画像は、上述した図5に示す自分目線の地図画像に表示を切り替えるためのソフトウェアキーA4も含んでいる。タッチパネルやポインティングデバイス等の操作装置を用いてソフトウェアキーA4をキー操作することで、図6に示す相手目線の地図画像から、上述した図5に示す相手目線の地図画像に表示を切り替えることができる。   FIG. 6 is a display example of a map image of the other party's line of sight. The display of the map image of the other party's eye is performed by a display device connected to the client server 3. The map image of the other party's line of sight shown in FIG. 6 includes a CG image A3 corresponding to the vehicle. 6 also includes a software key A4 for switching the display to the map image of the user's own line shown in FIG. 5 described above. By operating the software key A4 using an operation device such as a touch panel or a pointing device, the display can be switched from the map image of the partner line of sight shown in FIG. 6 to the map image of the partner line of sight shown in FIG. .

なお、相手目線の地図画像が動画である場合、画像生成部22cが、ヒヤリハット画像に付随している車両4の走行位置に基づいて、相手目線の地図画像内の車両4が存在するはずの位置を求めても、車両4の走行位置の精度がさほど高くないため、相手目線の地図画像において車両4に対応するCG画像の動きを実際の車両4の動きに合わすことができない。そこで、相手目線の地図画像が動画である場合、画像生成部22cが、ヒヤリハット画像に付随している車両4の挙動に関する情報(操舵情報、ブレーキ情報、アクセル情報など)に基づいて、相手目線の地図画像内の車両4が存在するはずの位置を調整することが望ましい。これにより、車両4の走行位置の精度がさほど高くなくても、相手目線の地図画像において車両4に対応するCG画像の動きを実際の車両4の動きに近づけることができる。   In addition, when the map image of the opponent's line of sight is a moving image, the image generation unit 22c is based on the traveling position of the vehicle 4 attached to the near-miss image, and the position where the vehicle 4 should exist in the map image of the opponent's However, since the accuracy of the traveling position of the vehicle 4 is not so high, the movement of the CG image corresponding to the vehicle 4 in the map image of the opponent's line of sight cannot be matched with the actual movement of the vehicle 4. Therefore, when the map image of the opponent's line of sight is a moving image, the image generation unit 22c determines the opponent's line of sight based on information (steering information, brake information, accelerator information, etc.) related to the behavior of the vehicle 4 attached to the near-miss image. It is desirable to adjust the position where the vehicle 4 should exist in the map image. Thereby, even if the accuracy of the traveling position of the vehicle 4 is not so high, the movement of the CG image corresponding to the vehicle 4 in the map image of the opponent's line of sight can be brought close to the actual movement of the vehicle 4.

ステップS40に続くステップS50において、制御部22は、同一のヒヤリハット画像に関連する自分目線の地図画像と相手目線の地図画像とを紐づける。また、この紐づけにおいて、ヒヤリハット画像に付随している情報を自分目線の地図画像及び相手目線の地図画像にも付随させる。   In step S50 following step S40, the control unit 22 associates the map image of the subject's line of sight and the map image of the partner's line of sight related to the same near-miss image. Further, in this association, information associated with the near-miss image is also associated with the map image of the subject's eyes and the map image of the opponent's eyes.

センターサーバ2は、自分目線の地図画像と相手目線の地図画像をステップS50の紐づけが終わる度にクライアントサーバ3に送信してもよく、自分目線の地図画像と相手目線の地図画像を定期的に(例えば、週に一回、月に一回等)クライアントサーバ3に送信してもよい。例えばドライブレコーダ1がタクシーに搭載される場合、センターサーバ2が各々のクライアントサーバ3に送信する地図画像は、上述したようにプライバシー保護が図られているため、クライアントサーバ3と異なるタクシー会社に属するタクシーに搭載されたドライブレコーダ1から送信されたヒヤリハット画像に関連する地図画像を含むことが望ましい。これにより、異なるタクシー会社に属するタクシーに搭載されたドライブレコーダ1から送信されたヒヤリハット画像に関連する地図画像も確認することができるようになるため、ヒヤリハットの事例が豊富になり、運送事業者によるドライバーの安全運転状況の監視やドライバーへの安全運転に関する教育等がより効果的になる。   The center server 2 may transmit the map image of the user's line of sight and the map image of the other party's line of sight to the client server 3 every time the association in step S50 is completed, (For example, once a week, once a month, etc.) may be transmitted to the client server 3. For example, when the drive recorder 1 is mounted on a taxi, the map image transmitted from the center server 2 to each client server 3 is protected for privacy as described above, and therefore belongs to a taxi company different from the client server 3. It is desirable to include a map image related to the near-miss image transmitted from the drive recorder 1 mounted on the taxi. As a result, the map image related to the near-miss image transmitted from the drive recorder 1 installed in a taxi belonging to a different taxi company can also be confirmed. Monitoring of driver's safe driving situation and education for driver's safe driving become more effective.

<5.変形例>
上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
<5. Modification>
The above-described embodiment is an example in all respects and should not be considered as limiting, and the technical scope of the present invention is indicated by the scope of the claims, not the description of the above-described embodiment. Therefore, it should be understood that all modifications that come within the meaning and range of equivalency of the claims are embraced.

上述した実施形態では、取得部22aによって取得されたヒヤリハット画像に写っている人物が複数存在する場合、推定部22bが、1人1人の視点位置及び視方向を推定している。しかしながら、取得部22aによって取得されたヒヤリハット画像に写っている人物が多数存在する場合、相手目線の地図画像も多数作成されることになり、相手目線の地図画像を確認する作業が繁雑になる。   In the embodiment described above, when there are a plurality of persons in the near-miss image acquired by the acquisition unit 22a, the estimation unit 22b estimates the viewpoint position and viewing direction of each person. However, when there are many persons appearing in the near-miss image acquired by the acquisition unit 22a, a large number of map images of the opponent's line of sight are also created, and it is complicated to check the map image of the opponent's line of sight.

そこで、推定部22bが、取得部22aによって取得されたヒヤリハット画像に写っている人物のうち所定の行動をとっていることが検出された人物を対象として、視点位置及び視方向を推定するようにしてもよい。これにより、相手目線の地図画像を、例えば危険を感じた人物の視点位置及び視方向から見た画像に限定すること等が可能となる。所定の行動としては、例えば歩行者であれば急な立ち止まり、車両に搭乗しているドライバーであれば急ブレーキ操作や急操舵操作等を挙げることができる。所定の行動の検出は、例えばヒヤリハット画像の画像認識により実行することができる。   Therefore, the estimation unit 22b estimates the viewpoint position and the viewing direction for a person who has been detected to be performing a predetermined action among the persons shown in the near-miss image acquired by the acquisition unit 22a. May be. This makes it possible to limit the map image of the other party's line of sight to, for example, an image viewed from the viewpoint position and viewing direction of a person who feels danger. Examples of the predetermined action include a sudden stop for a pedestrian and a sudden brake operation or a sudden steering operation for a driver on the vehicle. The detection of the predetermined action can be executed by image recognition of a near-miss image, for example.

また上記の変形に加えて、又は、上記の変形に代えて、推定部22bが、車両4を運転するドライバーの視方向に関する情報を取得し、取得部22aによって取得されたヒヤリハット画像に写っている人物のうち車両4を運転するドライバーの視線が向けられたことが検出された人物を対象として、視点位置及び視方向を推定するようにしてもよい。これにより、相手目線の地図画像を、例えば車両4を運転するドライバーがヒヤリハット時に注目した人物の視点位置及び視方向から見た画像に限定することが可能となる。車両4を運転するドライバーの視方向は、例えば車両4の車内にドライバーを監視するカメラを設け、ドライバーを監視するカメラの撮影画像から車両4を運転するドライバーの視方向を検出することができる。車両4を運転するドライバーの視方向に関する情報をヒヤリハット画像に付随させることで、推定部22bが、車両4を運転するドライバーの視方向に関する情報を取得することができる。   In addition to or in place of the above-described deformation, the estimation unit 22b acquires information on the viewing direction of the driver driving the vehicle 4 and is reflected in the near-miss image acquired by the acquisition unit 22a. You may make it estimate a viewpoint position and a viewing direction for the person in which it was detected that the eyes | visual_axis of the driver who drives the vehicle 4 was turned among the persons. This makes it possible to limit the map image of the other party's line of sight to, for example, an image viewed from the viewpoint position and viewing direction of the person that the driver driving the vehicle 4 noticed during the near-miss. As for the viewing direction of the driver driving the vehicle 4, for example, a camera that monitors the driver is provided in the vehicle 4, and the viewing direction of the driver driving the vehicle 4 can be detected from a captured image of the camera that monitors the driver. By causing information about the viewing direction of the driver driving the vehicle 4 to accompany the near-miss image, the estimation unit 22b can acquire information about the viewing direction of the driver driving the vehicle 4.

例えばカメラ5は、必ずしも自動車に搭載される必要はなく、自動車のほか、二輪車、鉄道、船舶等の移動体に用いられるものであればよい。   For example, the camera 5 does not necessarily have to be mounted on an automobile, and may be any camera that can be used for a moving body such as a motorcycle, a railway, and a ship in addition to the automobile.

例えば、上述した実施形態では、ヒヤリハット画像を対象として視点切替が実行されているが、視点切替の対象画像はヒヤリハット画像に限定されることはなく、例えば交通事故が発生したときの画像を視点切替の対象画像としてもよい。   For example, in the above-described embodiment, viewpoint switching is performed for a near-miss image, but the target image for viewpoint switching is not limited to the near-hat image, and for example, the viewpoint switching is performed when an traffic accident occurs. The target image may be used.

例えば、上述した実施形態では、3次元地図情報を用いて視点切替が実行されているが、撮影画像を仮想視点画像に変換することによって視点切替が実行されてもよい。   For example, in the above-described embodiment, viewpoint switching is performed using 3D map information, but viewpoint switching may be performed by converting a captured image into a virtual viewpoint image.

撮影画像を仮想視点画像に変換する場合、複数の車載カメラで撮影された撮影画像が用いられる。図7は、4つの車載カメラ(フロントカメラ51、バックカメラ52、左サイドカメラ53、及び右サイドカメラ54)が車両4に配置される位置を例示する図である。   When converting a captured image into a virtual viewpoint image, captured images captured by a plurality of in-vehicle cameras are used. FIG. 7 is a diagram illustrating positions where four on-vehicle cameras (front camera 51, back camera 52, left side camera 53, and right side camera 54) are arranged on the vehicle 4.

フロントカメラ51は車両4の前端に設けられる。フロントカメラ51の光軸51aは上からの平面視で車両4の前後方向に沿っている。フロントカメラ51は車両4の前方向を撮影する。バックカメラ52は車両4の後端に設けられる。バックカメラ52の光軸52aは上からの平面視で車両4の前後方向に沿っている。バックカメラ52は車両4の後方向を撮影する。フロントカメラ51及びバックカメラ52の取付位置は、車両4の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided at the front end of the vehicle 4. The optical axis 51a of the front camera 51 is along the front-rear direction of the vehicle 4 in plan view from above. The front camera 51 captures the front direction of the vehicle 4. The back camera 52 is provided at the rear end of the vehicle 4. The optical axis 52a of the back camera 52 is along the front-back direction of the vehicle 4 in plan view from above. The back camera 52 captures the rear direction of the vehicle 4. The mounting position of the front camera 51 and the back camera 52 is preferably the left and right center of the vehicle 4, but may be a position slightly deviated in the left and right direction from the left and right center.

左サイドカメラ53は車両4の左側ドアミラーM1に設けられる。左サイドカメラ53の光軸53aは上からの平面視で車両4の左右方向に沿っている。左サイドカメラ53は車両4の左方向を撮影する。右サイドカメラ54は車両4の右側ドアミラーM2に設けられる。右サイドカメラ54の光軸54aは上からの平面視で車両4の左右方向に沿っている。右サイドカメラ54は車両4の右方向を撮影する。なお、車両4がいわゆるドアミラーレス車である場合には、左サイドカメラ53は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ54は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。   The left side camera 53 is provided on the left door mirror M <b> 1 of the vehicle 4. The optical axis 53a of the left side camera 53 is along the left-right direction of the vehicle 4 in plan view from above. The left side camera 53 captures the left direction of the vehicle 4. The right side camera 54 is provided on the right door mirror M2 of the vehicle 4. The optical axis 54a of the right side camera 54 is along the left-right direction of the vehicle 4 in plan view from above. The right side camera 54 captures the right direction of the vehicle 4. When the vehicle 4 is a so-called door mirrorless vehicle, the left side camera 53 is attached around the rotation axis (hinge portion) of the left side door without a door mirror, and the right side camera 54 is a right side door. It is attached without a door mirror around the rotating shaft (hinge part).

各車載カメラの水平方向の画角θは180度以上である。このため、4つの車載カメラ(フロントカメラ51、バックカメラ52、左サイドカメラ53、及び右サイドカメラ54)によって、車両4の水平方向における全周囲を撮影することができる。なお、ここでは、車載カメラの数を4つとしているが、車載カメラの撮影画像を用いて後述する仮想視点画像を作成するために必要な車載カメラの数は4つに限られることはなく、複数のカメラであればよい。一例として、各車載カメラの水平方向の画角θが比較的広い場合は、4つよりも少ない3つのカメラから取得される3つの撮影画像に基づき仮想視点画像を生成してもよい。さらに、別の例として、各車載カメラの水平方向の画角θが比較的狭い場合は、4つよりも多い5つのカメラから得られる5つの撮影画像に基づき仮想視点画像を生成してもよい。   The horizontal angle of view θ of each in-vehicle camera is 180 degrees or more. Therefore, the entire periphery of the vehicle 4 in the horizontal direction can be photographed by the four in-vehicle cameras (front camera 51, back camera 52, left side camera 53, and right side camera 54). Here, the number of in-vehicle cameras is four, but the number of in-vehicle cameras necessary for creating a virtual viewpoint image to be described later using a captured image of the in-vehicle camera is not limited to four. A plurality of cameras may be used. As an example, when the horizontal angle of view θ of each in-vehicle camera is relatively wide, a virtual viewpoint image may be generated based on three captured images acquired from fewer than three cameras. Furthermore, as another example, when the horizontal angle of view θ of each in-vehicle camera is relatively narrow, a virtual viewpoint image may be generated based on five captured images obtained from more than five cameras. .

センターサーバ2の画像生成部22cは、4つの撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、画像生成部22cは、図8に示す仮想的な三次元空間における仮想投影面100の第1領域R1にフロントカメラ51の撮影画像を投影して、フロントカメラ51の撮影画像を第1の投影画像に変換する。同様に、画像生成部22cは、図8に示す仮想投影面100の第2〜第4領域R2〜R4それぞれにバックカメラ52の撮影画像、左サイドカメラ53の撮影画像、及び右サイドカメラ54の撮影画像を投影して、バックカメラ52の撮影画像、左サイドカメラ53の撮影画像、及び右サイドカメラ54の撮影画像それぞれを第2〜第4の投影画像に変換する。   The image generation unit 22c of the center server 2 projects four captured images on a virtual projection plane and converts them into projection images. Specifically, the image generation unit 22c projects the captured image of the front camera 51 onto the first region R1 of the virtual projection plane 100 in the virtual three-dimensional space illustrated in FIG. Conversion to the first projection image. Similarly, the image generation unit 22c captures the captured image of the back camera 52, the captured image of the left side camera 53, and the captured image of the right side camera 54 in each of the second to fourth regions R2 to R4 of the virtual projection plane 100 illustrated in FIG. The captured image is projected, and the captured image of the back camera 52, the captured image of the left side camera 53, and the captured image of the right side camera 54 are converted into second to fourth projected images.

図8に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、車両4が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、車両4から離れた位置に存在する物体の像の歪みを少なくすることができる。また、第1〜第4領域R1〜R4それぞれは、隣接する他の領域と重複する部分を有している。このような重複部分を設けることで、領域の境界部分に投影される物体の像が投影画像から消失することを防止することができる。   The virtual projection plane 100 shown in FIG. 8 has, for example, a substantially hemispherical shape (a bowl shape). A central part (bottom part of the bowl) of the virtual projection plane 100 is determined as a position where the vehicle 4 exists. Thus, by making the virtual projection plane 100 include a curved surface, it is possible to reduce the distortion of the image of the object existing at a position away from the vehicle 4. Each of the first to fourth regions R1 to R4 has a portion that overlaps with another adjacent region. By providing such an overlapping portion, it is possible to prevent the image of the object projected on the boundary portion of the region from disappearing from the projected image.

画像生成部22cは、複数の投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、画像生成部22cは、第1〜第4の投影画像を仮想投影面100の第1〜第4領域R1〜R4に仮想的に貼り付ける。   The image generation unit 22c generates a virtual viewpoint image viewed from a virtual viewpoint based on a plurality of projection images. Specifically, the image generation unit 22c virtually pastes the first to fourth projection images on the first to fourth regions R1 to R4 of the virtual projection plane 100.

また、画像生成部22cは、車両4の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両4のモデルは、仮想投影面100が設定される仮想的な三次元空間において、車両4が存在する位置として定められた位置(仮想投影面100の中心部分)に第1領域R1が前側、第4領域R4が後ろ側に成るように配置される。   Further, the image generation unit 22 c virtually configures a polygon model indicating the three-dimensional shape of the vehicle 4. In the model of the vehicle 4, the first region R <b> 1 is located on the front side at a position (center portion of the virtual projection plane 100) determined as a position where the vehicle 4 exists in a virtual three-dimensional space where the virtual projection plane 100 is set. The fourth region R4 is disposed on the rear side.

さらに、画像生成部22cは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視方向は、任意の視点位置及び任意の視野方向に設定することができる。   Furthermore, the image generation unit 22c sets a virtual viewpoint in a virtual three-dimensional space where the virtual projection plane 100 is set. The virtual viewpoint is defined by the viewpoint position and the viewing direction. As long as at least a part of the virtual projection plane 100 enters the field of view, the viewpoint position and viewing direction of the virtual viewpoint can be set to an arbitrary viewpoint position and arbitrary viewing direction.

画像生成部22cは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出す。また、画像生成部22cは、設定した仮想視点に応じて、ポリゴンのモデルに関してレンダリングを行い、車両4のレンダリング像を生成する。そして、画像生成部22cは、切り出した画像に対して車両4のレンダリング像を重畳した仮想視点画像を生成する。   The image generation unit 22c virtually cuts out an image of a necessary area (area seen from the virtual viewpoint) on the virtual projection plane 100 according to the set virtual viewpoint. In addition, the image generation unit 22 c performs rendering on the polygon model according to the set virtual viewpoint, and generates a rendered image of the vehicle 4. And the image generation part 22c produces | generates the virtual viewpoint image which superimposed the rendering image of the vehicle 4 with respect to the cut-out image.

1 ドライブレコーダ
2 センターサーバ
3 クライアントサーバ
4 車両
5 カメラ
21 通信部
22 制御部
23 記憶部
DESCRIPTION OF SYMBOLS 1 Drive recorder 2 Center server 3 Client server 4 Vehicle 5 Camera 21 Communication part 22 Control part 23 Storage part

Claims (7)

移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得部と、
前記撮影画像に写っている人物の視点位置及び視方向を推定する推定部と、
前記視点位置及び前記視方向から見た画像を生成する画像生成部と、
を備える、視点切替装置。
An acquisition unit that acquires a captured image obtained by a camera that captures the periphery of the moving object;
An estimation unit for estimating a viewpoint position and a viewing direction of a person shown in the captured image;
An image generator for generating an image viewed from the viewpoint position and the viewing direction;
Comprising a viewpoint switching device.
前記推定部は、前記視方向の仰角又は俯角を前記視点位置の高さに基づいて推定する、請求項1に記載の視点切替装置。   The viewpoint switching apparatus according to claim 1, wherein the estimation unit estimates an elevation angle or depression angle in the viewing direction based on a height of the viewpoint position. 前記推定部は、前記撮影画像に写っている人物のうち所定の行動をとっていることが検出された人物を対象として、前記視点位置及び前記視方向を推定する、請求項1又は請求項2に記載の視点切替装置。   The estimation unit estimates the viewpoint position and the viewing direction with respect to a person who is detected to be taking a predetermined action among the persons shown in the captured image. The viewpoint switching device described in 1. 前記推定部は、前記移動体を運転する運転者の視方向に関する情報を取得し、前記撮影画像に写っている人物のうち前記運転者の視線が向けられたことが検出された人物を対象として、前記視点位置及び前記視方向を推定する、請求項1〜3のいずれか一項に記載の視点切替装置。   The estimation unit acquires information related to the viewing direction of the driver who drives the moving body, and targets a person who is detected to be directed to the driver's line of sight among the persons shown in the captured image. The viewpoint switching device according to claim 1, wherein the viewpoint position and the viewing direction are estimated. 前記画像生成部は、3次元地図情報と前記移動体の位置情報とに基づいて、前記視点位置及び前記視方向から見た画像を生成し、
前記視点位置及び前記視方向から見た画像は、地図画像内の前記移動体の位置に前記移動体を表す像が重畳された画像である、請求項1〜4のいずれか一項に記載の視点切替装置。
The image generation unit generates an image viewed from the viewpoint position and the viewing direction based on the three-dimensional map information and the position information of the moving body,
The image viewed from the viewpoint position and the viewing direction is an image in which an image representing the moving body is superimposed on the position of the moving body in a map image. Viewpoint switching device.
前記画像生成部は、前記移動体の挙動に関する情報を取得し、前記移動体の挙動に関する情報に基づいて前記移動体を表す像の動きを調整する請求項5に記載の視点切替装置。   The viewpoint switching device according to claim 5, wherein the image generation unit acquires information related to the behavior of the moving object, and adjusts the movement of an image representing the moving object based on the information related to the behavior of the moving object. 移動体の周辺を撮影するカメラで得られた撮影画像を取得する取得工程と、
前記撮影画像に写っている人物の視点位置及び視方向を推定する推定工程と、
前記視点位置及び前記視方向から見た画像を生成する画像生成工程と、
を備える、視点切替方法。
An acquisition step of acquiring a captured image obtained by a camera that captures the periphery of the moving object;
An estimation step of estimating a viewpoint position and a viewing direction of a person shown in the captured image;
An image generation step of generating an image viewed from the viewpoint position and the viewing direction;
A viewpoint switching method comprising:
JP2018057710A 2018-03-26 2018-03-26 Viewpoint switching device and viewpoint switching method Pending JP2019169042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018057710A JP2019169042A (en) 2018-03-26 2018-03-26 Viewpoint switching device and viewpoint switching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057710A JP2019169042A (en) 2018-03-26 2018-03-26 Viewpoint switching device and viewpoint switching method

Publications (1)

Publication Number Publication Date
JP2019169042A true JP2019169042A (en) 2019-10-03

Family

ID=68107447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057710A Pending JP2019169042A (en) 2018-03-26 2018-03-26 Viewpoint switching device and viewpoint switching method

Country Status (1)

Country Link
JP (1) JP2019169042A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204304A (en) * 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2011217202A (en) * 2010-03-31 2011-10-27 Saxa Inc Image capturing apparatus
JP2012155660A (en) * 2011-01-28 2012-08-16 Denso Corp Map data generation device and travel support device
JP2012253428A (en) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd Information processing system, server device, and on-vehicle device
JP2017046214A (en) * 2015-08-27 2017-03-02 株式会社デンソー On-vehicle display control device and on-vehicle display control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204304A (en) * 2007-02-22 2008-09-04 Hitachi Ltd Vehicle behavior reproduction method and system
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2011217202A (en) * 2010-03-31 2011-10-27 Saxa Inc Image capturing apparatus
JP2012155660A (en) * 2011-01-28 2012-08-16 Denso Corp Map data generation device and travel support device
JP2012253428A (en) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd Information processing system, server device, and on-vehicle device
JP2017046214A (en) * 2015-08-27 2017-03-02 株式会社デンソー On-vehicle display control device and on-vehicle display control method

Similar Documents

Publication Publication Date Title
KR101579100B1 (en) Apparatus for providing around view and Vehicle including the same
US8379924B2 (en) Real time environment model generation system
WO2019073920A1 (en) Information processing device, moving device and method, and program
US11180082B2 (en) Warning output device, warning output method, and warning output system
JPWO2019039282A1 (en) Image processing device and image processing method
WO2017163514A1 (en) Spectacle-type wearable terminal, and control method and control program for same
US20200175872A1 (en) Information providing system, server, onboard device, storage medium, and information providing method
KR102635265B1 (en) Apparatus and method for around view monitoring using lidar
CN110023141A (en) Method and system for the direction in Ackermann steer angle adjustment virtual camera
CN105793909B (en) The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery
JP2020080542A (en) Image providing system for vehicle, server system, and image providing method for vehicle
KR20200114054A (en) In-vehicle avatar processing apparatus and method of controlling the same
JP2014036326A (en) Bird&#39;s eye image display device
US20210174127A1 (en) Image processing device, image processing method, and program
US20230343108A1 (en) Systems and methods for detecting projection attacks on object identification systems
WO2018150888A1 (en) Information recording device, information recording method, and information recording program
WO2019049709A1 (en) Image processing device, image processing method, and image display system
JP6922169B2 (en) Information processing equipment and methods, vehicles, and information processing systems
JP2019532540A (en) Method for supporting a driver of a power vehicle when driving the power vehicle, a driver support system, and the power vehicle
US10605616B2 (en) Image reproducing device, image reproducing system, and image reproducing method
KR20180094717A (en) Driving assistance apparatus using avm
JP2019169042A (en) Viewpoint switching device and viewpoint switching method
KR100833603B1 (en) Navigation system for providing bird view and method thereof
JP7021899B2 (en) Image generator and image generation method
WO2020008876A1 (en) Information processing device, information processing method, program, and mobile body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607