JP6248823B2 - In-vehicle display device - Google Patents
In-vehicle display device Download PDFInfo
- Publication number
- JP6248823B2 JP6248823B2 JP2014126268A JP2014126268A JP6248823B2 JP 6248823 B2 JP6248823 B2 JP 6248823B2 JP 2014126268 A JP2014126268 A JP 2014126268A JP 2014126268 A JP2014126268 A JP 2014126268A JP 6248823 B2 JP6248823 B2 JP 6248823B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera
- video
- smartphone
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車載表示装置に関するものである。 The present invention relates to an in-vehicle display device.
従来より、車両後進時に車両後方を撮影する車両後方カメラの撮影画像を表示部に表示させる表示装置が種々提案されている(例えば、特許文献1参照)。 Conventionally, various display devices have been proposed that display a captured image of a vehicle rear camera that captures the rear of the vehicle when the vehicle is moving backward (see, for example, Patent Document 1).
ところで、車両には車両後方を確認するためのルームミラーが取り付けられており、運転者はルームミラーを視認して車両後方の後続車両等を確認することが可能となっている。 By the way, a rearview mirror for confirming the rear of the vehicle is attached to the vehicle, and the driver can visually recognize the rearview mirror and confirm a succeeding vehicle behind the rear of the vehicle.
しかしながら、車両後方に大きな荷物を載せた場合や後部座席に長身の乗員が乗車した場合、あるいは車室内に後方視界を遮るようなカーテンを備えた場合等、車両後方の車室内に車両後方の視界を遮るものがあると、運転者はルームミラーで車両後方の状況を確認することができなくなる場合がある。 However, when a large load is placed on the rear of the vehicle, when a tall occupant rides on the rear seat, or when a curtain that blocks the rear view is provided in the passenger compartment, the rear view of the vehicle is visible in the passenger compartment behind the vehicle. If there is something blocking the vehicle, the driver may not be able to check the situation behind the vehicle with the rearview mirror.
そこで、車両が前進している場合でも、上記特許文献1に記載されたような車両後方カメラの撮影画像をナビゲーション装置の表示部に表示させるように構成して、車両後方の状況を確認できるようにするといったことが考えられる。 Therefore, even when the vehicle is moving forward, it is configured to display the photographed image of the vehicle rear camera as described in Patent Document 1 on the display unit of the navigation device so that the situation behind the vehicle can be confirmed. It can be thought of.
しかしながら、上記特許文献1に記載されたような車両後方カメラは、車両を後方の駐車スペースに安全に駐車させるための映像を撮影するために設けられたものであり、車両の比較的近くの領域を大きく撮像するようになっている。したがって、このような車両後方カメラの撮影画像では、通常の前進走行時に必要とされる比較的遠く離れた領域(例えば、車両から数十メートル程度離れた領域)の状況を確認するのは困難である。 However, the vehicle rear camera as described in Patent Document 1 is provided to capture an image for safely parking the vehicle in the rear parking space, and is an area relatively close to the vehicle. The image is greatly captured. Therefore, it is difficult to check the situation of a relatively far away area (for example, an area about several tens of meters away from the vehicle) that is necessary for normal forward traveling in such a captured image of the vehicle rear camera. is there.
また、車両が前方走行時に必要となる車両後方の撮影映像を撮影するための専用のカメラを設け、この専用のカメラの映像を表示部に表示させることも考えられるが、このような専用のカメラを設けるためにはコストが発生してしまう。 In addition, it is possible to provide a dedicated camera for shooting the rear image of the vehicle that is required when the vehicle is traveling forward, and to display the video of this dedicated camera on the display unit. In order to provide this, a cost will be generated.
本発明は上記問題に鑑みたもので、車両後部にカメラ付き携帯端末を取り付けて、車両が前方走行時に必要となる車両後方の映像を表示部に表示できるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to attach a camera-equipped mobile terminal to the rear part of a vehicle so that a vehicle rear image required when the vehicle travels forward can be displayed on a display unit.
上記目的を達成するため、請求項1に記載の発明は、カメラ付き携帯端末(2)を車両後部に固定する固定手段(3)と、固定手段により車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、カメラ付き携帯端末に、車両後方の映像を撮影させるとともに、車両の前方走行時に表示部に表示すべき車両後方の映像となるように、カメラ付き携帯端末で撮影された車両後方の映像を予め定められた条件に従って加工させ、通信手段を介してカメラ付き携帯端末により加工された映像を取得する映像取得手段(S112、S114、S300、S302)と、映像取得手段により取得された映像を表示部に表示させる表示制御手段(S116、S304)と、車両の後方を撮影するバックカメラ(109)により撮影されたバックカメラ映像を取得するバックカメラ映像取得手段(S100)と、通信手段を介してカメラ付き携帯端末により撮影された携帯端末映像を取得する携帯端末映像取得手段(S104)と、バックカメラ映像取得手段により取得されたバックカメラ映像を基準として携帯端末映像取得手段により取得された携帯端末映像を拡大または縮小し、車両の前方走行時に表示部に表示すべき携帯端末映像の映像範囲を特定する映像範囲特定手段(S106〜S110)と、を備え、映像取得手段は、映像範囲特定手段により特定された映像範囲でトリミングすることを条件としてカメラ付き携帯端末に、カメラ付き携帯端末で撮影された映像を加工させることを特徴としている。 In order to achieve the above object, the invention described in claim 1 includes a fixing means (3) for fixing the mobile terminal with camera (2) to the rear part of the vehicle, and a mobile terminal with camera fixed to the rear part of the vehicle by the fixing means. The communication means (111) for communication and the portable terminal with camera are photographed by the portable terminal with camera so that the image behind the vehicle is photographed and the rear image of the vehicle to be displayed on the display unit when the vehicle is traveling ahead. Video acquisition means (S112, S114, S300, S302) for processing the video behind the vehicle in accordance with a predetermined condition and acquiring the video processed by the mobile terminal with camera via the communication means; photographed and display control means for displaying on the display unit the captured image (S116, S304), by a back camera (109) for photographing the rear of the vehicle by Back camera video acquisition means (S100) for acquiring a back camera video, mobile terminal video acquisition means (S104) for acquiring a mobile terminal video shot by a mobile terminal with a camera via a communication means, and back camera video acquisition means A video range for enlarging or reducing the mobile terminal video acquired by the mobile terminal video acquisition means on the basis of the back camera video acquired by the above and specifying the video range of the mobile terminal video to be displayed on the display unit when the vehicle travels ahead Identification means (S106 to S110), and the video acquisition means is configured to capture a video captured by the camera-equipped mobile terminal on a camera-equipped mobile terminal on condition that trimming is performed in the video range identified by the video range identification means. It is characterized by being processed .
このような構成によれば、カメラ付き携帯端末(2)を車両後部に固定する固定手段(3)と、固定手段により車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、備え、カメラ付き携帯端末に、車両後方の映像を撮影させるとともに、車両の前方走行時に表示部に表示すべき車両後方の映像となるように、カメラ付き携帯端末で撮影された車両後方の映像を予め定められた条件に従って加工させ、通信手段を介してカメラ付き携帯端末により加工された映像を取得し、この映像を表示部に表示させるので、車両後部にカメラ付き携帯端末を取り付けて、車両が前方走行時に必要となる車両後方の映像を表示部に表示することができる。
また、車両の後方を撮影するバックカメラ(109)により撮影されたバックカメラ映像を取得するバックカメラ映像取得手段(S100)と、通信手段を介してカメラ付き携帯端末により撮影された携帯端末映像を取得する携帯端末映像取得手段(S104)と、バックカメラ映像取得手段により取得されたバックカメラ映像を基準として携帯端末映像取得手段により取得された携帯端末映像を拡大または縮小し、車両の前方走行時に表示部に表示すべき携帯端末映像の映像範囲を特定する映像範囲特定手段(S106〜S110)と、を備え、映像取得手段は、映像範囲特定手段により特定された映像範囲でトリミングすることを条件としてカメラ付き携帯端末に、カメラ付き携帯端末で撮影された映像を加工させることができる。
また、上記目的を達成するため、請求項2に記載の発明は、カメラ付き携帯端末(2)を車両後部に固定する固定手段(3)と、固定手段により車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、カメラ付き携帯端末に、車両後方の映像を撮影させるとともに、車両の前方走行時に表示部に表示すべき車両後方の映像となるように、カメラ付き携帯端末で撮影された車両後方の映像を予め定められた条件に従って加工させ、通信手段を介してカメラ付き携帯端末により加工された映像を取得する映像取得手段(S112、S114、S300、S302)と、映像取得手段により取得された映像を表示部に表示させる表示制御手段(S116、S304)と、車両後方の複数の地点へ向けてレーザー光を照射して複数のマーキングを行うマーキング手段(S300)と、を備え、映像取得手段は、カメラ付き携帯端末で撮影された映像に含まれる複数のマーキングに基づいてトリミングすることを条件としてカメラ付き携帯端末に、カメラ付き携帯端末で撮影された映像を加工させることを特徴としている。
このような構成によれば、カメラ付き携帯端末(2)を車両後部に固定する固定手段(3)と、固定手段により車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、を備え、カメラ付き携帯端末に、車両後方の映像を撮影させるとともに、車両の前方走行時に表示部に表示すべき車両後方の映像となるように、カメラ付き携帯端末で撮影された車両後方の映像を予め定められた条件に従って加工させ、通信手段を介してカメラ付き携帯端末により加工された映像を取得し、この映像を表示部に表示させるので、車両後部にカメラ付き携帯端末を取り付けて、車両が前方走行時に必要となる車両後方の映像を表示部に表示することができる。
また、車両後方の複数の地点へ向けてレーザー光を照射して複数のマーキングを行うマーキング手段(S300)と、を備え、映像取得手段は、カメラ付き携帯端末で撮影された映像に含まれる複数のマーキングに基づいてトリミングすることを条件としてカメラ付き携帯端末に、カメラ付き携帯端末で撮影された映像を加工させることもできる。
According to such a configuration, the fixing means (3) for fixing the mobile terminal with camera (2) to the rear part of the vehicle, and the communication means (111) for communicating with the mobile terminal with camera fixed to the rear part of the vehicle by the fixing means. In addition, the camera-equipped mobile terminal captures an image of the rear of the vehicle, and at the same time, the image of the rear of the vehicle captured by the camera-equipped mobile terminal is displayed to be displayed on the display unit when the vehicle is traveling forward. Is processed in accordance with predetermined conditions, and the video processed by the camera-equipped mobile terminal is acquired via the communication means, and this video is displayed on the display unit. Can display an image of the rear of the vehicle, which is required when traveling forward, on the display unit.
Also, back camera image acquisition means (S100) for acquiring a back camera image captured by a back camera (109) for capturing the rear of the vehicle, and a mobile terminal image captured by a camera-equipped mobile terminal via a communication means. The mobile terminal image acquired by the mobile terminal image acquisition means is enlarged or reduced with reference to the back camera image acquired by the mobile terminal image acquisition means (S104) and the back camera image acquisition means. Video range specifying means (S106 to S110) for specifying the video range of the mobile terminal video to be displayed on the display unit, wherein the video acquisition means is trimmed with the video range specified by the video range specifying means As described above, the camera-equipped mobile terminal can process an image captured by the camera-equipped mobile terminal.
In order to achieve the above object, the invention described in claim 2 includes a fixing means (3) for fixing the portable terminal with camera (2) to the rear part of the vehicle, and a portable terminal with camera fixed to the rear part of the vehicle by the fixing means. The mobile terminal with camera so that the communication means (111) for communicating with the terminal and the mobile terminal with camera capture the video behind the vehicle and the video behind the vehicle to be displayed on the display unit when the vehicle travels forward Video acquisition means (S112, S114, S300, S302) for processing the video of the rear of the vehicle taken in step according to a predetermined condition and acquiring the video processed by the camera-equipped mobile terminal via the communication means; Display control means (S116, S304) for displaying the video acquired by the acquisition means on the display unit, and laser light is emitted toward a plurality of points behind the vehicle. Marking means (S300) for performing the marking of the camera, and the video acquisition means is provided on the camera-equipped mobile terminal on the condition that trimming is performed based on a plurality of markings included in the video captured by the camera-equipped mobile terminal. It is characterized by processing video taken with a mobile terminal.
According to such a configuration, the fixing means (3) for fixing the mobile terminal with camera (2) to the rear part of the vehicle, and the communication means (111) for communicating with the mobile terminal with camera fixed to the rear part of the vehicle by the fixing means. The camera-equipped mobile terminal captures an image of the rear of the vehicle, and the rear of the vehicle photographed by the camera-equipped mobile terminal so as to be an image of the rear of the vehicle to be displayed on the display unit when the vehicle is traveling forward. The video is processed according to predetermined conditions, the video processed by the camera-equipped mobile terminal is acquired via the communication means, and this video is displayed on the display unit, so the camera-equipped mobile terminal is attached to the rear of the vehicle, An image of the rear of the vehicle that is required when the vehicle travels forward can be displayed on the display unit.
And marking means (S300) for performing a plurality of markings by irradiating a laser beam toward a plurality of points behind the vehicle, and the image acquisition means includes a plurality of images included in the image taken by the camera-equipped mobile terminal. On the condition that the trimming is performed based on the marking, it is possible to cause the camera-equipped mobile terminal to process an image captured by the camera-equipped mobile terminal.
なお、この欄および特許請求の範囲で記載した各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each means described in this column and the claim shows the correspondence with the specific means as described in embodiment mentioned later.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the same or equivalent parts are denoted by the same reference numerals in the drawings.
(第1実施形態)
本発明の第1実施形態に係る車載表示装置およびカメラ付き携帯端末の全体構成を図1に示す。本実施形態における車載表示装置はナビゲーション装置1として構成され、カメラ付き携帯端末はスマートフォン2として構成されている。
(First embodiment)
FIG. 1 shows the overall configuration of an in-vehicle display device and a camera-equipped mobile terminal according to the first embodiment of the present invention. The in-vehicle display device in the present embodiment is configured as a navigation device 1, and the camera-equipped mobile terminal is configured as a smartphone 2.
ナビゲーション装置1は、操作スイッチ100、マイク101、スピーカ102、地図データ記憶装置103、外部メモリ104、車速センサ105、GPS受信機106、加速度センサ107、ジャイロセンサ108、バックカメラ109、表示部110、通信装置111および制御部112を備えている。制御部112には、車両信号としてシフトレバーの位置(パーキング、ドライブ、ロー、セカンド、リバース)を示すシフト位置信号が入力されるようになっている。
The navigation device 1 includes an
操作スイッチ100は、表示部110に周囲に設けられたメカニカルスイッチ、表示部110の前面に重ねて設けられたタッチスイッチ等の各種スイッチを有し、ユーザのスイッチ操作に応じた信号を制御部112へ出力する。マイク101は、車室内の音声を集音し、集音した音声に応じた音声信号を制御部112へ出力する。スピーカ102は、制御部112より入力される音声信号に応じた音声を出力する。地図データ記憶装置103は、地図データに記憶された記憶媒体(例えば、ハードディスクドライブ、DVDなど)から地図データを読み出す装置である。外部メモリ104は、SDカード等の記憶媒体へのデータの書き込みや記憶媒体からのデータの読み出しを行うものである。
The
車速センサ105は、車速に応じた車速信号を制御部112へ出力するものである。GPS受信機106は、GPS衛星からの測位信号を受信して現在地を示す情報を制御部112へ出力する。加速度センサ107は、車両の加速度を検出し、この加速度を示す加速度信号を制御部112へ出力する。ジャイロセンサ108は、車両のロール角、ピッチ角、ヨー角の3つの角速度を検出し、検出した角速度を示す信号を制御部112へ出力する。
The
バックカメラ109は、車両後方の駐車スペースに安全に駐車させるための映像を撮影するためのものであり、車両後方に取り付けられている。バックカメラ109は、撮影した映像を制御部112へ出力する。本実施形態におけるバックカメラ109は、魚眼レンズを有している。本バックカメラ109の撮影映像は、車両の比較的近くの領域を大きく撮像したものとなっている。
The
表示部110は、制御部112より入力される映像信号に応じた映像を表示するものである。
The
通信装置111は、スマートフォン2等の外部機器と通信するものである。本実施形態における通信装置111は、スマートフォン2等の外部機器とBluetooth(登録商標)規格に従った近距離無線通信を行うようになっている。
The
制御部112は、CPU、RAM、ROM、フラッシュメモリ、I/O等を備えたコンピュータとして構成されており、CPUはROMに記憶されたプログラムに従って各種処理を実施する。
The
制御部112の処理としては、車速センサ105、GPS受信機106、加速度センサ107、ジャイロセンサ108より入力される各種信号に基づいて現在位置を特定する現在位置特定処理、現在位置周辺の地図上に自車位置マークを重ねて表示させる地図表示処理、操作スイッチ100に対するユーザ操作やユーザによるマイク101を用いた音声操作に応じて目的地を設定する目的地設定処理、目的地までの最適な案内経路を探索する経路探索処理、目的地までの案内経路に従った走行案内を行う走行案内処理、シフト位置信号に基づいてシフトレバーの位置がリバースになったことを判定すると、バックカメラ109より入力される車両後方の映像を表示部110に表示させる後方映像表示処理等がある。
As processing of the
一方、スマートフォン2は、表示部201、操作スイッチ202、スピーカ203、GPS受信機204、加速度センサ205、ジャイロセンサ206、カメラ207、通信装置208、外部メモリ209および制御部210を備えている。
On the other hand, the smartphone 2 includes a
表示部201は、液晶等のディスプレイを有し、当該ディスプレイに制御部210より入力される映像信号に基づく映像を表示させる。
The
操作スイッチ202は、表示部201に周囲に設けられたメカニカルスイッチ、表示部201の前面に重ねて設けられたタッチスイッチ等の各種スイッチを有し、ユーザのスイッチ操作に応じた信号を制御部210へ出力する。スピーカ203は、制御部210より入力される音声信号に応じた音声を出力する。
The
GPS受信機204は、GPS衛星からの測位信号を受信して現在地を示す情報を制御部210へ出力する。加速度センサ205は、加速度を検出し、この加速度を示す加速度信号を制御部210へ出力する。ジャイロセンサ206は、3軸方向(xyz軸方向)の各角速度を検出し、検出した角速度を示す信号を制御部210へ出力する。
The
カメラ207は、スマートフォン2の本体に内蔵されており、撮影した映像データを制御部210へ出力する。
The
通信装置208は、ナビゲーション装置1等の外部機器と通信するものである。本実施形態における通信装置208は、ナビゲーション装置1等の外部機器とBluetooth規格に従った近距離通信を行うようになっている。外部メモリ209は、SDカード等の記憶媒体へのデータの書き込みや記憶媒体からのデータの読み出しを行うものである。
The
制御部210は、CPU、RAM、ROM、I/O等を備えたコンピュータとして構成されており、CPUはROMに記憶されたプログラムに従って各種処理を実施する。
The
本実施形態における制御部210は、通信装置208を介してナビゲーション装置1から撮影画像のトリミング座標を受信すると、カメラ207で撮影した画像を、受信したトリミング座標でトリミングするとともに、トリミングした画像を通信装置208を介してナビゲーション装置1へ送信する処理を実施するようになっている。
When receiving the trimming coordinates of the captured image from the navigation device 1 via the
クレードル3は、車両の後方を撮影するように、スマートフォン2を車両後部の車室内に固定するためのものである。クレードル3は、スマートフォン保持部300、車両固定部301および偏光フィルタ302を備えている。
The cradle 3 is for fixing the smartphone 2 in the vehicle interior at the rear of the vehicle so as to photograph the rear of the vehicle. The cradle 3 includes a
スマートフォン保持部300は、スマートフォン2を保持するものである。本実施形態におけるスマートフォン保持部300は、スマートフォン2を挟むようにして保持するよう構成されている。スマートフォン保持部300には、車両固定部301が付加されている。
The
また、車両固定部301は、スマートフォン保持部300を車両後方の窓ガラスに固着するものである。車両固定部301は、吸盤、両面テープ等を用いて構成されており、スマートフォン保持部300を車両後方の窓ガラスに簡易に固定できるようになっている。
Moreover, the vehicle fixing | fixed
偏光フィルタ302は、スマートフォン2のカメラ207に当たる光量を低減するためのものである。偏光フィルタ302は、スマートフォン保持部300にスマートフォン2が保持されたときに、スマートフォン2のカメラ207の前に位置するように設けられている。
The
図2に、バックカメラ109の撮像範囲とスマートフォン2のカメラ207の撮像範囲をに示す。バックカメラ109の撮影映像は、車両後方の車両に近い領域となっている。これに対し、スマートフォン2のカメラ207の撮像範囲は、車両後方の車両から遠い領域を含む車両後方の全体となっている。
FIG. 2 shows the imaging range of the
本実施形態に係るナビゲーション装置1の制御部112は、車両の後方を撮影するように車両に取り付けられたスマートフォン2との間の近距離無線通信を介して、スマートフォン2により撮影された画像(携帯端末画像)を取得し、このスマートフォン2により撮影された画像を表示部110に表示させる処理を行う。
The
ここで、スマートフォン2の車両への取り付けについて説明する。車両後部の車室内には、クレードル3が取り付けられている。具体的には、スマートフォン保持部300に付加された車両固定部301が車両後方の窓ガラスに固着されている。
Here, attachment of the smartphone 2 to the vehicle will be described. A cradle 3 is attached in the vehicle interior at the rear of the vehicle. Specifically, a
なお、Bluetooth規格に従った近距離無線通信を行うためには、近距離無線通信接続する機器同士を登録するためのペアリングと呼ばれる操作を行って機器同士の登録を完了させた後、必要時に相手側機器との通信の開始を指示する操作を行う必要がある。本実施形態では、既にペアリングと呼ばれる操作が行われているものとする。 In order to perform short-range wireless communication in accordance with the Bluetooth standard, after completing registration between devices by performing an operation called pairing for registering devices connected to short-range wireless communication, when necessary, It is necessary to perform an operation to instruct the start of communication with the counterpart device. In the present embodiment, it is assumed that an operation called pairing has already been performed.
車両の操作に応じてイグニッションスイッチがオン状態になると、ナビゲーション装置1は動作状態となる。また、ナビゲーション装置1は通信装置111を介した通信が可能な状態となる。
When the ignition switch is turned on in accordance with the operation of the vehicle, the navigation device 1 is in the operating state. Further, the navigation device 1 is in a state where communication via the
一方、ユーザは、スマートフォン2を操作してBluetooth通信規格に基づく通信を行う登録機器リストを表示させ、この登録機器リストの中からナビゲーション装置1を選択する。これにより、スマートフォン2とナビゲーション装置1は通信接続された状態となる。 On the other hand, the user operates the smartphone 2 to display a registered device list for performing communication based on the Bluetooth communication standard, and selects the navigation device 1 from the registered device list. Thereby, the smart phone 2 and the navigation apparatus 1 will be in the state connected by communication.
本スマートフォン2は、ユーザ操作に応じて、スマートフォン2のカメラ207で撮影したリアルタイムの映像をBluetooth通信を介してナビゲーション装置1へ送出するようになる。
In response to a user operation, the smartphone 2 sends a real-time video captured by the
ユーザは、スマートフォン2からカメラ207で車両後方の全体の映像を撮影するようにして、スマートフォン2をクレードル3に固定する。具体的には、スマートフォン保持部300でスマートフォン2を挟むようにしてスマートフォン2をクレードル3に固定させる。このように、クレードル3にスマートフォン2を簡易に取り付けることが可能となっている。
The user fixes the smartphone 2 to the cradle 3 so as to capture the entire video behind the vehicle with the
図3に、本実施形態に係るナビゲーション装置1の制御部112のフローチャートを示す。本ナビゲーション装置1は、車両のイグニッションスイッチがオン状態になると動作状態となり、制御部112は図3に示す処理を実施する。
FIG. 3 shows a flowchart of the
まず、バックカメラ109の映像を取り込む(S100)。すなわち、バックカメラ109で撮影された車両後方の映像を取得する。
First, the video of the
次に、魚眼レンズ逆補正を行う(S102)。バックカメラ109は魚眼レンズを有しているため、図4(a)に示すように撮影映像に歪みが生じている。ここでは、魚眼レンズによる歪みがなくなるように補正を行う。図4(b)に、魚眼レンズ逆補正を行った後の映像の例を示す。
Next, fisheye lens reverse correction is performed (S102). Since the
次に、スマートフォン2から映像を取り込む(S104)。具体的には、通信装置111を介してスマートフォン2のカメラ207で撮影された車両後方の映像を取得する。図4(c)に、スマートフォン2で撮影された車両後方の映像の例を示す。
Next, an image is captured from the smartphone 2 (S104). Specifically, an image of the rear of the vehicle captured by the
次に、スマートフォン2からの映像が魚眼レンズ逆補正後のバックカメラ109の映像と連続的につながるようにスマートフォン2から取り込んだ映像を拡大または縮小する(S106)。すなわち、図4(d)に示すように、魚眼レンズ逆補正後のバックカメラ109の映像とスマートフォン2からの映像が一致するようにスマートフォン2から取り込んだ映像の倍率を変化させる。例えば、水平方向を30%縮小し、垂直方向を20%縮小するといったように、水平方向と垂直方向の倍率を異ならせることもできる。
Next, the image captured from the smartphone 2 is enlarged or reduced so that the image from the smartphone 2 is continuously connected to the image of the
次に、魚眼レンズ逆補正後のバックカメラ109の映像とスマートフォン2からの映像の共通に含まれる領域の映像が一致したか否かを判定する(S108)。
Next, it is determined whether or not the video of the
ここで、魚眼レンズ逆補正後のバックカメラ109の映像とスマートフォン2からの各映像が一致しない場合、S108の判定はNOとなり、S106へ戻り、各映像が一致する倍率を探る。そして、各映像が一致すると、S108の判定はYESとなり、次に、トリミング範囲に、S106にて拡大または縮小させたスマートフォン2の映像に入っているか否かを確認する(S110)。本実施形態では、4(e)の左側に示すように、魚眼レンズ逆補正後のバックカメラ109の映像を基準として、トリミング範囲が設定されている。このトリミング範囲は、車両の前方走行時に表示部110に表示する映像範囲である。
Here, when the image of the
ここでは、図4(e)の右側に示すように、S106にて拡大または縮小させたスマートフォン2の映像が、バックカメラ109の映像を基準として設定されたトリミング範囲に入っているか否かを確認する表示を表示部110に表示させ、ユーザに車両の前方走行時に確認したい映像が表示されているか否かを確認する。なお、図3中には示してないが、ユーザ操作により、車両の前方走行時に確認したい映像が表示されていないことを判定すると、スマートフォン2の取り付けが異常である旨を表示して本処理を終了する。
Here, as shown on the right side of FIG. 4E, it is confirmed whether or not the image of the smartphone 2 enlarged or reduced in S106 is within the trimming range set based on the image of the
また、ユーザ操作により、車両の前方走行時に確認したい映像が表示されていることを判定すると、次に、スマートフォン2の映像におけるトリミング範囲を示す座標(トリミング座標)をスマートフォン2へ送信する(S112)。 Moreover, if it determines with the user operation displaying the image | video which wants to confirm when driving ahead of a vehicle, next, the coordinate (trimming coordinate) which shows the trimming range in the image | video of the smart phone 2 will be transmitted to the smart phone 2 (S112). .
なお、スマートフォン2の制御部210は、このトリミング座標を受信すると、受信したトリミング座標に従ってカメラ207で撮影した映像をトリミングし、トリミングした映像をナビゲーション装置1へ送信するようになっている。
When receiving the trimming coordinates, the
ナビゲーション装置1の制御部112は、スマートフォン2からトリミングされた映像を取得すると(S114)、この取得した映像を表示部110に表示させる(S116)。本実施形態では、スマートフォン2からの映像を、地図表示画面とともに表示部110に表示させる。
When acquiring the trimmed video from the smartphone 2 (S114), the
次に、スマートフォン2の制御部210の処理について説明する。この制御部210のフローチャートを図5に示す。制御部210は、ユーザ操作に応じて、スマートフォン2のカメラ207で撮影したリアルタイムの映像をBluetooth通信を介してナビゲーション装置1へ送出する処理と並行に図5に示す処理を実施する。
Next, processing of the
まず、トリミング座標を受信したか否かを判定する(S200)。ナビゲーション装置1からのトリミング座標が受信されない場合、S200の判定を繰り返す。 First, it is determined whether trimming coordinates have been received (S200). If the trimming coordinates from the navigation device 1 are not received, the determination in S200 is repeated.
また、ナビゲーション装置1からトリミング座標を受信すると、S200の判定はYESとなり、受信したトリミング座標に従ってカメラ207の映像をトリミングする(S202)。図6(a)に示すように、受信したトリミング座標を用いてカメラ207の映像をトリミングし、図6(b)に示すような映像を生成する。
If the trimming coordinates are received from the navigation device 1, the determination in S200 is YES, and the video of the
次に、S202にてトリミングした映像に対して台形補正を行う(S204)。具体的には、図7(a)に示すような映像に対し、遠近感を演出するための台形補正処理を行い、図7(b)に示すような映像を生成する。ここで、台形補正の補正量は予め定められた値となっている。 Next, keystone correction is performed on the video trimmed in S202 (S204). Specifically, a trapezoidal correction process for producing perspective is performed on the video as shown in FIG. 7A to generate a video as shown in FIG. Here, the correction amount of the trapezoid correction is a predetermined value.
次に、映像をナビゲーション装置1へ送信する(S206)。すなわち、S204にて、台形補正した後の映像を通信装置208を介してナビゲーション装置1へ送信する。
Next, the video is transmitted to the navigation device 1 (S206). That is, in S204, the image after the keystone correction is transmitted to the navigation device 1 via the
上記した構成によれば、本ナビゲーション装置1は、クレードル3により車両後部に固定されたスマートフォン2と通信する通信装置111を備え、スマートフォン2に、車両後方の映像を撮影させるとともに、車両の前方走行時に表示部に表示すべき車両後方の映像となるように、カメラ付き携帯端末で撮影された車両後方の映像を予め定められた条件に従って加工させ、通信装置111を介してスマートフォン2により加工された映像を取得し、この映像を表示部110に表示させるので、車両後部にカメラ付き携帯端末を取り付けて、車両が前方走行時に必要となる車両後方の映像を表示部に表示することができる。
According to the configuration described above, the navigation device 1 includes the
また、車両の後方を撮影するバックカメラ109により撮影されたバックカメラ映像を取得するとともに、通信装置111を介してスマートフォン2により撮影された携帯端末映像を取得し、バックカメラ映像を基準として携帯端末映像を拡大または縮小し、車両の前方走行時に表示部に表示すべき携帯端末映像の映像範囲を特定し、この表示部に表示すべき携帯端末映像の映像範囲でトリミングすることを条件としてスマートフォン2に、スマートフォン2で撮影された映像を加工させることができる。また、トリミングにより不必要な領域のデータが削除されるので、スマートフォン2から送信される映像のデータ量を低減することもできる。
Moreover, while acquiring the back camera image | video image | photographed with the
本実施形態では、台形補正の補正量を予め定められた値としたが、ジャイロセンサ206より出力される角速度等、スマートフォン2の取り付け角度を認識可能な情報に基づいて台形補正の補正量を決定するようにしてもよい。
In this embodiment, the keystone correction amount is set to a predetermined value. However, the keystone correction amount is determined based on information such as the angular velocity output from the
また、本実施形態では、ナビゲーション装置1とスマートフォン2の間で、Bluetooth規格に従った近距離通信を行うようにしたが、Wi−FiやNFC(Near Field Communication)通信規格に基づく近距離無線通信を行うようにしてもよい。 Further, in the present embodiment, near field communication conforming to the Bluetooth standard is performed between the navigation device 1 and the smartphone 2, but near field communication based on Wi-Fi or NFC (Near Field Communication) communication standards. May be performed.
(第2実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の全体構成を図8に示す。本実施形態に係るナビゲーション装置1は、図1に示したナビゲーション装置1と比較してレーザポインタ400が接続されている点が異なる。
(Second Embodiment)
The whole structure of the navigation apparatus 1 and the smart phone 2 which concerns on this embodiment is shown in FIG. The navigation device 1 according to the present embodiment is different from the navigation device 1 shown in FIG. 1 in that a
レーザポインタ400は、車両の後方に取り付けられており、車両後方の予め定められた2つの地点へ向けてレーザー光をポイント照射する。
The
上記第1実施形態に係るナビゲーション装置1は、バックカメラ109の映像を利用してスマートフォン2で撮影された映像のトリミング範囲を特定し、トリミング範囲を示すトリミング座標をスマートフォン2へ送信し、スマートフォン2にトリミングを実施させるようにしたが、本実施形態では、レーザポインタ400から車両後方の予め定められた2つの地点へ向けてレーザー光をポイント照射させるようになっており、スマートフォン2の制御部210が、スマートフォン2のカメラ207で撮影された映像に含まれる2つのレーザー光の照射位置を認識し、これらの照射位置からトリミング範囲を決定し、カメラ207で撮影された映像をトリミングする。
The navigation device 1 according to the first embodiment specifies the trimming range of the video captured by the smartphone 2 using the video of the
図9に、本実施形態に係るナビゲーション装置1の制御部112のフローチャートを示す。本ナビゲーション装置1は、車両のイグニッションスイッチがオン状態になると動作状態となり、制御部112は、ユーザによるレーザー光の照射指示に応じて図9に示す処理を実施する。
FIG. 9 shows a flowchart of the
まず、レーザポインタ400から予め定められた車両後方の2つの地点へ向けてレーザー光をポイント照射させる(S300)。本実施形態では、車両後方を見たときに、予め定められた左下の地点と予め定められた右上の地点(路面)にレーザー光が視認されるようにレーザー光を照射する。なお、スマートフォン2の制御部210は、スマートフォン2のカメラ207で車両後方の映像を撮影し、この映像に含まれる2つのレーザー光の照射位置からトリミング範囲を決定するとともに、このトリミング範囲でカメラ207で撮影された映像をトリミングし、トリミングした映像をナビゲーション装置1へ送信する処理を実施する。この処理については後で説明する。
First, laser light is point-irradiated from the
次に、スマートフォン2からの映像を取得し(S302)、表示部110の表示部に表示させる(S304)。すなわち、スマートフォン2からのトリミングされた映像を表示部110に表示させる。
Next, an image from the smartphone 2 is acquired (S302) and displayed on the display unit of the display unit 110 (S304). That is, the trimmed video from the smartphone 2 is displayed on the
次に、スマートフォン2の傾きが異常か否かを判定する(S306)。具体的には、スマートフォン2からジャイロセンサ206の出力信号を取得し、この信号に基づいてスマートフォン2の傾きを特定し、このスマートフォン2の傾きが基準範囲内であるか否かを判定する。
Next, it is determined whether the inclination of the smartphone 2 is abnormal (S306). Specifically, the output signal of the
ここで、スマートフォン2の傾きが基準範囲内となっている場合、S306の判定はNOとなり、次に、スマートフォン2の傾きが大きいか否かを判定する(S308)。具体的には、車両走行中に、スマートフォン2で撮影された映像に画像認識処理を施して路面に描かれた白線を認識する白線認識を行い、この白線認識によりスマートフォン2の傾きが予め定められた傾きよりも大きいか否かを判定する。ここで、スマートフォン2の傾きが予め定められた傾きよりも小さい場合、S308の判定はNOとなり、S302へ戻る。 Here, when the inclination of the smartphone 2 is within the reference range, the determination in S306 is NO, and then it is determined whether the inclination of the smartphone 2 is large (S308). Specifically, while the vehicle is running, image recognition processing is performed on the video captured by the smartphone 2 to perform white line recognition for recognizing a white line drawn on the road surface, and the inclination of the smartphone 2 is determined in advance by this white line recognition. It is determined whether or not the inclination is larger. Here, when the inclination of the smartphone 2 is smaller than a predetermined inclination, the determination in S308 is NO and the process returns to S302.
しかし、車両走行時の振動等によりスマートフォン2の傾きが大きくなり、スマートフォン2で撮影された映像に含まれる白線の位置のずれ量が大きくなった場合、S308の判定はYESとなり、S300へ戻り、再度、レーザポインタ400からのレーザー光のポイント照射を実施する。
However, if the inclination of the smartphone 2 is increased due to vibration or the like when the vehicle is traveling, and the amount of displacement of the position of the white line included in the image captured by the smartphone 2 is increased, the determination in S308 is YES, and the process returns to S300. The point irradiation of the laser beam from the
また、振動等によりスマートフォン2の傾きが基準範囲内とならなくなった場合、S306の判定はYESとなり、スマートフォン2の傾きが異常である旨をユーザに報知する(S310)。具体的には、スマートフォン2の傾きが異常であることを示すメッセージを表示部110に表示させるとともにスピーカから警告音を発出させて、S300へ戻る。
If the inclination of the smartphone 2 does not fall within the reference range due to vibration or the like, the determination in S306 is YES and notifies the user that the inclination of the smartphone 2 is abnormal (S310). Specifically, a message indicating that the inclination of the smartphone 2 is abnormal is displayed on the
次に、図10に従って、本実施形態に係るスマートフォン2の制御部210の処理について説明する。制御部210は、ユーザ操作に応じて図10に示す処理を実施する。
Next, processing of the
まず、カメラ207で車両後方の映像を撮影し、カメラ207の映像に画像認識処理を施してレーザー光の照射ポイントを認識する(S400)。
First, an image of the rear of the vehicle is captured by the
次に、認識した2点からトリミング範囲を決定する(S402)。具体的には、認識した2点の距離が予め定められた長さとなるようにカメラ207の映像を拡大または縮小するとともに、認識した2点の位置が予め定められた位置となるようにトリミング範囲を決定する。
Next, a trimming range is determined from the two recognized points (S402). Specifically, the image of the
次に、S402にて決定したトリミング範囲でカメラ207で撮影された映像をトリミングする(S404)。
Next, the video shot by the
次に、S404にてトリミングされた映像に台形補正を実施し(S406)、この台形補正した映像をナビゲーション装置1へ送信し(S408)、S404へ戻る。 Next, trapezoid correction is performed on the image trimmed in S404 (S406), the trapezoidally corrected image is transmitted to the navigation apparatus 1 (S408), and the process returns to S404.
上記したように、車両後方の2つの地点へ向けてレーザー光を照射してマーキングを行い、スマートフォン2で撮影された映像に含まれるマーキングに基づいてトリミングすることを条件としてスマートフォン2に、スマートフォン2で撮影された映像を加工させることもできる。 As described above, the smartphone 2 is connected to the smartphone 2 on the condition that the marking is performed by irradiating the laser beam toward the two points behind the vehicle, and the trimming is performed based on the marking included in the image captured by the smartphone 2. It is also possible to process the video shot in
本実施形態では、車両後方の2点へ向けてレーザー光をポイント照射するようにしたが、車両後方の3以上の地点へ向けて可視光をポイント照射するようにしてもよい。 In the present embodiment, laser light is point-irradiated toward two points on the rear side of the vehicle, but visible light may be point-irradiated on three or more points on the rear side of the vehicle.
また、本実施形態では、車両後方の複数の地点へ向けてレーザー光をポイント照射するようにしたが、車両後方の複数の地点へ向けて可視光をポイント照射するようにしてもよい。 In the present embodiment, laser light is point-irradiated toward a plurality of points behind the vehicle, but visible light may be point-irradiated toward a plurality of points behind the vehicle.
また、本実施形態では、レーザー光をポイント照射してトリミング範囲を決定するようにしたが、例えば、白線認識により認識された白線の位置に基づいてトリミング範囲を決定するようにしてもよい。 In the present embodiment, the laser beam is point-irradiated to determine the trimming range. However, for example, the trimming range may be determined based on the position of the white line recognized by the white line recognition.
また、本実施形態では、ユーザ操作に応じてレーザー光をポイント照射するようにしたが、例えば、シフトレバーの位置がR(リバース)となったことをトリガとしてレーザー光をポイント照射するようにしてもよい。 In this embodiment, the laser beam is point-irradiated in response to a user operation. For example, the laser beam is point-irradiated with the shift lever position being R (reverse). Also good.
(第3実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の構成は図1に示したものと同じである。本実施形態における制御部112は、走行時の振動等による画面の揺れを補正するため、画面全体の動きベクトルを検出し、動き量を補正する処理を行う。
(Third embodiment)
The configurations of the navigation device 1 and the smartphone 2 according to the present embodiment are the same as those shown in FIG. The
図11に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図11に示す処理を実施する。
In FIG. 11, the flowchart of the
まず、フィールド間の差分をとり動きベクトルを検出する(S500)。具体的には、スマートフォン2より順次送信されるカメラ207の2つのフィールドを抽出し、前のフィールドと後のフィールドの動きベクトルを検出する。このような動きベクトルの検出を一定期間実施する。
First, a motion vector is detected by taking a difference between fields (S500). Specifically, two fields of the
次に、動きベクトルに周期性があるか否かを判定する(S502)。具体的には、一定期間内に検出された動きベクトルを解析し、動きベクトルが周期的に変化しているか否かを判定する。 Next, it is determined whether or not the motion vector has periodicity (S502). Specifically, a motion vector detected within a certain period is analyzed, and it is determined whether or not the motion vector changes periodically.
ここで、動きベクトルが周期的に変化している場合、S502の判定はYESとなり、次に、振れ幅が規定量より大きいか否かを判定する(S504)。すなわち、動きベクトルの大きさが規定量より大きいか否かを判定する。 Here, when the motion vector changes periodically, the determination in S502 is YES, and then it is determined whether or not the shake width is larger than the specified amount (S504). That is, it is determined whether or not the magnitude of the motion vector is larger than a specified amount.
ここで、動きベクトルの大きさが規定量より大きい場合、S504の判定はYESとなり、次に、振動している方向を打ち消すようにして映像を補正する(S506)。具体的には、図3中のS114にてスマートフォン2の映像を表示部110に表示させる映像の前のフィールドと後のフィールドの動きベクトルを打ち消すように補正を行う。
Here, when the magnitude of the motion vector is larger than the specified amount, the determination in S504 is YES, and then the image is corrected so as to cancel the vibrating direction (S506). Specifically, in S114 in FIG. 3, correction is performed so as to cancel the motion vectors of the field before and after the image for displaying the image of the smartphone 2 on the
次に、補正していることを表示部110に表示させる(S508)。例えば、「揺れ補正実行中」というメッセージを表示部110に表示させ、S500に戻る。
Next, the correction is displayed on the display unit 110 (S508). For example, a message that “shake correction is being performed” is displayed on the
また、動きベクトルが周期的に変化しなくなると、S502の判定はNOとなり、補正を実行することなく、S500へ戻る。また、動きベクトルの大きさが規定量以下となった場合も、S504の判定はNOとなり、補正を実行することなく、S500へ戻る。 If the motion vector does not change periodically, the determination in S502 is NO, and the process returns to S500 without executing correction. If the magnitude of the motion vector is equal to or less than the specified amount, the determination in S504 is NO, and the process returns to S500 without executing correction.
本実施形態では、ユーザに確認することなく「揺れ補正」を実行したが、ユーザに「揺れ補正」を実行するか否かを確認し、ユーザ操作により「揺れ補正」を実行することが確認された場合に「揺れ補正」を実行するようにしてもよい。 In this embodiment, “shake correction” is executed without confirming with the user. However, it is confirmed whether or not “shake correction” is executed by the user and “shake correction” is executed by a user operation. In such a case, “shake correction” may be executed.
(第4実施形態)
本実施形態に係るナビゲーション装置1を搭載した車両には、サイドミラー(例えば、ドアミラー)を調整するための操作部として、左側ミラーと右側ミラーの左右切り替えスイッチと十字スイッチが設けられている。左右切り替えスイッチは、左側、右側および中央(ニュートラル)に設定できるようになっている。
(Fourth embodiment)
A vehicle equipped with the navigation device 1 according to the present embodiment is provided with a left / right switching switch and a cross switch of a left mirror and a right mirror as an operation unit for adjusting a side mirror (for example, a door mirror). The left / right changeover switch can be set to the left side, the right side and the center (neutral).
左右切り替えスイッチを左側に設定した状態で十字スイッチを上下左右に操作すると、左側サイドミラーの向きが上下左右に変化し、左右切り替えスイッチを右側に設定した状態で十字スイッチを上下左右に操作すると、右側サイドミラーの向きが上下左右に変化するようになっている。 When the cross switch is operated up / down / left / right with the left / right switch set to the left, the left side mirror changes direction to up / down / left / right, and when the left / right switch is set to the right and the cross switch is operated up / down / left / right, The direction of the right side mirror changes vertically and horizontally.
本実施形態においては、サイドミラーの向きを操作する十字スイッチを用いてトリミングする範囲を変更する。スマートフォン2は、左右切り替えスイッチを中央(ニュートラル)に設定されていることを認識すると、十字スイッチより出力される信号に応じてトリミングする範囲を変更するようになっている。 In the present embodiment, the trimming range is changed using a cross switch for operating the direction of the side mirror. When the smartphone 2 recognizes that the left / right selector switch is set to the center (neutral), the smartphone 2 changes the trimming range according to the signal output from the cross switch.
図12に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図12に示す処理を実施する。
In FIG. 12, the flowchart of the
まず、サイドミラーの左右選択がニュートラルになっているか否かを判定する(S600)。具体的には、左右切り替えスイッチから中央(ニュートラル)に設定されていることを示す信号が入力されているか否かを判定する。 First, it is determined whether the left / right selection of the side mirror is neutral (S600). Specifically, it is determined whether or not a signal indicating that the switch is set to the center (neutral) from the left / right switch.
ここで、左右切り替えスイッチから中央(ニュートラル)に設定されていることを示す信号が入力されていない場合には、S600の判定はNOとなり、S600の判定を繰り返し実施する。 Here, when the signal indicating that the center (neutral) is set from the left / right selector switch is not input, the determination in S600 is NO and the determination in S600 is repeatedly performed.
また、左右切り替えスイッチから中央(ニュートラル)に設定されていることを示す信号が入力されると、S600の判定はYESとなり、次に、十字スイッチから十字操作情報を取得する(S602)。 When a signal indicating that the center (neutral) is set is input from the left / right switch, the determination in S600 is YES, and then the cross operation information is acquired from the cross switch (S602).
次に、トリミング座標を変更し、変更したトリミング座標でトリミングした映像をナビゲーション装置1へ送信する(S604)。具体的には、図5のS202にてトリミングする際に、S602にて取得した十字操作情報に従ってトリミング座標を変更するとともに、変更したトリミング座標でトリミングした映像をナビゲーション装置1へ送信し、本処理を終了する。 Next, the trimming coordinates are changed, and the video trimmed with the changed trimming coordinates is transmitted to the navigation device 1 (S604). Specifically, when trimming in S202 of FIG. 5, the trimming coordinates are changed in accordance with the cross operation information acquired in S602, and the video trimmed with the changed trimming coordinates is transmitted to the navigation device 1 to perform this processing. Exit.
上記した処理により、例えば、乗員が十字スイッチを右側に操作するとスマートフォン2によりトリミングされる範囲も右側にシフトし、乗員が十字スイッチを左側に操作するとスマートフォン2によりトリミングされる範囲も左側にシフトするようになる。また、乗員が十字スイッチを上側に操作するとスマートフォン2によりトリミングされる範囲も上側にシフトし、乗員が十字スイッチを下側に操作するとスマートフォン2によりトリミングされる範囲も下側にシフトするようになる。 By the above processing, for example, when the occupant operates the cross switch to the right, the range trimmed by the smartphone 2 is also shifted to the right, and when the occupant operates the cross switch to the left, the range to be trimmed by the smartphone 2 is also shifted to the left. It becomes like this. When the occupant operates the cross switch upward, the range trimmed by the smartphone 2 is also shifted upward, and when the occupant operates the cross switch downward, the range trimmed by the smartphone 2 is also shifted downward. .
なお、本実施形態では、トリミング座標を変更する操作部として、サイドミラーを調整するための左右切り替えスイッチおよび十字スイッチを利用したが、例えば、ルームミラーを操作デバイスとして利用するようにしてもよい。この場合、例えば、ルームミラーに十字スイッチを設け、十字スイッチからルームミラーの向きに応じた信号を出力するように構成すればよい。 In the present embodiment, the left / right changeover switch and the cross switch for adjusting the side mirror are used as the operation unit for changing the trimming coordinates. However, for example, a room mirror may be used as the operation device. In this case, for example, a cross switch may be provided in the room mirror and a signal corresponding to the direction of the room mirror may be output from the cross switch.
(第5実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の構成は図1に示したものと同じである。スマートフォン2がバッテリ駆動の場合、車両走行中、乗員の知らない間に、スマートフォン2のバッテリ残量が低下して使用できなくなる可能性がある。
(Fifth embodiment)
The configurations of the navigation device 1 and the smartphone 2 according to the present embodiment are the same as those shown in FIG. When the smartphone 2 is battery-driven, the remaining battery power of the smartphone 2 may decrease and become unusable while the vehicle is traveling without the occupant knowing.
このような状況を回避するため、本実施形態に係るナビゲーション装置1の制御部112は、スマートフォン2を車両後方カメラとして使用する使用時間を算出し、目的地に到着するまでスマートフォン2が動作可能か否かを判定し、目的地に到着する前にバッテリ低下によりスマートフォン2が動作できなくなると判定すると、電源に接続するように警告する処理を行う。
In order to avoid such a situation, the
図13に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図13に示す処理を実施する。
In FIG. 13, the flowchart of the
まず、スマートフォン2がバッテリ駆動か否かを判定する(S700)。具体的には、スマートフォン2から充電中であるか否かを示す情報を取得し、この情報に基づいてスマートフォン2がバッテリ駆動か否かを判定する。 First, it is determined whether the smartphone 2 is battery driven (S700). Specifically, information indicating whether charging is being performed from the smartphone 2 is acquired, and it is determined whether the smartphone 2 is battery-driven based on this information.
ここで、スマートフォン2がバッテリ駆動となっている場合、S700の判定はYESとなり、次に、目的地を設定する(S702)。具体的には、ユーザに目的地の設定を促し、現在位置から目的地までの案内経路を探索する。 If the smartphone 2 is battery-driven, the determination in S700 is YES, and then the destination is set (S702). Specifically, the user is prompted to set a destination, and a guide route from the current position to the destination is searched.
次に、使用予定ポイントを特定する(S704)。具体的には、目的地までの経路のうち、スマートフォン2を車両後方カメラとして使用する地点の指定を促し、スマートフォン2の使用予定ポイントを特定する。 Next, a scheduled use point is specified (S704). Specifically, the user is prompted to specify a point where the smartphone 2 is used as a vehicle rear camera in the route to the destination, and the scheduled use point of the smartphone 2 is specified.
次に、使用予定ポイントまでの時間(期間)を算出する(S706)。なお、使用予定ポイントまでの時間(期間)は、使用予定ポイントへの到着予想時間を用いることができる。 Next, the time (period) until the scheduled use point is calculated (S706). As the time (period) to the scheduled use point, the estimated arrival time at the scheduled use point can be used.
次に、スマートフォン2からバッテリ残量を取得し(S708)、使用可能時間を特定する(S710)。本実施形態におけるナビゲーション装置1のフラッシュメモリには、スマートフォン2のバッテリ残量と使用可能時間の関係を学習した学習データが記憶されている。ここでは、この学習データを用いてスマートフォン2から取得したバッテリ残量における使用可能時間を特定する。 Next, the remaining battery level is acquired from the smartphone 2 (S708), and the usable time is specified (S710). The flash memory of the navigation device 1 according to the present embodiment stores learning data obtained by learning the relationship between the remaining battery level of the smartphone 2 and the usable time. Here, the usable time in the battery remaining amount acquired from the smartphone 2 using this learning data is specified.
次に、スマートフォン2のバッテリが使用予定ポイントまで持つか否かを判定する(S712)。具体的には、S710にて特定した使用可能時間が、S706にて算出した使用予定ポイントまでの時間未満であるか否かに基づいてスマートフォン2のバッテリが使用予定ポイントまで持つか否かを判定する。 Next, it is determined whether or not the battery of the smartphone 2 has up to the scheduled use point (S712). Specifically, whether or not the battery of the smartphone 2 has the scheduled use point is determined based on whether or not the usable time specified in S710 is less than the time until the planned use point calculated in S706. To do.
ここで、S710にて特定した使用可能時間が、S706にて算出した使用予定ポイントまでの時間以上の場合、S712の判定はYESとなり、次に、予測残量を表示部110に表示させる(S714)。 Here, when the usable time specified in S710 is equal to or longer than the time until the scheduled use point calculated in S706, the determination in S712 is YES, and then the predicted remaining amount is displayed on the display unit 110 (S714). ).
次に、使用予定ポイントまでの電力使用実績を制御部112のフラッシュメモリに保存する(S716)。具体的には、スマートフォン2のバッテリ残量と使用可能時間の関係を学習した学習データを制御部112のフラッシュメモリに記憶させ、S708へ戻る。
Next, the power usage record up to the scheduled use point is stored in the flash memory of the control unit 112 (S716). Specifically, the learning data learned about the relationship between the remaining battery level of the smartphone 2 and the usable time is stored in the flash memory of the
また、S710にて特定した使用可能時間が、S706にて算出した使用予定ポイントまでの時間未満の場合、S712の判定はNOとなり、次に、電源接続の警告を行う(S718)。具体的には、電ゲーブルを接続する必要があることを示すメッセエージを表示部110に表示させ、本処理を終了する。
If the usable time specified in S710 is less than the time until the scheduled use point calculated in S706, the determination in S712 is NO, and then a power connection warning is given (S718). Specifically, a message indicating that it is necessary to connect the electronic gable is displayed on the
また、最初からスマートフォン2に充電ケーブルが接続されている場合、S700に判定はNOとなり、目的地設定等を実施することなく本処理を終了する。 If a charging cable is connected to the smartphone 2 from the beginning, the determination in S700 is NO, and the present process is terminated without performing destination setting or the like.
(第6実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の構成は図1に示したものと同じである。本実施形態における制御部112は、車両が走行する経路において車両後方に取り付けられたスマートフォン2に太陽光が逆光として当たるポイントを算出し、スマートフォン2の取り付け角度(仰角)を補正するよう乗員に指示する処理を行う。
(Sixth embodiment)
The configurations of the navigation device 1 and the smartphone 2 according to the present embodiment are the same as those shown in FIG. The
図14に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図14に示す処理を実施する。
In FIG. 14, the flowchart of the
まず、目的地を設定する(S800)。具体的には、ユーザに目的地の設定を促し、現在位置から目的地までの案内経路を探索する。 First, a destination is set (S800). Specifically, the user is prompted to set a destination, and a guide route from the current position to the destination is searched.
次に、使用予定ポイントを特定する(S802)。具体的には、目的地までの経路のうち、スマートフォン2を車両後方カメラとして使用する地点の指定を促し、スマートフォン2の使用予定区間を特定する。 Next, a scheduled use point is specified (S802). Specifically, the user is prompted to specify a point where the smartphone 2 is used as a vehicle rear camera in the route to the destination, and the planned use section of the smartphone 2 is specified.
次に、経路上の逆光ポイントを算出する(S804)。まず、GPS受信機106から現在位置特定情報を取得する。この現在位置特定情報には、現在位置を特定するための緯度経度情報および現在時刻を特定するための現在時刻情報が含まれる。そして、現在位置特定情報に含まれる緯度経度情報および現在時刻情報に基づいて太陽高度および太陽方位を算出する。なお、緯度経度情報および現在時刻情報に基づいて太陽高度および太陽方位を算出する手法は周知であるので、ここではその詳細についての説明は省略する。なお、ここでは、車両の現在位置の履歴から車両の走行方位についても特定する。
Next, a backlight point on the route is calculated (S804). First, the current position specifying information is acquired from the
そして、太陽方位および車両の走行方位に基づいて、スマートフォン2の使用予定区間において、太陽光が車両後部のリアウィンドウを介してスマートフォン2に入射する可能性のある区間を算出する。 Then, based on the sun direction and the traveling direction of the vehicle, in the planned use section of the smartphone 2, a section where sunlight may enter the smartphone 2 through the rear window at the rear of the vehicle is calculated.
次に、スマートフォン2の取り付け仰角を特定する(S806)。具体的には、スマートフォン2のジャイロセンサ206の出力信号を取得してスマートフォン2の取り付け仰角を特定する。
Next, the attachment elevation angle of the smartphone 2 is specified (S806). Specifically, the output signal of the
次に、逆光となる区間があるか否かを判定する(S808)。具体的には、太陽高度に基づいて逆光となる区間があるか否かを判定する。例えば、スマートフォン2の使用予定区間において、太陽高度が基準値未満の場合、逆光となる区間があるか否かを判定する。 Next, it is determined whether or not there is a section that is backlit (S808). Specifically, it is determined whether there is a section that is backlit based on the solar altitude. For example, when the solar altitude is less than the reference value in the planned use section of the smartphone 2, it is determined whether there is a section that is backlit.
ここで、逆光となる区間がある場合、S808の判定はYESとなり、次に、スマートフォン2の取り付け仰角の補正を案内する(S810)。スマートフォン2の取り付け仰角が大きい場合、スマートフォン2の取り付け仰角が小さい場合と比較して、スマートフォン2のカメラ207に太陽光が直接入射し易い。したがって、例えば、「走行中に逆光となる可能性があります。スマートフォン2のカメラの向きが少し下を向くように取り付けてください。」といったメッセージを表示部110に表示させるとともにスピーカ102から音声出力させる。
If there is a section that is backlit, the determination in S808 is YES, and then the correction of the attachment elevation angle of the smartphone 2 is guided (S810). When the attachment elevation angle of the smartphone 2 is large, sunlight is easily incident directly on the
次に、取り付け角度を変更するか否かを乗員に確認する(S812)。具体的には、「スマートフォン2の取り付け角度を変更しますか?」といいったメッセージを表示部110に表示させて取り付け角度を変更するか否かを乗員に確認する。
Next, it is confirmed with the occupant whether or not to change the mounting angle (S812). Specifically, a message saying “Do you want to change the attachment angle of the smartphone 2?” Is displayed on the
ここで、乗員の操作により取り付け角度を変更することが確認されると、S812の判定はYESとなり、次に、スマートフォン2の取り付け仰角の補正動作を音声で指示する(S814)。具体的には、S806にて特定したスマートフォン2の取り付け仰角に基づいてスマートフォン2の取り付け仰角の補正量を決定し、取り付け仰角を補正するよう音声で指示する。 Here, if it is confirmed that the attachment angle is changed by the operation of the occupant, the determination in S812 is YES, and then the operation for correcting the attachment elevation angle of the smartphone 2 is instructed by voice (S814). Specifically, the correction amount of the attachment elevation angle of the smartphone 2 is determined based on the attachment elevation angle of the smartphone 2 specified in S806, and a voice is instructed to correct the attachment elevation angle.
次に、表示部110に表示させている画像全体の明るさを監視し(S816)、画面の明るさが基準値よりも高くなったか否かを判定する(S818)。
Next, the brightness of the entire image displayed on the
ここで、逆光により、表示部110に表示させているスマートフォン2の撮影映像の明るさが基準値よりも高くなった場合、S818の判定はYESとなり、表示の明るさを低減させる(S820)。例えば、表示の輝度を低下させたり、映像信号のゲインを低下させて表示の明るさを低減させ、S816へ戻る。
Here, when the brightness of the captured image of the smartphone 2 displayed on the
また、表示部110に表示させているスマートフォン2の撮影映像の明るさが基準値以下の場合、S818の判定はNOとなり、表示の明るさを低減させることなく、S816へ戻る。
If the brightness of the captured video of the smartphone 2 displayed on the
(第7実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の構成は図1に示したものと同じである。本実施形態における制御部112は、スマートフォン2の撮影映像から、特に車両後方の緊急車両の赤色灯を認識して緊急車両の接近を早期に警告する処理を行う。
(Seventh embodiment)
The configurations of the navigation device 1 and the smartphone 2 according to the present embodiment are the same as those shown in FIG. The
図15に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図15に示す処理を実施する。
In FIG. 15, the flowchart of the
まず、スマートフォン2からの映像から赤、黄色を検出する(S900)。具体的には、スマートフォン2より順次送信されるカメラ207の映像を一定期間抽出し、赤色および黄色を検出する。
First, red and yellow are detected from the video from the smartphone 2 (S900). Specifically, the video of the
次に、赤色および黄色の変化に周期性があるか否かを判定する(S902)。具体的には、一定期間内に検出された赤色および黄色の検出結果を解析し、赤色または黄色が周期的に変化しているか否かを判定する。 Next, it is determined whether the red and yellow changes have periodicity (S902). Specifically, the detection results of red and yellow detected within a certain period are analyzed to determine whether or not red or yellow changes periodically.
ここで、例えば、車両後方に位置する緊急車両の赤色灯または黄色灯により、スマートフォン2で撮影された映像で赤色または黄色が周期的に変化している場合、S902の判定はYESとなり、次に、変化が大きくなっているか否かを判定する(S904)。具体的には、赤色または黄色の変化の度合いが大きくなっているか否かを判定する。 Here, for example, when the red or yellow light of the emergency vehicle located at the rear of the vehicle is periodically changing in red or yellow in the image captured by the smartphone 2, the determination in S902 is YES, and then Then, it is determined whether or not the change is large (S904). Specifically, it is determined whether or not the degree of change in red or yellow is large.
ここで、車両後方に位置する緊急車両が自車両に近づいており、赤色または黄色の変化の度合いが大きくなっている場合、S904の判定はYESとなり、緊急車両の接近を警告する(S906)。例えば、「緊急車両が接近しています。」といったメッセージを表示部110に表示させるとともにスピーカ102より音声出力させ、S900に戻る。
Here, if the emergency vehicle located behind the vehicle is approaching the host vehicle and the degree of change in red or yellow is large, the determination in S904 is YES, and an approach of the emergency vehicle is warned (S906). For example, a message such as “Emergency vehicle is approaching” is displayed on the
また、赤色または黄色の変化の度合いが大きくなっていない場合は、S904の判定はNOとなり、緊急車両がいる可能性があることを警告する(S908)。例えば、「周辺に緊急車両がいる可能性があります。」といったメッセージを表示部110に表示させるとともにスピーカ102より音声出力させ、S900に戻る。
If the degree of change in red or yellow is not large, the determination in S904 is NO and warns that there is a possibility of an emergency vehicle (S908). For example, a message such as “There may be an emergency vehicle in the vicinity” is displayed on the
また、自車周辺に緊急車両がいなくなり、赤色または黄色が周期的に変化しなくなると、S902の判定はNOとなり、緊急車両の警告を行うことなく、S900へ戻る。 If there is no emergency vehicle around the vehicle and red or yellow does not change periodically, the determination in S902 is NO, and the process returns to S900 without warning the emergency vehicle.
(第8実施形態)
本実施形態に係るナビゲーション装置1およびスマートフォン2の構成は図1に示したものと同じである。本実施形態における制御部112は、目的地に到着した後、スマートフォン2の取り忘れを判定して乗員に警告する処理を行う。なお、本実施形態においては、ナビゲーション装置1で目的地設定、経路探索および目的地までの経路案内が実施されているものとする。なお、本実施形態におけるスマートフォン2は、スイング動作により開閉する車両後部ドアのリアウィンドウにクレードル3を介して取り付けられている。また、スマートフォン2をクレードル3から取り外す際には、車両後部ドアをスイング動作させてスマートフォン2を取り外すようになっている。
(Eighth embodiment)
The configurations of the navigation device 1 and the smartphone 2 according to the present embodiment are the same as those shown in FIG. After arriving at the destination, the
図16に、このナビゲーション装置1の制御部112のフローチャートを示す。制御部112は、図3に示した処理と並行に図16に示す処理を実施する。
In FIG. 16, the flowchart of the
まず、目的地に到着したか否かを判定する(S1000)。目的地に到着したか否かの判定は、目的地の周辺に現在位置があるか否かに基づいて判定することができる。 First, it is determined whether or not the destination has been reached (S1000). The determination as to whether or not the destination has been reached can be made based on whether or not there is a current position around the destination.
次に、車両にスマートフォン2が残っていることを警告する(S1002)。 Next, a warning is given that the smartphone 2 remains in the vehicle (S1002).
次に、スマートフォン2の動作を監視する(S1006)。具体的には、スマートフォン2から加速度センサ205より出力される加速度信号およびジャイロセンサ206より出力される角速度信号を取得してスマートフォン2の動作を監視する。
Next, the operation of the smartphone 2 is monitored (S1006). Specifically, the acceleration signal output from the
次に、スイング動作と取り外し動作を検出したか否かを判定する(S1008)。スイング動作は、車両後部ドアを開く際にスマートフォン2に生じる動作であり、取り外し動作は、クレードル3からスマートフォン2を取り外す際の動作である。スイング動作は、スマートフォン2から取得した加速度センサ205の加速度信号およびジャイロセンサ206の角速度信号に基づいて検出することができる。また、取り外し動作は、スマートフォン2から取得したジャイロセンサ206の角速度信号に基づいて検出することができる。
Next, it is determined whether or not a swing motion and a removal motion are detected (S1008). The swing operation is an operation that occurs in the smartphone 2 when the rear door of the vehicle is opened, and the removal operation is an operation that is performed when the smartphone 2 is removed from the cradle 3. The swing motion can be detected based on the acceleration signal of the
ここで、スイング動作と取り外し動作が検出されない場合、S1008の判定はYESとなり、次に、一定時間が経過したか否かを判定する(S1010)。ここで、一定時間が経過していない場合、S1010の判定はNOとなり、S1010の判定を繰り返し実施する。 Here, when the swing motion and the removal motion are not detected, the determination in S1008 is YES, and then it is determined whether a certain time has passed (S1010). If the predetermined time has not elapsed, the determination in S1010 is NO, and the determination in S1010 is repeatedly performed.
そして、一定時間が経過すると、S1010の判定はYESとなり、再度、スマートフォン2の取り忘れを警告し(S1012)、本処理を終了する。 When a certain time has elapsed, the determination in S1010 becomes YES, warns that the smartphone 2 has been forgotten again (S1012), and the process ends.
また、スマートフォン2をクレードル3から取り外すため、車両後部ドアをスイングさせて開き、クレードル3からスマートフォン2を取り外すと、S1008の判定はNOとなり、スマートフォン2の取り忘れを警告することなく、本処理を終了する。 Moreover, in order to remove the smartphone 2 from the cradle 3, when the rear door of the vehicle is swung open and the smartphone 2 is removed from the cradle 3, the determination in S1008 is NO, and this processing is performed without warning that the smartphone 2 has been forgotten. finish.
(他の実施形態)
上記第1〜第8実施形態では、スマートフォン2をクレードル3に固定するようにしたが、例えば、クレードル3に回転機構を設け、ナビゲーション装置1からの制御に応じて回転機構を駆動してスマートフォン2の向きを変えるように構成してもよい。また、ユーザの音声を音声認識し、この認識結果に応じてスマートフォン2の向きを変えるように構成してもよい。
(Other embodiments)
In the first to eighth embodiments, the smartphone 2 is fixed to the cradle 3. However, for example, the cradle 3 is provided with a rotation mechanism, and the rotation mechanism is driven according to control from the navigation device 1, and the smartphone 2. You may comprise so that direction may be changed. Moreover, you may comprise so that a user's audio | voice may be recognized and the direction of the smart phone 2 may be changed according to this recognition result.
また、上記第1〜第8実施形態では、クレードル3に偏光フィルタ302を設けるようにしたが、クレードル3に逆光を防止するためのフードを設けるようにしてもよい。また、クレードル3にプリズムのような光学部品を設け、この光学部品でスマートフォン2のカメラ207の光軸を曲げることも可能である。このような構成とすることで、スマートフォン2を車両の真後ろに向けて固定しながら、車両の斜め後ろの映像を撮影することが可能である。
Moreover, in the said 1st-8th embodiment, although the
また、上記第1〜第8実施形態では、クレードル3に偏光フィルタ302を設けるようにしたが、必ずしも偏光フィルタ302を設ける必要はない。この場合、逆光の影響を緩和するため、出発前に偏光フィルタの装着を促す案内を行うようにするのが好ましい。
In the first to eighth embodiments, the
1 ナビゲーション装置
2 スマートフォン
3 クレードル
109 バックカメラ
110 表示部
300 スマートフォン保持部
301 車両固定部
302 偏光フィルタ
400 レーザポインタ
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2 Smart phone 3
Claims (2)
前記固定手段により前記車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、
前記カメラ付き携帯端末に、前記車両後方の映像を撮影させるとともに、前記車両の前方走行時に表示部に表示すべき車両後方の映像となるように、前記カメラ付き携帯端末で撮影された前記車両後方の映像を予め定められた条件に従って加工させ、前記通信手段を介して前記カメラ付き携帯端末により加工された映像を取得する映像取得手段(S112、S114、S300、S302)と、
前記映像取得手段により取得された前記映像を前記表示部に表示させる表示制御手段(S116、S304)と、
車両の後方を撮影するバックカメラ(109)により撮影されたバックカメラ映像を取得するバックカメラ映像取得手段(S100)と、
前記通信手段を介して前記カメラ付き携帯端末により撮影された携帯端末映像を取得する携帯端末映像取得手段(S104)と、
前記バックカメラ映像取得手段により取得された前記バックカメラ映像を基準として前記携帯端末映像取得手段により取得された前記携帯端末映像を拡大または縮小し、前記車両の前方走行時に前記表示部に表示すべき前記携帯端末映像の映像範囲を特定する映像範囲特定手段(S106〜S110)と、を備え、
前記映像取得手段は、前記映像範囲特定手段により特定された前記映像範囲でトリミングすることを前記条件として前記カメラ付き携帯端末に、前記カメラ付き携帯端末で撮影された映像を加工させることを特徴とする車載表示装置。 Fixing means (3) for fixing the mobile terminal with camera (2) to the rear of the vehicle;
A communication means (111) for communicating with a camera-equipped mobile terminal fixed to the rear of the vehicle by the fixing means;
The rear of the vehicle photographed by the portable terminal with camera so that the portable terminal with camera captures an image of the rear of the vehicle and also becomes an image of the rear of the vehicle to be displayed on a display unit when the vehicle is traveling forward. Video acquisition means (S112, S114, S300, S302) for processing the video according to a predetermined condition and acquiring the video processed by the camera-equipped mobile terminal via the communication means;
Display control means (S116, S304) for displaying the video acquired by the video acquisition means on the display unit;
Back camera image acquisition means (S100) for acquiring a back camera image captured by a back camera (109) for capturing the rear of the vehicle;
Mobile terminal video acquisition means (S104) for acquiring mobile terminal video captured by the camera-equipped mobile terminal via the communication means;
The mobile terminal video acquired by the mobile terminal video acquisition means should be enlarged or reduced with reference to the back camera video acquired by the back camera video acquisition means, and displayed on the display unit when the vehicle travels ahead Video range specifying means (S106 to S110) for specifying the video range of the mobile terminal video,
The video acquisition means causes the camera-equipped mobile terminal to process an image captured by the camera-equipped mobile terminal on the condition that trimming is performed in the video range specified by the video range specifying means. In-vehicle display device.
前記固定手段により前記車両後部に固定されたカメラ付き携帯端末と通信する通信手段(111)と、
前記カメラ付き携帯端末に、前記車両後方の映像を撮影させるとともに、前記車両の前方走行時に表示部に表示すべき車両後方の映像となるように、前記カメラ付き携帯端末で撮影された前記車両後方の映像を予め定められた条件に従って加工させ、前記通信手段を介して前記カメラ付き携帯端末により加工された映像を取得する映像取得手段(S112、S114、S300、S302)と、
前記映像取得手段により取得された前記映像を前記表示部に表示させる表示制御手段(S116、S304)と、
前記車両後方の複数の地点へ向けてレーザー光を照射して複数のマーキングを行うマーキング手段(S300)と、を備え、
前記映像取得手段は、前記カメラ付き携帯端末で撮影された映像に含まれる前記複数のマーキングに基づいてトリミングすることを前記条件として前記カメラ付き携帯端末に、前記カメラ付き携帯端末で撮影された映像を加工させることを特徴とする車載表示装置。 Fixing means (3) for fixing the mobile terminal with camera (2) to the rear of the vehicle;
A communication means (111) for communicating with a camera-equipped mobile terminal fixed to the rear of the vehicle by the fixing means;
The rear of the vehicle photographed by the portable terminal with camera so that the portable terminal with camera captures an image of the rear of the vehicle and also becomes an image of the rear of the vehicle to be displayed on a display unit when the vehicle is traveling forward. Video acquisition means (S112, S114, S300, S302) for processing the video according to a predetermined condition and acquiring the video processed by the camera-equipped mobile terminal via the communication means;
Display control means (S116, S304) for displaying the video acquired by the video acquisition means on the display unit;
Marking means (S300) for performing a plurality of markings by irradiating laser beams toward a plurality of points behind the vehicle,
The video acquired by the camera-equipped mobile terminal on the camera-equipped mobile terminal on the condition that trimming is performed based on the plurality of markings included in the video captured by the camera-equipped mobile terminal. An in-vehicle display device characterized by processing the
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014126268A JP6248823B2 (en) | 2014-06-19 | 2014-06-19 | In-vehicle display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014126268A JP6248823B2 (en) | 2014-06-19 | 2014-06-19 | In-vehicle display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016005234A JP2016005234A (en) | 2016-01-12 |
JP6248823B2 true JP6248823B2 (en) | 2017-12-20 |
Family
ID=55224195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014126268A Expired - Fee Related JP6248823B2 (en) | 2014-06-19 | 2014-06-19 | In-vehicle display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248823B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2577734A (en) * | 2018-10-05 | 2020-04-08 | Continental Automotive Gmbh | Emergency vehicle detection |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003237466A (en) * | 2002-02-21 | 2003-08-27 | Fuji Photo Film Co Ltd | Monitoring system for rear seat for automobile, and image pick-up device |
JP2005184395A (en) * | 2003-12-18 | 2005-07-07 | Sumitomo Electric Ind Ltd | Method, system and apparatus for image processing, and photographing equipment |
JP2005280608A (en) * | 2004-03-30 | 2005-10-13 | Toshiba Corp | Terminal holding device and vehicle image communication system |
JP2009118169A (en) * | 2007-11-06 | 2009-05-28 | Victor Co Of Japan Ltd | Wireless image transmission system and image display device |
JP2010163114A (en) * | 2009-01-19 | 2010-07-29 | Hitachi Ltd | Portable navigation device with camera |
JP2013124957A (en) * | 2011-12-15 | 2013-06-24 | Car Mate Mfg Co Ltd | Navigation system using portable information terminal |
JP6073075B2 (en) * | 2012-05-17 | 2017-02-01 | クラリオン株式会社 | In-vehicle camera system and video receiving apparatus used therefor |
-
2014
- 2014-06-19 JP JP2014126268A patent/JP6248823B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016005234A (en) | 2016-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4380550B2 (en) | In-vehicle imaging device | |
CN108349503B (en) | Driving support device | |
US20180352167A1 (en) | Image pickup apparatus, image pickup control method, and program | |
US20190317328A1 (en) | System and method for providing augmented-reality assistance for vehicular navigation | |
JP2008140128A (en) | Vehicle detector | |
JP4801232B1 (en) | Terminal device, image display method and image display program executed by terminal device | |
JP2015128956A (en) | Head-up display, control method, program and storage medium | |
JP4650687B2 (en) | Perimeter monitoring device | |
JP2009237945A (en) | Moving image information collection system and vehicle-mounted device | |
JP2015105903A (en) | Navigation device, head-up display, control method, program, and storage medium | |
JP2016139914A (en) | Display device, portable terminal and control method | |
JP6248823B2 (en) | In-vehicle display device | |
JP2019139368A (en) | Information display control device, information display control method and information display control program | |
JP5517176B2 (en) | Image adjustment apparatus, control method, program, and storage medium | |
WO2009095989A1 (en) | Image acquisition device, image acquisition method, image acquisition program, and storage medium | |
JP4325410B2 (en) | In-vehicle device | |
JP2012220259A (en) | In-vehicle apparatus and vehicle azimuth correction method thereof | |
CN110301133B (en) | Information processing apparatus, information processing method, and computer-readable recording medium | |
WO2019155557A1 (en) | Information display control device, information display control method, and information display control program | |
JP5104589B2 (en) | GUIDANCE DISPLAY DEVICE, GUIDANCE DISPLAY METHOD, AND PROGRAM | |
KR101912853B1 (en) | Electronic device and lane guide method of electronic device | |
KR101856255B1 (en) | Navigation display system | |
JP2014154125A (en) | Travel support system, travel support method and computer program | |
JP2020118473A (en) | Route guidance control device, route guidance control method, and program | |
JP2013141111A (en) | Imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6248823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |