JP2019047296A - Display device, display method, control program, and electronic mirror system - Google Patents

Display device, display method, control program, and electronic mirror system Download PDF

Info

Publication number
JP2019047296A
JP2019047296A JP2017167934A JP2017167934A JP2019047296A JP 2019047296 A JP2019047296 A JP 2019047296A JP 2017167934 A JP2017167934 A JP 2017167934A JP 2017167934 A JP2017167934 A JP 2017167934A JP 2019047296 A JP2019047296 A JP 2019047296A
Authority
JP
Japan
Prior art keywords
video
frame image
image
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017167934A
Other languages
Japanese (ja)
Inventor
良充 稲森
Yoshimitsu Inamori
良充 稲森
武彦 中川
Takehiko Nakagawa
武彦 中川
えり 柳川
Eri Yanagawa
えり 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017167934A priority Critical patent/JP2019047296A/en
Publication of JP2019047296A publication Critical patent/JP2019047296A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a display device that displays a captured image while giving a sense of depth to a user while moving using a single-eye imaging device.SOLUTION: A display device 1 includes: a frame image setting unit 53 for setting a frame image to be displayed around a video according to a result of analyzing a video captured while moving a single-eye imaging device 2 by a video analysis unit 52; and a display control unit 54 for displaying the video together with the frame image on a display unit 40. The frame image has a predetermined pattern for giving a user a sense of depth with respect to the video.SELECTED DRAWING: Figure 1

Description

本発明は単眼の撮像装置を用いて移動しながら撮像した映像を表示する表示装置などに関する。   The present invention relates to a display device or the like that displays an image captured while moving using a monocular imaging device.

車両の周囲を撮像した映像を車内の表示装置に映す電子ミラーシステムが既に知られている(例えば特許文献1)。   An electronic mirror system has already been known that projects an image obtained by imaging the surroundings of a vehicle on a display device in the vehicle (for example, Patent Document 1).

特開2009−83618号公報(2009年4月23日公開)JP, 2009-83618, A (April 23, 2009 release)

しかしながら、上述のような従来技術は、車両の周囲を撮像した映像を車内の表示装置にて表示することができるものの、表示される映像は鏡に映った鏡像とは違い、奥行き感のない二次元の映像である。そのため、ドアミラーに映った鏡像を用いてきた運転手は、当該映像について違和感を覚えるという問題がある。   However, although the prior art as described above can display an image obtained by imaging the surroundings of the vehicle on a display device in the vehicle, the displayed image is different from the mirror image reflected in the mirror, and there is no sense of depth. It is an image of a dimension. Therefore, there is a problem that the driver who has used the mirror image reflected on the door mirror feels a sense of discomfort about the image.

電子ミラーの中には、3D映像(立体映像)を表示するものがある。3D映像は、自然な奥行き感を持つ。したがって、運転手が、表示画面に映る物体(視認対象物)の位置や速度を直感的に理解しやすい。加えて、運転手から見て表示画面よりも遠い奥側に表示する3D映像は、2D映像と比較すると、運転手の視点が遠くなる。そのため、運転手が、車両の前方から表示画面へ視線を移動して、表示画面に表示される視認対象物を認識することを楽に感じる。   Some electronic mirrors display 3D video (stereoscopic video). 3D images have a natural sense of depth. Therefore, the driver can easily intuitively understand the position and the speed of the object (visual object) displayed on the display screen. In addition, the 3D image displayed on the far side of the display screen as seen from the driver is far from the driver's viewpoint as compared to the 2D image. Therefore, it is easy for the driver to move his eyes from the front of the vehicle to the display screen and to recognize the visual target displayed on the display screen.

しかしながら、上述のような電子ミラーは、3D映像を表示するために、3D表示対応の表示装置および2眼カメラや、運転者の視線状態を検知する専用のカメラ(アイトラッキング)などを備える必要があるので、コストがかさむ。また、従来の電子ミラーは、2眼カメラで撮影した2つの撮影映像を、視差マッピング処理により合成するので、電子ミラーの表示画面に3D映像を表示するまでに時間がかかる。運転手は、表示画面に表示される3D映像を見ながら車両を運転するので、表示画面に3D映像を表示するタイミングが遅延することは問題である。さらに、運転手が3D映像を立体映像として認識できる範囲は限られている。   However, in order to display 3D images, the electronic mirror as described above needs to be equipped with a display device compatible with 3D display, a binocular camera, and a dedicated camera (eye tracking) that detects the driver's gaze state. Because there is, it costs more. In addition, since a conventional electronic mirror combines two captured images captured by a twin-lens camera by parallax mapping processing, it takes time to display a 3D image on the display screen of the electronic mirror. Since the driver operates the vehicle while watching the 3D video displayed on the display screen, it is a problem that the timing for displaying the 3D video on the display screen is delayed. Furthermore, the range in which the driver can recognize 3D video as a stereoscopic video is limited.

本発明の一態様は、前記の問題に鑑みてなされたものであり、その目的は、単眼の撮像装置を用いて移動しながら撮像した映像をユーザに奥行き感を与えるように表示することができる表示装置を提供することである。   One aspect of the present invention has been made in view of the above problems, and an object thereof is to display an image captured while moving using a monocular imaging device so as to give a sense of depth to a user It is providing a display apparatus.

前記の課題を解決するために、本発明の一態様に係る表示装置は、単眼の撮像装置を用いて移動しながら撮像した映像を表示する表示装置であって、前記映像を解析する映像解析部と、前記映像解析部にて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定部と、前記映像を前記額縁画像とともに表示部に表示させる表示制御部と、を備えており、前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている構成である。   In order to solve the above-mentioned subject, a display concerning one mode of the present invention is a display which displays an image picturized moving, using an image pick-up device of a single eye, and an image analysis part which analyzes the image A frame image setting unit configured to set a frame image to be displayed around the video according to a result analyzed by the video analysis unit; and a display control unit configured to display the video together with the frame image on the display unit. The frame image is configured to have a predetermined pattern for giving the user a sense of depth to the video.

また、本発明の一態様に係る表示方法は、単眼の撮像装置を用いて移動しながら撮像した映像を表示する表示装置による表示方法であって、前記映像を解析する映像解析ステップと、前記映像解析ステップにて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定ステップと、前記映像を前記額縁画像とともに表示部に表示させる表示制御ステップと、を備えており、前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている。   A display method according to an aspect of the present invention is a display method by a display device that displays an image captured while moving using a single-eye imaging device, comprising: an image analysis step of analyzing the image; The frame image setting step of setting a frame image to be displayed around the video according to the analysis result in the analysis step, and the display control step of displaying the video together with the frame image on the display unit, The frame image has a predetermined pattern for giving the user a sense of depth with respect to the image.

本発明の一態様によれば、単眼の撮像装置を用いた構成で、移動しながら撮像した映像をユーザに奥行き感を与えるように表示することができる表示装置を提供するという効果を奏する。   According to one aspect of the present invention, it is possible to provide a display device capable of displaying an image captured while moving so as to give the user a sense of depth with a configuration using a single-eye imaging device.

本発明の実施形態1に係る電子ミラーシステムの要部構成の一例を示すブロック図である。It is a block diagram showing an example of the principal part composition of the electronic mirror system concerning Embodiment 1 of the present invention. 図1に示す電子ミラーシステムを搭載した車両内部の概略図である。FIG. 2 is a schematic view of the inside of a vehicle equipped with the electronic mirror system shown in FIG. 本発明の実施形態1に係る表示装置にて昼映像と、黒のグラデーションを配した額縁画像との組み合わせを表示した場合の模式図である。It is a schematic diagram at the time of displaying the combination of a daytime image and the frame image which distribute | arranged the gradation of black by the display apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示装置にて昼映像と、白の背景に放射状の黒の細線を配した額縁画像との組み合わせを表示した場合の模式図である。It is a schematic diagram at the time of displaying the combination of the daytime image | video and the frame image which distribute | arranged the black thin wire on the background of white by the display apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示装置にて昼映像と、白の背景に放射状の黒の太線を配した額縁画像との組み合わせを表示した場合の模式図である。It is a schematic diagram at the time of displaying the combination of the daytime image | video and the frame image which arranged the radial thick black line on the white background by the display apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示装置にて昼映像と、黒の背景に放射状の白の太線を配した額縁画像との組み合わせを表示した場合の模式図である。It is a schematic diagram at the time of displaying the combination of a daytime image | video and the frame image which arranged the radial white thick line on the black background by the display apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る表示装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the display apparatus which concerns on Embodiment 1 of this invention performs. 本発明の実施形態1に係る表示装置にて表示される撮像映像および額縁画像の組み合わせの別の例を示す模式図であり、(a)は映像と黒一色の額縁画像との組み合わせを表示した場合、(b)は映像と白一色の額縁画像との組み合わせを表示した場合、(c)は映像と所定の模様が配された額縁画像との組み合わせを表示した場合、(d)は映像と所定のテクスチャが配された額縁画像との組み合わせを表示した場合をそれぞれ示す。It is a schematic diagram which shows another example of the combination of the captured image and frame image which are displayed by the display apparatus which concerns on Embodiment 1 of this invention, (a) displayed the combination of the image and the black frame image. In the case of (b) displaying the combination of the video and the frame image of white only, (c) the display of the combination of the video and the frame image on which the predetermined pattern is arranged, and (d) the video and The case where the combination with the frame image in which the predetermined | prescribed texture was distribute | arranged is each shown is shown. 本発明の実施形態2に係る表示装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the display apparatus which concerns on Embodiment 2 of this invention performs. 本発明の実施形態3に係る表示装置にて移動速度の推定に用いる撮像映像の組み合わせの一例を示す模式図であり、(a)はある時点における映像と当該映像から生成した輪郭画像を示し、(b)は(a)から一定時間経過後の映像と当該映像から生成した輪郭画像を示し、(c)は(b)から一定時間経過後の映像と当該映像から生成した輪郭画像を示す。It is a schematic diagram which shows an example of the combination of the imaging imaging | video used for estimation of a moving speed in the display apparatus which concerns on Embodiment 3 of this invention, (a) shows the image at a certain time and the outline image produced | generated from the said imaging, (B) shows a video after a predetermined time has passed since (a) and an outline image generated from the video, and (c) shows a video after a predetermined time has passed from (b) and an outline image generated from the video. 本発明の実施形態3に係る表示装置において、移動速度に応じた撮像映像と額縁画像の組み合わせの一例を示す模式図であり、(a)は、移動速度が低速であるときの映像と額縁画像の組み合わせを示す。(b)は、移動速度が中速であるときの映像と額縁画像の組み合わせを示し、(c)は、移動速度が高速であるときの映像と額縁画像の組み合わせを示す。The display apparatus which concerns on Embodiment 3 of this invention WHEREIN: It is a schematic diagram which shows an example of the combination of the captured image according to moving speed, and a frame image, (a) is an image when moving speed is low, and a frame image Indicates a combination of (B) shows a combination of video and frame image when the moving speed is medium, and (c) shows a combination of video and frame image when the moving speed is high. 本発明の実施形態4に係る表示装置において撮像映像の違いによる額縁画像の適切な組み合わせの一例を示す模式図であり、(a)は昼映像と、白の背景に放射状の黒の太線を配した額縁画像との組み合わせを表示した場合の模式図であり、(b)は夜映像と、白の背景に放射状の黒の太線を配した額縁画像との組み合わせを表示した場合の模式図であり、(c)は昼映像と、黒の背景に放射状の白の太線を配した額縁画像との組み合わせを表示した場合の模式図であり、(d)は夜映像と、黒の背景に放射状の白の太線を配した額縁画像との組み合わせを表示した場合の模式図である。It is a schematic diagram which shows an example of the suitable combination of the frame image by the difference of a captured image in the display apparatus which concerns on Embodiment 4 of this invention, (a) distributes the radial black thick line on the background of a day image and a white. FIG. 14B is a schematic view of a combination of a night picture and a frame picture in which a thick radial black line is arranged on a white background. , (C) is a schematic view of a combination of a daytime image and a frame image with a thick white radial line on a black background, and (d) is a night image and a radial pattern on a black background It is a schematic diagram at the time of displaying the combination with the frame image which arranged the white thick line. 図12の(a)〜(d)に示した組み合わせに対する見やすさの違いをまとめた表である。It is the table | surface which put together the difference of the legibility with respect to the combination shown to (a)-(d) of FIG. 本発明の実施形態4に係る表示装置において映像の輝度を算出する方法の具体例を示す模式図であり、(a)は、映像が昼映像である場合に表示部へ表示する映像および額縁画像を設定する一連の流れを示し、(b)は、映像が夜映像である場合に表示部へ表示する映像および額縁画像を設定する一連の流れを示している。It is a schematic diagram which shows the specific example of the method of calculating the brightness | luminance of imaging | video in the display apparatus which concerns on Embodiment 4 of this invention, (a) is an imaging | video and frame image which are displayed on a display part when imaging is a daytime image. 7B shows a series of flows for setting an image to be displayed on the display unit and a frame image when the image is a night image. 本発明の実施形態5に係る表示装置において、撮像映像の奥行き中心に応じた額縁画像を設定する一例を示す模式図であり、(a)は、映像の中心に奥行き中心が存在する場合に表示部へ表示する映像および額縁画像を設定する一連の流れを示し、(b)は、映像の中央以外の位置に奥行き中心が存在する場合に表示部へ表示する映像および額縁画像を設定する一連の流れを示している。The display apparatus which concerns on Embodiment 5 of this invention WHEREIN: It is a schematic diagram which shows an example which sets a frame image according to the depth center of a captured image, (a) is a display when a depth center exists in the center of an image. A series of flows which set up a picture and a frame picture which are displayed on a part are shown, and (b) shows a picture which sets up a picture and a frame picture which are displayed on a display part when a depth center exists in positions other than the center of a picture. It shows the flow. 前記各実施形態の表示装置として利用可能なコンピュータの構成を例示したブロック図である。It is the block diagram which illustrated the composition of the computer which can be used as a display of the above-mentioned each embodiment.

〔実施形態1〕
以下、本発明の一実施形態について、図1〜8を用いて詳細に説明する。なお、電子ミラーシステムが自動車に適用された例を用いて以下に説明するが、自動車に限定される必要はない。
Embodiment 1
Hereinafter, an embodiment of the present invention will be described in detail with reference to FIGS. Although an electronic mirror system is explained below using an example applied to a car, it does not need to be limited to a car.

(電子ミラーシステムの構成)
実施形態1に係る電子ミラーシステム100の構成について、図1および図2を用いて説明する。
(Configuration of electronic mirror system)
The configuration of the electronic mirror system 100 according to the first embodiment will be described with reference to FIGS. 1 and 2.

電子ミラーシステム100は、自動車などに設置されるシステムであり、表示装置1および単眼の撮像装置2を備えている。図2の例によれば、ドアミラーの代わりに2つの撮像装置2a・2bが自動車の右側後方および左側後方を撮像し、撮像した撮像映像(以下、映像)を表示装置1a・1bにて表示可能な構成である。   The electronic mirror system 100 is a system installed in a car or the like, and includes a display device 1 and a monocular imaging device 2. According to the example of FIG. 2, instead of the door mirror, the two imaging devices 2a and 2b can capture the right rear and the left rear of the vehicle and can display the captured video (hereinafter referred to as video) on the display devices 1a and 1b. Configuration.

表示装置1は、撮像装置2(2a・2b)が撮像した映像を表示する。表示装置1(1a・1b)は映像について、奥行き感を与えるための額縁画像とともに表示する。ここで、額縁画像とは、所定のパターンが配された、映像の周囲に表示される画像である。なお、所定のパターンは、ユーザが当該所定のパターンを見たときに奥行き感を覚えるようなパターンであることが好ましい。表示装置1は、移動しながら撮像した映像を額縁画像と組み合わせて表示することにより、映像および額縁画像を見たユーザに対して、あたかも奥行きのある映像を見たかのような奥行き感を与えることができる。表示装置1は、例えば自動車に搭載された、カーナビゲーション機能などと任意で切換可能な液晶モニタであってもよい。図2の例によれば、表示装置1は、2つの撮像装置2のそれぞれが撮像した映像について、少なくともいずれかを表示することができる。表示装置1の詳細については後述する。   The display device 1 displays an image captured by the imaging device 2 (2a and 2b). The display device 1 (1a and 1b) displays an image together with a frame image for giving a sense of depth. Here, the frame image is an image displayed around an image on which a predetermined pattern is arranged. Preferably, the predetermined pattern is a pattern that causes the user to feel a sense of depth when viewing the predetermined pattern. The display device 1 displays a video captured while moving and displays it in combination with a frame image, thereby giving the user who has seen the video and the frame image a sense of depth as if the video with depth is viewed. it can. The display device 1 may be, for example, a liquid crystal monitor mounted on a car and optionally switchable with a car navigation function or the like. According to the example of FIG. 2, the display device 1 can display at least one of the images captured by each of the two imaging devices 2. Details of the display device 1 will be described later.

撮像装置2は、映像を1つのレンズで撮像する単眼の撮像装置である。撮像装置2は、撮像した映像を表示装置1に送信することが可能な、例えばデジタルカメラである。なお、撮像装置2と表示装置1との間の通信は、車内に埋設された配線によって有線で行われてもよいし、無線通信によって行われてもよい。   The imaging device 2 is a monocular imaging device that captures an image with one lens. The imaging device 2 is, for example, a digital camera capable of transmitting a captured video to the display device 1. Communication between the imaging device 2 and the display device 1 may be performed by wire embedded in a car or may be performed by wireless communication.

(表示装置の詳細な構成)
表示装置1の詳細な構成について、図1を用いて説明する。表示装置1は、通信部10、入力部20、記憶部30、表示部40、および制御部50を備えている。また、制御部50は、映像取得部51、映像解析部52、額縁画像設定部53、および表示制御部54を備えている。
(Detailed configuration of display device)
The detailed configuration of the display device 1 will be described with reference to FIG. The display device 1 includes a communication unit 10, an input unit 20, a storage unit 30, a display unit 40, and a control unit 50. The control unit 50 further includes an image acquisition unit 51, an image analysis unit 52, a frame image setting unit 53, and a display control unit 54.

通信部10は、撮像装置2との間で通信を行い、当該撮像装置2が撮像した映像に関する映像情報を受信し、映像取得部51へ送信する。   The communication unit 10 communicates with the imaging device 2, receives video information on a video captured by the imaging device 2, and transmits the video information to the video acquisition unit 51.

入力部20は、ユーザの入力を受け付けるものであり、例えば表示部40と一体に構成されたタッチパネルによって構成される。ユーザは、入力部20を用いて、表示部40の表示内容の切り換えなどを行うことができる。   The input unit 20 receives a user's input, and is configured of, for example, a touch panel integrally configured with the display unit 40. The user can use the input unit 20 to switch the display content of the display unit 40, and the like.

記憶部30は、表示装置1にて扱う各種情報を記憶する。例えば、記憶部30は、表示部40にて撮像装置2にて撮像した映像とともに表示する額縁画像を記憶している。   The storage unit 30 stores various information handled by the display device 1. For example, the storage unit 30 stores a frame image to be displayed together with an image captured by the imaging device 2 by the display unit 40.

制御部50は、表示装置1の各部を統括して制御する。   The control unit 50 integrally controls the respective units of the display device 1.

映像取得部51は、通信部10を介して撮像装置2から映像情報を受信し、映像解析部52および表示制御部54へ映像を送信する。   The video acquisition unit 51 receives video information from the imaging device 2 via the communication unit 10, and transmits a video to the video analysis unit 52 and the display control unit 54.

映像解析部52は、映像取得部51から受信した映像を解析し、解析結果を額縁画像設定部53へ送信する。解析は、例えば映像の輝度、奥行き中心、自動車の移動速度などの検出などが含まれる。   The video analysis unit 52 analyzes the video received from the video acquisition unit 51, and transmits the analysis result to the frame image setting unit 53. The analysis includes, for example, detection of luminance of an image, center of depth, movement speed of a car, and the like.

額縁画像設定部53は、映像解析部52から受信した解析結果と記憶部30に記憶されている情報とを用いて、映像と組み合わせる額縁画像を設定する。例えば、額縁画像設定部53は、映像を強調するように、当該映像と色合いが大きく異なる額縁画像を設定する。額縁画像設定部53は、設定した額縁画像を表示制御部54へ送信する。   The frame image setting unit 53 uses the analysis result received from the video analysis unit 52 and the information stored in the storage unit 30 to set a frame image to be combined with the video. For example, the frame image setting unit 53 sets a frame image that greatly differs in color from the video so as to emphasize the video. The frame image setting unit 53 transmits the set frame image to the display control unit 54.

表示制御部54は、映像取得部51から受信した映像を、額縁画像設定部53から受信した額縁画像と組み合わせて表示部40に表示させる。例えば、表示制御部54は、額縁画像の中央部分に映像を重畳させたものを表示部40に表示させる。   The display control unit 54 causes the display unit 40 to display the video received from the video acquisition unit 51 in combination with the frame image received from the frame image setting unit 53. For example, the display control unit 54 causes the display unit 40 to display the image superimposed on the center portion of the frame image.

(映像と額縁画像の組み合わせの例)
本実施形態において、表示制御部54が表示部40に表示させる、映像と額縁画像の組み合わせの例について、図3〜図6を用いて説明する。なお、図3〜図6は、表示装置1にて表示される、日中の映像である昼映像41aおよび互いに異なる額縁画像42a〜dの組み合わせを示す模式図である。
(Example of combination of image and frame image)
In the present embodiment, an example of a combination of a video and a frame image which the display control unit 54 causes the display unit 40 to display will be described using FIGS. 3 to 6. 3 to 6 are schematic views showing a combination of a daytime image 41a which is a daytime image and frame images 42a to 42d different from each other, which are displayed on the display device 1.

図3は、表示部40にて昼映像41aと、黒のグラデーションを配した額縁画像42aとの組み合わせを表示した場合の模式図である。ユーザが表示部40全体を見たとき、当該ユーザはグラデーションの濃淡が与える視覚効果によって、昼映像41aがあたかも奥行きのある映像であるかのように錯覚する。すなわち、ユーザは奥行き感のある映像として昼映像41aを認識する。   FIG. 3 is a schematic view when a combination of a daytime image 41a and a frame image 42a in which a black gradation is arranged is displayed on the display unit 40. As shown in FIG. When the user looks at the entire display unit 40, the user has the illusion of the daytime image 41a as if it were a video with depth due to the visual effect given by the gradation of gradation. That is, the user recognizes the daytime image 41a as an image with a sense of depth.

図4は、表示部40にて昼映像41aと、白の背景に放射状の黒の細線を配した額縁画像42bとの組み合わせを表示した場合の模式図である。図3と同様に、ユーザは放射状の黒の細線が与える視覚効果によって、奥行き感のある映像として昼映像41aを認識する。   FIG. 4 is a schematic view in the case where a combination of a daytime image 41 a and a frame image 42 b in which radial black thin lines are arranged on a white background is displayed on the display unit 40. Similar to FIG. 3, the user recognizes the daytime video 41a as a video with a sense of depth by the visual effect given by the radial black thin line.

図5は、表示部40にて昼映像41aと、白の背景に放射状の黒の太線を配した額縁画像42cとの組み合わせを表示した場合の模式図である。図3および図4と同様に、ユーザは放射状の黒の太線が与える視覚効果によって、奥行き感のある映像として昼映像41aを認識する。   FIG. 5 is a schematic view in the case where a combination of a daytime image 41 a and a frame image 42 c in which a radial thick black line is arranged on a white background is displayed on the display unit 40. Similar to FIGS. 3 and 4, the user recognizes the daytime video 41a as a video with a sense of depth by the visual effect given by the thick radial black line.

図6は、表示部40にて昼映像41aと、黒の背景に放射状の白の太線を配した額縁画像42dとの組み合わせを表示した場合の模式図である。図3および図4と同様に、ユーザは放射状の白の太線が与える視覚効果によって、奥行き感のある映像として昼映像41aを認識する。   FIG. 6 is a schematic view in the case where the combination of a daytime image 41a and a frame image 42d in which a thick radial white line is arranged on a black background is displayed on the display unit 40. Similar to FIGS. 3 and 4, the user recognizes the daytime video 41a as a video with a sense of depth by the visual effect given by the thick radial white line.

(処理の流れ)
本実施形態において、表示装置1が実行する処理の流れについて、図7を用いて説明する。図7は、本実施形態に係る表示装置1が実行する処理の流れの一例を示すフローチャートである。表示装置1は、リアルタイムで図7に示す一連の処理を繰り返す。
(Flow of processing)
In the present embodiment, the flow of processing performed by the display device 1 will be described with reference to FIG. FIG. 7 is a flowchart showing an example of the flow of processing performed by the display device 1 according to the present embodiment. The display device 1 repeats a series of processes shown in FIG. 7 in real time.

まず、映像取得部51は、通信部10を介して撮像装置2から映像情報を取得し、取得した映像を映像解析部52および表示制御部54へ送信する(S1)。次に、映像解析部52は、映像取得部51から受信した映像を解析し、解析結果を額縁画像設定部53へ送信する(S2:映像解析ステップ)。   First, the video acquisition unit 51 acquires video information from the imaging device 2 via the communication unit 10, and transmits the acquired video to the video analysis unit 52 and the display control unit 54 (S1). Next, the video analysis unit 52 analyzes the video received from the video acquisition unit 51, and transmits the analysis result to the frame image setting unit 53 (S2: video analysis step).

額縁画像設定部53は、映像解析部52から受信した解析結果を用いて、当該解析結果に応じた額縁画像を記憶部30から取得し、映像とともに表示する額縁画像として設定する(S3:額縁画像設定ステップ)。そして、表示制御部54は、映像取得部51から受信した、撮像装置2が撮像した映像と、額縁画像とを表示部40へ表示する(S4:表示制御ステップ)。   The frame image setting unit 53 acquires a frame image according to the analysis result from the storage unit 30 using the analysis result received from the video analysis unit 52, and sets it as a frame image to be displayed together with the video (S3: frame image Setting step). Then, the display control unit 54 displays the video captured by the imaging device 2 and the frame image received from the video acquisition unit 51 on the display unit 40 (S4: display control step).

以上の処理によって、表示装置1はユーザに対して、所定のパターンを備えた額縁画像とともに映像を表示することができる。これにより、ユーザは額縁画像に設けられた所定のパターンによって奥行き感を抱いた状態で映像を見ることができる。したがって、単眼の撮像装置を用いた構成で、移動しながら撮像した映像をユーザに奥行き感を与えるように表示することができる表示装置を提供するという効果を奏する。   By the above processing, the display device 1 can display an image to the user together with the frame image having the predetermined pattern. Thus, the user can view the image in a state of having a sense of depth by the predetermined pattern provided in the frame image. Therefore, it is effective in providing a display which can be displayed so that a user can give a feeling of depth to a user by composition which used an image pick-up device of a single eye, and moved.

なお、本実施形態に係る表示装置1が実行する処理は、図7に限定される必要はない。例えば、S3にて額縁画像設定部53が設定した額縁画像が表示部40に表示中である額縁画像と同一であれば、S4にて表示制御部54は、映像のみを更新する構成であってもよい。   In addition, the process which the display apparatus 1 which concerns on this embodiment performs does not need to be limited to FIG. For example, if the frame image set by the frame image setting unit 53 in S3 is the same as the frame image being displayed on the display unit 40, the display control unit 54 updates only the video in S4. It is also good.

また、表示装置1が表示する映像は、撮像装置2が移動しながら撮像した映像以外に切り換え可能であってもよい。例えば、カーナビゲーション機能にて表示される地図情報についても額縁画像とともに表示する構成であってもよい。   Further, the video displayed by the display device 1 may be switchable to other than the video captured while the imaging device 2 is moving. For example, the map information displayed by the car navigation function may be displayed together with the frame image.

図3〜図6に示した額縁画像42a〜dは、いずれも映像から額縁画像の外周に向けて変化を示すパターンを備える構成であった。しかしながら、ユーザが映像を見たときに当該映像が奥行きを有するように錯覚させることができる構成であれば、額縁画像に設けられる所定のパターンは、どのようなものであってもよい。   All of the frame images 42a to 42d shown in FIG. 3 to FIG. 6 are configured to have a pattern indicating a change from the video toward the outer periphery of the frame image. However, the predetermined pattern provided on the frame image may be any configuration as long as the user can view the image so that the image has an illusion of depth.

(映像と額縁画像の組み合わせの別の例)
額縁画像に設けられる所定のパターンの別の例について、図8を用いて説明する。図8は、表示装置1にて表示される映像および額縁画像の組み合わせの別の例を示す模式図である。
(Another example of combination of image and frame image)
Another example of the predetermined pattern provided in the frame image will be described with reference to FIG. FIG. 8 is a schematic view showing another example of the combination of the video and the frame image displayed on the display device 1.

図8の(a)は、表示部40にて昼映像41aと、黒一色の額縁画像42eとの組み合わせを表示した場合の模式図である。   FIG. 8A is a schematic view in the case where the combination of the daytime image 41a and the black black frame image 42e is displayed on the display unit 40. FIG.

図8の(b)は、表示部40にて昼映像41aと、白一色の額縁画像42fとの組み合わせを表示した場合の模式図である。   (B) of FIG. 8 is a schematic view in the case where a combination of a daytime image 41a and a frame image 42f of only white color is displayed on the display unit 40.

図8の(c)は、表示部40にて昼映像41aと、所定の模様が配された額縁画像42gとの組み合わせを表示した場合の模式図である。なお、所定の模様は色付きであってもよく、例えばピンクでもよい。また、所定の模様は例えばレンガ模様であってもよい。   FIG. 8C is a schematic view in the case where a combination of a daytime image 41a and a frame image 42g in which a predetermined pattern is arranged is displayed on the display unit 40. The predetermined pattern may be colored, and may be pink, for example. Also, the predetermined pattern may be, for example, a brick pattern.

図8の(d)は、表示部40にて昼映像41aと、所定のテクスチャが配された額縁画像42hとの組み合わせを表示した場合の模式図である。なお、所定の模様は色付きであってもよく、例えば茶色であってもよい。   FIG. 8D is a schematic view in the case where a combination of a daytime image 41a and a frame image 42h in which a predetermined texture is arranged is displayed on the display unit 40. The predetermined pattern may be colored, and may be, for example, brown.

額縁画像設定部53は、図8の(a)〜(d)に示された額縁画像42e〜hについても、解析結果に応じて額縁画像として設定することができる。なお、額縁画像42e〜hは、額縁画像のいずれも映像から当該額縁画像の外周に向けて変化を示すパターンを持たないものであるため、いずれも単体ではユーザに奥行き感を与えることは難しい。しかしながら、人の視覚特性には個人差があるため、額縁画像42e〜hを額縁画像として設定し、映像とともに表示したときに、ユーザによっては当該映像に対して奥行き感を覚えうる。   The frame image setting unit 53 can also set frame images 42 e to h shown in (a) to (d) of FIG. 8 as frame images according to the analysis result. Since none of the frame images has a pattern indicating a change from the video toward the outer periphery of the frame images, it is difficult for the frame images 42e to 42h to give the user a sense of depth alone. However, since there are individual differences in human visual characteristics, when the frame images 42e to 42h are set as frame images and displayed together with the video, some users may feel a sense of depth with respect to the video.

〔実施形態2〕
本発明の実施形態2について、図1、6、8、および9を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
Second Embodiment
Embodiment 2 of the present invention will be described below using FIGS. 1, 6, 8 and 9. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended, and the description is not repeated.

(電子ミラーシステムの構成)
実施形態2に係る電子ミラーシステム100の構成について、図1を用いて説明する。
(Configuration of electronic mirror system)
The configuration of the electronic mirror system 100 according to the second embodiment will be described with reference to FIG.

本実施形態において、電子ミラーシステム100は、基本的な構成は前記実施形態1と同一であるが、表示装置1の一部構成が異なっている。表示装置1は、撮像装置2が撮像した映像とともに表示する額縁画像について、当該映像を見るユーザの視覚特性の傾向に応じた額縁画像を設定する点が異なっている。より具体的には、額縁画像設定部53は、映像解析部52における解析結果と、映像を見るユーザが奥行き感を覚えやすい傾向とに基づいて、額縁画像を設定する。なお、ユーザの視覚特性の傾向に関する情報は、どのように保持してもよいが、例えば記憶部30に予め設定済みであることが好適である。   In the present embodiment, the basic configuration of the electronic mirror system 100 is the same as that of the first embodiment, but the partial configuration of the display device 1 is different. The display device 1 is different from the frame image displayed with the image captured by the imaging device 2 in that the frame image is set according to the tendency of the visual characteristic of the user who views the image. More specifically, the frame image setting unit 53 sets the frame image based on the analysis result in the video analysis unit 52 and the tendency of the user who views the video to easily feel a sense of depth. In addition, although the information regarding the tendency of a user's visual characteristic may be hold | maintained how, it is suitable to be preset by the memory | storage part 30, for example.

ユーザの視覚特性の傾向に応じた額縁画像の組み合わせの具体例について、以下に説明する。   Specific examples of the combination of frame images according to the tendency of the user's visual characteristics will be described below.

(ユーザの視覚特性に応じた額縁画像の組み合わせ)
映像と額縁画像について、どの組み合わせを見た時に最も奥行き感を覚えるかというのは、個々人の視覚特性に大きく依存する。そのため、特定の映像について、あるユーザにとっては最も奥行き感を覚える額縁画像との組み合わせが、別のユーザにとっては全く奥行き感を覚えない組み合わせとなる可能性がある。同様に、特定の額縁画像について、あるユーザにとっては最も奥行き感を覚える映像との組み合わせが、別のユーザにとっては全く奥行き感を覚えない組み合わせとなる可能性がある。
(A combination of frame images according to the user's visual characteristics)
The combination of the image and the frame image that most produces a sense of depth when viewed is largely dependent on the visual characteristics of the individual. Therefore, there is a possibility that a combination with a frame image that gives a certain sense of depth most for a particular video may be a combination that does not have a sense of depth for another user. Similarly, with respect to a specific frame image, a combination with a video that gives the most a sense of depth to one user may be a combination that does not have a sense of depth at all for another user.

例えば、図6に示した、昼映像41aと、黒の背景に放射状の白の太線を配した額縁画像42dとの組み合わせについては、多くの人が奥行き感を覚えやすい。一方、図8の(c)に示した、昼映像41aと、ピンク色のレンガ模様が配された額縁画像42gとの組み合わせについて、多くはないが一部の人が奥行き感を覚える。   For example, with regard to the combination of the daytime image 41a and the frame image 42d in which a radial white thick line is arranged on a black background, many people tend to feel a sense of depth, as shown in FIG. On the other hand, although there are not many combinations of the daytime image 41a shown in (c) of FIG. 8 and the frame image 42g in which a pink brick pattern is arranged, some people feel a sense of depth.

さらに、同一のパターンであっても、額縁画像の色の違いなどによって奥行き感を覚える強さが異なる。例えば、図8の(c)に示したピンク色のレンガ模様が配された額縁画像42gについて、当該レンガ模様がピンク色であれば奥行き感を強く覚えるユーザについて別の色であれば奥行き感をあまり感じない可能性がある。   Furthermore, even with the same pattern, the strength of remembering the sense of depth differs depending on the color of the frame image and the like. For example, in the frame image 42g in which the pink brick pattern shown in FIG. 8C is arranged, if the brick pattern is pink, the user feels a sense of depth if the color is another color. There is a possibility not to feel much.

このことから、額縁画像は、映像だけでなく、表示装置1を利用するユーザの視覚特性を踏まえて設定することが好適である。すなわち、額縁画像設定部53は、表示装置1を利用するユーザ毎に、当該ユーザが奥行き感を覚えやすい傾向に沿った額縁画像を設定することが好ましい。なお、ユーザが奥行き感を覚えやすい傾向については、額縁画像設定部53が参照できる構成であれば、どのような構成であってもよい。例えば、ユーザが奥行き感を覚えやすい傾向について入力部20や表示部40を用いて事前に登録しておき、表示装置1の使用開始時に装置を使用するユーザを選択することにより、ユーザ毎に適した映像と額縁画像の組み合わせを表示することができる。   From this, it is preferable to set the frame image based on not only the video but also the visual characteristics of the user who uses the display device 1. That is, it is preferable that the frame image setting unit 53 set, for each user who uses the display device 1, a frame image along a tendency that the user can easily feel a sense of depth. Note that any configuration may be used as long as the frame image setting unit 53 can refer to the tendency of the user to easily sense the sense of depth. For example, it is suitable for each user by registering in advance the tendency that the user tends to feel a sense of depth by using the input unit 20 or the display unit 40 and selecting the user who uses the apparatus when the use of the display apparatus 1 is started. It is possible to display a combination of an image and a frame image.

(処理の流れ)
本実施形態において、表示装置1が実行する処理の流れについて、図9を用いて説明する。図9は、表示装置1が実行する処理の流れの一例を示すフローチャートである。
(Flow of processing)
In the present embodiment, the flow of processing performed by the display device 1 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the flow of processing performed by the display device 1.

本実施形態において表示装置1が実行する処理は、S3の代わりにS5の処理を実行する点を除き、基本的に前記実施形態1と同一である。   The process performed by the display device 1 in the present embodiment is basically the same as that of the first embodiment except that the process of S5 is performed instead of S3.

S2の後、額縁画像設定部53は、映像解析部52から受信した解析結果に加え、現在表示装置1を使用中であるユーザが奥行き感を覚えやすい額縁画像の傾向に応じて額縁画像を設定する(S5)。そしてS5の後、表示制御部54は前記実施形態1と同様にS4の処理を実行する。   After S2, in addition to the analysis result received from the video analysis unit 52, the frame image setting unit 53 sets the frame image according to the tendency of the frame image in which the user currently using the display device 1 can easily feel a sense of depth. To do (S5). After S5, the display control unit 54 executes the process of S4 as in the first embodiment.

以上の処理によって、表示装置1は、当該表示装置1を使用するユーザの視覚特性の傾向に応じた額縁画像を設定し、当該映像とともに表示することができる。   By the above processing, the display device 1 can set a frame image according to the tendency of the visual characteristic of the user who uses the display device 1 and can display the frame image together with the image.

〔実施形態3〕
本発明の実施形態3について、図1、7、10、および11を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
Third Embodiment
The third embodiment of the present invention will be described below using FIGS. 1, 7, 10 and 11. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended, and the description is not repeated.

(電子ミラーシステムの構成)
実施形態3に係る電子ミラーシステム100の構成について、図1を用いて説明する。
(Configuration of electronic mirror system)
The configuration of the electronic mirror system 100 according to the third embodiment will be described with reference to FIG.

本実施形態において、電子ミラーシステム100は、基本的な構成は前記各実施形態と同一であるが、表示装置1の一部構成が異なっている。表示装置1は、撮像装置2が撮像した映像の時間当たりの変化の大きさを解析し、撮像装置2を搭載している移動体の移動速度を推定し、推定した移動体の移動速度に応じて額縁画像の表示領域の大きさを変化させて表示する点が異なっている。より具体的には、表示制御部54は、映像解析部52にて映像を解析した結果得られた、移動体の移動速度に応じて当該額縁画像の表示領域の高さや幅などを変化させて映像および額縁画像を表示する。なお、額縁画像は、映像の移動速度に応じて特定の額縁画像が設定されてもよいし、適宜変更されてもよい。また、移動体は、前記各実施形態において用いた自動車であってもよいが、撮像装置2を搭載して移動可能なものであればよい。例えば、移動体は、オートバイ、船舶、飛行機、などであってもよい。以下の説明では、前記各実施形態と同様に、移動体が自動車である場合について説明する。   In the present embodiment, the basic configuration of the electronic mirror system 100 is the same as that of the above-described embodiments, but a partial configuration of the display device 1 is different. The display device 1 analyzes the magnitude of change per hour of the image captured by the imaging device 2, estimates the moving speed of the moving object equipped with the imaging device 2, and determines the moving speed of the moving object estimated. The difference is that the size of the display area of the frame image is changed and displayed. More specifically, the display control unit 54 changes the height or width of the display area of the frame image according to the moving speed of the moving object obtained as a result of analyzing the video by the video analysis unit 52. Display images and picture frames. As the frame image, a specific frame image may be set according to the moving speed of the image, or may be changed as appropriate. Further, the mobile body may be the automobile used in each of the above-described embodiments, but it may be movable as long as the imaging device 2 is mounted. For example, the mobile may be a motorcycle, a ship, an airplane, and so on. In the following description, as in the above embodiments, the case where the mobile unit is an automobile will be described.

(自動車の移動速度と視野の関係)
人の視野は、移動速度が大きくなるにつれて狭くなる特性がある。例えば、静止状態にある人の視野は左右方向に対して広視野角、例えば200度程度であるが、時速40kmで移動している人の視野は左右方向に対して例えば100度程度まで狭くなり、さらに時速130kmになると30度まで狭くなると言われている。そのため、移動しながら撮像した映像を額縁画像とともに表示したときに、ユーザは当該移動に応じて視野が狭まり、結果として額縁画像が当該ユーザの視野から大きく外れるおそれがある。額縁画像がユーザの視野から大きく外れると、当該ユーザが額縁画像から奥行き感を得ることがないので、映像から推定した自動車の移動速度に応じて、額縁画像の表示領域の大きさを変化させる必要がある。
(Relationship between moving speed of car and field of vision)
A person's visual field has a characteristic that it narrows as the moving speed increases. For example, the field of view of a person in a stationary state is a wide angle of view, for example, about 200 degrees in the horizontal direction, but the field of view of a person moving at 40 km per hour is narrowed to about 100 degrees in the lateral direction. Furthermore, it is said that it will be narrowed to 30 degrees when it reaches 130 km / hr. Therefore, when a video captured while moving is displayed together with the frame image, the user narrows the field of view according to the movement, and as a result, the frame image may be largely deviated from the user's field of view. If the frame image greatly deviates from the user's field of view, the user does not obtain a sense of depth from the frame image, so it is necessary to change the size of the display area of the frame image according to the moving speed of the car estimated from the video. There is.

(映像に基づく移動速度の推定方法)
撮像装置2が撮像した映像に基づく、自動車の移動速度の推定方法の具体例について図10を用いて説明する。図10は、本実施形態に係る表示装置1にて移動速度の推定に用いる映像の組み合わせの一例を示す模式図であり、(a)はある時点における映像41dと当該映像41dから生成した輪郭画像44dを示す。(b)は(a)から一定時間経過後の映像41eと当該映像41eから生成した輪郭画像44eを示し、(c)は(b)から一定時間経過後の映像41fと当該映像41fから生成した輪郭画像44fを示す。
(Moving speed estimation method based on video)
A specific example of a method of estimating the moving speed of a car based on a video captured by the imaging device 2 will be described with reference to FIG. FIG. 10 is a schematic view showing an example of a combination of images used to estimate the moving speed in the display device 1 according to the present embodiment, and (a) is an outline image generated from the image 41d and the image 41d at a certain point in time. 44 d is shown. (B) shows an image 41 e after a predetermined time has passed since (a) and an outline image 44 e generated from the image 41 e, and (c) shows an image 41 f after a predetermined time has passed from (b) and the image 41 f An outline image 44f is shown.

図10の(a)は、ある時点において撮像装置2が撮像した、自動車の後方を示す映像41d、および映像41dに映る物体の輪郭を抽出した輪郭映像44dである。映像解析部52は、輪郭映像44dを用いて、移動速度を解析するために適当な特徴物を選択する。図示の例では、輪郭映像44dの中央左側に所在するトラックの前面部分を特徴物として選択している。   FIG. 10A shows a video 41 d showing the rear of a car and a contour video 44 d extracted from the contour of an object shown in the video 41 d, captured by the imaging device 2 at a certain point in time. The image analysis unit 52 uses the contour image 44 d to select an appropriate feature to analyze the moving speed. In the illustrated example, the front portion of the track located on the center left side of the contour image 44d is selected as the feature.

図10の(b)は、図10の(a)から一定時間が経過した後に撮像装置2が撮像した、自動車の後方を示す映像41e、および映像41eから輪郭を抽出した輪郭映像44eである。映像解析部52は、図10の(a)にて特徴物として選択したトラックの前面部分の位置および大きさの変化から、撮像装置2(および表示装置1)を搭載した自動車の移動速度を算出する。   (B) of FIG. 10 shows an image 41e showing the rear of the car and an outline image 44e of which an outline is extracted from the image 41e, which is imaged by the imaging device 2 after a predetermined time has elapsed from (a) of FIG. The image analysis unit 52 calculates the moving speed of the vehicle equipped with the imaging device 2 (and the display device 1) from the change in the position and the size of the front part of the track selected as the feature in FIG. Do.

図10の(c)は、図10の(b)から一定時間が経過した後に撮像装置2が撮像した、自動車の後方を示す映像41f、および映像41fから輪郭を抽出した輪郭映像44fである。そして、映像解析部52は、図10の(b)のときと同様にして、撮像装置2(および表示装置1)を搭載した自動車の移動速度を算出する。すなわち、映像解析部52は、一定時間毎に撮像された映像から移動速度を算出する。   (C) of FIG. 10 shows a video 41 f showing the rear of the car and a contour video 44 f of which the contour is extracted from the video 41 f captured by the imaging device 2 after a predetermined time has elapsed from (b) of FIG. And the image | video analysis part 52 calculates the moving speed of the motor vehicle carrying the imaging device 2 (and the display apparatus 1) similarly to the time of (b) of FIG. That is, the video analysis unit 52 calculates the moving speed from the video captured at predetermined time intervals.

以上の方法によって推定された自動車の移動速度に基づいて、本実施形態に係る表示制御部54は、表示部40に表示させる撮像画像の表示領域の大きさを変化させる。   The display control unit 54 according to the present embodiment changes the size of the display area of the captured image displayed on the display unit 40 based on the moving speed of the vehicle estimated by the above method.

(移動速度に応じた映像と額縁画像の組み合わせ)
本実施形態において、表示制御部54は、図10を用いて説明したような方法によって推定された自動車の移動速度に応じて額縁画像の表示領域の大きさを変化させて表示する。移動速度に応じた映像と額縁画像の組み合わせの例について、図11を用いて説明する。図11は、表示装置1において移動速度に応じた映像と額縁画像の組み合わせの一例を示す模式図であり、(a)は、移動速度が低速であるときの映像と額縁画像の組み合わせを示す。(b)は、移動速度が中速であるときの映像と額縁画像の組み合わせを示し、(c)は、移動速度が高速であるときの映像と額縁画像の組み合わせを示す。
(Combination of image and frame image according to movement speed)
In the present embodiment, the display control unit 54 changes and displays the size of the display area of the frame image in accordance with the moving speed of the vehicle estimated by the method described with reference to FIG. An example of the combination of the video and the frame image according to the moving speed will be described with reference to FIG. FIG. 11 is a schematic view showing an example of a combination of a video and a frame image according to the moving speed in the display device 1, and (a) shows a combination of the video and the frame image when the moving speed is low. (B) shows a combination of video and frame image when the moving speed is medium, and (c) shows a combination of video and frame image when the moving speed is high.

図11の(a)は、推定された自動車の移動速度が低速であるときの映像と額縁画像の組み合わせを示す。低速のとき、人の視野角は比較的広いため、額縁画像の表示領域を小さくしても十分認識されると考えられる。そのため、額縁画像の表示領域を小さくし、映像の表示領域を大きくすることで当該映像を見やすくし、かつユーザに奥行き感を覚えさせることができる。   (A) of FIG. 11 shows a combination of an image and a frame image when the estimated moving speed of the vehicle is low. At low speeds, the viewing angle of a person is relatively wide, so even if the display area of the frame image is reduced, it is considered to be sufficiently recognized. Therefore, by making the display area of the frame image smaller and making the display area of the video larger, it is possible to make the video easier to view and allow the user to feel a sense of depth.

図11の(b)は、推定された自動車の移動速度が中速であるときの映像と額縁画像の組み合わせを示す。中速のとき、人の視野角は低速のときと比べると狭くなるため、額縁画像の表示領域を図11の(a)のときよりも大きくする。これにより、移動速度が中速であるときもユーザに奥行き感を覚えさせることができる。   (B) of FIG. 11 shows a combination of an image and a frame image when the estimated moving speed of the vehicle is medium. At a medium speed, the viewing angle of a person is narrower than at a low speed, so the display area of the frame image is made larger than in the case of FIG. As a result, even when the moving speed is medium, the user can be made to feel a sense of depth.

図11の(c)は、推定された自動車の移動速度が高速であるときの映像と額縁画像の組み合わせを示す。高速のとき、人の視野角は低速および中速のときと比べると最も狭くなるため、額縁画像の表示領域を図11の(a)および(b)のときよりも大きくする。これにより、移動速度が高速であるときもユーザに奥行き感を覚えさせることができる。   (C) of FIG. 11 shows the combination of the image and the frame image when the estimated moving speed of the automobile is high. The display area of the frame image is made larger than in the cases of (a) and (b) in FIG. 11 because the viewing angle of a person is the narrowest at high speeds compared to those at low and medium speeds. As a result, even when the moving speed is high, the user can feel a sense of depth.

以上のようにして移動速度に応じた映像と額縁画像とを組み合わせることにより、移動速度の大きさによらず、ユーザに十分な奥行き感を覚えさせることができる。   As described above, by combining the image according to the moving speed and the frame image, it is possible to cause the user to have a sufficient sense of depth regardless of the size of the moving speed.

(処理の流れ)
本実施形態において、表示装置1が実行する処理の流れについて説明する。なお、本実施形態における処理の流れは、前記実施形態1における図7と同じであるので、図7を用いて説明する。
(Flow of processing)
In the present embodiment, the flow of processing performed by the display device 1 will be described. In addition, since the flow of the process in this embodiment is the same as FIG. 7 in the said Embodiment 1, it demonstrates using FIG.

前述したように、本実施形態において表示装置1が実行する処理は、基本的に前記実施形態1と同一である。異なるのは、以下の3点である。1点目は、S2にて映像解析部52が、図10を用いて説明したような方法によって自動車の移動速度を推定し、当該移動速度を解析結果として額縁画像設定部53へ送信する点である。2点目は、S3にて額縁画像設定部53は額縁画像を設定し、設定した額縁画像とともに映像解析部52から受信した、自動車の移動速度を表示制御部54へ送信する点である。そして3点目は、S4にて表示制御部54が、額縁画像設定部53から受信した、自動車の移動速度に応じて表示部40における撮像画像の表示領域の大きさを決定し、映像とともに表示させる点である。   As described above, the process performed by the display device 1 in the present embodiment is basically the same as that in the first embodiment. The difference is in the following three points. The first point is that the video analysis unit 52 estimates the moving speed of the vehicle by the method as described with reference to FIG. 10 in S2, and transmits the moving speed to the frame image setting unit 53 as an analysis result. is there. The second point is that the frame image setting unit 53 sets a frame image in S3 and transmits the moving speed of the vehicle received from the video analysis unit 52 together with the set frame image to the display control unit 54. The third point is that the display control unit 54 determines the size of the display area of the captured image on the display unit 40 according to the moving speed of the car received from the frame image setting unit 53 in S4, and displays the image together with the video It is a point that

以上の処理によって、表示装置1は、自動車の移動速度に応じて撮像画像の大きさを変化させて表示することができる。なお、表示制御部54が撮像画像の表示領域の大きさの決定に用いることができるのであれば、自動車の移動速度は映像から推定されたものを用いなくてもよい。例えば、表示制御部54は、自動車のスピードメータに示される値を取得し、取得した値を用いて撮像画像の表示領域の大きさを決定してもよい。   By the above processing, the display device 1 can change and display the size of the captured image according to the moving speed of the vehicle. In addition, if the display control unit 54 can be used to determine the size of the display area of the captured image, the moving speed of the vehicle does not have to be estimated from the video. For example, the display control unit 54 may acquire the value indicated by the speedometer of the automobile, and use the acquired value to determine the size of the display area of the captured image.

また、図2の例によれば、撮像装置2は自動車の車外に配置されるため、表示装置1よりも外部との通信によって位置情報を取得しやすい。そのため、撮像装置2は撮像した映像とともに、当該映像を撮像した位置に関する位置情報を取得し、表示装置1へ送信する構成であってもよい。このとき、表示装置1は、受信した位置情報を用いて自動車の移動速度を推定してもよい。   Further, according to the example of FIG. 2, since the imaging device 2 is disposed outside the vehicle, it is easier to acquire position information by communication with the outside than the display device 1. Therefore, the imaging device 2 may be configured to acquire position information regarding a position at which the image has been captured and to transmit the position information to the display device 1 together with the captured image. At this time, the display device 1 may estimate the moving speed of the vehicle using the received position information.

〔実施形態4〕
本発明の実施形態4について、図1、12〜14を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
Embodiment 4
Embodiment 4 of the present invention will be described below with reference to FIGS. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended, and the description is not repeated.

(電子ミラーシステムの構成)
実施形態4に係る電子ミラーシステム100の構成について、図1を用いて説明する。
(Configuration of electronic mirror system)
The configuration of the electronic mirror system 100 according to the fourth embodiment will be described with reference to FIG.

本実施形態において、電子ミラーシステム100は、基本的な構成は前記各実施形態と同一であるが、表示装置1の一部構成が異なっている。表示装置1は、撮像装置2が撮像した映像の輝度に応じて額縁画像を設定し、表示する点が異なっている。より具体的には、映像解析部52が映像の全体輝度を算出し、額縁画像設定部53にて、算出された全体輝度に応じた額縁画像を設定する。   In the present embodiment, the basic configuration of the electronic mirror system 100 is the same as that of the above-described embodiments, but a partial configuration of the display device 1 is different. The display device 1 is different in that a frame image is set and displayed according to the luminance of the image captured by the imaging device 2. More specifically, the video analysis unit 52 calculates the overall luminance of the video, and the frame image setting unit 53 sets a frame image according to the calculated overall luminance.

(映像の輝度に応じた額縁画像の組み合わせ)
額縁画像について、前記各実施形態では主に昼映像41aと組み合わせて表示したときにユーザに奥行き感を与える額縁画像について説明してきた。しかしながら、映像と額縁画像との組み合わせによっては、当該映像と当該額縁画像との境界線が見づらく、ユーザが奥行き感を覚えにくい表示となる場合がある。本実施形態に係る表示装置1において、映像の違いによる額縁画像の適切な組み合わせの一例を示す模式図を図12に示す。図12の(a)は昼映像41aと、白の背景に放射状の黒の太線を配した額縁画像42cとの組み合わせを表示した場合の模式図である。図12の(b)は夜間を示す夜映像41bと、白の背景に放射状の黒の太線を配した額縁画像42cとの組み合わせを表示した場合の模式図である。図12の(c)は昼映像41aと、黒の背景に放射状の白の太線を配した額縁画像42dとの組み合わせを表示した場合の模式図である。図12の(d)は夜映像41bと、黒の背景に放射状の白の太線を配した額縁画像42dとの組み合わせを表示した場合の模式図である。また、図12の(a)〜(d)に示した組み合わせに対する見やすさの違いをまとめた表を図13に示す。図示の例において、各レコードは図12の各図に対応しており、項目名「図」が図番号に対応している。なお、項目名「映像」は表示する映像が昼映像41aおよび夜映像41bのどちらであるかを示している。項目名「額縁画像」は表示する額縁画像が、白の背景に放射状の黒の太線を配した額縁画像42cおよび黒の背景に放射状の白の太線を配した額縁画像42dのどちらであるかを示している。そして、項目名「判定」は「映像」と「額縁画像」の組み合わせが見やすいか否かを判定した結果を示しており、「○」が見やすいことを示し、「△」は見づらいことを示している。
(Combination of frame images according to the brightness of the image)
Regarding the frame image, in each of the above embodiments, the frame image that gives the user a sense of depth when displayed in combination with the daytime image 41a has been described. However, depending on the combination of the video and the frame image, the boundary between the video and the frame image may be difficult to see, and the display may be difficult for the user to feel a sense of depth. FIG. 12 is a schematic view showing an example of an appropriate combination of frame images due to differences in images in the display device 1 according to the present embodiment. (A) of FIG. 12 is a schematic view in the case of displaying a combination of a daytime image 41a and a frame image 42c in which a radial thick black line is arranged on a white background. (B) of FIG. 12 is a schematic view in the case of displaying a combination of a night image 41b indicating night and a frame image 42c in which a thick radial line is arranged on a white background. FIG. 12C is a schematic view when a combination of a daytime image 41a and a frame image 42d in which a thick radial white line is arranged on a black background is displayed. FIG. 12D is a schematic view in the case of displaying a combination of a night image 41b and a frame image 42d in which a thick radial white line is arranged on a black background. Moreover, the table | surface which put together the difference of the legibility with respect to the combination shown to (a)-(d) of FIG. 12 is shown in FIG. In the illustrated example, each record corresponds to each diagram of FIG. 12, and the item name “figure” corresponds to the figure number. The item name “video” indicates which of the day video 41 a and the night video 41 b the video to be displayed is. The item name “frame image” indicates which of the frame image to be displayed is a frame image 42c in which a thick radial black line is arranged on a white background or a frame image 42d in which a thick thick radial white line is arranged on a black background. It shows. The item name “judgement” indicates the result of judging whether the combination of “image” and “frame image” is easy to see, “o” indicates that it is easy to see, and “Δ” indicates that it is hard to see There is.

図12の(a)において、昼映像41aは比較的輝度が高い映像であり、さらに額縁画像42cも比較的輝度が高い画像である。図12の(a)は、図13において項目名「図」が「12(a)」のレコードに対応しており、図示の例において、項目名「図」が「12(a)」のレコードは、項目名「判定」が「△」である。すなわち、昼映像41aと額縁画像42cの組み合わせはユーザにとって見づらい組み合わせである。例えば、昼映像41aと額縁画像42cとの間の境界線はユーザにとって確認が難しい。よって、昼映像41aに対して額縁画像42cを組み合わせるのは好ましくないと言える。   In (a) of FIG. 12, the daytime image 41 a is an image with relatively high luminance, and the frame image 42 c is also an image with relatively high luminance. In FIG. 12, (a) corresponds to the record in which the item name “figure” in FIG. 13 is “12 (a)”, and in the illustrated example, the record in which the item name “figure” is “12 (a)” The item name “decision” is “Δ”. That is, the combination of the daytime image 41a and the frame image 42c is a combination that is difficult for the user to see. For example, the boundary between the daytime image 41a and the frame image 42c is difficult for the user to check. Therefore, it can be said that it is not preferable to combine the frame image 42c with the daytime image 41a.

図12の(b)において、夜映像41bは比較的輝度が低い映像である一方、額縁画像42cは比較的輝度が高い画像である。図12の(b)は、図13において項目名「図」が「12(b)」のレコードに対応しており、図示の例において、項目名「図」が「12(b)」のレコードは、項目名「判定」が「○」である。すなわち、夜映像41bと額縁画像42cの組み合わせはユーザにとって見やすい組み合わせである。例えば、夜映像41bと額縁画像42cとの間の境界線はユーザにとって確認が容易である。また、額縁画像42cによって夜映像41bが照らされ、当該夜映像41bが見やすくなる。よって、夜映像41bに対して額縁画像42cを組み合わせるのは好ましいと言える。   In (b) of FIG. 12, the night image 41 b is an image with relatively low luminance, while the frame image 42 c is an image with relatively high luminance. In FIG. 12, (b) corresponds to the record whose item name "figure" is "12 (b)" in FIG. 13, and in the illustrated example, the record whose item name "figure" is "12 (b)" The item name “judgement” is “o”. That is, the combination of the night image 41b and the frame image 42c is a combination that is easy for the user to see. For example, the boundary between the night image 41 b and the frame image 42 c is easy for the user to check. In addition, the night image 41b is illuminated by the frame image 42c, and the night image 41b can be easily viewed. Therefore, it is preferable to combine the frame image 42c with the night image 41b.

図12の(c)において、昼映像41aは比較的輝度が高い映像である一方、額縁画像42dは比較的輝度が低い画像である。図12の(c)は、図13において項目名「図」が「12(c)」のレコードに対応しており、図示の例において、項目名「図」が「12(c)」のレコードは、項目名「判定」が「○」である。すなわち、昼映像41aと額縁画像42dの組み合わせはユーザにとって見やすい組み合わせである。例えば、昼映像41aと額縁画像42dとの間の境界線はユーザにとって確認が容易である。また、額縁画像42dにて昼映像41aが発する光の反射を抑制するため、当該昼映像41aが見やすくなる。よって、昼映像41aに対して額縁画像42dを組み合わせるのは好ましいと言える。   In (c) of FIG. 12, the daytime image 41 a is an image with relatively high luminance, while the frame image 42 d is an image with relatively low luminance. Item (c) in FIG. 12 corresponds to the record whose item name “figure” in FIG. 13 is “12 (c)”, and in the illustrated example, the record whose item name “figure” is “12 (c)” The item name “judgement” is “o”. That is, the combination of the daytime image 41a and the frame image 42d is a combination that is easy for the user to view. For example, the boundary between the daytime image 41a and the frame image 42d is easy for the user to check. Further, since the reflection of the light emitted by the daytime image 41a in the frame image 42d is suppressed, the daytime image 41a is easily viewed. Therefore, it can be said that it is preferable to combine the frame image 42d with the daytime image 41a.

図12の(d)において、夜映像41bは比較的輝度が低い映像であり、さらに額縁画像42dも比較的輝度が低い画像である。図12の(d)は、図13において項目名「図」が「12(d)」のレコードに対応しており、図示の例において、項目名「図」が「12(d)」のレコードは、項目名「判定」が「△」である。すなわち、夜映像41bと額縁画像42dの組み合わせはユーザにとって見づらい組み合わせである。例えば、夜映像41bと額縁画像42dとの間の境界線はユーザにとって確認が難しい。よって、夜映像41bに対して額縁画像42dを組み合わせるのは好ましくないと言える。   In (d) of FIG. 12, the night image 41 b is an image with relatively low luminance, and the frame image 42 d is also an image with relatively low luminance. Item (d) in FIG. 12 corresponds to the record whose item name “figure” in FIG. 13 is “12 (d)”, and in the illustrated example, record where item name “figure” is “12 (d)” The item name “decision” is “Δ”. That is, the combination of the night image 41b and the frame image 42d is a combination that is difficult for the user to see. For example, it is difficult for the user to confirm the boundary between the night image 41b and the frame image 42d. Therefore, it can be said that it is not preferable to combine the frame image 42d with the night image 41b.

これらのことから、額縁画像は、映像の輝度を考慮して設定されることが好ましいと言える。   From these facts, it can be said that the frame image is preferably set in consideration of the luminance of the video.

(輝度の算出方法の具体例)
本実施形態において、映像解析部52が映像の輝度を算出する方法の具体例について、図14を用いて説明する。図14の(a)は、映像が昼映像である場合に表示部40へ表示する映像および額縁画像を設定する一連の流れを示している。図14の(b)は、映像が夜映像である場合に表示部40へ表示する映像および額縁画像を設定する一連の流れを示している。
(Specific example of calculation method of luminance)
In the present embodiment, a specific example of a method in which the video analysis unit 52 calculates the luminance of a video will be described with reference to FIG. (A) of FIG. 14 shows a series of flows of setting the video and the frame image to be displayed on the display unit 40 when the video is a daytime video. (B) of FIG. 14 shows a series of flows of setting the video and the frame image to be displayed on the display unit 40 when the video is a night video.

図14の(a)の例において、映像解析部52が映像取得部51から映像として昼映像41aを受け付けると、当該昼映像41aの輝度についてヒストグラム解析を行い、輝度のピークおよび輝度の分布を示すヒストグラム43aを生成する。映像解析部52は、さらにヒストグラム43aから昼映像41aの全体輝度を算出する。   In the example of FIG. 14A, when the video analysis unit 52 receives the day video 41a as a video from the video acquisition unit 51, histogram analysis is performed on the brightness of the day video 41a to show the peak of the brightness and the distribution of the brightness. A histogram 43a is generated. The image analysis unit 52 further calculates the overall brightness of the day image 41a from the histogram 43a.

次に、額縁画像設定部53は、映像解析部52より受信した昼映像41aの全体輝度に基づいて、黒の背景に放射状の白の太線を配した額縁画像42dを設定する。   Next, the frame image setting unit 53 sets a frame image 42d in which a thick radial line is arranged on a black background based on the overall brightness of the day image 41a received from the video analysis unit 52.

そして、表示制御部54は昼映像41aおよび額縁画像42dを表示部40に表示させる。このようにして、映像の輝度に応じて額縁画像を設定し、表示することができる。   Then, the display control unit 54 causes the display unit 40 to display the daytime image 41 a and the frame image 42 d. In this manner, the frame image can be set and displayed according to the brightness of the video.

図14の(b)の例において、映像解析部52が映像取得部51から映像として夜映像41bを受け付けると、当該夜映像41bの輝度に関するヒストグラム43bを生成し、当該ヒストグラム43bから夜映像41bの全体輝度を算出する。算出方法については図14の(a)と同様の方法でよい。   In the example of FIG. 14B, when the video analysis unit 52 receives the night video 41b as a video from the video acquisition unit 51, the histogram 43b related to the luminance of the night video 41b is generated, and the histogram 43b generates the night video 41b. Calculate the overall brightness. The calculation method may be the same as that shown in FIG.

次に額縁画像設定部53は、夜映像41bの全体輝度に基づいて、白の背景に放射状の黒の太線を配した額縁画像42cを設定する。   Next, the frame image setting unit 53 sets a frame image 42c in which a radial thick black line is arranged on a white background based on the entire luminance of the night image 41b.

そして、表示制御部54は夜映像41bおよび額縁画像42cを表示部40に表示させる。このようにして、映像の輝度に応じて額縁画像を設定し、表示することができる。   Then, the display control unit 54 causes the display unit 40 to display the night image 41 b and the frame image 42 c. In this manner, the frame image can be set and displayed according to the brightness of the video.

なお、映像解析部52にて算出され、額縁画像設定部53が額縁画像の設定に用いる、映像の輝度に関する情報は、当該映像の輝度に関する特性を示すものであれば、全体輝度でなくてもよい。例えば、額縁画像設定部53は輝度のピーク値に基づいて額縁画像を設定してもよい。   The information on the luminance of the video calculated by the video analysis unit 52 and used for setting the frame image by the frame image setting unit 53 is not the overall luminance as long as it indicates the characteristic on the luminance of the video. Good. For example, the frame image setting unit 53 may set the frame image based on the peak value of luminance.

また、額縁画像設定部53にて映像との境界線が見やすい額縁画像を設定できるのであれば、映像解析部52にて映像の輝度に関する情報を生成しなくてもよい。例えば、図示しない照度センサを用いて、当該照度センサが検出した照度の値を額縁画像設定部53が受け付け、当該照度の値に応じて額縁画像を設定してもよい。   In addition, if the frame image setting unit 53 can set a frame image in which the border with the video can be easily viewed, the video analysis unit 52 may not generate the information on the luminance of the video. For example, the frame image setting unit 53 may receive the value of the illuminance detected by the illuminance sensor using an illuminance sensor (not shown), and set the frame image according to the value of the illuminance.

〔実施形態5〕
本発明の実施形態5について、図1、3、4、および15を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
Fifth Embodiment
Embodiment 5 of the present invention is described below using FIGS. 1, 3, 4 and 15. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended, and the description is not repeated.

(電子ミラーシステムの構成)
実施形態5に係る電子ミラーシステム100の構成について、図1、3、4を用いて説明する。
(Configuration of electronic mirror system)
The configuration of the electronic mirror system 100 according to the fifth embodiment will be described with reference to FIGS.

本実施形態において、電子ミラーシステム100は、基本的な構成は前記各実施形態と同一であるが、表示装置1の一部構成が異なっている。表示装置1は、撮像装置2が撮像した映像の奥行き中心に対してユーザが奥行き感を得られるよう、奥行き中心を解析し、当該奥行き中心が複数の放射状の線の原点、またはグラデーションの原点となるよう額縁画像を設定する点が異なっている。より具体的には、映像解析部52が映像の奥行き中心を解析し、額縁画像設定部53は、奥行き中心を図4の額縁画像42bのような額縁画像における複数の放射状の線の原点、または図3の額縁画像42aのような額縁画像におけるグラデーションの原点とする。なお、映像の奥行き中心を前記原点とするような額縁画像については、例えば画面中央に原点が設定された額縁画像や、画面中央左寄りに原点が設定された額縁画像といった、画像内のいずれかの位置に前記原点が設定された、複数の額縁画像を予め作成しておき、記憶部30に格納しておいてもよい。   In the present embodiment, the basic configuration of the electronic mirror system 100 is the same as that of the above-described embodiments, but a partial configuration of the display device 1 is different. The display device 1 analyzes the depth center so that the user can obtain a sense of depth with respect to the depth center of the image captured by the imaging device 2, and the depth center corresponds to the origin of the plurality of radial lines or the origin of the gradation. The point of setting the frame image is different. More specifically, the video analysis unit 52 analyzes the depth center of the video, and the frame image setting unit 53 sets the depth center to the origin of a plurality of radial lines in the frame image such as the frame image 42b of FIG. This is the origin of gradation in a frame image such as the frame image 42a of FIG. Note that, for a frame image whose origin is the depth center of the image, for example, a frame image in which the origin is set at the center of the screen or a frame image in which the origin is set at the left of the screen center A plurality of frame images in which the origin is set at a position may be created in advance and stored in the storage unit 30.

(奥行き中心の解析方法の具体例)
本実施形態において、映像解析部52が映像の奥行き中心を解析する方法の具体例について、図15を用いて説明する。図15は、本実施形態に係る表示装置1において、撮像映像の奥行き中心に応じた額縁画像を設定する一例を示す模式図である。図15の(a)は、映像の中心に奥行き中心が存在する場合に表示部40へ表示する映像および額縁画像を設定する一連の流れを示している。図15の(b)は、映像の中央以外の位置に奥行き中心が存在する場合に表示部40へ表示する映像および額縁画像を設定する一連の流れを示している。
(A concrete example of the analysis method of the depth center)
In the present embodiment, a specific example of a method in which the video analysis unit 52 analyzes the depth center of a video will be described with reference to FIG. FIG. 15 is a schematic view showing an example of setting a frame image according to the depth center of a captured image in the display device 1 according to the present embodiment. (A) of FIG. 15 shows a series of flows for setting the video and the frame image to be displayed on the display unit 40 when the depth center exists at the center of the video. (B) of FIG. 15 shows a series of flows for setting the video and the frame image to be displayed on the display unit 40 when the depth center is present at a position other than the center of the video.

図15の(a)の例において、映像解析部52が映像41aを受け付けると、輪郭映像44aを生成し、当該輪郭映像44aの奥行き中心を解析する。例えば、映像解析部52は、輪郭映像44aにおいて輪郭線が密集しており、かつ輪郭線がそこから放射状に伸びている位置を奥行き中心として選択する。   In the example of (a) of FIG. 15, when the video analysis unit 52 receives the video 41a, the contour video 44a is generated, and the depth center of the contour video 44a is analyzed. For example, the image analysis unit 52 selects a position where the outlines are dense in the outline image 44a and the outlines extend radially therefrom as the depth center.

次に、額縁画像設定部53は、映像解析部52が選択した奥行き中心に複数の放射状の線の原点が重なるような額縁画像42dを記憶部30から選択し、映像41aとともに表示する額縁画像として設定する。   Next, the frame image setting unit 53 selects from the storage unit 30 a frame image 42d in which the origins of the plurality of radial lines overlap with the depth center selected by the video analysis unit 52 and displays the frame image 42d together with the video 41a. Set

そして、表示制御部54は、映像41aと額縁画像42dとを組み合わせて表示部40に表示させる。このようにして、映像の奥行き中心の位置を解析し、解析した位置に応じて適切な額縁画像を設定することができる。   Then, the display control unit 54 causes the display unit 40 to display the image 41 a and the frame image 42 d in combination. In this manner, the position of the center of the image depth can be analyzed, and an appropriate frame image can be set according to the analyzed position.

図15の(b)の例において、映像解析部52が映像41cを受け付けると、輪郭映像44cを生成し、当該輪郭映像44cの奥行き中心を解析する。解析方法については図15の(a)と同様の方法でよい。   In the example of (b) of FIG. 15, when the video analysis unit 52 receives the video 41 c, the contour video 44 c is generated, and the depth center of the contour video 44 c is analyzed. The analysis method may be the same as (a) in FIG.

次に額縁画像設定部53は、映像解析部52が選択した奥行き中心に複数の放射状の線の原点が重なるような額縁画像42iを記憶部30から選択し、映像41cとともに表示する額縁画像として設定する。   Next, the frame image setting unit 53 selects from the storage unit 30 a frame image 42i in which the origins of a plurality of radial lines overlap with the depth center selected by the video analysis unit 52 and sets it as a frame image to be displayed together with the video 41c. Do.

そして、表示制御部54は、映像41cと額縁画像42iとを組み合わせて表示部40に表示させる。このようにして、映像の奥行き中心の位置を解析し、解析した位置に応じて適切な額縁画像を設定することができる。   Then, the display control unit 54 causes the display unit 40 to display the video 41 c and the frame image 42 i in combination. In this manner, the position of the center of the image depth can be analyzed, and an appropriate frame image can be set according to the analyzed position.

なお、前記の説明において、額縁画像設定部53は、複数の画像の中から映像の奥行き中心と原点が重なるような額縁画像を選択する構成としたが、これに限定される必要はない。例えば、額縁画像設定部53は、映像解析部52が選択した奥行き中心が原点となるように複数の放射状の線が配置された額縁画像を都度生成する構成であってもよい。   In the above description, the frame image setting unit 53 is configured to select a frame image in which the center of the image depth and the origin overlap from a plurality of images. However, the present invention is not limited to this. For example, the frame image setting unit 53 may be configured to generate a frame image in which a plurality of radial lines are arranged such that the depth center selected by the video analysis unit 52 is the origin.

〔実施形態6〕
上記各実施形態では、1つの表示装置1を用いる例を説明したが、表示装置1の有する機能の一部を、表示装置1と通信可能なサーバに持たせてもよい。つまり、本発明は、表示装置、撮像装置、およびサーバを含む電子ミラーシステムとしても実現できる。
Sixth Embodiment
In the above embodiments, an example in which one display device 1 is used has been described, but a part of the functions of the display device 1 may be provided in a server that can communicate with the display device 1. That is, the present invention can also be realized as an electronic mirror system including a display device, an imaging device, and a server.

〔実施形態7〕
表示装置1の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、表示装置1を、図16に示すようなコンピュータ(電子計算機)を用いて構成することができる。
Seventh Embodiment
Each block of the display device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. In the latter case, the display device 1 can be configured using a computer (electronic computer) as shown in FIG.

図16は、前記各実施形態の表示装置1として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばプロセッサ(例えばCPU:Central Processing Unit等)、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、カメラおよびボタン、タッチセンサなどであってもよく、出力装置930は、ディスプレイなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。   FIG. 16 is a block diagram illustrating the configuration of a computer 910 that can be used as the display device 1 of each of the embodiments. The computer 910 includes an arithmetic unit 912 connected to one another via a bus 911, a main storage unit 913, an auxiliary storage unit 914, an input / output interface 915, and a communication interface 916. Arithmetic unit 912, main storage unit 913, and auxiliary storage unit 914 may each be, for example, a processor (for example, CPU: Central Processing Unit), RAM (random access memory), or hard disk drive. Connected to the input / output interface 915 are an input device 920 for the user to input various information to the computer 910 and an output device 930 for the computer 910 to output various information to the user. The input device 920 and the output device 930 may be built in the computer 910 or may be connected (externally connected) to the computer 910. For example, the input device 920 may be a camera and a button, a touch sensor or the like, and the output device 930 may be a display or the like. In addition, a device having both the functions of the input device 920 and the output device 930, such as a touch panel in which a touch sensor and a display are integrated, may be applied. The communication interface 916 is an interface for the computer 910 to communicate with an external device.

補助記憶装置914には、コンピュータ910を表示装置1として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、表示装置1が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。また、記録媒体に記録されているプログラムを、主記憶装置913上に展開することなく実行可能なコンピュータであれば、主記憶装置913を省略してもよい。なお、上記各装置(演算装置912、主記憶装置913、補助記憶装置914、入出力インターフェース915、通信インターフェース916、入力装置920、および出力装置930)は、それぞれ1つであってもよいし、複数であってもよい。   The auxiliary storage device 914 stores various programs for operating the computer 910 as the display device 1. Then, the arithmetic unit 912 expands the above program stored in the auxiliary storage unit 914 onto the main storage unit 913 and executes an instruction included in the program, thereby causing the computer 910 to be a unit included in the display unit 1. Make it work. Note that the recording medium for recording information such as a program included in the auxiliary storage device 914 may be a computer readable “non-temporary tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic It may be a circuit or the like. Further, as long as the computer can execute the program recorded on the recording medium without expanding the program on the main storage device 913, the main storage device 913 may be omitted. Note that each of the above devices (the arithmetic unit 912, the main storage unit 913, the auxiliary storage unit 914, the input / output interface 915, the communication interface 916, the input unit 920, and the output unit 930) may be one. There may be more than one.

また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   Also, the program may be acquired from the outside of the computer 910, and in this case, it may be acquired via any transmission medium (a communication network, a broadcast wave, etc.). The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔変形例〕
前記各実施形態において、額縁画像設定部53がどのような額縁画像を設定するかは、予めユーザが登録することができる構成であってもよい。また、額縁画像は静止画に限定されることはなく、例えば動画であってもよい。
[Modification]
In each of the embodiments described above, the frame image setting unit 53 may be configured to allow the user to register in advance what frame image to set. Further, the frame image is not limited to a still image, and may be, for example, a moving image.

前記各実施形態において、表示部40に映像とともに表示し、当該映像に対する奥行き感をユーザに与えることができるのであれば、額縁画像は、どのように表示されてもよい。例えば、表示領域の大きさ、輝度、デザイン、パターン、および表示部40上の位置などを変更して表示されてもよい。   In each of the above-described embodiments, the frame image may be displayed in any manner as long as it can be displayed on the display unit 40 together with the video and the user can be given a sense of depth with respect to the video. For example, the size, the brightness, the design, the pattern, the position on the display unit 40, and the like of the display area may be changed and displayed.

前記各実施形態において、額縁画像設定部53が額縁画像を設定するために参照する情報は、映像解析部52による解析結果などから取得できる情報であれば、どのようなものを参照してもよい。例えば、ユーザ設定、画像の輝度から推定した周囲の照度、自動車の速度、および原点位置などの情報を参照し、額縁画像設定部53は額縁画像を設定してもよい。さらに、額縁画像設定部53は、これらの情報のうちの2以上の情報の組み合わせに基づいて額縁画像を設定してもよい。   In each of the above embodiments, the information referred to by the frame image setting unit 53 for setting the frame image may be any information as long as the information can be acquired from the analysis result by the video analysis unit 52 or the like. . For example, the frame image setting unit 53 may set the frame image with reference to information such as user settings, ambient illumination estimated from the brightness of the image, the speed of the car, and the origin position. Furthermore, the frame image setting unit 53 may set the frame image based on a combination of two or more of the pieces of information.

〔まとめ〕
本発明の態様1に係る表示装置(1)は、単眼の撮像装置(2)を用いて移動しながら撮像した映像を表示する表示装置であって、前記映像を解析する映像解析部(52)と、前記映像解析部にて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定部(53)と、前記映像を前記額縁画像とともに表示部(40)に表示させる表示制御部(54)と、を備えており、前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている。
[Summary]
A display device (1) according to aspect 1 of the present invention is a display device for displaying a video captured while moving using a single-eye imaging device (2), and a video analysis unit (52) for analyzing the video And a frame image setting unit (53) for setting a frame image to be displayed around the video according to the result analyzed by the video analysis unit, and displaying the video together with the frame image on the display unit (40) And a display control unit (54), wherein the frame image is provided with a predetermined pattern for giving the user a sense of depth to the video.

前記の構成によれば、所定のパターンを備えた額縁画像とともに映像を表示することができる。これにより、ユーザは額縁画像に設けられた所定のパターンよって奥行き感を抱いた状態で映像を見ることができる。したがって、単眼の撮像装置を用いて移動しながら撮像した映像をユーザに奥行き感を与えるように表示する表示装置を提供することができる。   According to the above configuration, it is possible to display an image together with a frame image having a predetermined pattern. As a result, the user can view the image in a state of having a sense of depth by the predetermined pattern provided in the frame image. Therefore, it is possible to provide a display device that displays a video captured while moving using a single-eye imaging device so as to give the user a sense of depth.

本発明の態様2に係る表示装置(1)は、前記態様1において、前記所定のパターンは、前記映像から前記額縁画像の外周に向かって広がる複数の放射状の線、または前記映像から前記額縁画像の外周に向かって濃淡が変化するグラデーションである構成としてもよい。   In the display device (1) according to aspect 2 of the present invention, in the aspect 1, the predetermined pattern is a plurality of radial lines extending from the video toward the outer periphery of the frame image, or the frame image from the video The gradation may change in gradation toward the outer periphery of the image.

前記の構成によれば、ユーザは、放射状の線またはグラデーションが設けられた額縁画像に基づいて、映像に対して奥行き感を覚えることができる。   According to the above configuration, the user can feel a sense of depth with respect to the image based on the frame image provided with the radial line or the gradation.

本発明の態様3に係る表示装置(1)は、前記態様2において、前記映像解析部(52)は、前記映像の奥行き中心を解析し、前記額縁画像設定部(53)は、前記奥行き中心を前記複数の放射状の線の原点または前記グラデーションの原点とする構成としてもよい。   In the display device (1) according to aspect 3 of the present invention, in the aspect 2, the video analysis unit (52) analyzes the depth center of the video, and the frame image setting unit (53) is the depth center May be set as the origin of the plurality of radial lines or the origin of the gradation.

前記の構成によれば、映像の奥行き中心を原点として設定された放射状の線またはグラデーションを備えた額縁画像を、当該映像とともに表示することができる。これにより、額縁画像が備える所定のパターンからユーザが推測した奥行き感の原点と、実際の映像の奥行きの原点とを一致させることができるので、ユーザに違和感のない奥行き感を提供することができる。   According to the above configuration, it is possible to display a frame image having radial lines or gradations set with the depth center of the image as the origin together with the image. Thus, the origin of the sense of depth estimated by the user from the predetermined pattern of the frame image can be matched with the origin of the depth of the actual video, so that the sense of depth without discomfort to the user can be provided. .

本発明の態様4に係る表示装置(1)は、前記態様1から3のいずれかにおいて、前記表示制御部(54)は、前記撮像装置を搭載している移動体の移動速度に応じて前記額縁画像の表示領域の大きさを変化させて表示する構成としてもよい。   In the display device (1) according to aspect 4 of the present invention, in any one of the aspects 1 to 3, the display control unit (54) performs the movement according to the moving speed of the movable body on which the imaging device is mounted. The size of the display area of the frame image may be changed and displayed.

前記の構成によれば、移動体の移動速度に応じた大きさで映像と額縁画像とを表示することができる。これにより、例えば移動速度が大きいときは額縁画像の表示領域を大きく、すなわち映像を小さく表示し、移動速度が小さいときは額縁画像の表示領域を小さく、すなわち映像を大きく表示することができる。移動速度に応じた大きさで映像を表示することにより、移動速度に応じてユーザの視野が狭まった場合であっても適切な奥行き感を与えることができる。   According to the above configuration, the video and the frame image can be displayed in a size according to the moving speed of the moving object. As a result, for example, when the moving speed is large, the display area of the frame image can be large, that is, the image can be small. When the moving speed is small, the display area of the frame image can be small, that is, the image can be large. By displaying an image with a size according to the moving speed, it is possible to give an appropriate sense of depth even when the user's view is narrowed according to the moving speed.

本発明の態様5に係る表示装置(1)は、前記態様4において、前記映像解析部(52)は、前記映像から前記撮像装置を搭載している移動体の移動速度を推定する構成としてもよい。   In the display device (1) according to aspect 5 of the present invention, in the aspect 4, the video analysis unit (52) is also configured to estimate the moving speed of the mobile mounted with the imaging device from the video. Good.

前記の構成によれば、推定した移動体の移動速度を用いて額縁画像の表示領域の大きさを変化させて表示することができる。   According to the above configuration, it is possible to change and display the size of the display area of the frame image using the estimated moving speed of the moving object.

本発明の態様6に係る表示装置(1)は、前記態様1から5のいずれかにおいて、前記映像解析部(52)が前記映像の全体輝度を解析し、前記額縁画像設定部(53)は、前記全体輝度に応じた前記額縁画像を設定する構成としてもよい。   In the display device (1) according to aspect 6 of the present invention, in any of the aspects 1 to 5, the video analysis unit (52) analyzes the overall luminance of the video, and the frame image setting unit (53) The frame image may be set according to the overall brightness.

前記の構成によれば、映像を当該映像の全体輝度に応じて設定された額縁画像とともに表示することができる。例えば、映像が日中の映像であれば低輝度の額縁画像を設定し、映像が夜間の映像であれば高輝度の額縁画像を設定できる。これにより、表示内容全体の輝度を調整し、映像を確認しやすくすることができる。   According to the above configuration, the video can be displayed together with the frame image set according to the overall brightness of the video. For example, if the video is a daytime video, a low luminance frame image can be set, and if the video is a nighttime video, a high luminance frame image can be set. Thereby, the brightness of the entire display content can be adjusted to make it easy to check the video.

本発明の態様7に係る表示装置(1)は、前記態様1から6のいずれかにおいて、前記額縁画像設定部(53)は、予めユーザ毎に設定された当該ユーザの視覚特性の傾向に応じた前記額縁画像を設定する構成としてもよい。   In the display device (1) according to the seventh aspect of the present invention, in any one of the first to sixth aspects, the frame image setting unit (53) responds to the tendency of the visual characteristic of the user set in advance for each user. The frame image may be set.

前記の構成によれば、表示装置は、ユーザの視覚特性の傾向に応じて設定された額縁画像とともに映像を表示することができる。これにより、表示装置に表示される映像について、個人差による見え方の違いに関わらず、各ユーザに対して奥行き感を与えることができる。   According to the above configuration, the display device can display the video together with the frame image set according to the tendency of the visual characteristic of the user. As a result, with regard to the image displayed on the display device, it is possible to give each user a sense of depth regardless of differences in appearance due to individual differences.

本発明の態様8に係る表示方法は、単眼の撮像装置(2)を用いて移動しながら撮像した映像を表示する表示装置(1)による表示方法であって、前記映像を解析する映像解析ステップ(S2)と、前記映像解析ステップにて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定ステップ(S3)と、前記映像を前記額縁画像とともに表示部に表示させる表示制御ステップ(S4)と、を備えており、前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている。前記の方法によれば、前記態様1と同様の作用効果を奏する。   A display method according to aspect 8 of the present invention is a display method by a display device (1) that displays a video captured while moving using a single-eye imaging device (2), and a video analysis step of analyzing the video (S2), a frame image setting step (S3) for setting a frame image to be displayed around the video according to the analysis result in the video analysis step, and displaying the video together with the frame image on the display unit And a display control step (S4), wherein the frame image is provided with a predetermined pattern for giving the user a sense of depth to the video. According to the above-mentioned method, the same operation and effect as in the above-mentioned aspect 1 are exerted.

本発明の態様9に係る電子ミラーシステム(100)は、単眼の撮像装置(2)を用いて移動しながら撮像した映像を表示する電子ミラーシステムであって、前記態様1の表示装置(1)と、前記映像を撮像し、前記表示装置へ送信する単眼の撮像装置と、を備えている構成である。前記の構成によれば、前記態様1と同様の作用効果を奏する。   An electronic mirror system (100) according to aspect 9 of the present invention is an electronic mirror system that displays an image captured while moving using a single-eye imaging device (2), and the display apparatus (1) according to aspect 1 And a monocular imaging device for capturing the image and transmitting the image to the display device. According to the above-mentioned composition, the same operation effect as the above-mentioned mode 1 is produced.

本発明の各態様に係る表示装置1は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置1が備える各部(ソフトウェア要素)として動作させることにより上記表示装置1をコンピュータにて実現させる表示装置1の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The display device 1 according to each aspect of the present invention may be realized by a computer. In this case, the display device 1 is used as a computer by operating the computer as each unit (software element) included in the display device 1. The control program of the display device 1 to be realized and the computer readable recording medium recording the same also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

100 電子ミラーシステム
1 表示装置
10 通信部
20 入力部
30 記憶部
40 表示部
41a 昼映像
41b 夜映像
42a 額縁画像
42b 額縁画像
42c 額縁画像
42d 額縁画像
42e 額縁画像
42f 額縁画像
42g 額縁画像
42h 額縁画像
50 制御部
51 映像取得部
52 映像解析部
53 額縁画像設定部
54 表示制御部
2 撮像装置
Reference Signs List 100 electronic mirror system 1 display device 10 communication unit 20 input unit 30 storage unit 40 display unit 41a day image 41b night image 42a frame image 42b frame image 42c frame image 42d frame image 42e frame image 42f frame image 42g frame image 42h frame image 50 Control unit 51 Image acquisition unit 52 Image analysis unit 53 Frame image setting unit 54 Display control unit 2 Imaging device

Claims (10)

単眼の撮像装置を用いて移動しながら撮像した映像を表示する表示装置であって、
前記映像を解析する映像解析部と、
前記映像解析部にて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定部と、
前記映像を前記額縁画像とともに表示部に表示させる表示制御部と、を備えており、
前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている
ことを特徴とする表示装置。
A display device for displaying a captured image while moving using a single-eye imaging device,
A video analysis unit that analyzes the video;
A frame image setting unit configured to set a frame image to be displayed around the video according to a result analyzed by the video analysis unit;
And a display control unit that causes the display unit to display the video together with the frame image.
The display device is characterized in that the frame image has a predetermined pattern for giving a user a sense of depth to the video.
前記所定のパターンは、前記映像から前記額縁画像の外周に向かって広がる複数の放射状の線、または前記映像から前記額縁画像の外周に向かって濃淡が変化するグラデーションである
ことを特徴とする請求項1に記載の表示装置。
The predetermined pattern is a plurality of radial lines extending from the video toward the outer periphery of the frame image, or a gradation in which shading changes from the video toward the outer periphery of the frame image. The display device according to 1.
前記映像解析部は、前記映像の奥行き中心を解析し、
前記額縁画像設定部は、前記奥行き中心を前記複数の放射状の線の原点または前記グラデーションの原点とする
ことを特徴とする請求項2に記載の表示装置。
The video analysis unit analyzes the depth center of the video,
The display device according to claim 2, wherein the frame image setting unit sets the depth center as an origin of the plurality of radial lines or an origin of the gradation.
前記表示制御部は、前記撮像装置を搭載している移動体の移動速度に応じて前記額縁画像の表示領域の大きさを変化させて表示する
ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。
The display control unit according to any one of claims 1 to 3, wherein the display control unit changes the size of the display area of the frame image according to the moving speed of the moving object mounted with the imaging device. The display device according to item 1.
前記映像解析部は、前記映像から前記撮像装置を搭載している移動体の移動速度を推定する
ことを特徴とする請求項4に記載の表示装置。
The display apparatus according to claim 4, wherein the video analysis unit estimates a moving speed of a moving body mounted with the imaging device from the video.
前記映像解析部は、前記映像の全体輝度を解析し、
前記額縁画像設定部は、前記全体輝度に応じた前記額縁画像を設定する
ことを特徴とする請求項1から5のいずれか1項に記載の表示装置。
The video analysis unit analyzes the overall brightness of the video,
The display device according to any one of claims 1 to 5, wherein the frame image setting unit sets the frame image according to the overall luminance.
前記額縁画像設定部は、予めユーザ毎に設定された当該ユーザの視覚特性の傾向に応じた前記額縁画像を設定する
ことを特徴とする請求項1から6のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 6, wherein the frame image setting unit sets the frame image according to the tendency of the visual characteristic of the user set in advance for each user. .
単眼の撮像装置を用いて移動しながら撮像した映像を表示する表示装置による表示方法であって、
前記映像を解析する映像解析ステップと、
前記映像解析ステップにて解析した結果に応じて前記映像の周囲に表示する額縁画像を設定する額縁画像設定ステップと、
前記映像を前記額縁画像とともに表示部に表示させる表示制御ステップと、を含み、
前記額縁画像は、ユーザに前記映像に対する奥行き感を与える所定のパターンが配されている
ことを特徴とする表示方法。
A display method by a display device for displaying a captured image while moving using a single-eye imaging device,
A video analysis step of analyzing the video;
A frame image setting step of setting a frame image to be displayed around the video according to the analysis result in the video analysis step;
And d) displaying the video together with the frame image on a display unit.
The display method is characterized in that the frame image is provided with a predetermined pattern that gives a user a sense of depth to the video.
単眼の撮像装置を用いて移動しながら撮像した映像を表示する電子ミラーシステムであって、
請求項1に記載の表示装置と、
前記映像を撮像し、前記表示装置へ送信する単眼の撮像装置と、を備えている
ことを特徴とする電子ミラーシステム。
An electronic mirror system for displaying a captured image while moving using a monocular imaging device, comprising:
A display device according to claim 1;
An electronic mirror system comprising: a monocular imaging device for capturing the image and transmitting the image to the display device.
請求項1に記載の表示装置としてコンピュータを機能させるための制御プログラムであって、前記映像解析部、前記額縁画像設定部、および前記表示制御部としてコンピュータを機能させるための制御プログラム。   A control program for causing a computer to function as the display device according to claim 1, wherein the control program causes the computer to function as the video analysis unit, the frame image setting unit, and the display control unit.
JP2017167934A 2017-08-31 2017-08-31 Display device, display method, control program, and electronic mirror system Pending JP2019047296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017167934A JP2019047296A (en) 2017-08-31 2017-08-31 Display device, display method, control program, and electronic mirror system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167934A JP2019047296A (en) 2017-08-31 2017-08-31 Display device, display method, control program, and electronic mirror system

Publications (1)

Publication Number Publication Date
JP2019047296A true JP2019047296A (en) 2019-03-22

Family

ID=65814805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167934A Pending JP2019047296A (en) 2017-08-31 2017-08-31 Display device, display method, control program, and electronic mirror system

Country Status (1)

Country Link
JP (1) JP2019047296A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213480A1 (en) * 2019-04-15 2020-10-22 株式会社マーベラス Image display device and operation control method thereof
WO2021157153A1 (en) * 2020-02-06 2021-08-12 パナソニックIpマネジメント株式会社 Display system, camera monitoring system, display method, and display program
JP7459584B2 (en) 2020-03-17 2024-04-02 船井電機株式会社 Vehicle electronic mirror

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213480A1 (en) * 2019-04-15 2020-10-22 株式会社マーベラス Image display device and operation control method thereof
JPWO2020213480A1 (en) * 2019-04-15 2021-04-30 株式会社マーベラス Image display device and its operation control method
CN113711299A (en) * 2019-04-15 2021-11-26 惊叹公司 Image display device and operation control method thereof
KR20210144865A (en) * 2019-04-15 2021-11-30 가부시키가이샤 마베라스 Image display device and its operation control method
KR102537261B1 (en) * 2019-04-15 2023-05-26 가부시키가이샤 마베라스 Image display device and its operation control method
TWI828897B (en) * 2019-04-15 2024-01-11 日商驚嘆公司 Image display device and method of controlling motion thereof
WO2021157153A1 (en) * 2020-02-06 2021-08-12 パナソニックIpマネジメント株式会社 Display system, camera monitoring system, display method, and display program
JP2021123264A (en) * 2020-02-06 2021-08-30 パナソニックIpマネジメント株式会社 Display system, camera monitoring system, display method and display program
JP7349646B2 (en) 2020-02-06 2023-09-25 パナソニックIpマネジメント株式会社 Display system, camera monitoring system, display method, and display program
JP7459584B2 (en) 2020-03-17 2024-04-02 船井電機株式会社 Vehicle electronic mirror

Similar Documents

Publication Publication Date Title
US9756319B2 (en) Virtual see-through instrument cluster with live video
US10365711B2 (en) Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
JP5267660B2 (en) Image processing apparatus, image processing program, and image processing method
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
KR20150092226A (en) Head-mounted display resource management
JP5533766B2 (en) Vehicle display device
WO2018047400A1 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP6693223B2 (en) Information processing apparatus, information processing method, and program
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP2019047296A (en) Display device, display method, control program, and electronic mirror system
US10129439B2 (en) Dynamically colour adjusted visual overlays for augmented reality systems
US20190166357A1 (en) Display device, electronic mirror and method for controlling display device
JP5131152B2 (en) Visual support device
CN113866983A (en) Head-up display device and display method of head-up display device
CN108885497B (en) Information processing apparatus, information processing method, and computer readable medium
EP3055834B1 (en) Method and system for providing position or movement information for controlling at least one function of a vehicle
JPWO2018042976A1 (en) IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, RECORDING MEDIUM, AND IMAGE DISPLAY SYSTEM
US20190166358A1 (en) Display device, electronic mirror and method for controlling display device
US11004273B2 (en) Information processing device and information processing method
US20200292825A1 (en) Attention direction on optical passthrough displays
US11205405B2 (en) Content arrangements on mirrored displays
JP2020017006A (en) Augmented reality image display device for vehicle
US20210287445A1 (en) Image synthesis apparatus
JP6562371B1 (en) Display device, display processing device, and display processing program