JP6865906B2 - Display control device and display control method - Google Patents

Display control device and display control method Download PDF

Info

Publication number
JP6865906B2
JP6865906B2 JP2020560672A JP2020560672A JP6865906B2 JP 6865906 B2 JP6865906 B2 JP 6865906B2 JP 2020560672 A JP2020560672 A JP 2020560672A JP 2020560672 A JP2020560672 A JP 2020560672A JP 6865906 B2 JP6865906 B2 JP 6865906B2
Authority
JP
Japan
Prior art keywords
feature amount
display control
image
brightness
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560672A
Other languages
Japanese (ja)
Other versions
JPWO2020129146A1 (en
Inventor
中村 好孝
好孝 中村
下谷 光生
光生 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6865906B2 publication Critical patent/JP6865906B2/en
Publication of JPWO2020129146A1 publication Critical patent/JPWO2020129146A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、車両周辺を撮像して得られた周辺画像を表示する表示装置を制御する表示制御装置及び表示制御方法に関する。 The present invention relates to a display control device and a display control method for controlling a display device that displays a peripheral image obtained by imaging the surroundings of a vehicle.

近年、バックミラーやサイドミラーなどの物理鏡の代用として、車両から後方に向けられたカメラの撮影画像を表示装置で表示する電子ミラー装置などのカメラモニタリングシステム(CMS)が提案されている。このようなCMSについて様々な技術が提案されている。 In recent years, as a substitute for physical mirrors such as rear-view mirrors and side mirrors, camera monitoring systems (CMS) such as electronic mirror devices that display images taken by a camera directed backward from a vehicle on a display device have been proposed. Various techniques have been proposed for such CMS.

例えば特許文献1では、ドライバモニタリングシステム(DMS)を用いて運転者の画像から、表示装置を見ているときの運転者の瞳孔径を取得し、取得した瞳孔径と予め記憶された径との差に基づいて表示装置の輝度を制御する技術が提案されている。このような技術によれば、表示装置の輝度が運転者にとって明る過ぎないように、または暗過ぎないように制御されるので、運転者は、適切な明るさの撮影画像を見ることが可能となる。 For example, in Patent Document 1, the pupil diameter of the driver when looking at the display device is acquired from the image of the driver using the driver monitoring system (DMS), and the acquired pupil diameter and the diameter stored in advance are used. A technique for controlling the brightness of a display device based on the difference has been proposed. According to such a technology, the brightness of the display device is controlled so as not to be too bright or too dark for the driver, so that the driver can see the captured image with an appropriate brightness. Become.

特開2018−43724号公報JP-A-2018-43724

例えば電子ミラー装置において、運転者は、昼間などに比較的明るい車両外部を見ながら運転している間に、車両室内に設けられた表示装置の画像を瞬間的に見て後方を確認したい場合がある。しかしながら従来技術では、運転者が表示装置を見た時点から、表示装置の輝度が制御されるため、表示装置の輝度を適切に制御することが間に合わないことがあった。この結果、表示装置の輝度が運転者にとって適切でなく、表示装置の画像が運転者にとって見難い場合があった。 For example, in an electronic mirror device, the driver may want to instantly see an image of a display device provided in the vehicle interior to check the rear while driving while looking at the outside of the vehicle, which is relatively bright in the daytime. is there. However, in the prior art, since the brightness of the display device is controlled from the time when the driver looks at the display device, it may not be possible to appropriately control the brightness of the display device. As a result, the brightness of the display device may not be appropriate for the driver, and the image of the display device may be difficult for the driver to see.

そこで、本発明は、上記のような問題点を鑑みてなされたものであり、表示装置の輝度を早く制御することが可能な技術を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of quickly controlling the brightness of a display device.

本発明に係る表示制御装置は、車両周辺を撮像して得られた周辺画像を表示する表示装置を制御する表示制御装置であって、車両の運転者の顔の画像に基づく顔特徴量を取得する取得部と、運転者が周辺画像を見ていないときに取得部で取得された顔特徴量である特定顔特徴量に基づいて、表示装置に表示される周辺画像の輝度である周辺画像輝度を制御する制御部とを備える。 The display control device according to the present invention is a display control device that controls a display device that displays a peripheral image obtained by imaging the surroundings of the vehicle, and acquires a facial feature amount based on an image of the driver's face of the vehicle. Peripheral image brightness, which is the brightness of the peripheral image displayed on the display device, based on the acquisition unit and the specific facial feature amount, which is the facial feature amount acquired by the acquisition unit when the driver is not looking at the peripheral image. It is provided with a control unit for controlling the above.

本発明によれば、運転者が周辺画像を見ていないときに取得部で取得された顔特徴量である特定顔特徴量に基づいて、表示装置に表示される周辺画像の輝度である周辺画像輝度を制御する。このような構成によれば、表示装置の輝度を早く制御することができる。 According to the present invention, the peripheral image which is the brightness of the peripheral image displayed on the display device based on the specific facial feature amount which is the facial feature amount acquired by the acquisition unit when the driver is not looking at the peripheral image. Control the brightness. According to such a configuration, the brightness of the display device can be controlled quickly.

本発明の目的、特徴、態様及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。 The objects, features, embodiments and advantages of the present invention will be made clearer by the following detailed description and accompanying drawings.

実施の形態1に係る表示制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display control device which concerns on Embodiment 1. FIG. 実施の形態2に係る表示制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display control device which concerns on Embodiment 2. FIG. 実施の形態2に係るDMSの構成を示すブロック図である。It is a block diagram which shows the structure of DMS which concerns on Embodiment 2. FIG. 実施の形態2に係るCMS画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the CMS image processing apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display device which concerns on Embodiment 2. FIG. 実施の形態2に係る表示制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the display control device which concerns on Embodiment 2. FIG. 変形例1に係る表示制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the display control device which concerns on modification 1. 変形例1に係る表示制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the display control device which concerns on modification 1. 変形例2に係るCMS画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the CMS image processing apparatus which concerns on modification 2. その他の変形例に係る表示制御装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of the display control device which concerns on other modification. その他の変形例に係る表示制御装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of the display control device which concerns on other modification. その他の変形例に係るサーバの構成を示すブロック図である。It is a block diagram which shows the structure of the server which concerns on other modification. その他の変形例に係る通信端末の構成を示すブロック図である。It is a block diagram which shows the structure of the communication terminal which concerns on other modification.

<実施の形態1>
図1は、本発明の実施の形態1に係る表示制御装置1の構成を示すブロック図である。以下、表示制御装置1が搭載され、着目の対象となる車両を「自車両」と記載して説明する。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration of a display control device 1 according to a first embodiment of the present invention. Hereinafter, the vehicle on which the display control device 1 is mounted and which is the subject of attention will be described as “own vehicle”.

図1の表示制御装置1は、撮像装置31及び表示装置32と、有線または無線によって接続されている。表示制御装置1、撮像装置31及び表示装置32は、例えばカメラモニタリングシステム(CMS)を構成する。以下、表示制御装置1について説明する前に、撮像装置31及び表示装置32について説明する。 The display control device 1 of FIG. 1 is connected to the image pickup device 31 and the display device 32 by wire or wirelessly. The display control device 1, the image pickup device 31, and the display device 32 constitute, for example, a camera monitoring system (CMS). Hereinafter, the image pickup device 31 and the display device 32 will be described before the display control device 1 is described.

撮像装置31は、自車両周辺を撮像する装置であり、例えば自車両に搭載されたカメラなどが適用される。以下の説明では、撮像装置31は、自車両の後方を自車両周辺として撮像するものとするが、例えば自車両の前方または側方を自車両周辺として撮像してもよい。撮像装置31が周辺画像を撮像して得られた自車両周辺の画像は、周辺画像として表示制御装置1に送信される。なお図1では、撮像装置31は、表示制御装置1と個別に設けられている構成が示されているが、表示制御装置1に備えられてもよい。 The image pickup device 31 is a device that images the periphery of the own vehicle, and for example, a camera mounted on the own vehicle is applied. In the following description, the image pickup device 31 takes an image of the rear side of the own vehicle as the vicinity of the own vehicle, but for example, the front or side of the own vehicle may be imaged as the vicinity of the own vehicle. The image around the own vehicle obtained by the image pickup device 31 capturing the peripheral image is transmitted to the display control device 1 as a peripheral image. Although FIG. 1 shows a configuration in which the image pickup device 31 is provided separately from the display control device 1, the image pickup device 31 may be provided in the display control device 1.

表示装置32は、表示制御装置1で各種処理が行われた周辺画像を受信し、当該周辺画像を表示する。なお図1では、表示装置32は、表示制御装置1と個別に設けられている構成が示されているが、表示制御装置1に備えられてもよい。また、表示装置32は、自車両に固定された表示装置であってもよいし、自車両に持ち込まれた表示装置であってもよい。 The display device 32 receives the peripheral image that has been subjected to various processes by the display control device 1 and displays the peripheral image. Although FIG. 1 shows a configuration in which the display device 32 is provided separately from the display control device 1, the display device 32 may be provided in the display control device 1. Further, the display device 32 may be a display device fixed to the own vehicle or a display device brought into the own vehicle.

次に、表示制御装置1について説明する。図1の表示制御装置1は、取得部11と、制御部12とを備え、以下で説明するように周辺画像を表示する表示装置32を制御する。 Next, the display control device 1 will be described. The display control device 1 of FIG. 1 includes an acquisition unit 11 and a control unit 12, and controls a display device 32 that displays a peripheral image as described below.

取得部11は、自車両の運転者の顔の画像に基づく顔特徴量を取得する。運転者は、運転座席に座っている人である。顔特徴量は、運転者の瞳孔径、運転者の顔に当たっている光の強度、及び、運転者の開眼度、のうちの少なくとも1つを含む。なお、運転者の開眼度は、運転者の上下瞼の間の通常距離に対する、運転者の上下瞼の間の取得時の距離の割合に相当する。 The acquisition unit 11 acquires the facial feature amount based on the image of the driver's face of the own vehicle. The driver is the person sitting in the driver's seat. The facial feature amount includes at least one of the driver's pupil diameter, the intensity of the light hitting the driver's face, and the driver's eye opening degree. The degree of eye opening of the driver corresponds to the ratio of the acquisition distance between the driver's upper and lower eyelids to the normal distance between the driver's upper and lower eyelids.

図1では、表示制御装置1の外部に設けられた図示しないドライバモニタリングシステム(DMS)が、運転者の画像を取得して、当該画像に基づいて運転者の顔特徴量を生成し、取得部11が、DMSから当該顔特徴量を取得する構成が示されている。この構成の場合、取得部11は、例えば受信装置またはインターフェースである。しかしながら、取得部11はこれらに限ったものではなく、取得部11自体がDMSであってもよい。 In FIG. 1, a driver monitoring system (DMS) (not shown) provided outside the display control device 1 acquires an image of the driver, generates a driver's facial feature amount based on the image, and acquires the driver's face feature amount. No. 11 shows a configuration for acquiring the facial feature amount from the DMS. In the case of this configuration, the acquisition unit 11 is, for example, a receiving device or an interface. However, the acquisition unit 11 is not limited to these, and the acquisition unit 11 itself may be a DMS.

制御部12は、運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量に基づいて、表示装置32に表示される周辺画像の輝度を制御する。以下の説明では、任意の時点に取得部11で取得された顔特徴量のうち、運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量を「特定顔特徴量」と記すこともある。また、表示装置32に表示される周辺画像の輝度を「周辺画像輝度」と記すこともある。特定顔特徴量は、例えば、運転者が自車両の外部を見ているとき、または自車両室内の表示装置32以外の部分を見ているときに取得部11で取得された前記顔特徴量を含む。 The control unit 12 controls the brightness of the peripheral image displayed on the display device 32 based on the facial feature amount acquired by the acquisition unit 11 when the driver is not looking at the peripheral image. In the following description, among the facial features acquired by the acquisition unit 11 at an arbitrary time, the facial features acquired by the acquisition unit 11 when the driver is not looking at the peripheral image is referred to as "specific facial features". It may be written as. Further, the brightness of the peripheral image displayed on the display device 32 may be referred to as "peripheral image brightness". The specific facial feature amount is, for example, the facial feature amount acquired by the acquisition unit 11 when the driver is looking at the outside of the own vehicle or when looking at a part other than the display device 32 in the own vehicle interior. Including.

例えば、特定顔特徴量が瞳孔径を含む場合、制御部12は、瞳孔径が小さくなるほど周辺画像の輝度を高くする。例えば、特定顔特徴量が光の強度を含む場合、制御部12は、光の強度が大きくなるほど周辺画像の輝度を高くする。例えば、特定顔特徴量が開眼度を含む場合、制御部12は、開眼度が小さくなるほど周辺画像の輝度を高くする。このような制御部12は、後述するECU(Electronic Control Unit)などであってもよいし、後述するCPU(Central Processing Unit)などであってもよい。 For example, when the specific facial feature amount includes the pupil diameter, the control unit 12 increases the brightness of the peripheral image as the pupil diameter becomes smaller. For example, when the specific facial feature amount includes the intensity of light, the control unit 12 increases the brightness of the peripheral image as the intensity of light increases. For example, when the specific facial feature amount includes the degree of eye opening, the control unit 12 increases the brightness of the peripheral image as the degree of eye opening decreases. Such a control unit 12 may be an ECU (Electronic Control Unit) or the like described later, or a CPU (Central Processing Unit) or the like described later.

なお、取得部11で取得された顔特徴量が、特定顔特徴量であるか否かの判定は、取得部11で行われてもよいし、制御部12で行われてもよい。 The determination of whether or not the face feature amount acquired by the acquisition unit 11 is a specific face feature amount may be performed by the acquisition unit 11 or may be performed by the control unit 12.

以下、取得部11が特定顔特徴量の判定を行う第1例について説明する。この第1例では、取得部11は、自車両の運転者の画像から運転者の視線方向を検出することが可能に構成される。取得部11は、当該視線方向が予め定められた範囲内であると判定した場合に、上記画像から取得された顔特徴量が特定顔特徴量であると判定し、当該視線方向が予め定められた範囲外であると判定した場合に、上記画像から取得された顔特徴量が特定顔特徴量でないと判定する。 Hereinafter, a first example in which the acquisition unit 11 determines the specific facial feature amount will be described. In this first example, the acquisition unit 11 is configured to be able to detect the driver's line-of-sight direction from the image of the driver of the own vehicle. When the acquisition unit 11 determines that the line-of-sight direction is within a predetermined range, the acquisition unit 11 determines that the facial feature amount acquired from the image is the specific facial feature amount, and the line-of-sight direction is predetermined. When it is determined that the range is out of the range, it is determined that the facial feature amount obtained from the above image is not the specific facial feature amount.

次に、取得部11が特定顔特徴量の判定を行う第2例について説明する。この第2例では、取得部11は、自車両の運転者の画像から運転者の顔の向きを検出することが可能に構成される。取得部11は、当該顔の向きが予め定められた範囲内であると判定した場合に、上記画像から取得された顔特徴量が特定顔特徴量であると判定し、当該視線方向が予め定められた範囲外であると判定した場合に、上記画像から取得された顔特徴量が特定顔特徴量でないと判定する。 Next, a second example in which the acquisition unit 11 determines the specific facial feature amount will be described. In this second example, the acquisition unit 11 is configured to be able to detect the direction of the driver's face from the image of the driver of the own vehicle. When the acquisition unit 11 determines that the orientation of the face is within a predetermined range, the acquisition unit 11 determines that the facial feature amount acquired from the image is the specific facial feature amount, and determines the line-of-sight direction in advance. When it is determined that the range is out of the specified range, it is determined that the facial feature amount acquired from the above image is not the specific facial feature amount.

以上、取得部11で取得された顔特徴量が、特定顔特徴量であるか否かを判定する例について説明したが、制御部12が判定を行う場合の説明も以上の説明と同様である。また以上の説明では、制御部12は、特定顔特徴量に基づいて周辺画像輝度を制御したが、その制御に加えて、運転者が周辺画像を見ているときに取得部11で取得された顔特徴量に基づいて周辺画像輝度を制御してもよい。 The example of determining whether or not the face feature amount acquired by the acquisition unit 11 is the specific face feature amount has been described above, but the description when the control unit 12 makes the determination is the same as the above description. .. Further, in the above description, the control unit 12 controls the peripheral image brightness based on the specific facial feature amount, but in addition to the control, the control unit 12 is acquired by the acquisition unit 11 when the driver is looking at the peripheral image. Peripheral image brightness may be controlled based on the amount of facial features.

<実施の形態1のまとめ>
以上のような本実施の形態1に係る表示制御装置1によれば、自車両の運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量に基づいて、表示装置32に表示される周辺画像の輝度を制御する。このような構成によれば、運転者が、表示装置32に表示されている周辺画像を見る前から、当該周辺画像の輝度を制御することができる。このため、表示装置32の輝度を早く制御することができるので、運転者は、周辺画像を瞬間的に見る場合であっても、適切な明るさの周辺画像を瞬間的に見ることができる。
<Summary of Embodiment 1>
According to the display control device 1 according to the first embodiment as described above, the display device 32 is based on the facial feature amount acquired by the acquisition unit 11 when the driver of the own vehicle is not looking at the peripheral image. Controls the brightness of the peripheral image displayed in. According to such a configuration, the driver can control the brightness of the peripheral image before viewing the peripheral image displayed on the display device 32. Therefore, since the brightness of the display device 32 can be controlled quickly, the driver can momentarily see the peripheral image having an appropriate brightness even when he / she sees the peripheral image momentarily.

<実施の形態2>
図2は、本発明の実施の形態2に係る表示制御装置1の構成を示すブロック図である。以下、本実施の形態2に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じ参照符号を付し、異なる構成要素について主に説明する。
<Embodiment 2>
FIG. 2 is a block diagram showing a configuration of a display control device 1 according to a second embodiment of the present invention. Hereinafter, among the components according to the second embodiment, the components that are the same as or similar to the above-mentioned components are designated by the same reference numerals, and different components will be mainly described.

図2の表示制御装置1は、実施の形態1と同様に撮像装置31及び表示装置32と接続されている。撮像装置31及び表示装置32の構成は、実施の形態1で説明した撮像装置31と概ね同様である。ただし、表示装置32の構成については後で詳細に説明する。 The display control device 1 of FIG. 2 is connected to the image pickup device 31 and the display device 32 as in the first embodiment. The configuration of the image pickup device 31 and the display device 32 is substantially the same as that of the image pickup device 31 described in the first embodiment. However, the configuration of the display device 32 will be described in detail later.

図2の表示制御装置1は、ドライバモニタリングシステム21(DMS21)と、CMS画像処理装置22とを備える。 The display control device 1 of FIG. 2 includes a driver monitoring system 21 (DMS21) and a CMS image processing device 22.

図3は、DMS21の構成を示すブロック図である。図3のDMS21は、DMS撮像装置21aと、DMS画像処理部21bと、DMS送信部21cとを備える。このDMS21は、以下で説明するように、運転者の画像を撮像し、当該画像に基づいて運転者の顔特徴量を生成する。なお、DMS21は、図1の取得部11の概念に含まれる。 FIG. 3 is a block diagram showing the configuration of the DMS 21. The DMS 21 in FIG. 3 includes a DMS image pickup device 21a, a DMS image processing unit 21b, and a DMS transmission unit 21c. As described below, the DMS 21 captures an image of the driver and generates a facial feature amount of the driver based on the image. The DMS 21 is included in the concept of the acquisition unit 11 of FIG.

DMS撮像装置21aは、例えば自車両に搭載されたカメラであり、自車両の運転者の画像を撮像する。 The DMS image pickup device 21a is, for example, a camera mounted on the own vehicle and captures an image of the driver of the own vehicle.

DMS画像処理部21bは、DMS撮像装置21aで撮像された運転者の画像から、運転者の顔特徴量を取得する。図3のDMS画像処理部21bは、瞳孔径計測部21b1と、顔光強度分布測定部21b2と、開眼度検出部21b3とを備える。瞳孔径計測部21b1は、運転者の画像から、運転者の瞳孔径を顔特徴量として計測する。顔光強度分布測定部21b2は、運転者の画像から、運転者の顔に当たっている光の強度及び分布を計測し、その計測結果に基づいて運転者の眼及び眼周辺の光の強度を顔特徴量として測定する。開眼度検出部21b3は、運転者の画像から、運転者の開眼度を顔特徴量として検出する。 The DMS image processing unit 21b acquires the amount of facial features of the driver from the image of the driver captured by the DMS image pickup device 21a. The DMS image processing unit 21b of FIG. 3 includes a pupil diameter measuring unit 21b1, a facial light intensity distribution measuring unit 21b2, and an eye opening degree detecting unit 21b3. The pupil diameter measuring unit 21b1 measures the driver's pupil diameter as a facial feature amount from the driver's image. The facial light intensity distribution measuring unit 21b2 measures the intensity and distribution of the light hitting the driver's face from the driver's image, and based on the measurement result, determines the intensity of the light in the driver's eyes and around the eyes as a facial feature. Measure as a quantity. The eye opening degree detection unit 21b3 detects the driver's eye opening degree as a facial feature amount from the driver's image.

DMS画像処理部21bは、取得された顔特徴量が、特定顔特徴量であるか否か、つまり運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量であるか否かを判定する。DMS画像処理部21bにおける特定顔特徴量の判定には、例えば実施の形態1で説明した第1例または第2例の判定が用いられる。 The DMS image processing unit 21b determines whether or not the acquired facial feature amount is a specific facial feature amount, that is, whether or not the acquired facial feature amount is the facial feature amount acquired by the acquisition unit 11 when the driver is not looking at the peripheral image. Judge whether or not. For the determination of the specific facial feature amount in the DMS image processing unit 21b, for example, the determination of the first example or the second example described in the first embodiment is used.

DMS送信部21cは、DMS画像処理部21bにて特定顔特徴量であると判定された顔特徴量をCMS画像処理装置22に送信する。 The DMS transmission unit 21c transmits the face feature amount determined to be the specific face feature amount by the DMS image processing unit 21b to the CMS image processing device 22.

図4は、CMS画像処理装置22の構成を示すブロック図である。図4のCMS画像処理装置22は、画像受信部22aと、画像処理部22bと、画像送信部22cと、DMS処理結果受信部22dと、顔特徴判定部22eと、照度データ受信部22fと、照度判定部22gと、画像輝度設定部22hと、画像輝度データ送信部22iとを備える。このCMS画像処理装置22は、以下で説明するように、DMS21で取得された特定顔特徴量に基づいて、表示装置32に表示される周辺画像の輝度を制御するための画像輝度データを生成する。 FIG. 4 is a block diagram showing the configuration of the CMS image processing device 22. The CMS image processing device 22 of FIG. 4 includes an image receiving unit 22a, an image processing unit 22b, an image transmitting unit 22c, a DMS processing result receiving unit 22d, a face feature determination unit 22e, an illuminance data receiving unit 22f, and the like. It includes an illuminance determination unit 22g, an image brightness setting unit 22h, and an image brightness data transmission unit 22i. As described below, the CMS image processing device 22 generates image brightness data for controlling the brightness of the peripheral image displayed on the display device 32 based on the specific face feature amount acquired by the DMS 21. ..

なお、CMS画像処理装置22、撮像装置31及び表示装置32は、CMSを構成する。また、照度データ受信部22f及び照度判定部22gは、図1の取得部11の概念に含まれ、顔特徴判定部22e及び画像輝度設定部22hは、図1の制御部12の概念に含まれる。 The CMS image processing device 22, the image pickup device 31, and the display device 32 constitute a CMS. Further, the illuminance data receiving unit 22f and the illuminance determination unit 22g are included in the concept of the acquisition unit 11 in FIG. 1, and the face feature determination unit 22e and the image brightness setting unit 22h are included in the concept of the control unit 12 in FIG. ..

画像受信部22aは、図2の撮像装置31から送信された周辺画像を受信する。画像処理部22bは、画像受信部22aで受信された周辺画像に各種処理を行う。画像送信部22cは、画像処理部22bで処理された周辺画像を表示装置32に送信する。 The image receiving unit 22a receives the peripheral image transmitted from the image pickup apparatus 31 of FIG. The image processing unit 22b performs various processing on the peripheral image received by the image receiving unit 22a. The image transmission unit 22c transmits the peripheral image processed by the image processing unit 22b to the display device 32.

DMS処理結果受信部22dは、図3のDMS21から送信された特定顔特徴量を受信する。顔特徴判定部22eは、DMS処理結果受信部22dで受信された特定顔特徴量が特定の条件を満たすか否かを判定する。例えば、特定の条件は、特定顔特徴量が瞳孔径を含むか否か、つまり瞳孔径が読み取り可能であったか否かであってもよい。また例えば、特定顔特徴量が開眼度を含む場合には、特定の条件は、開眼度が予め定められた閾値以下であるか否かであってもよい。また例えば、特定顔特徴量が光の強度を含む場合には、特定の条件は、光の強度が予め定められた閾値以上であるか否かであってもよい。また例えば、特定の条件は、これらの組み合わせであってもよい。顔特徴判定部22eは、特定顔特徴量が特定の条件を満たすか否かの判定結果と、DMS処理結果受信部22dで受信された特定顔特徴量とを画像輝度設定部22hに出力する。 The DMS processing result receiving unit 22d receives the specific face feature amount transmitted from the DMS 21 in FIG. The face feature determination unit 22e determines whether or not the specific face feature amount received by the DMS processing result receiving unit 22d satisfies a specific condition. For example, the specific condition may be whether or not the specific facial feature amount includes the pupil diameter, that is, whether or not the pupil diameter is readable. Further, for example, when the specific facial feature amount includes the degree of eye opening, the specific condition may be whether or not the degree of eye opening is equal to or less than a predetermined threshold value. Further, for example, when the specific facial feature amount includes the light intensity, the specific condition may be whether or not the light intensity is equal to or higher than a predetermined threshold value. Further, for example, the specific condition may be a combination of these. The face feature determination unit 22e outputs the determination result of whether or not the specific face feature amount satisfies a specific condition and the specific face feature amount received by the DMS processing result receiving unit 22d to the image brightness setting unit 22h.

照度データ受信部22fは、後述する表示装置32から送信された照度データを受信する。照度判定部22gは、照度データ受信部22fで受信された照度データに基づいて、表示装置32周辺の照度を判定する。ここでいう表示装置32周辺の照度は、表示装置32の照度も含む。このように、照度データ受信部22f及び照度判定部22gは協働して、表示装置32周辺の照度を取得する。 The illuminance data receiving unit 22f receives the illuminance data transmitted from the display device 32 described later. The illuminance determination unit 22g determines the illuminance around the display device 32 based on the illuminance data received by the illuminance data reception unit 22f. The illuminance around the display device 32 referred to here includes the illuminance of the display device 32. In this way, the illuminance data receiving unit 22f and the illuminance determination unit 22g cooperate to acquire the illuminance around the display device 32.

画像輝度設定部22hは、特定顔特徴量と周辺画像輝度とが予め対応付けられた第1テーブルとを有している。第1テーブルは、瞳孔径−輝度テーブルと、強度−輝度テーブルと、開眼度−輝度テーブルと、の少なくとも1つを含む。なお、瞳孔径−輝度テーブルでは、瞳孔径が小さくなるにつれて周辺画像輝度が高くなるように、瞳孔径と周辺画像輝度とが予め対応付けられている。強度−輝度テーブルでは、光の強度が大きくなるにつれて周辺画像輝度が高くなるように、光の強度と周辺画像輝度とが予め対応付けられている。開眼度−輝度テーブルでは、開眼度が小さくなるにつれて周辺画像輝度が高くなるように、開眼度と周辺画像輝度とが予め対応付けられている。 The image brightness setting unit 22h has a first table in which the specific face feature amount and the peripheral image brightness are associated in advance. The first table includes at least one of a pupil diameter-luminance table, an intensity-luminance table, and an eye opening degree-luminance table. In the pupil diameter-luminance table, the pupil diameter and the peripheral image brightness are associated in advance so that the peripheral image brightness increases as the pupil diameter decreases. In the intensity-luminance table, the light intensity and the peripheral image brightness are associated in advance so that the peripheral image brightness increases as the light intensity increases. In the eye opening degree-luminance table, the eye opening degree and the peripheral image brightness are associated in advance so that the peripheral image brightness increases as the eye opening degree decreases.

また、画像輝度設定部22hは、照度−輝度テーブルを含む第2テーブルを有している。照度−輝度テーブルでは、表示装置32周辺の照度が大きくなるにつれて周辺画像輝度が高くなるように、照度と周辺画像輝度とが予め対応付けられている。 Further, the image brightness setting unit 22h has a second table including an illuminance-luminance table. In the illuminance-luminance table, the illuminance and the peripheral image brightness are associated in advance so that the peripheral image brightness increases as the illuminance around the display device 32 increases.

特定顔特徴量が特定の条件を満たすと顔特徴判定部22eで判定された場合、画像輝度設定部22hは、顔特徴判定部22eから出力された特定顔特徴量に対応する周辺画像輝度を第1テーブルから読み出し、当該周辺画像輝度を示す画像輝度データを生成する。特定顔特徴量が特定の条件を満たさないと顔特徴判定部22eで判定された場合、画像輝度設定部22hは、照度判定部22gで判定された表示装置32周辺の照度に対応する周辺画像輝度を第2テーブルから読み出し、当該周辺画像輝度を示す画像輝度データを生成する。 When the face feature determination unit 22e determines that the specific face feature amount satisfies a specific condition, the image brightness setting unit 22h determines the peripheral image brightness corresponding to the specific face feature amount output from the face feature determination unit 22e. 1 Read from the table and generate image luminance data indicating the peripheral image luminance. When the face feature determination unit 22e determines that the specific face feature amount does not satisfy the specific condition, the image brightness setting unit 22h determines the peripheral image brightness corresponding to the illuminance around the display device 32 determined by the illuminance determination unit 22g. Is read from the second table, and image brightness data indicating the peripheral image brightness is generated.

画像輝度データ送信部22iは、画像輝度設定部22hで生成された画像輝度データを表示装置32に送信する。 The image brightness data transmission unit 22i transmits the image brightness data generated by the image brightness setting unit 22h to the display device 32.

図5は、表示装置32の構成を示すブロック図である。図5の表示装置32は、画像受信部32aと、表示部32bと、画像輝度データ受信部32cと、画像輝度制御部32dと、画像輝度調整部32eと、照度センサ32fと、照度データ送信部32gとを備える。 FIG. 5 is a block diagram showing the configuration of the display device 32. The display device 32 of FIG. 5 includes an image receiving unit 32a, a display unit 32b, an image brightness data receiving unit 32c, an image brightness control unit 32d, an image brightness adjusting unit 32e, an illuminance sensor 32f, and an illuminance data transmitting unit. It includes 32 g.

画像受信部32aは、図4のCMS画像処理装置22から送信された周辺画像を受信する。表示部32bは、例えば液晶パネルであり、画像受信部32aで受信された周辺画像を表示する。画像輝度データ受信部32cは、図4のCMS画像処理装置22から送信された画像輝度データを受信する。 The image receiving unit 32a receives the peripheral image transmitted from the CMS image processing device 22 of FIG. The display unit 32b is, for example, a liquid crystal panel, and displays a peripheral image received by the image receiving unit 32a. The image brightness data receiving unit 32c receives the image brightness data transmitted from the CMS image processing device 22 of FIG.

画像輝度制御部32dは、画像輝度データ受信部32cで受信された画像輝度データに基づいて画像輝度調整部32eを制御する。画像輝度調整部32eは、例えばバックライトであり、表示部32bに表示されている周辺画像の輝度を、画像輝度制御部32dの制御によって適宜調整する。この場合、本実施の形態2に係る画像輝度データは、バックライト制御データに相当する。なお、図5の表示装置32では、表示部32b、画像輝度制御部32d、及び、画像輝度調整部32eが個別に設けられているが、表示部32b、画像輝度制御部32d、及び、画像輝度調整部32eのいくつかが一体化されてもよい。 The image brightness control unit 32d controls the image brightness adjustment unit 32e based on the image brightness data received by the image brightness data reception unit 32c. The image brightness adjusting unit 32e is, for example, a backlight, and the brightness of the peripheral image displayed on the display unit 32b is appropriately adjusted by the control of the image brightness control unit 32d. In this case, the image brightness data according to the second embodiment corresponds to the backlight control data. In the display device 32 of FIG. 5, the display unit 32b, the image brightness control unit 32d, and the image brightness adjustment unit 32e are individually provided, but the display unit 32b, the image brightness control unit 32d, and the image brightness are provided. Some of the adjusting portions 32e may be integrated.

照度センサ32fは、表示装置32周辺の照度を検出する。照度データ送信部32gは、照度センサ32fで検出された表示装置32周辺の照度を示す照度データをCMS画像処理装置22に送信する。 The illuminance sensor 32f detects the illuminance around the display device 32. The illuminance data transmission unit 32g transmits illuminance data indicating the illuminance around the display device 32 detected by the illuminance sensor 32f to the CMS image processing device 22.

以上のような構成によれば、特定顔特徴量が特定の条件を満たす場合に、画像輝度設定部22hは、特定顔特徴量に基づいて、表示装置32に表示される周辺画像の輝度を制御する。この際、画像輝度設定部22hは、第1テーブルにおいて特定顔特徴量と予め対応付けられた輝度に周辺画像輝度を合わせる制御を行う。 According to the above configuration, when the specific face feature amount satisfies a specific condition, the image brightness setting unit 22h controls the brightness of the peripheral image displayed on the display device 32 based on the specific face feature amount. To do. At this time, the image brightness setting unit 22h controls to match the peripheral image brightness with the brightness previously associated with the specific face feature amount in the first table.

一方、特定顔特徴量が特定の条件を満たさない場合に、画像輝度設定部22hは、表示装置32周辺の照度に基づいて、表示装置32に表示される周辺画像の輝度を制御する。この際、画像輝度設定部22hは、第2テーブルにおいて表示装置32周辺の照度と予め対応付けられた輝度に周辺画像輝度を合わせる制御を行う。 On the other hand, when the specific facial feature amount does not satisfy the specific condition, the image brightness setting unit 22h controls the brightness of the peripheral image displayed on the display device 32 based on the illuminance around the display device 32. At this time, the image brightness setting unit 22h controls to match the peripheral image brightness with the brightness previously associated with the illuminance around the display device 32 in the second table.

<動作>
図6は、本実施の形態2に係る表示制御装置1の動作を示すフローチャートである。
<Operation>
FIG. 6 is a flowchart showing the operation of the display control device 1 according to the second embodiment.

ステップS1にて、CMS画像処理装置22は、表示装置32から送信された照度データを読み出す。ステップS2にて、CMS画像処理装置22は、DMS21から送信された特定顔特徴量を読み出す。 In step S1, the CMS image processing device 22 reads out the illuminance data transmitted from the display device 32. In step S2, the CMS image processing device 22 reads out the specific face feature amount transmitted from the DMS 21.

ステップS3にて、図4のCMS画像処理装置22の顔特徴判定部22eは、特定顔特徴量に基づいて瞳孔径が読み取り可能であったか否かを判定する。瞳孔径が読み取り可能であったと判定された場合には、処理がステップS4に進み、瞳孔径が読み取り可能でなかったと判定された場合には、処理がステップS6に進む。 In step S3, the face feature determination unit 22e of the CMS image processing device 22 of FIG. 4 determines whether or not the pupil diameter can be read based on the specific face feature amount. If it is determined that the pupil diameter is readable, the process proceeds to step S4, and if it is determined that the pupil diameter is unreadable, the process proceeds to step S6.

ステップS4にて、画像輝度設定部22hは瞳孔径−輝度テーブルを参照する。そしてステップS5にて、画像輝度設定部22hは、特定顔特徴量に含まれる瞳孔径に対応する周辺画像輝度を、瞳孔径−輝度テーブルから読み出し、当該周辺画像輝度を示す画像輝度データを生成する。その後、処理がステップS12に進む。 In step S4, the image brightness setting unit 22h refers to the pupil diameter-brightness table. Then, in step S5, the image brightness setting unit 22h reads the peripheral image brightness corresponding to the pupil diameter included in the specific facial feature amount from the pupil diameter-luminance table, and generates image brightness data indicating the peripheral image brightness. .. After that, the process proceeds to step S12.

ステップS6にて、顔特徴判定部22eは、特定顔特徴量に含まれる開眼度が予め定められた閾値以下であるか否かを判定する。開眼度が予め定められた閾値以下であると判定された場合には、処理がステップS7に進み、開眼度が予め定められた閾値よりも大きいと判定された場合には、処理がステップS8に進む。 In step S6, the face feature determination unit 22e determines whether or not the degree of eye opening included in the specific face feature amount is equal to or less than a predetermined threshold value. If it is determined that the eye opening degree is equal to or less than a predetermined threshold value, the process proceeds to step S7, and if it is determined that the eye opening degree is larger than the predetermined threshold value, the process proceeds to step S8. move on.

ステップS7にて、顔特徴判定部22eは、特定顔特徴量に含まれる光の強度が予め定められた閾値以上であるか否かを判定する。光の強度が予め定められた閾値以上であると判定された場合には、処理がステップS10に進み、光の強度が予め定められた閾値よりも小さいと判定された場合には、処理がステップS8に進む。なお、ステップS7からステップS10に処理が進む場合には、運転者は眼に光を浴びて眩しいと感じて目を細めていると推測され、ステップS7からステップS8に処理が進む場合には、運転者は眩しさ以外の要因で目を細めていると推測される。 In step S7, the face feature determination unit 22e determines whether or not the intensity of light contained in the specific face feature amount is equal to or higher than a predetermined threshold value. If it is determined that the light intensity is equal to or higher than a predetermined threshold value, the process proceeds to step S10, and if it is determined that the light intensity is smaller than the predetermined threshold value, the process proceeds to step S10. Proceed to S8. When the process proceeds from step S7 to step S10, it is presumed that the driver is squinting because he / she is exposed to light in his / her eyes and feels dazzling. When the process proceeds from step S7 to step S8, the process proceeds. It is presumed that the driver is squinting due to factors other than glare.

ステップS8にて、画像輝度設定部22hは照度−輝度テーブルを参照する。そしてステップS9にて、画像輝度設定部22hは、照度データが示す照度に対応する周辺画像輝度を、照度−輝度テーブルから読み出し、当該周辺画像輝度を示す画像輝度データを生成する。その後、処理がステップS12に進む。 In step S8, the image luminance setting unit 22h refers to the illuminance-luminance table. Then, in step S9, the image brightness setting unit 22h reads the peripheral image brightness corresponding to the illuminance indicated by the illuminance data from the illuminance-luminance table, and generates image brightness data indicating the peripheral image brightness. After that, the process proceeds to step S12.

ステップS10にて、画像輝度設定部22hは開眼度−輝度テーブルを参照する。そしてステップS11にて、画像輝度設定部22hは、特定顔特徴量に含まれる開眼度に対応する周辺画像輝度を、開眼度−輝度テーブルから読み出し、当該周辺画像輝度を示す画像輝度データを生成する。その後、処理がステップS12に進む。 In step S10, the image brightness setting unit 22h refers to the eye opening degree-brightness table. Then, in step S11, the image brightness setting unit 22h reads the peripheral image brightness corresponding to the eye opening degree included in the specific facial feature amount from the eye opening degree-luminance table, and generates image brightness data indicating the peripheral image brightness. .. After that, the process proceeds to step S12.

ステップS12にて、画像輝度データ送信部22iは、画像輝度設定部22hで生成された画像輝度データを表示装置32に送信する。これにより、表示装置32は、当該画像輝度データに基づいて周辺画像輝度を適宜調整する。その後、図6の動作が終了する。 In step S12, the image brightness data transmission unit 22i transmits the image brightness data generated by the image brightness setting unit 22h to the display device 32. As a result, the display device 32 appropriately adjusts the peripheral image brightness based on the image brightness data. After that, the operation of FIG. 6 ends.

<実施の形態2のまとめ>
以上のような本実施の形態2に係る表示制御装置1によれば、画像輝度設定部22hは、特定顔特徴量と予め対応付けられた輝度に周辺画像輝度を合わせる制御を行う。このような構成によれば、比較的簡単な構成で周辺画像輝度を適切に制御することができる。
<Summary of Embodiment 2>
According to the display control device 1 according to the second embodiment as described above, the image brightness setting unit 22h controls to match the peripheral image brightness with the brightness previously associated with the specific face feature amount. According to such a configuration, the peripheral image brightness can be appropriately controlled with a relatively simple configuration.

また本実施の形態2によれば、特定顔特徴量が特定の条件を満たさない場合に、画像輝度設定部22hは、表示装置32周辺の照度に基づいて、表示装置32に表示される周辺画像の輝度を制御する。このような構成によれば、特定顔特徴量を用いて周辺画像の輝度を制御することが適切でない場合に、表示装置32周辺の照度に基づいて、周辺画像の輝度を制御することができる。 Further, according to the second embodiment, when the specific facial feature amount does not satisfy the specific condition, the image brightness setting unit 22h displays the peripheral image displayed on the display device 32 based on the illuminance around the display device 32. Control the brightness of. According to such a configuration, when it is not appropriate to control the brightness of the peripheral image using the specific facial feature amount, the brightness of the peripheral image can be controlled based on the illuminance around the display device 32.

<変形例1>
実施の形態2に係る表示制御装置1の動作を示すフローチャート(図6)の説明では、顔特徴量及び特定顔特徴量は、瞳孔径、光の強度、及び、開眼度を含んでいた。しかしながら、顔特徴量及び特定顔特徴量は、瞳孔径、光の強度、及び、開眼度の少なくとも1つを含んでいればよい。
<Modification example 1>
In the explanation of the flowchart (FIG. 6) showing the operation of the display control device 1 according to the second embodiment, the facial feature amount and the specific facial feature amount include the pupil diameter, the light intensity, and the degree of eye opening. However, the facial feature amount and the specific facial feature amount may include at least one of the pupil diameter, the light intensity, and the degree of eye opening.

図7は、顔特徴量及び特定顔特徴量が、光の強度及び開眼度を含まずに、瞳孔径を含む場合の表示制御装置1の動作を示すフローチャートである。この図7のフローチャートは、図6のフローチャートからステップS6,S7,S10,S11を取り除いたフローチャートと同様である。 FIG. 7 is a flowchart showing the operation of the display control device 1 when the facial feature amount and the specific facial feature amount do not include the light intensity and the degree of eye opening but include the pupil diameter. The flowchart of FIG. 7 is the same as the flowchart in which steps S6, S7, S10, and S11 are removed from the flowchart of FIG.

図8は、顔特徴量及び特定顔特徴量が、瞳孔径を含まずに、光の強度及び開眼度を含む場合の表示制御装置1の動作を示すフローチャートである。この図7のフローチャートは、図6のフローチャートからステップS3〜S5を取り除いたフローチャートと同様である。 FIG. 8 is a flowchart showing the operation of the display control device 1 when the facial feature amount and the specific facial feature amount do not include the pupil diameter but include the light intensity and the degree of eye opening. The flowchart of FIG. 7 is the same as the flowchart in which steps S3 to S5 are removed from the flowchart of FIG.

<変形例2>
図9は、本変形例2に係るCMS画像処理装置22の構成を示すブロック図である。図9のCMS画像処理装置22の構成は、図4のCMS画像処理装置22の構成に、運転情報取得部22jが追加された構成と同様である。なお、運転情報取得部22jは、図1の取得部11の概念に含まれる。
<Modification 2>
FIG. 9 is a block diagram showing the configuration of the CMS image processing device 22 according to the second modification. The configuration of the CMS image processing device 22 of FIG. 9 is the same as the configuration in which the operation information acquisition unit 22j is added to the configuration of the CMS image processing device 22 of FIG. The driving information acquisition unit 22j is included in the concept of the acquisition unit 11 in FIG.

運転情報取得部22jは、自車両の運転情報を取得する。運転情報は、自車両が運転中であるか否かを示す情報であり、例えば、自車両のシフトレバーがDレンジに位置しているか否かを示す情報である。画像輝度設定部22hは、運転情報取得部22jで取得された運転情報に基づいて自車両が運転中であると判定した場合に、特定顔特徴量に基づいて周辺画像輝度を制御する。以上のような本変形例2に係る表示制御装置1によれば、運転中外には、特定顔特徴量に基づく周辺画像輝度の制御を抑制することができる。 The driving information acquisition unit 22j acquires the driving information of the own vehicle. The driving information is information indicating whether or not the own vehicle is driving, and is, for example, information indicating whether or not the shift lever of the own vehicle is located in the D range. The image brightness setting unit 22h controls the peripheral image brightness based on the specific facial feature amount when it is determined that the own vehicle is driving based on the driving information acquired by the driving information acquisition unit 22j. According to the display control device 1 according to the present modification 2 as described above, it is possible to suppress the control of the peripheral image brightness based on the specific face feature amount during and outside the operation.

<変形例3>
DMS21が、複数の運転者を互いに識別可能に構成されている場合には、実施の形態2で説明した第1テーブルは、運転者ごとに予め規定されてもよい。そして、運転情報取得部22jは、DMS21で識別された運転者に基づいて、周辺画像輝度の制御に用いる第1テーブルを変更してもよい。
<Modification example 3>
When the DMS 21 is configured so that a plurality of drivers can be distinguished from each other, the first table described in the second embodiment may be predetermined for each driver. Then, the driving information acquisition unit 22j may change the first table used for controlling the peripheral image brightness based on the driver identified by the DMS 21.

<その他の変形例>
上述した図1の取得部11及び制御部12を、以下「取得部11等」と記す。取得部11等は、図10に示す処理回路81により実現される。すなわち、処理回路81は、車両の運転者の顔の画像に基づく顔特徴量を取得する取得部11と、運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量である特定顔特徴量に基づいて、周辺画像輝度を制御する制御部12と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
<Other variants>
The acquisition unit 11 and the control unit 12 of FIG. 1 described above are hereinafter referred to as “acquisition unit 11 and the like”. The acquisition unit 11 and the like are realized by the processing circuit 81 shown in FIG. That is, the processing circuit 81 uses the acquisition unit 11 to acquire the facial feature amount based on the image of the driver's face of the vehicle and the facial feature amount acquired by the acquisition unit 11 when the driver is not looking at the peripheral image. A control unit 12 that controls peripheral image brightness based on a specific facial feature amount is provided. Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in the memory may be applied. Examples of the processor include a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), and the like.

処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部11等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。 When the processing circuit 81 is dedicated hardware, the processing circuit 81 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate). Array), or a combination of these. Each of the functions of each part such as the acquisition unit 11 may be realized by a circuit in which processing circuits are dispersed, or the functions of each part may be collectively realized by one processing circuit.

処理回路81がプロセッサである場合、取得部11等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図11に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、表示制御装置1は、処理回路81により実行されるときに、車両の運転者の顔の画像に基づく顔特徴量を取得するステップと、運転者が周辺画像を見ていないときに取得された顔特徴量である特定顔特徴量に基づいて周辺画像輝度を制御するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部11等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、そのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 When the processing circuit 81 is a processor, the functions of the acquisition unit 11 and the like are realized by combining with software and the like. The software and the like correspond to, for example, software, firmware, or software and firmware. Software and the like are described as programs and stored in memory. As shown in FIG. 11, the processor 82 applied to the processing circuit 81 realizes the functions of each part by reading and executing the program stored in the memory 83. That is, when the display control device 1 is executed by the processing circuit 81, the step of acquiring the facial feature amount based on the image of the driver's face of the vehicle and the step of acquiring the facial feature amount when the driver is not looking at the peripheral image are acquired. It includes a step of controlling the peripheral image brightness based on the specific facial feature amount, which is the facial feature amount, and a memory 83 for storing a program to be executed as a result. In other words, it can be said that this program causes the computer to execute the procedure or method of the acquisition unit 11 or the like. Here, the memory 83 is a non-volatile or non-volatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EEPROM (Erasable Programmable Read Only Memory), or an EEPROM (Electrically Erasable Programmable Read Only Memory). Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), its drive device, etc., or any storage medium used in the future. You may.

以上、取得部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部11については専用のハードウェアとしての処理回路81、インターフェース及びレシーバなどでその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 The configuration in which each function of the acquisition unit 11 and the like is realized by either hardware or software has been described above. However, the present invention is not limited to this, and a configuration may be configured in which a part of the acquisition unit 11 or the like is realized by dedicated hardware and another part is realized by software or the like. For example, the acquisition unit 11 realizes its function by a processing circuit 81 as dedicated hardware, an interface, a receiver, and the like, and other than that, the processing circuit 81 as a processor 82 reads a program stored in the memory 83. It is possible to realize the function by executing it.

以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the processing circuit 81 can realize each of the above-mentioned functions by hardware, software, or a combination thereof.

また、以上で説明した表示制御装置1は、PND(Portable Navigation Device)及びナビゲーション装置などの車両装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、車両装置及び通信端末の少なくとも1つにインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される表示制御システムにも適用することができる。この場合、以上で説明した表示制御装置1の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。 Further, the display control device 1 described above includes a vehicle device such as a PND (Portable Navigation Device) and a navigation device, a communication terminal including a mobile terminal such as a mobile phone, a smartphone and a tablet, and at least the vehicle device and the communication terminal. It can also be applied to a display control system constructed as a system by appropriately combining the functions of an application installed in one and a server. In this case, each function or each component of the display control device 1 described above may be dispersedly arranged in each device for constructing the system, or may be centrally arranged in any of the devices. Good.

図12は、本変形例に係るサーバ91の構成を示すブロック図である。図12のサーバ91は、通信部91aと制御部91bとを備えており、車両92のナビゲーション装置などの車両装置93と無線通信を行うことが可能となっている。 FIG. 12 is a block diagram showing the configuration of the server 91 according to this modification. The server 91 of FIG. 12 includes a communication unit 91a and a control unit 91b, and can perform wireless communication with a vehicle device 93 such as a navigation device of the vehicle 92.

取得部である通信部91aは、車両装置93と無線通信を行うことにより、車両92の運転者の顔の画像に基づく顔特徴量を受信する。 The communication unit 91a, which is the acquisition unit, receives the facial feature amount based on the image of the driver's face of the vehicle 92 by performing wireless communication with the vehicle device 93.

制御部91bは、サーバ91の図示しないプロセッサなどが、サーバ91の図示しないメモリに記憶されたプログラムを実行することにより、図1の制御部12と同様の機能を有している。つまり、制御部91bは、運転者が周辺画像を見ていないときに取得部11で取得された顔特徴量である特定顔特徴量に基づいて、車両装置93に表示される周辺画像の輝度である周辺画像輝度を制御するための制御信号を生成する。そして、通信部91aは、制御部91bで生成された制御信号を車両装置93に送信する。このように構成されたサーバ91によれば、実施の形態1で説明した表示制御装置1と同様の効果を得ることができる。 The control unit 91b has the same function as the control unit 12 of FIG. 1 when a processor (not shown) of the server 91 or the like executes a program stored in a memory (not shown) of the server 91. That is, the control unit 91b determines the brightness of the peripheral image displayed on the vehicle device 93 based on the specific facial feature amount which is the facial feature amount acquired by the acquisition unit 11 when the driver is not looking at the peripheral image. Generates a control signal to control the brightness of a certain peripheral image. Then, the communication unit 91a transmits the control signal generated by the control unit 91b to the vehicle device 93. According to the server 91 configured in this way, the same effect as that of the display control device 1 described in the first embodiment can be obtained.

図13は、本変形例に係る通信端末96の構成を示すブロック図である。図13の通信端末96は、通信部91aと同様の通信部96aと、制御部91bと同様の制御部96bとを備えており、車両97の車両装置98と無線通信を行うことが可能となっている。なお、通信端末96には、例えば車両97の運転者が携帯する携帯電話、スマートフォン、及びタブレットなどの携帯端末が適用される。このように構成された通信端末96によれば、実施の形態1で説明した表示制御装置1と同様の効果を得ることができる。 FIG. 13 is a block diagram showing the configuration of the communication terminal 96 according to this modification. The communication terminal 96 of FIG. 13 includes a communication unit 96a similar to the communication unit 91a and a control unit 96b similar to the control unit 91b, and can perform wireless communication with the vehicle device 98 of the vehicle 97. ing. The communication terminal 96 is, for example, a mobile terminal such as a mobile phone, a smartphone, or a tablet carried by the driver of the vehicle 97. According to the communication terminal 96 configured in this way, the same effect as that of the display control device 1 described in the first embodiment can be obtained.

なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。 In the present invention, each embodiment and each modification can be freely combined, and each embodiment and each modification can be appropriately modified or omitted within the scope of the invention.

本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all embodiments and the present invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.

1 表示制御装置、11 取得部、12 制御部、32 表示装置。 1 display control device, 11 acquisition unit, 12 control unit, 32 display device.

Claims (7)

車両周辺を撮像して得られた周辺画像を表示する表示装置を制御する表示制御装置であって、
前記車両の運転者の顔の画像に基づく顔特徴量を取得する取得部と、
前記運転者が前記周辺画像を見ていないときに前記取得部で取得された前記顔特徴量である特定顔特徴量に基づいて、前記表示装置に表示される前記周辺画像の輝度である周辺画像輝度を制御する制御部と
を備える、表示制御装置。
It is a display control device that controls a display device that displays a peripheral image obtained by imaging the surroundings of a vehicle.
An acquisition unit that acquires a facial feature amount based on an image of the driver's face of the vehicle, and an acquisition unit.
A peripheral image that is the brightness of the peripheral image displayed on the display device based on the specific facial feature amount that is the facial feature amount acquired by the acquisition unit when the driver is not looking at the peripheral image. A display control device including a control unit that controls brightness.
請求項1に記載の表示制御装置であって、
前記特定顔特徴量は、前記運転者が前記車両の外部を見ているときに前記取得部で取得された前記顔特徴量を含む、表示制御装置。
The display control device according to claim 1.
The specific facial feature amount is a display control device including the facial feature amount acquired by the acquisition unit when the driver is looking at the outside of the vehicle.
請求項1に記載の表示制御装置であって、
前記制御部は、
前記特定顔特徴量と予め対応付けられた輝度に前記周辺画像輝度を合わせる制御を行う、表示制御装置。
The display control device according to claim 1.
The control unit
A display control device that controls to match the peripheral image brightness with the brightness previously associated with the specific face feature amount.
請求項1に記載の表示制御装置であって、
前記取得部は、前記車両の運転情報さらに取得し、
前記制御部は、
前記取得部で取得された前記運転情報に基づいて前記車両が運転中であると判定した場合に、前記特定顔特徴量に基づいて前記周辺画像輝度を制御する、表示制御装置。
The display control device according to claim 1.
The acquisition unit further acquires the driving information of the vehicle, and obtains the driving information.
The control unit
A display control device that controls the peripheral image brightness based on the specific facial feature amount when it is determined that the vehicle is driving based on the driving information acquired by the acquisition unit.
請求項1に記載の表示制御装置であって、
前記取得部は、前記表示装置の照度をさらに取得し、
前記制御部は、
前記特定顔特徴量が特定の条件を満たさない場合に、前記取得部で取得された前記照度に基づいて前記周辺画像輝度を制御する、表示制御装置。
The display control device according to claim 1.
The acquisition unit further acquires the illuminance of the display device, and obtains the illuminance.
The control unit
A display control device that controls the peripheral image brightness based on the illuminance acquired by the acquisition unit when the specific facial feature amount does not satisfy a specific condition.
請求項1に記載の表示制御装置であって、
前記顔特徴量は、前記運転者の瞳孔径、前記運転者の顔に当たっている光の強度、及び、前記運転者の開眼度、のうちの少なくとも1つを含む、表示制御装置。
The display control device according to claim 1.
The facial feature amount is a display control device including at least one of the pupil diameter of the driver, the intensity of light hitting the driver's face, and the degree of eye opening of the driver.
車両周辺を撮像して得られた周辺画像を表示する表示装置を制御する表示制御方法であって、
前記車両の運転者の顔の画像に基づく顔特徴量を取得し、
前記運転者が前記周辺画像を見ていないときに取得された前記顔特徴量である特定顔特徴量に基づいて、前記表示装置に表示される前記周辺画像の輝度である周辺画像輝度を制御する、表示制御方法。
It is a display control method that controls a display device that displays a peripheral image obtained by imaging the surroundings of a vehicle.
The facial feature amount based on the image of the driver's face of the vehicle is acquired, and the face feature amount is acquired.
The peripheral image brightness, which is the brightness of the peripheral image displayed on the display device, is controlled based on the specific facial feature amount, which is the facial feature amount acquired when the driver is not looking at the peripheral image. , Display control method.
JP2020560672A 2018-12-18 2018-12-18 Display control device and display control method Active JP6865906B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/046493 WO2020129146A1 (en) 2018-12-18 2018-12-18 Display control device and display control method

Publications (2)

Publication Number Publication Date
JP6865906B2 true JP6865906B2 (en) 2021-04-28
JPWO2020129146A1 JPWO2020129146A1 (en) 2021-04-30

Family

ID=71102219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560672A Active JP6865906B2 (en) 2018-12-18 2018-12-18 Display control device and display control method

Country Status (2)

Country Link
JP (1) JP6865906B2 (en)
WO (1) WO2020129146A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7327301B2 (en) * 2020-07-02 2023-08-16 トヨタ自動車株式会社 Driver monitoring device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174960A (en) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd Device for presenting information on degree of wakefulness
JP4687573B2 (en) * 2006-06-14 2011-05-25 トヨタ自動車株式会社 Vehicle driving support device
JP4853389B2 (en) * 2007-06-07 2012-01-11 株式会社デンソー Face image capturing device
JP5565387B2 (en) * 2011-07-20 2014-08-06 三菱電機株式会社 Liquid crystal display
JP6939737B2 (en) * 2014-08-12 2021-09-22 ソニーグループ株式会社 Information processing equipment and information processing methods and programs

Also Published As

Publication number Publication date
JPWO2020129146A1 (en) 2021-04-30
WO2020129146A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US10110828B2 (en) Photographing apparatus and method for controlling photographing apparatus
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
US9508136B2 (en) Image fusing method
TW201623051A (en) Vehicle and automatic adjusting system, automatic adjusting method using same
JP6865906B2 (en) Display control device and display control method
CN109791294B (en) Method and device for operating a display system with data glasses
JP2019028959A (en) Image registration device, image registration system, and image registration method
US20180233092A1 (en) Display system, electronic apparatus and display adjustment method thereof
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
KR20200053125A (en) Electronic device and control method thereof
JP5513190B2 (en) Vehicle rear monitoring device and vehicle rear monitoring method
US11140366B2 (en) Vehicle and method of providing rear image thereof
JP2015103867A (en) On-vehicle image processing apparatus
US8502904B2 (en) Digital photographic apparatus and method for controlling the same that provide vision correction
US10688929B2 (en) Driving assistance system and method of enhancing a driver&#39;s vision
WO2019215875A1 (en) Notification control device and notification control method
JPWO2021064791A5 (en)
KR101797696B1 (en) System and method for recognizing license plate based on smart phone
JP2007038859A (en) Control device for display apparatus
WO2019053809A1 (en) Driver state determination device and driver state determination method
CN113168798B (en) Display control device, display control method, and display control program
JP7051014B2 (en) Face detection processing device and face detection processing method
CN113168798A (en) Display control device, display control method, and display control program
US11783505B2 (en) Camera position detection apparatus, camera unit, camera position detection method, and medium
US20230306707A1 (en) Around view monitoring system and the method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210406

R150 Certificate of patent or registration of utility model

Ref document number: 6865906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150