JP2023066255A - Onboard display control system and onboard display control method - Google Patents

Onboard display control system and onboard display control method Download PDF

Info

Publication number
JP2023066255A
JP2023066255A JP2021176876A JP2021176876A JP2023066255A JP 2023066255 A JP2023066255 A JP 2023066255A JP 2021176876 A JP2021176876 A JP 2021176876A JP 2021176876 A JP2021176876 A JP 2021176876A JP 2023066255 A JP2023066255 A JP 2023066255A
Authority
JP
Japan
Prior art keywords
display
vehicle
occupant
finger
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176876A
Other languages
Japanese (ja)
Inventor
拓真 塩口
Takuma Shioguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Co Ltd filed Critical Faurecia Clarion Electronics Co Ltd
Priority to JP2021176876A priority Critical patent/JP2023066255A/en
Publication of JP2023066255A publication Critical patent/JP2023066255A/en
Pending legal-status Critical Current

Links

Images

Abstract

To accurately select an object displayed on an onboard display.SOLUTION: Provided is an onboard display control system for controlling an onboard display which is installed in a vehicle interior. The onboard display control system comprises: one or a plurality of sensors for acquiring the state of an occupant in the vehicle interior; a line of sight direction identification unit for identifying a line of sight direction of the occupant on the basis of the output of the sensors; a finger identification unit for identifying a finger of the occupant on the basis of the output of the sensors; and a selection target specification unit for specifying, on the basis of a visible range of the occupant which is assumed from an identification result of the line of sight direction, a designated position on the display which is set from an identification result of the finger, and a positional relation with an object which is displayed on the display, an object as the target to be selected that exists within the visible range and is located at a position that corresponds to the designated position.SELECTED DRAWING: Figure 2

Description

本発明は、車載ディスプレイ制御システム及び車載ディスプレイ制御方法に関する。 The present invention relates to an in-vehicle display control system and an in-vehicle display control method.

従来、ディスプレイに表示されたオブジェクトを選択する操作には、マウス等のポインティングデバイスやタッチパネルが用いられていた。また、所望の対象を選択する操作を非接触で行う技術も考えられている。 Conventionally, a pointing device such as a mouse or a touch panel has been used to select an object displayed on a display. Also, a technique for performing an operation of selecting a desired target without contact is being considered.

例えば、特許文献1には、「自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供する。」「計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示する。」との記載がある。
また、特許文献2には「車載装置の中からドライバが操作を希望する装置を精度よく特定し、その操作を支援する技術の提供を目的とする。本発明の操作支援装置は、車両のドライバの視線方向を取得する視線方向取得部と、ドライバによる視線以外の特徴的な行動である特徴行動を取得する特徴行動取得部と、視線方向と特徴行動とに基づき、車両に搭載された複数の車載装置の中から少なくとも一つの車載装置を、ドライバが操作を希望する操作対象装置として特定する装置特定部と、操作対象装置の操作画面を、車両に搭載された表示装置に表示させる表示制御部と、を備える。」との記載がある。
また、特許文献3には、「表示画面上の選択可能対象を選択するためのユーザインタフェース装置、コンピュータプログラム、コンピュータ可読媒体及び方法を提示する。表示画面は1以上の選択可能対象を表示する。追跡したユーザの手の位置及び頭又は目の位置に関する情報を取得する。追跡した手の位置及び頭又は目の位置に基づいて、上記選択可能対象が第1の画面位置にあるかどうかを判定する。ここで、第1の画面位置は、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である。そのように位置すると判定された場合には、選択可能対象が選択されたと判定する。」との記載がある。
For example, Patent Literature 1 describes: ``Providing a method for teaching the spatial position of an object by a pointing action that can be performed naturally and easily''; In the teaching method for surface-based determination, a finger of a human hand is extracted, indices are set on at least two points on the finger, two spatial coordinates of the finger are calculated, and the spatial coordinates are calculated by the stereo method. a three-dimensional straight line is applied to the spatial coordinates of the two points; will be taught as the position of."
In addition, Patent Document 2 describes, "It is an object of the present invention to provide a technique for accurately specifying a device that a driver desires to operate from among the in-vehicle devices and assisting the operation of the device. a line-of-sight direction acquisition unit that acquires the line-of-sight direction of the driver; a characteristic behavior acquisition unit that acquires characteristic behavior that is a characteristic behavior other than the line of sight of the driver; A device identification unit that identifies at least one in-vehicle device as an operation target device that the driver desires to operate, and a display control unit that displays the operation screen of the operation target device on a display device mounted in the vehicle. and,” is described.
U.S. Pat. No. 6,200,403 also presents "A User Interface Apparatus, Computer Program, Computer Readable Medium, and Method for Selecting Selectable Objects on a Display Screen. The Display Screen Displays One or More Selectable Objects." obtaining information about the tracked hand position and head or eye position of the user, determining whether the selectable object is at a first screen position based on the tracked hand position and head or eye position; where the first screen position is a position on the display screen such that the first hand at least partially blocks the user's view of the selectable object. determines that a selectable object has been selected."

特開2005-069734号公報JP 2005-069734 A 特許第6851482号Patent No. 6851482 特開2017-539035号公報JP 2017-539035 A

しかしながら、従来の技術では、車載のディスプレイに表示されたオブジェクトを乗員が選択する場合に、誤動作のない的確な選択操作を実現することが困難であった。例えば、車両の乗員は常に表示の確認や操作を行っているわけではないため、不要なタイミングでオブジェクトの選択を実行すると誤動作が生じることになる。また、着座位置の自由度が低く、ハンドルなどに阻害されるため、乗員の視線と手の延長線上にオブジェクトが存在する状態を作れないケースもある。 However, with the conventional technology, it is difficult for the passenger to select an object displayed on an in-vehicle display without malfunction. For example, since vehicle occupants do not always check the display or perform operations, selecting an object at an unnecessary timing will cause a malfunction. In addition, there are cases in which it is not possible to create a state in which an object exists on the line of sight and hand of the occupant because the degree of freedom in the seating position is low and it is obstructed by the steering wheel and the like.

そこで、本発明では、車載のディスプレイに表示されたオブジェクトを的確に選択可能な車載ディスプレイ制御システム及び車載ディスプレイ制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an in-vehicle display control system and an in-vehicle display control method capable of accurately selecting an object displayed on an in-vehicle display.

上記目的を達成するために、代表的な本発明の車載ディスプレイ制御システムの一つは、車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御システムであって、前記車室内の乗員の状態を取得する1又は複数のセンサと、前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部と、前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部と、前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部とを備えたことを特徴とする。 In order to achieve the above object, one typical in-vehicle display control system of the present invention is an in-vehicle display control system for controlling an in-vehicle display installed in a vehicle interior, wherein the state of the occupant in the vehicle interior is , a line-of-sight direction identification unit that identifies the line-of-sight direction of the occupant based on the output of the sensor, and a finger identification unit that identifies the hand and fingers of the occupant based on the output of the sensor. and based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display, A selection target identifying unit that identifies an object located within the visible range and at a position corresponding to the indicated position as a selection target.

本発明によれば、車載のディスプレイに表示されたオブジェクトを的確に選択することができる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。 According to the present invention, an object displayed on an in-vehicle display can be accurately selected. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施例1の車載ディスプレイ制御システムの概要を説明する説明図Explanatory drawing explaining the outline|summary of the vehicle-mounted display control system of Example 1 実施例1の車載ディスプレイ制御システムの構成図Schematic diagram of an in-vehicle display control system according to the first embodiment 車載ディスプレイ制御システムの処理手順を示すフローチャートFlowchart showing the processing procedure of the in-vehicle display control system 指示位置の設定の説明図Explanatory diagram of indication position setting 選択対象の特定の説明図Selectable specific illustration オブジェクトの選択の具体例(その1)Specific example of object selection (Part 1) オブジェクトの選択の具体例(その2)Specific example of object selection (part 2) オブジェクトの選択の具体例(その3)Specific example of object selection (Part 3) オブジェクトの操作の具体例Examples of object manipulation 第1の変形例First modification 第2の変形例Second modification

以下、実施例を図面を用いて説明する。 An embodiment will be described below with reference to the drawings.

図1は、実施例1の車載ディスプレイ制御システムの概要を説明する説明図である。車両10のダッシュボードには表示装置であるディスプレイ30が取り付けられている。ディスプレイ30は、一例としてダッシュボードの運転席側から助手席側までを表示領域とする。車両10に搭載された車載ディスプレイ制御システムは、運転者である乗員U1の状態をセンサにより取得し、乗員U1の頭部の位置、視線の方向、手指を識別して、ディスプレイ30への表示制御を行う。 FIG. 1 is an explanatory diagram for explaining an outline of an in-vehicle display control system according to a first embodiment. A display 30 that is a display device is attached to the dashboard of the vehicle 10 . As an example, the display 30 has a display area extending from the driver's seat side to the front passenger's seat side of the dashboard. The in-vehicle display control system installed in the vehicle 10 acquires the state of the passenger U1 who is the driver using a sensor, identifies the position of the head of the passenger U1, the direction of the line of sight, and the fingers, and controls the display on the display 30. I do.

具体的には、車載ディスプレイ制御システムは、乗員U1の頭部の位置に基づいて、車外カメラにより撮像した画像を加工し、乗員U1の視点から見えると推定される車外の画像をディスプレイ30に表示させることで、ディスプレイ30を仮想的に透過した視界V2を提供する。この結果、乗員U1が直接目視可能な視界V1と仮想的な視界V2とが連続し、乗員U1の視界を拡張することができる。 Specifically, the in-vehicle display control system processes an image captured by an exterior camera based on the position of the head of the occupant U1, and displays an image of the exterior of the vehicle, which is estimated to be visible from the viewpoint of the occupant U1, on the display 30. By making the display 30 virtually transparent, a field of view V2 is provided. As a result, the field of view V1 directly visible to the passenger U1 and the virtual field of view V2 are continuous, and the field of view of the passenger U1 can be expanded.

図1では、車両10の前方の障害物D1が存在する場合を示している。障害物D1は、車両10のボンネットに遮蔽され、直接目視可能な視界V1には含まれていない。しかし、仮想的な視界V2としてディスプレイ30による表示を利用することで、乗員U1は障害物D1を視認することができる。 FIG. 1 shows a case where there is an obstacle D1 in front of the vehicle 10 . The obstacle D1 is shielded by the hood of the vehicle 10 and is not included in the directly visible field of view V1. However, by using the display on the display 30 as the virtual field of view V2, the occupant U1 can visually recognize the obstacle D1.

ディスプレイ30に表示した障害物D1の像は、オブジェクトとして選択し、操作の対象とすることができる。しかし、着座位置との位置関係やハンドルなどの存在により、ディスプレイ30に直接触れての操作には困難が伴う。 The image of the obstacle D1 displayed on the display 30 can be selected as an object to be operated. However, it is difficult to operate the display 30 by directly touching it due to the positional relationship with the seating position and the existence of the handle.

そこで、開示の車載ディスプレイ制御システムは、乗員U1の視線方向から想定される乗員U1の視認範囲と、手指の識別結果から設定されるディスプレイ上の指示位置と、ディスプレイに表示されたオブジェクトとの位置関係に基づき、オブジェクトを非接触の遠隔操作で選択することとしている。 Therefore, the disclosed in-vehicle display control system provides a visible range of the occupant U1 assumed from the line-of-sight direction of the occupant U1, an indicated position on the display set based on the finger identification result, and a position of the object displayed on the display. Objects are selected by non-contact remote control based on the relationship.

ここで、手指とは、手と指の少なくともいずれかを含む意味で用いる。手指の識別結果から設定されるディスプレイ上の指示位置は、一例として、乗員が指さした先に存在するオブジェクトである。
また、オブジェクトの選択では、具体的には、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定すればよい。
Here, fingers are used in the sense of including at least one of hands and fingers. The pointed position on the display that is set based on the identification result of the finger is, for example, an object that exists ahead of the occupant's finger.
Further, in selecting an object, specifically, an object located within the visible range and at a position corresponding to the designated position may be specified as a selection target.

図2は、実施例1の車載ディスプレイ制御システムの構成図である。図2に示すように、車載ディスプレイ制御システムは、車外カメラ11、車内カメラ12、処理部20及びディスプレイ30を有する。 FIG. 2 is a configuration diagram of an in-vehicle display control system according to the first embodiment. As shown in FIG. 2 , the in-vehicle display control system has an exterior camera 11 , an interior camera 12 , a processing section 20 and a display 30 .

車外カメラ11は、車両の周囲を撮像する撮像装置である。
車内カメラ12は、前記車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。
The vehicle exterior camera 11 is an imaging device that captures an image of the surroundings of the vehicle.
The in-vehicle camera 12 is an imaging device that captures an image of the interior of the vehicle, and functions as a sensor that acquires the state of the occupant in the vehicle.

処理部20は、乗員頭部識別部21、乗員手指識別部22、仮想透過表示処理部23、選択対象特定部24及び対象操作実行部25を有する。処理部20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、乗員頭部識別部21、乗員手指識別部22、仮想透過表示処理部23、選択対象特定部24及び対象操作実行部25に対応する機能を実現すればよい。 The processing unit 20 has an occupant head identification unit 21 , an occupant hand/finger identification unit 22 , a virtual transparent display processing unit 23 , a selection target identification unit 24 and a target operation execution unit 25 . When the processing unit 20 is realized by a computer, a CPU (Central Processing Unit) executes a program to identify an occupant head identification unit 21, an occupant hand identification unit 22, a virtual transparent display processing unit 23, and a selection target identification unit. 24 and the target operation execution unit 25 are implemented.

乗員頭部識別部21は、車内カメラ12の撮像結果である画像を用い、乗員U1の頭部位置と視線方向を識別する。すなわち、乗員頭部識別部21は、視線方向識別部としての機能を含む。 The occupant's head identification unit 21 identifies the head position and line-of-sight direction of the occupant U<b>1 using an image captured by the in-vehicle camera 12 . That is, the occupant's head identifying section 21 includes a function as a line-of-sight direction identifying section.

乗員手指識別部22は、車内カメラ12の撮像結果である画像を用い、乗員U1の手指を識別する手指識別部である。手指の識別では、各指の指先や関節などを識別することができる。 The occupant hand identification unit 22 is a hand identification unit that identifies the hand and fingers of the occupant U1 using an image captured by the in-vehicle camera 12 . In finger identification, the fingertips and joints of each finger can be identified.

仮想透過表示処理部23は、乗員頭部識別部21が出力する頭部の位置に基づいて、車外カメラ11の撮像結果を加工し、乗員U1の視点から見えると推定される車外の画像をディスプレイ30に表示させることで、ディスプレイ30を仮想的に透過した視界を乗員U1に提供する。 The virtual transparent display processing unit 23 processes the imaging result of the vehicle exterior camera 11 based on the position of the head output by the occupant head identification unit 21, and displays an image of the exterior of the vehicle that is estimated to be visible from the viewpoint of the occupant U1. By displaying on the display 30, the occupant U1 is provided with a field of view virtually transmitted through the display 30. - 特許庁

選択対象特定部24は、乗員頭部識別部21による視線方向の識別結果から乗員の視認範囲を想定し、乗員手指識別部22による手指の識別結果からディスプレイ上の指示位置を設定する。また、仮想透過表示処理部23から、ディスプレイ30における表示内容を取得する。そして、選択対象特定部24は、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定する。 The selection target identification unit 24 assumes the visual range of the occupant from the line-of-sight direction identification result of the occupant head identification unit 21 , and sets the pointing position on the display from the finger identification result of the occupant hand identification unit 22 . Further, the display contents on the display 30 are obtained from the virtual transparent display processing unit 23 . Then, the selection target identifying unit 24 identifies an object located within the visible range and at a position corresponding to the indicated position as a selection target.

指示位置の設定に際しては、選択対象特定部24は、手指に含まれる予め設定された2点を結ぶ直線と、ディスプレイ30の表示面との交点を指示位置として設定する。
選択対象の特定に際しては、選択対象特定部24は、視認範囲の外側に所在するオブジェクトを選択未準備状態とし、視認範囲の内側に所在するオブジェクトを選択準備状態とし、選択準備状態のオブジェクトに指示位置が重畳した場合に、当該オブジェクトを選択状態とする。
When setting the pointing position, the selection target specifying unit 24 sets the intersection of a straight line connecting two preset points included in the finger and the display surface of the display 30 as the pointing position.
When specifying the selection target, the selection target specifying unit 24 puts the object located outside the visible range into the selection unprepared state, the object located inside the visible range into the selection ready state, and instructs the object in the selection ready state. When the positions are superimposed, the object is selected.

対象操作実行部25は、乗員手指識別部22による手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を選択対象に対して実行する操作実行部である。 The target operation execution unit 25 is an operation execution unit that identifies a gesture from the finger identification result of the occupant hand identification unit 22 and executes an operation associated with the identified gesture on a selection target.

ジェスチャとしては、例えば、特定の2つの指先を近づける操作、特定の2つの指先を遠ざける操作、特定本数の指先を伸ばして移動させる、手を開く、手を閉じるなど、手指による任意の動作を用いることができる。 Gestures include arbitrary actions by fingers, such as an operation of bringing two specific fingertips closer together, an operation of moving two specific fingertips away, extending and moving a specific number of fingertips, opening a hand, closing a hand, and the like. be able to.

選択対象に対する操作としては、選択対象を囲む枠の拡大や縮小、選択対象の像の拡大や縮小、選択対象に関する画像認識結果の表示など、任意の操作を用いることができる。 Any operation can be used as the operation on the selection object, such as enlargement or reduction of the frame surrounding the selection object, enlargement or reduction of the image of the selection object, display of the image recognition result regarding the selection object, or the like.

図3は、車載ディスプレイ制御システムの処理手順を示すフローチャートである。車載ディスプレイ制御システムの処理部20は、図3に示した処理手順を繰り返し実行する。 FIG. 3 is a flow chart showing the processing procedure of the in-vehicle display control system. The processing unit 20 of the in-vehicle display control system repeatedly executes the processing procedure shown in FIG.

処理部20は、まず、車外カメラ11及び車内カメラ12から画像を取得する(ステップS101)。その後、処理部20は、車内カメラ12から取得した画像に対し、乗員頭部識別部21による頭部位置及び視線方法の識別と、乗員手指識別部22による手指の識別を行う(ステップS202)。 The processing unit 20 first acquires images from the vehicle exterior camera 11 and the vehicle interior camera 12 (step S101). After that, the processing unit 20 identifies the head position and line-of-sight method by the occupant head identification unit 21 and identifies the fingers by the occupant hand identification unit 22 for the image acquired from the in-vehicle camera 12 (step S202).

ステップS202の後、仮想透過表示処理部23は、乗員の頭部位置と車外カメラ11の画像から仮想透過用の表示画面を生成し(ステップS103)、ディスプレイ30に表示させることで、仮想透過表示処理を行う(ステップS104)。 After step S202, the virtual transparent display processing unit 23 generates a virtual transparent display screen from the position of the occupant's head and the image of the camera outside the vehicle 11 (step S103), and causes the display 30 to display the virtual transparent display. Processing is performed (step S104).

ステップS104の後、選択対象特定部24は、仮想透過用の表示画面から選択可能なオブジェクトを識別し、オブジェクトを囲む矩形領域を対象領域として抽出する(ステップS105)。 After step S104, the selection target identification unit 24 identifies a selectable object from the virtual transparent display screen, and extracts a rectangular area surrounding the object as a target area (step S105).

ステップS105の後、選択対象特定部24は、乗員の視線方向の識別結果から視認範囲を設定する(ステップS106)。また、選択対象特定部24は、乗員の手指の識別結果から指示位置を設定する(ステップS107)。 After step S105, the selection target specifying unit 24 sets the visible range from the identification result of the line-of-sight direction of the passenger (step S106). Further, the selection target specifying unit 24 sets the indicated position from the identification result of the occupant's fingers (step S107).

ステップ107の後、選択対象特定部24は、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定する(ステップS108)。対象操作実行部25は、乗員手指識別部22による手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を選択対象に対して実行する(ステップS109)。 After step 107, the selection target specifying unit 24 specifies an object located within the visible range and at a position corresponding to the indicated position as a selection target (step S108). The target operation execution unit 25 identifies a gesture from the finger identification result of the occupant hand identification unit 22, and executes an operation associated with the identified gesture on a selection target (step S109).

図4は、指示位置の設定の説明図である。選択対象特定部24は、手指に含まれる予め設定された2点を結ぶ直線と、ディスプレイ30の表示面との交点を指示位置Pとして設定する。図4では、人差し指の指先と第三関節を画像処理によって識別し、2点として用いている。なお、指関節の任意の関節、手のひら、手の質量の中心など、任意の点を識別して、指示位置の設定に用いることができる。 FIG. 4 is an explanatory diagram of setting the indicated position. The selection target specifying unit 24 sets the point of intersection between the straight line connecting two preset points included in the finger and the display surface of the display 30 as the pointing position P. FIG. In FIG. 4, the tip of the index finger and the third joint are identified by image processing and used as two points. An arbitrary point such as an arbitrary joint of the finger joints, the palm, or the center of mass of the hand can be identified and used to set the indicated position.

図5は、選択対象の特定の説明図である。選択対象特定部24は、オブジェクトを囲む矩形を対象領域として抽出する。そして、対象領域が視認範囲の外に所在するならば、その対象領域を選択未準備状態とする。 FIG. 5 is an explanatory diagram of specifying selection targets. The selection target specifying unit 24 extracts a rectangle surrounding the object as a target region. Then, if the target area is located outside the visible range, the target area is put into a selection unprepared state.

選択未準備状態の対象領域が視認範囲の内側になった場合には、選択対象特定部24は、その対象領域を選択準備状態とする。選択準備状態の対象領域が視認範囲の外側となった場合には、選択対象特定部24は、その対象領域を選択未準備状態とする。 When the target region in the selection unprepared state is inside the visible range, the selection target specifying unit 24 puts the target region in the selection ready state. When the target region in the selection ready state is outside the visible range, the selection target specifying unit 24 puts the target region in the selection unprepared state.

選択準備状態の対象領域に指示位置が入ったならば、選択対象特定部24は、その対象領域を選択状態とする。選択状態の対象領域があるときに選択解除のジェスチャを検知したならば、選択対象特定部24は、その対象領域を選択準備状態とする。選択解除のジェスチャとしては、例えば手を握る(全ての指を曲げる)、手を開く(全ての指を伸ばす)などを用いればよい。 When the pointing position enters the target area in the selection ready state, the selection target specifying unit 24 puts the target area in the selected state. If a deselection gesture is detected when there is a target area in the selected state, the selection target specifying unit 24 puts the target area in the selection ready state. As a deselection gesture, for example, clasping a hand (bending all fingers) or opening a hand (stretching all fingers) may be used.

選択状態の対象領域があるときに操作に対応付けられたジェスチャを検知したならば、対象操作実行部25は、対応する操作を実行する。そして、操作の終了後に選択状態に戻る。 If a gesture associated with an operation is detected when there is a target area in a selected state, the target operation execution unit 25 executes the corresponding operation. Then, after the operation is completed, it returns to the selected state.

図6~図8は、オブジェクトの選択の具体例である。図6では、ダッシュボードに設けられたディスプレイ30に、乗員U1からの視点に応じた外部の画像が表示されている。例えば、ボンネットの向こう側に存在する障害物D1の像は、オブジェクトT1としてディスプレイ30に表示されている。このため、乗員U1は、ボンネットを透過したかのように障害物D1を認識することができる。 6 to 8 are specific examples of object selection. In FIG. 6, the display 30 provided on the dashboard displays an image of the outside according to the viewpoint from the passenger U1. For example, an image of an obstacle D1 that exists on the other side of the hood is displayed on the display 30 as an object T1. Therefore, the occupant U1 can recognize the obstacle D1 as if it were seen through the hood.

図7は、乗員U1の視認範囲A1を網掛けの破線矩形で示している。オブジェクトT1が視認範囲A1の外側にあれば、オブジェクトT1は選択未準備状態である。オブジェクトT1が視認範囲A1の内側にあれば、オブジェクトT1は選択準備状態である。 FIG. 7 shows the visible range A1 of the occupant U1 by a hatched rectangle with a broken line. If the object T1 is outside the visible range A1, the object T1 is in a selection unprepared state. If the object T1 is inside the visible range A1, the object T1 is ready for selection.

図8は、選択準備状態のオブジェクトと指示位置の関係を示している。選択準備状態のオブジェクトを含む矩形領域(対象領域)の外側に指示位置があれば、オブジェクトT1は選択準備状態である。選択準備状態のオブジェクトを含む矩形領域(対象領域)の内側に指示位置が入れば、オブジェクトT1は選択状態となる。 FIG. 8 shows the relationship between the object in the selection ready state and the pointed position. If the pointing position is outside the rectangular area (target area) containing the object in the selection ready state, the object T1 is in the selection ready state. If the pointing position is inside the rectangular area (target area) including the object in the selection ready state, the object T1 is in the selected state.

図9は、オブジェクトの操作の具体例である。図9では、人差し指と親指の指先を話す動作(ピンチアウト動作)をジェスチャとして識別する場合を示している。縦方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を縦方向に大きくする。横方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を横方向に大きくする。そして、斜め方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を縦横比率を維持して拡大する。 FIG. 9 shows a specific example of object manipulation. FIG. 9 shows a case where an action of speaking the fingertips of the index finger and thumb (pinch-out action) is identified as a gesture. If a pinch-out motion in the vertical direction is detected, the target operation execution unit 25 vertically enlarges the rectangular area including the object. If the horizontal pinch-out motion is detected, the target operation execution unit 25 horizontally enlarges the rectangular area including the object. When an oblique pinch-out motion is detected, the target operation execution unit 25 expands the rectangular area including the object while maintaining the aspect ratio.

図9では、オブジェクトを含む矩形領域について、サイズ変更を行う場合を示したが、ピンチアウト動作でオブジェクトの像自体を拡大するなど、任意の操作を設定することができる。 Although FIG. 9 shows a case where a rectangular area including an object is resized, any operation such as enlarging the object image itself by pinching out can be set.

これまでの説明では、ダッシュボードに配置したディスプレイ30によって仮想的な視界を提供する構成に本発明を適用する例を示した。また、ディスプレイ30の表示領域の一部を視認範囲とする処理を例示した。しかし、本発明はこれに限定されるものではない。 In the description so far, an example of applying the present invention to a configuration in which a virtual field of view is provided by the display 30 arranged on the dashboard has been shown. Further, the process of setting a part of the display area of the display 30 as the visible range is exemplified. However, the present invention is not limited to this.

図10は、第1の変形例の説明図である。図10の構成では、ディスプレイ40は、車両の走行経路に係る情報を提供する。例えば、地図情報である。また、ディスプレイ40の表示領域は、ディスプレイ30に比して小さく、視認範囲よりも小さい。この変形例では、選択対象特定部は、ディスプレイ40の表示領域全体が視認範囲A2に含まれることを条件に、ディスプレイ40に表示されたオブジェクトを選択準備状態とする。そして、指定位置P2がオブジェクトに重畳したときに、オブジェクトを選択して、ジェスチャによる操作を受け付ける。一例として、ピンチアウト動作による地図の拡大表示などが可能である。 FIG. 10 is an explanatory diagram of a first modified example. In the configuration of FIG. 10, the display 40 provides information regarding the travel route of the vehicle. For example, map information. Also, the display area of the display 40 is smaller than the display 30 and smaller than the visible range. In this modified example, the selection target specifying unit puts the object displayed on the display 40 into the selection ready state on condition that the entire display area of the display 40 is included in the visible range A2. Then, when the specified position P2 is superimposed on the object, the object is selected and an operation by a gesture is accepted. As an example, it is possible to display an enlarged map by pinching out.

図11は、第2の変形例の説明図である。図11の構成では、ディスプレイ50は、フロントガラスに対する投影により、表示出力を行う。この変形例では、乗員が直接目視している物体をオブジェクトして認識し、操作の対象とすることができる。図11では、視認範囲A3に標識がオブジェクトT2として含まれ、オブジェクトT2に指定位置P3が重畳している。このため、選択対象特定部はオブジェクトT2を選択状態として操作を受け付ける。一例として、標識の読み上げなどが可能である。 FIG. 11 is an explanatory diagram of a second modification. In the configuration of FIG. 11, the display 50 performs display output by projection onto the windshield. In this modified example, an object that the passenger is directly looking at can be recognized as an object and used as an operation target. In FIG. 11, the visible range A3 includes a sign as an object T2, and the designated position P3 is superimposed on the object T2. Therefore, the selection target specifying unit accepts the operation with the object T2 in the selected state. For example, it is possible to read aloud signs.

上述してきたように、開示のシステムは、車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御システムであって、前記車室内の乗員の状態を取得する1又は複数のセンサとしての車内カメラ12と、前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部としての乗員頭部識別部21と、前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部としての乗員手指識別部22と、前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部24とを備える。
かかる構成及び動作により、車載のディスプレイに表示されたオブジェクトを的確に選択することができる。また、かかる選択は、非接触且つ遠隔で行うことができる。
As described above, the disclosed system is an in-vehicle display control system that controls an in-vehicle display installed in a vehicle interior, and includes an in-vehicle camera as one or more sensors that acquire the state of an occupant in the vehicle interior. 12, an occupant head identification unit 21 as a line-of-sight direction identification unit that identifies the line-of-sight direction of the occupant based on the output of the sensor, and a finger identification unit that identifies the hand and fingers of the occupant based on the output of the sensor. The occupant's finger identification unit 22 as a unit, the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the hand and fingers, and the displayed on the display a selection target specifying unit 24 for specifying an object located within the visible range and at a position corresponding to the indicated position as a selection target based on the positional relationship with the object.
With such a configuration and operation, an object displayed on the in-vehicle display can be accurately selected. Also, such selection can be done contactlessly and remotely.

また、開示のシステムは、前記手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を前記選択対象に対して実行する操作実行部としての対象操作実行部25をさらに備える。
このため、乗員は、選択した対象に対する操作を実行可能である。
Further, the disclosed system further includes a target operation execution unit 25 as an operation execution unit that identifies a gesture from the finger identification result and executes an operation associated with the identified gesture on the selection target.
Therefore, the occupant can perform an operation on the selected target.

また、前記センサは、前記車室内を撮像する車内カメラであり、前記視線方向識別部及び前記手指識別部は、前記乗員の画像から前記視線方向及び手指を識別する。
このため、簡易な構成で乗員の状態を取得することができ、また、車内カメラは車両に搭載される他のシステムと共用可能である。
Further, the sensor is an in-vehicle camera that captures an image of the interior of the vehicle, and the line-of-sight direction identification unit and the hand/finger identification unit identify the line-of-sight direction and the finger from the image of the occupant.
Therefore, it is possible to acquire the state of the occupant with a simple configuration, and the in-vehicle camera can be shared with other systems installed in the vehicle.

また、前記選択対象特定部は、前記手指に含まれる予め設定された2点を結ぶ直線と、前記ディスプレイの表示面との交点を前記指示位置として設定する。
このため、指示位置を簡易に設定することができる。
Further, the selection target specifying unit sets an intersection of a straight line connecting two preset points included in the finger and the display surface of the display as the indicated position.
Therefore, the indicated position can be easily set.

また、前記選択対象特定部は、前記視認範囲の外側に所在する前記オブジェクトを選択未準備状態とし、前記視認範囲の内側に所在する前記オブジェクトを選択準備状態とし、前記選択準備状態のオブジェクトに前記指示位置が重畳した場合に、当該オブジェクトを選択状態とする。
このように、複数の要素を参照して段階的に選択を行うことで、誤動作を防止することができる。
Further, the selection target specifying unit puts the object located outside the visible range into a selection-unprepared state, the object located inside the visible range into a selection-ready state, and puts the object in the selection-ready state into the selection-prepared state. When the designated position is superimposed, the object is selected.
In this manner, by referring to a plurality of elements and making a selection step by step, it is possible to prevent malfunction.

また、開示のシステムによれば、車両の周囲を撮像する車外カメラ11と、前記センサの出力から特定される前記乗員の頭部の位置に基づいて、前記車外カメラにより撮像した画像を加工し、前記乗員の視点から見えると推定される車外の画像を前記ディスプレイに表示させることで、前記ディスプレイを仮想的に透過した視界を提供する仮想透過表示処理部23と、をさらに備え、前記視認範囲は、前記ディスプレイの表示領域の一部である。
かかる構成によれば、ディスプレイを利用して車体の一部を仮想的に透過して表示可能であり、表示されたオブジェクトを遠隔に選択することができる。
Further, according to the disclosed system, an image captured by the exterior camera 11 that captures images of the surroundings of the vehicle and the image captured by the exterior camera are processed based on the position of the occupant's head specified from the output of the sensor, a virtual transmissive display processing unit 23 that provides a field of view that is virtually transmitted through the display by displaying an image outside the vehicle that is estimated to be visible from the passenger's viewpoint on the display, and the visible range is , is part of the display area of the display.
According to such a configuration, a part of the vehicle body can be virtually transparently displayed using the display, and the displayed object can be remotely selected.

また、開示のシステムによれば、前記ディスプレイは、車両の走行経路に係る情報を提供し、前記選択対象特定部は、前記ディスプレイの表示領域全体が前記視認範囲に含まれることを条件に、前記ディスプレイに表示されたオブジェクトを選択可能とする。
かかる構成によれば、ナビゲーションシステムの画面など、視認範囲よりも小さいディスプレイを選択の対象とすることができる。
Further, according to the disclosed system, the display provides information related to the travel route of the vehicle, and the selection target specifying unit provides the selection target identification unit, on the condition that the entire display area of the display is included in the visible range, the To select an object displayed on a display.
According to such a configuration, a display smaller than the visible range, such as a screen of a navigation system, can be selected.

なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。 It should be noted that the present invention is not limited to the above embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. Moreover, not only deletion of such a configuration but also replacement and addition of the configuration are possible.

例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。 For example, when there are passengers other than the driver, the present invention may be applied to the other passengers. Further, a specific passenger may be designated as an application target of the present invention among a plurality of passengers.

また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。 Also, the state of the occupant may be acquired from any sensor other than the in-vehicle camera, such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a stationary smartphone, or the like. Furthermore, it is also possible to use a combination of outputs from a plurality of sensors and a plurality of types of sensors.

11:車外カメラ、12:車内カメラ、20:処理部、21:乗員頭部識別部、22:乗員手指識別部、23:仮想透過表示処理部、24:選択対象特定部、25:対象操作実行部、30:ディスプレイ
11: vehicle exterior camera, 12: vehicle interior camera, 20: processing unit, 21: occupant head identification unit, 22: occupant hand identification unit, 23: virtual transparent display processing unit, 24: selection target identification unit, 25: target operation execution Part 30: Display

Claims (8)

車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御システムであって、
前記車室内の乗員の状態を取得する1又は複数のセンサと、
前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部と、
前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部と、
前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部と
を備えたことを特徴とする車載ディスプレイ制御システム。
An in-vehicle display control system for controlling an in-vehicle display installed in a vehicle interior,
one or more sensors for acquiring the state of an occupant in the vehicle;
a line-of-sight direction identification unit that identifies the line-of-sight direction of the occupant based on the output of the sensor;
a finger identification unit that identifies the occupant's fingers based on the output of the sensor;
Based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display A vehicle-mounted display control system, comprising: a selection target identifying unit that identifies an object located within a range and at a position corresponding to the indicated position as a selection target.
前記手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を前記選択対象に対して実行する操作実行部をさらに備えたことを特徴とする請求項1に記載の車載ディスプレイ制御システム。 2. The in-vehicle display control according to claim 1, further comprising an operation execution unit that identifies a gesture from the finger identification result and executes an operation associated with the identified gesture on the selection target. system. 前記センサは、前記車室内を撮像する車内カメラであり、
前記視線方向識別部及び前記手指識別部は、前記乗員の画像から前記視線方向及び手指を識別することを特徴とする請求項1に記載の車載ディスプレイ制御システム。
The sensor is an in-vehicle camera that captures an image of the interior of the vehicle,
2. The in-vehicle display control system according to claim 1, wherein the line-of-sight direction identifying section and the hand/finger identifying section identify the line-of-sight direction and the hand/finger from the image of the occupant.
前記選択対象特定部は、前記手指に含まれる予め設定された2点を結ぶ直線と、前記ディスプレイの表示面との交点を前記指示位置として設定することを特徴とする請求項1に記載の車載ディスプレイ制御システム。 2. The in-vehicle vehicle according to claim 1, wherein the selection target specifying unit sets an intersection of a straight line connecting two preset points included in the finger and the display surface of the display as the indicated position. display control system. 前記選択対象特定部は、前記視認範囲の外側に所在する前記オブジェクトを選択未準備状態とし、前記視認範囲の内側に所在する前記オブジェクトを選択準備状態とし、前記選択準備状態のオブジェクトに前記指示位置が重畳した場合に、当該オブジェクトを選択状態とすることを特徴とする請求項1に記載の車載ディスプレイ制御システム。 The selection target specifying unit places the object outside the visible range in a selection-unprepared state, places the object inside the visible range in a selection-ready state, and places the object in the selection-ready state in the designated position. 2. The in-vehicle display control system according to claim 1, wherein the object is placed in a selected state when the is superimposed on the object. 車両の周囲を撮像する車外カメラと、
前記センサの出力から特定される前記乗員の頭部の位置に基づいて、前記車外カメラにより撮像した画像を加工し、前記乗員の視点から見えると推定される車外の画像を前記ディスプレイに表示させることで、前記ディスプレイを仮想的に透過した視界を提供する仮想透過表示処理部と、
をさらに備え、
前記視認範囲は、前記ディスプレイの表示領域の一部であることを特徴とする請求項1に記載の車載ディスプレイ制御システム。
an exterior camera that captures images of the surroundings of the vehicle;
Based on the position of the occupant's head specified from the output of the sensor, the image captured by the exterior camera is processed, and an image of the exterior of the vehicle that is estimated to be visible from the occupant's viewpoint is displayed on the display. a virtual transparent display processing unit that provides a field of view that is virtually transparent through the display;
further comprising
2. The in-vehicle display control system according to claim 1, wherein the visible range is a portion of the display area of the display.
前記ディスプレイは、車両の走行経路に係る情報を提供し、
前記選択対象特定部は、前記ディスプレイの表示領域全体が前記視認範囲に含まれることを条件に、前記ディスプレイに表示されたオブジェクトを選択可能とすることを特徴とする請求項1に記載の車載ディスプレイ制御システム。
the display provides information about the travel route of the vehicle;
2. The in-vehicle display according to claim 1, wherein the selection target specifying unit enables selection of an object displayed on the display on condition that the entire display area of the display is included in the visible range. control system.
車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御方法であって、
1又は複数のセンサから前記車室内の乗員の状態を取得するステップと、
前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別ステップと、
前記センサの出力に基づいて、前記乗員の手指を識別する手指識別ステップと、
前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定ステップと
を含むことを特徴とする車載ディスプレイ制御方法。
An in-vehicle display control method for controlling an in-vehicle display installed in a vehicle interior,
obtaining occupant status in the vehicle interior from one or more sensors;
a line-of-sight direction identification step of identifying a line-of-sight direction of the occupant based on the output of the sensor;
a finger identification step for identifying the fingers of the occupant based on the output of the sensor;
Based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display A vehicle-mounted display control method, comprising: a selection target identification step of identifying an object located within a range and at a position corresponding to the indicated position as a selection target.
JP2021176876A 2021-10-28 2021-10-28 Onboard display control system and onboard display control method Pending JP2023066255A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021176876A JP2023066255A (en) 2021-10-28 2021-10-28 Onboard display control system and onboard display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176876A JP2023066255A (en) 2021-10-28 2021-10-28 Onboard display control system and onboard display control method

Publications (1)

Publication Number Publication Date
JP2023066255A true JP2023066255A (en) 2023-05-15

Family

ID=86322401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176876A Pending JP2023066255A (en) 2021-10-28 2021-10-28 Onboard display control system and onboard display control method

Country Status (1)

Country Link
JP (1) JP2023066255A (en)

Similar Documents

Publication Publication Date Title
US11124118B2 (en) Vehicular display system with user input display
CN109484299B (en) Method, apparatus, and storage medium for controlling display of augmented reality display apparatus
JP4351599B2 (en) Input device
JP4274997B2 (en) Operation input device and operation input method
KR101367593B1 (en) Interactive operating device and method for operating the interactive operating device
JP6413207B2 (en) Vehicle display device
EP2741171A1 (en) Method, human-machine interface and vehicle
US20110063425A1 (en) Vehicle Operator Control Input Assistance
US20170053444A1 (en) Augmented reality interactive system and dynamic information interactive display method thereof
WO2014188565A1 (en) Display controller
US10296101B2 (en) Information processing system, information processing apparatus, control method, and program
EP3457254A1 (en) Method and system for displaying virtual reality information in a vehicle
EP3069935A1 (en) Rearview mirror angle setting system, method, and program
JP2018055614A (en) Gesture operation system, and gesture operation method and program
WO2018116565A1 (en) Information display device for vehicle and information display program for vehicle
JP5136948B2 (en) Vehicle control device
JP4244202B2 (en) Operation input device and operation input method
JP2023066255A (en) Onboard display control system and onboard display control method
JP2017197015A (en) On-board information processing system
JP2016149094A (en) Vehicle information processing apparatus
WO2017188098A1 (en) Vehicle-mounted information processing system
TWM564749U (en) Vehicle multi-display control system
CN106289305A (en) Display device for mounting on vehicle
KR20150056322A (en) Apparatus for controlling menu of head-up display and method thereof
US20230143429A1 (en) Display controlling device and display controlling method