JP2023066255A - Onboard display control system and onboard display control method - Google Patents
Onboard display control system and onboard display control method Download PDFInfo
- Publication number
- JP2023066255A JP2023066255A JP2021176876A JP2021176876A JP2023066255A JP 2023066255 A JP2023066255 A JP 2023066255A JP 2021176876 A JP2021176876 A JP 2021176876A JP 2021176876 A JP2021176876 A JP 2021176876A JP 2023066255 A JP2023066255 A JP 2023066255A
- Authority
- JP
- Japan
- Prior art keywords
- display
- vehicle
- occupant
- finger
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車載ディスプレイ制御システム及び車載ディスプレイ制御方法に関する。 The present invention relates to an in-vehicle display control system and an in-vehicle display control method.
従来、ディスプレイに表示されたオブジェクトを選択する操作には、マウス等のポインティングデバイスやタッチパネルが用いられていた。また、所望の対象を選択する操作を非接触で行う技術も考えられている。 Conventionally, a pointing device such as a mouse or a touch panel has been used to select an object displayed on a display. Also, a technique for performing an operation of selecting a desired target without contact is being considered.
例えば、特許文献1には、「自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供する。」「計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示する。」との記載がある。
また、特許文献2には「車載装置の中からドライバが操作を希望する装置を精度よく特定し、その操作を支援する技術の提供を目的とする。本発明の操作支援装置は、車両のドライバの視線方向を取得する視線方向取得部と、ドライバによる視線以外の特徴的な行動である特徴行動を取得する特徴行動取得部と、視線方向と特徴行動とに基づき、車両に搭載された複数の車載装置の中から少なくとも一つの車載装置を、ドライバが操作を希望する操作対象装置として特定する装置特定部と、操作対象装置の操作画面を、車両に搭載された表示装置に表示させる表示制御部と、を備える。」との記載がある。
また、特許文献3には、「表示画面上の選択可能対象を選択するためのユーザインタフェース装置、コンピュータプログラム、コンピュータ可読媒体及び方法を提示する。表示画面は1以上の選択可能対象を表示する。追跡したユーザの手の位置及び頭又は目の位置に関する情報を取得する。追跡した手の位置及び頭又は目の位置に基づいて、上記選択可能対象が第1の画面位置にあるかどうかを判定する。ここで、第1の画面位置は、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である。そのように位置すると判定された場合には、選択可能対象が選択されたと判定する。」との記載がある。
For example, Patent Literature 1 describes: ``Providing a method for teaching the spatial position of an object by a pointing action that can be performed naturally and easily''; In the teaching method for surface-based determination, a finger of a human hand is extracted, indices are set on at least two points on the finger, two spatial coordinates of the finger are calculated, and the spatial coordinates are calculated by the stereo method. a three-dimensional straight line is applied to the spatial coordinates of the two points; will be taught as the position of."
In addition, Patent Document 2 describes, "It is an object of the present invention to provide a technique for accurately specifying a device that a driver desires to operate from among the in-vehicle devices and assisting the operation of the device. a line-of-sight direction acquisition unit that acquires the line-of-sight direction of the driver; a characteristic behavior acquisition unit that acquires characteristic behavior that is a characteristic behavior other than the line of sight of the driver; A device identification unit that identifies at least one in-vehicle device as an operation target device that the driver desires to operate, and a display control unit that displays the operation screen of the operation target device on a display device mounted in the vehicle. and,” is described.
U.S. Pat. No. 6,200,403 also presents "A User Interface Apparatus, Computer Program, Computer Readable Medium, and Method for Selecting Selectable Objects on a Display Screen. The Display Screen Displays One or More Selectable Objects." obtaining information about the tracked hand position and head or eye position of the user, determining whether the selectable object is at a first screen position based on the tracked hand position and head or eye position; where the first screen position is a position on the display screen such that the first hand at least partially blocks the user's view of the selectable object. determines that a selectable object has been selected."
しかしながら、従来の技術では、車載のディスプレイに表示されたオブジェクトを乗員が選択する場合に、誤動作のない的確な選択操作を実現することが困難であった。例えば、車両の乗員は常に表示の確認や操作を行っているわけではないため、不要なタイミングでオブジェクトの選択を実行すると誤動作が生じることになる。また、着座位置の自由度が低く、ハンドルなどに阻害されるため、乗員の視線と手の延長線上にオブジェクトが存在する状態を作れないケースもある。 However, with the conventional technology, it is difficult for the passenger to select an object displayed on an in-vehicle display without malfunction. For example, since vehicle occupants do not always check the display or perform operations, selecting an object at an unnecessary timing will cause a malfunction. In addition, there are cases in which it is not possible to create a state in which an object exists on the line of sight and hand of the occupant because the degree of freedom in the seating position is low and it is obstructed by the steering wheel and the like.
そこで、本発明では、車載のディスプレイに表示されたオブジェクトを的確に選択可能な車載ディスプレイ制御システム及び車載ディスプレイ制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an in-vehicle display control system and an in-vehicle display control method capable of accurately selecting an object displayed on an in-vehicle display.
上記目的を達成するために、代表的な本発明の車載ディスプレイ制御システムの一つは、車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御システムであって、前記車室内の乗員の状態を取得する1又は複数のセンサと、前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部と、前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部と、前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部とを備えたことを特徴とする。 In order to achieve the above object, one typical in-vehicle display control system of the present invention is an in-vehicle display control system for controlling an in-vehicle display installed in a vehicle interior, wherein the state of the occupant in the vehicle interior is , a line-of-sight direction identification unit that identifies the line-of-sight direction of the occupant based on the output of the sensor, and a finger identification unit that identifies the hand and fingers of the occupant based on the output of the sensor. and based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display, A selection target identifying unit that identifies an object located within the visible range and at a position corresponding to the indicated position as a selection target.
本発明によれば、車載のディスプレイに表示されたオブジェクトを的確に選択することができる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。 According to the present invention, an object displayed on an in-vehicle display can be accurately selected. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下、実施例を図面を用いて説明する。 An embodiment will be described below with reference to the drawings.
図1は、実施例1の車載ディスプレイ制御システムの概要を説明する説明図である。車両10のダッシュボードには表示装置であるディスプレイ30が取り付けられている。ディスプレイ30は、一例としてダッシュボードの運転席側から助手席側までを表示領域とする。車両10に搭載された車載ディスプレイ制御システムは、運転者である乗員U1の状態をセンサにより取得し、乗員U1の頭部の位置、視線の方向、手指を識別して、ディスプレイ30への表示制御を行う。
FIG. 1 is an explanatory diagram for explaining an outline of an in-vehicle display control system according to a first embodiment. A
具体的には、車載ディスプレイ制御システムは、乗員U1の頭部の位置に基づいて、車外カメラにより撮像した画像を加工し、乗員U1の視点から見えると推定される車外の画像をディスプレイ30に表示させることで、ディスプレイ30を仮想的に透過した視界V2を提供する。この結果、乗員U1が直接目視可能な視界V1と仮想的な視界V2とが連続し、乗員U1の視界を拡張することができる。
Specifically, the in-vehicle display control system processes an image captured by an exterior camera based on the position of the head of the occupant U1, and displays an image of the exterior of the vehicle, which is estimated to be visible from the viewpoint of the occupant U1, on the
図1では、車両10の前方の障害物D1が存在する場合を示している。障害物D1は、車両10のボンネットに遮蔽され、直接目視可能な視界V1には含まれていない。しかし、仮想的な視界V2としてディスプレイ30による表示を利用することで、乗員U1は障害物D1を視認することができる。
FIG. 1 shows a case where there is an obstacle D1 in front of the
ディスプレイ30に表示した障害物D1の像は、オブジェクトとして選択し、操作の対象とすることができる。しかし、着座位置との位置関係やハンドルなどの存在により、ディスプレイ30に直接触れての操作には困難が伴う。
The image of the obstacle D1 displayed on the
そこで、開示の車載ディスプレイ制御システムは、乗員U1の視線方向から想定される乗員U1の視認範囲と、手指の識別結果から設定されるディスプレイ上の指示位置と、ディスプレイに表示されたオブジェクトとの位置関係に基づき、オブジェクトを非接触の遠隔操作で選択することとしている。 Therefore, the disclosed in-vehicle display control system provides a visible range of the occupant U1 assumed from the line-of-sight direction of the occupant U1, an indicated position on the display set based on the finger identification result, and a position of the object displayed on the display. Objects are selected by non-contact remote control based on the relationship.
ここで、手指とは、手と指の少なくともいずれかを含む意味で用いる。手指の識別結果から設定されるディスプレイ上の指示位置は、一例として、乗員が指さした先に存在するオブジェクトである。
また、オブジェクトの選択では、具体的には、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定すればよい。
Here, fingers are used in the sense of including at least one of hands and fingers. The pointed position on the display that is set based on the identification result of the finger is, for example, an object that exists ahead of the occupant's finger.
Further, in selecting an object, specifically, an object located within the visible range and at a position corresponding to the designated position may be specified as a selection target.
図2は、実施例1の車載ディスプレイ制御システムの構成図である。図2に示すように、車載ディスプレイ制御システムは、車外カメラ11、車内カメラ12、処理部20及びディスプレイ30を有する。
FIG. 2 is a configuration diagram of an in-vehicle display control system according to the first embodiment. As shown in FIG. 2 , the in-vehicle display control system has an
車外カメラ11は、車両の周囲を撮像する撮像装置である。
車内カメラ12は、前記車室内を撮像する撮像装置であり、車室内の乗員の状態を取得するセンサとして機能する。
The vehicle
The in-
処理部20は、乗員頭部識別部21、乗員手指識別部22、仮想透過表示処理部23、選択対象特定部24及び対象操作実行部25を有する。処理部20をコンピュータで実現する場合には、CPU(Central Processing Unit)がプログラムを実行することで、乗員頭部識別部21、乗員手指識別部22、仮想透過表示処理部23、選択対象特定部24及び対象操作実行部25に対応する機能を実現すればよい。
The
乗員頭部識別部21は、車内カメラ12の撮像結果である画像を用い、乗員U1の頭部位置と視線方向を識別する。すなわち、乗員頭部識別部21は、視線方向識別部としての機能を含む。
The occupant's
乗員手指識別部22は、車内カメラ12の撮像結果である画像を用い、乗員U1の手指を識別する手指識別部である。手指の識別では、各指の指先や関節などを識別することができる。
The occupant
仮想透過表示処理部23は、乗員頭部識別部21が出力する頭部の位置に基づいて、車外カメラ11の撮像結果を加工し、乗員U1の視点から見えると推定される車外の画像をディスプレイ30に表示させることで、ディスプレイ30を仮想的に透過した視界を乗員U1に提供する。
The virtual transparent
選択対象特定部24は、乗員頭部識別部21による視線方向の識別結果から乗員の視認範囲を想定し、乗員手指識別部22による手指の識別結果からディスプレイ上の指示位置を設定する。また、仮想透過表示処理部23から、ディスプレイ30における表示内容を取得する。そして、選択対象特定部24は、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定する。
The selection
指示位置の設定に際しては、選択対象特定部24は、手指に含まれる予め設定された2点を結ぶ直線と、ディスプレイ30の表示面との交点を指示位置として設定する。
選択対象の特定に際しては、選択対象特定部24は、視認範囲の外側に所在するオブジェクトを選択未準備状態とし、視認範囲の内側に所在するオブジェクトを選択準備状態とし、選択準備状態のオブジェクトに指示位置が重畳した場合に、当該オブジェクトを選択状態とする。
When setting the pointing position, the selection
When specifying the selection target, the selection
対象操作実行部25は、乗員手指識別部22による手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を選択対象に対して実行する操作実行部である。
The target
ジェスチャとしては、例えば、特定の2つの指先を近づける操作、特定の2つの指先を遠ざける操作、特定本数の指先を伸ばして移動させる、手を開く、手を閉じるなど、手指による任意の動作を用いることができる。 Gestures include arbitrary actions by fingers, such as an operation of bringing two specific fingertips closer together, an operation of moving two specific fingertips away, extending and moving a specific number of fingertips, opening a hand, closing a hand, and the like. be able to.
選択対象に対する操作としては、選択対象を囲む枠の拡大や縮小、選択対象の像の拡大や縮小、選択対象に関する画像認識結果の表示など、任意の操作を用いることができる。 Any operation can be used as the operation on the selection object, such as enlargement or reduction of the frame surrounding the selection object, enlargement or reduction of the image of the selection object, display of the image recognition result regarding the selection object, or the like.
図3は、車載ディスプレイ制御システムの処理手順を示すフローチャートである。車載ディスプレイ制御システムの処理部20は、図3に示した処理手順を繰り返し実行する。
FIG. 3 is a flow chart showing the processing procedure of the in-vehicle display control system. The
処理部20は、まず、車外カメラ11及び車内カメラ12から画像を取得する(ステップS101)。その後、処理部20は、車内カメラ12から取得した画像に対し、乗員頭部識別部21による頭部位置及び視線方法の識別と、乗員手指識別部22による手指の識別を行う(ステップS202)。
The
ステップS202の後、仮想透過表示処理部23は、乗員の頭部位置と車外カメラ11の画像から仮想透過用の表示画面を生成し(ステップS103)、ディスプレイ30に表示させることで、仮想透過表示処理を行う(ステップS104)。
After step S202, the virtual transparent
ステップS104の後、選択対象特定部24は、仮想透過用の表示画面から選択可能なオブジェクトを識別し、オブジェクトを囲む矩形領域を対象領域として抽出する(ステップS105)。
After step S104, the selection
ステップS105の後、選択対象特定部24は、乗員の視線方向の識別結果から視認範囲を設定する(ステップS106)。また、選択対象特定部24は、乗員の手指の識別結果から指示位置を設定する(ステップS107)。
After step S105, the selection
ステップ107の後、選択対象特定部24は、視認範囲内に所在し、かつ指示位置に対応する位置のオブジェクトを選択対象として特定する(ステップS108)。対象操作実行部25は、乗員手指識別部22による手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を選択対象に対して実行する(ステップS109)。
After step 107, the selection
図4は、指示位置の設定の説明図である。選択対象特定部24は、手指に含まれる予め設定された2点を結ぶ直線と、ディスプレイ30の表示面との交点を指示位置Pとして設定する。図4では、人差し指の指先と第三関節を画像処理によって識別し、2点として用いている。なお、指関節の任意の関節、手のひら、手の質量の中心など、任意の点を識別して、指示位置の設定に用いることができる。
FIG. 4 is an explanatory diagram of setting the indicated position. The selection
図5は、選択対象の特定の説明図である。選択対象特定部24は、オブジェクトを囲む矩形を対象領域として抽出する。そして、対象領域が視認範囲の外に所在するならば、その対象領域を選択未準備状態とする。
FIG. 5 is an explanatory diagram of specifying selection targets. The selection
選択未準備状態の対象領域が視認範囲の内側になった場合には、選択対象特定部24は、その対象領域を選択準備状態とする。選択準備状態の対象領域が視認範囲の外側となった場合には、選択対象特定部24は、その対象領域を選択未準備状態とする。
When the target region in the selection unprepared state is inside the visible range, the selection
選択準備状態の対象領域に指示位置が入ったならば、選択対象特定部24は、その対象領域を選択状態とする。選択状態の対象領域があるときに選択解除のジェスチャを検知したならば、選択対象特定部24は、その対象領域を選択準備状態とする。選択解除のジェスチャとしては、例えば手を握る(全ての指を曲げる)、手を開く(全ての指を伸ばす)などを用いればよい。
When the pointing position enters the target area in the selection ready state, the selection
選択状態の対象領域があるときに操作に対応付けられたジェスチャを検知したならば、対象操作実行部25は、対応する操作を実行する。そして、操作の終了後に選択状態に戻る。
If a gesture associated with an operation is detected when there is a target area in a selected state, the target
図6~図8は、オブジェクトの選択の具体例である。図6では、ダッシュボードに設けられたディスプレイ30に、乗員U1からの視点に応じた外部の画像が表示されている。例えば、ボンネットの向こう側に存在する障害物D1の像は、オブジェクトT1としてディスプレイ30に表示されている。このため、乗員U1は、ボンネットを透過したかのように障害物D1を認識することができる。
6 to 8 are specific examples of object selection. In FIG. 6, the
図7は、乗員U1の視認範囲A1を網掛けの破線矩形で示している。オブジェクトT1が視認範囲A1の外側にあれば、オブジェクトT1は選択未準備状態である。オブジェクトT1が視認範囲A1の内側にあれば、オブジェクトT1は選択準備状態である。 FIG. 7 shows the visible range A1 of the occupant U1 by a hatched rectangle with a broken line. If the object T1 is outside the visible range A1, the object T1 is in a selection unprepared state. If the object T1 is inside the visible range A1, the object T1 is ready for selection.
図8は、選択準備状態のオブジェクトと指示位置の関係を示している。選択準備状態のオブジェクトを含む矩形領域(対象領域)の外側に指示位置があれば、オブジェクトT1は選択準備状態である。選択準備状態のオブジェクトを含む矩形領域(対象領域)の内側に指示位置が入れば、オブジェクトT1は選択状態となる。 FIG. 8 shows the relationship between the object in the selection ready state and the pointed position. If the pointing position is outside the rectangular area (target area) containing the object in the selection ready state, the object T1 is in the selection ready state. If the pointing position is inside the rectangular area (target area) including the object in the selection ready state, the object T1 is in the selected state.
図9は、オブジェクトの操作の具体例である。図9では、人差し指と親指の指先を話す動作(ピンチアウト動作)をジェスチャとして識別する場合を示している。縦方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を縦方向に大きくする。横方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を横方向に大きくする。そして、斜め方向のピンチアウト動作を検知したならば、対象操作実行部25は、オブジェクトを含む矩形領域を縦横比率を維持して拡大する。
FIG. 9 shows a specific example of object manipulation. FIG. 9 shows a case where an action of speaking the fingertips of the index finger and thumb (pinch-out action) is identified as a gesture. If a pinch-out motion in the vertical direction is detected, the target
図9では、オブジェクトを含む矩形領域について、サイズ変更を行う場合を示したが、ピンチアウト動作でオブジェクトの像自体を拡大するなど、任意の操作を設定することができる。 Although FIG. 9 shows a case where a rectangular area including an object is resized, any operation such as enlarging the object image itself by pinching out can be set.
これまでの説明では、ダッシュボードに配置したディスプレイ30によって仮想的な視界を提供する構成に本発明を適用する例を示した。また、ディスプレイ30の表示領域の一部を視認範囲とする処理を例示した。しかし、本発明はこれに限定されるものではない。
In the description so far, an example of applying the present invention to a configuration in which a virtual field of view is provided by the
図10は、第1の変形例の説明図である。図10の構成では、ディスプレイ40は、車両の走行経路に係る情報を提供する。例えば、地図情報である。また、ディスプレイ40の表示領域は、ディスプレイ30に比して小さく、視認範囲よりも小さい。この変形例では、選択対象特定部は、ディスプレイ40の表示領域全体が視認範囲A2に含まれることを条件に、ディスプレイ40に表示されたオブジェクトを選択準備状態とする。そして、指定位置P2がオブジェクトに重畳したときに、オブジェクトを選択して、ジェスチャによる操作を受け付ける。一例として、ピンチアウト動作による地図の拡大表示などが可能である。
FIG. 10 is an explanatory diagram of a first modified example. In the configuration of FIG. 10, the
図11は、第2の変形例の説明図である。図11の構成では、ディスプレイ50は、フロントガラスに対する投影により、表示出力を行う。この変形例では、乗員が直接目視している物体をオブジェクトして認識し、操作の対象とすることができる。図11では、視認範囲A3に標識がオブジェクトT2として含まれ、オブジェクトT2に指定位置P3が重畳している。このため、選択対象特定部はオブジェクトT2を選択状態として操作を受け付ける。一例として、標識の読み上げなどが可能である。
FIG. 11 is an explanatory diagram of a second modification. In the configuration of FIG. 11, the
上述してきたように、開示のシステムは、車室内に設置された車載のディスプレイを制御する車載ディスプレイ制御システムであって、前記車室内の乗員の状態を取得する1又は複数のセンサとしての車内カメラ12と、前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部としての乗員頭部識別部21と、前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部としての乗員手指識別部22と、前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部24とを備える。
かかる構成及び動作により、車載のディスプレイに表示されたオブジェクトを的確に選択することができる。また、かかる選択は、非接触且つ遠隔で行うことができる。
As described above, the disclosed system is an in-vehicle display control system that controls an in-vehicle display installed in a vehicle interior, and includes an in-vehicle camera as one or more sensors that acquire the state of an occupant in the vehicle interior. 12, an occupant
With such a configuration and operation, an object displayed on the in-vehicle display can be accurately selected. Also, such selection can be done contactlessly and remotely.
また、開示のシステムは、前記手指の識別結果からジェスチャを識別し、識別したジェスチャに対応付けられた操作を前記選択対象に対して実行する操作実行部としての対象操作実行部25をさらに備える。
このため、乗員は、選択した対象に対する操作を実行可能である。
Further, the disclosed system further includes a target
Therefore, the occupant can perform an operation on the selected target.
また、前記センサは、前記車室内を撮像する車内カメラであり、前記視線方向識別部及び前記手指識別部は、前記乗員の画像から前記視線方向及び手指を識別する。
このため、簡易な構成で乗員の状態を取得することができ、また、車内カメラは車両に搭載される他のシステムと共用可能である。
Further, the sensor is an in-vehicle camera that captures an image of the interior of the vehicle, and the line-of-sight direction identification unit and the hand/finger identification unit identify the line-of-sight direction and the finger from the image of the occupant.
Therefore, it is possible to acquire the state of the occupant with a simple configuration, and the in-vehicle camera can be shared with other systems installed in the vehicle.
また、前記選択対象特定部は、前記手指に含まれる予め設定された2点を結ぶ直線と、前記ディスプレイの表示面との交点を前記指示位置として設定する。
このため、指示位置を簡易に設定することができる。
Further, the selection target specifying unit sets an intersection of a straight line connecting two preset points included in the finger and the display surface of the display as the indicated position.
Therefore, the indicated position can be easily set.
また、前記選択対象特定部は、前記視認範囲の外側に所在する前記オブジェクトを選択未準備状態とし、前記視認範囲の内側に所在する前記オブジェクトを選択準備状態とし、前記選択準備状態のオブジェクトに前記指示位置が重畳した場合に、当該オブジェクトを選択状態とする。
このように、複数の要素を参照して段階的に選択を行うことで、誤動作を防止することができる。
Further, the selection target specifying unit puts the object located outside the visible range into a selection-unprepared state, the object located inside the visible range into a selection-ready state, and puts the object in the selection-ready state into the selection-prepared state. When the designated position is superimposed, the object is selected.
In this manner, by referring to a plurality of elements and making a selection step by step, it is possible to prevent malfunction.
また、開示のシステムによれば、車両の周囲を撮像する車外カメラ11と、前記センサの出力から特定される前記乗員の頭部の位置に基づいて、前記車外カメラにより撮像した画像を加工し、前記乗員の視点から見えると推定される車外の画像を前記ディスプレイに表示させることで、前記ディスプレイを仮想的に透過した視界を提供する仮想透過表示処理部23と、をさらに備え、前記視認範囲は、前記ディスプレイの表示領域の一部である。
かかる構成によれば、ディスプレイを利用して車体の一部を仮想的に透過して表示可能であり、表示されたオブジェクトを遠隔に選択することができる。
Further, according to the disclosed system, an image captured by the
According to such a configuration, a part of the vehicle body can be virtually transparently displayed using the display, and the displayed object can be remotely selected.
また、開示のシステムによれば、前記ディスプレイは、車両の走行経路に係る情報を提供し、前記選択対象特定部は、前記ディスプレイの表示領域全体が前記視認範囲に含まれることを条件に、前記ディスプレイに表示されたオブジェクトを選択可能とする。
かかる構成によれば、ナビゲーションシステムの画面など、視認範囲よりも小さいディスプレイを選択の対象とすることができる。
Further, according to the disclosed system, the display provides information related to the travel route of the vehicle, and the selection target specifying unit provides the selection target identification unit, on the condition that the entire display area of the display is included in the visible range, the To select an object displayed on a display.
According to such a configuration, a display smaller than the visible range, such as a screen of a navigation system, can be selected.
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。 It should be noted that the present invention is not limited to the above embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. Moreover, not only deletion of such a configuration but also replacement and addition of the configuration are possible.
例えば、運転者以外に他の乗員がいる場合に、他の乗員を対象に本発明を適用してもよい。また、複数の乗員のうち、特定の乗員を指定して本発明の適用対象としてもよい。 For example, when there are passengers other than the driver, the present invention may be applied to the other passengers. Further, a specific passenger may be designated as an application target of the present invention among a plurality of passengers.
また、車内カメラ以外の任意のセンサ、例えば、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)や、据え置きされたスマートフォンなどから乗員の状態を取得してもよい。さらに、複数のセンサ、複数種類のセンサの出力を組み合わせて用いることもできる。 Also, the state of the occupant may be acquired from any sensor other than the in-vehicle camera, such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a stationary smartphone, or the like. Furthermore, it is also possible to use a combination of outputs from a plurality of sensors and a plurality of types of sensors.
11:車外カメラ、12:車内カメラ、20:処理部、21:乗員頭部識別部、22:乗員手指識別部、23:仮想透過表示処理部、24:選択対象特定部、25:対象操作実行部、30:ディスプレイ
11: vehicle exterior camera, 12: vehicle interior camera, 20: processing unit, 21: occupant head identification unit, 22: occupant hand identification unit, 23: virtual transparent display processing unit, 24: selection target identification unit, 25: target operation execution Part 30: Display
Claims (8)
前記車室内の乗員の状態を取得する1又は複数のセンサと、
前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別部と、
前記センサの出力に基づいて、前記乗員の手指を識別する手指識別部と、
前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定部と
を備えたことを特徴とする車載ディスプレイ制御システム。 An in-vehicle display control system for controlling an in-vehicle display installed in a vehicle interior,
one or more sensors for acquiring the state of an occupant in the vehicle;
a line-of-sight direction identification unit that identifies the line-of-sight direction of the occupant based on the output of the sensor;
a finger identification unit that identifies the occupant's fingers based on the output of the sensor;
Based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display A vehicle-mounted display control system, comprising: a selection target identifying unit that identifies an object located within a range and at a position corresponding to the indicated position as a selection target.
前記視線方向識別部及び前記手指識別部は、前記乗員の画像から前記視線方向及び手指を識別することを特徴とする請求項1に記載の車載ディスプレイ制御システム。 The sensor is an in-vehicle camera that captures an image of the interior of the vehicle,
2. The in-vehicle display control system according to claim 1, wherein the line-of-sight direction identifying section and the hand/finger identifying section identify the line-of-sight direction and the hand/finger from the image of the occupant.
前記センサの出力から特定される前記乗員の頭部の位置に基づいて、前記車外カメラにより撮像した画像を加工し、前記乗員の視点から見えると推定される車外の画像を前記ディスプレイに表示させることで、前記ディスプレイを仮想的に透過した視界を提供する仮想透過表示処理部と、
をさらに備え、
前記視認範囲は、前記ディスプレイの表示領域の一部であることを特徴とする請求項1に記載の車載ディスプレイ制御システム。 an exterior camera that captures images of the surroundings of the vehicle;
Based on the position of the occupant's head specified from the output of the sensor, the image captured by the exterior camera is processed, and an image of the exterior of the vehicle that is estimated to be visible from the occupant's viewpoint is displayed on the display. a virtual transparent display processing unit that provides a field of view that is virtually transparent through the display;
further comprising
2. The in-vehicle display control system according to claim 1, wherein the visible range is a portion of the display area of the display.
前記選択対象特定部は、前記ディスプレイの表示領域全体が前記視認範囲に含まれることを条件に、前記ディスプレイに表示されたオブジェクトを選択可能とすることを特徴とする請求項1に記載の車載ディスプレイ制御システム。 the display provides information about the travel route of the vehicle;
2. The in-vehicle display according to claim 1, wherein the selection target specifying unit enables selection of an object displayed on the display on condition that the entire display area of the display is included in the visible range. control system.
1又は複数のセンサから前記車室内の乗員の状態を取得するステップと、
前記センサの出力に基づいて、前記乗員の視線方向を識別する視線方向識別ステップと、
前記センサの出力に基づいて、前記乗員の手指を識別する手指識別ステップと、
前記視線方向の識別結果から想定される前記乗員の視認範囲と、前記手指の識別結果から設定される前記ディスプレイ上の指示位置と、前記ディスプレイに表示されたオブジェクトとの位置関係に基づき、前記視認範囲内に所在し、かつ前記指示位置に対応する位置のオブジェクトを選択対象として特定する選択対象特定ステップと
を含むことを特徴とする車載ディスプレイ制御方法。
An in-vehicle display control method for controlling an in-vehicle display installed in a vehicle interior,
obtaining occupant status in the vehicle interior from one or more sensors;
a line-of-sight direction identification step of identifying a line-of-sight direction of the occupant based on the output of the sensor;
a finger identification step for identifying the fingers of the occupant based on the output of the sensor;
Based on the positional relationship between the visible range of the occupant assumed from the identification result of the line-of-sight direction, the indicated position on the display set from the identification result of the finger, and the object displayed on the display A vehicle-mounted display control method, comprising: a selection target identification step of identifying an object located within a range and at a position corresponding to the indicated position as a selection target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021176876A JP2023066255A (en) | 2021-10-28 | 2021-10-28 | Onboard display control system and onboard display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021176876A JP2023066255A (en) | 2021-10-28 | 2021-10-28 | Onboard display control system and onboard display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023066255A true JP2023066255A (en) | 2023-05-15 |
Family
ID=86322401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021176876A Pending JP2023066255A (en) | 2021-10-28 | 2021-10-28 | Onboard display control system and onboard display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023066255A (en) |
-
2021
- 2021-10-28 JP JP2021176876A patent/JP2023066255A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11124118B2 (en) | Vehicular display system with user input display | |
CN109484299B (en) | Method, apparatus, and storage medium for controlling display of augmented reality display apparatus | |
JP4351599B2 (en) | Input device | |
JP4274997B2 (en) | Operation input device and operation input method | |
KR101367593B1 (en) | Interactive operating device and method for operating the interactive operating device | |
JP6413207B2 (en) | Vehicle display device | |
EP2741171A1 (en) | Method, human-machine interface and vehicle | |
US20110063425A1 (en) | Vehicle Operator Control Input Assistance | |
US20170053444A1 (en) | Augmented reality interactive system and dynamic information interactive display method thereof | |
WO2014188565A1 (en) | Display controller | |
US10296101B2 (en) | Information processing system, information processing apparatus, control method, and program | |
EP3457254A1 (en) | Method and system for displaying virtual reality information in a vehicle | |
EP3069935A1 (en) | Rearview mirror angle setting system, method, and program | |
JP2018055614A (en) | Gesture operation system, and gesture operation method and program | |
WO2018116565A1 (en) | Information display device for vehicle and information display program for vehicle | |
JP5136948B2 (en) | Vehicle control device | |
JP4244202B2 (en) | Operation input device and operation input method | |
JP2023066255A (en) | Onboard display control system and onboard display control method | |
JP2017197015A (en) | On-board information processing system | |
JP2016149094A (en) | Vehicle information processing apparatus | |
WO2017188098A1 (en) | Vehicle-mounted information processing system | |
TWM564749U (en) | Vehicle multi-display control system | |
CN106289305A (en) | Display device for mounting on vehicle | |
KR20150056322A (en) | Apparatus for controlling menu of head-up display and method thereof | |
US20230143429A1 (en) | Display controlling device and display controlling method |