WO2014188565A1 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
WO2014188565A1
WO2014188565A1 PCT/JP2013/064395 JP2013064395W WO2014188565A1 WO 2014188565 A1 WO2014188565 A1 WO 2014188565A1 JP 2013064395 W JP2013064395 W JP 2013064395W WO 2014188565 A1 WO2014188565 A1 WO 2014188565A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
user
display state
state
detected
Prior art date
Application number
PCT/JP2013/064395
Other languages
English (en)
French (fr)
Inventor
誠 倉橋
明 後藤田
雄悟 石川
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP13885025.0A priority Critical patent/EP3001289A4/en
Priority to JP2015518003A priority patent/JPWO2014188565A1/ja
Priority to PCT/JP2013/064395 priority patent/WO2014188565A1/ja
Priority to US14/893,187 priority patent/US20160089980A1/en
Publication of WO2014188565A1 publication Critical patent/WO2014188565A1/ja

Links

Images

Classifications

    • B60K35/10
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • B60K2360/00
    • B60K2360/141
    • B60K2360/149
    • B60K2360/21
    • B60K2360/347
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures

Definitions

  • the present invention relates to a technical field of a display control device applicable to, for example, an in-vehicle information display device.
  • the virtual image display device of Patent Literature 1 includes a viewpoint detection camera that captures the driver's eyes and a gesture detection camera that captures the driver's hand.
  • the driver performs an action of pointing the display virtual image with the fingertip
  • the image captured by the viewpoint detection camera and the gesture detection camera is subjected to image recognition processing, and the driver's line of sight is identified through detection of the driver's eye position and fingertip position.
  • the display of the gaze virtual image on the specified line of sight is controlled based on the display control command. That is, according to the virtual image display device of Patent Document 1, the foreground object can be specified by pointing to the foreground object while viewing the foreground object to be executed as a display control command. Therefore, it is said that a desired foreground object can be easily specified without performing complicated input, and a command for the specified foreground object can be issued.
  • Patent Document 1 also discloses an aspect in which, when this virtual image display device is mounted on a vehicle, the content of the display control command is specified based on the operation of the operated portion disposed on the steering wheel. Also disclosed is an aspect in which infrared laser light is irradiated toward a preset region to recognize the movement of the operator's hand or finger as a display control command. Further, examples of display control according to this display control command include erasure of warning display, movement of warning display, expansion of warning display, and the like. Also, when the driver moves his / her hand in the direction of the building and points the building at his / her fingertip and then says “What is this?”, The name of the building is superimposed on the foreground. The example displayed is also described.
  • Patent Document 2 discloses a gesture recognition device capable of interactive control reflecting the user's intention.
  • this gesture recognition device a nodding action is detected by the face direction detection unit while waiting for a user instruction. Then, when the line of sight detected by the line-of-sight detection unit during the nodding operation is directed to the selection candidate, it is assumed that the selection candidate is selected and the process is performed as if the selection candidate was selected. .
  • the user's line of sight is detected by the line-of-sight detection means while waiting for the user's instruction. When a predetermined gesture is recognized with this line of sight facing the selection candidate, a predetermined process is performed based on the recognition result of the gesture recognition means.
  • Patent Document 2 also discloses a technical idea that the detected line of sight is suitable for one of the selection candidates when the detected line of sight remains in a gaze state for a predetermined time.
  • Patent Document 3 describes generating a signal representing a specific gaze pattern based on a dynamic change of the line of sight when controlling the computer device based on the line of sight tracking. It is also described that buttons, switches, audio signals, input element movement patterns, gesture patterns, facial expressions and EEG signals can be used as auxiliary input signals.
  • Patent Document 1 describes that a user's gesture is used as a display object selection operation.
  • Patent Document 1 also discloses a technical idea of using a user's line of sight for a display object selection operation.
  • the display object ahead of the user's line of sight is not always displayed in a display mode suitable for selection.
  • the display area of each display object tends to be small. In such a situation, it is very difficult to clearly specify the user's selection target based on the line of sight.
  • a display object that does not conform to the user's intention is selected, or display control that does not conform to the user's intention occurs.
  • the present invention has been made in view of, for example, such technical problems, and it is an object of the present invention to provide a display control device capable of realizing information display in accordance with a user's intention.
  • the display control device described in claim 1 is a display control device that controls a display state of a display screen, and is based on an imaging result of an imaging unit that images a user.
  • Detection means for detecting the user's trigger operation and the user's gaze area on the display screen, and the detected trigger operation or the detection among the plurality of display objects displayed on the display screen in the first display state.
  • Determining means for determining a designated display object corresponding to the determined gaze area; and when the trigger operation is detected in the first display state, the display state is set at least for the determined designated display object.
  • Control means for controlling to a second display state provided with a display attribute that facilitates selection by line of sight compared to the one display state.
  • the display control method described in claim 11 is a display control method for controlling the display state of the display screen, and is based on the imaging result of the imaging means for imaging the user.
  • a detection step of detecting the user's trigger operation and the user's gaze area on the display screen, and the detected trigger operation or the detection among a plurality of display objects displayed on the display screen in the first display state Determining a designated display object corresponding to the determined gaze area; and when the trigger operation is detected in the first display state, the display state is determined at least for the determined designated display object.
  • a computer program according to claim 12 causes a computer device to function as the display control device according to any one of claims 1 to 10. It is characterized by.
  • the recording medium described in claim 13 is recorded with the computer program described in claim 12.
  • FIG. 1 is a conceptual diagram of an information display system according to an embodiment of the present invention. It is a conceptual diagram of the gaze point detection in the information display system of FIG. It is a flowchart of the information display control performed in the information display system of FIG. It is a conceptual diagram of a gesture detection area. It is the figure which illustrated the detection process of the finger.
  • FIG. 2 is a conceptual diagram of a normal layout in the information display system of FIG. 1. It is a flowchart of the display screen creation process performed in the information display control of FIG. It is a user's notional top view. It is a figure which shows the example of a display of a selection target display object. It is a conceptual diagram of the layout at the time of operation in the information display system of FIG. It is a conceptual diagram of a display screen when selection of the display thing by a gaze is made.
  • An embodiment according to the display control apparatus of the present invention is a display control apparatus that controls a display state of a display screen, and based on an imaging result of an imaging unit that images a user, the user's trigger operation and the display screen Detection means for detecting a user's gaze area, and a designated display object corresponding to the detected trigger action or the detected gaze area among a plurality of display objects displayed on the display screen in the first display state.
  • a determination unit that determines the display state, and at least the determined designated display object can be easily selected by line of sight compared to the first display state.
  • Control means for controlling to the second display state given the display attribute.
  • the trigger operation and the user's gaze area are detected based on the imaging result of the imaging means.
  • the trigger operation is a kind of gesture performed by the user, but does not have a large number of patterns associated with a large number of functional operations as disclosed in the prior art. That is, the trigger operation is an operation that can give a trigger signal to the display control device, and the detection thereof is often accurate based on a binary judgment criterion or a relatively simple judgment criterion similar thereto. And it can be performed conveniently.
  • the gaze area means one point or area where it can be determined that the user is gazing on the display screen.
  • the trigger operation can be detected relatively easily. Therefore, the definition of the trigger operation can be defined as an operation that can be detected without difficulty in the imaging region on the assumption that the imaging means is installed at a position suitable for detection of the gaze region.
  • the imaging means is composed of a plurality of imaging means. In this respect, the restrictions on the device configuration according to the embodiment of the display control device can be significantly relaxed compared to the case where it is necessary to detect gestures associated with a large number of functional operations.
  • the designated display corresponding to the detected trigger action or the gaze area from the plurality of display objects displayed on the display screen in the first display state by the determining means. Things are decided.
  • the designated display object means one or a plurality of display objects that can be determined to be relatively likely to be in line with the user's intention among the plurality of display objects.
  • the definition of the trigger action and its practical aspect do not necessarily correspond one-to-one. These preferably correspond one-to-many. In other words, there may be a plurality of practical aspects of the trigger operation encompassed by one definition. Therefore, it is not always difficult to associate each trigger operation with an area on the display screen.
  • an area on the display screen is preferably associated with the trigger operation.
  • the designated display object is determined corresponding to the gaze area, there is no problem even if the trigger operation is a single operation.
  • the presence / absence of detection of the trigger operation is associated with the display state of the display screen. That is, when the display state of the display screen corresponds to the first display state in which a plurality of display objects are arranged according to a certain reference, the display state is switched to the second display state when a trigger operation is detected.
  • the predetermined reference related to the first display state may be anything, and there are almost no restrictions on the practical aspects of the first display state.
  • the second display state is a display state in which at least the display attribute of the designated display object described above is different from the first display state. Specifically, in the second display state, a display attribute is given to the designated display object that makes selection by line of sight easier than in the first display state.
  • the display attribute means an attribute relating to display. Easy selection by line of sight is lacking in strictness at first glance, but at least as long as it is discussed in terms of the relationship between different display states, any display state is suitable for selecting a display object by line of sight. It is clear from a general point of view. For example, if the display area of the display object is relatively large, it can be said that selection by line of sight is relatively easy. For example, if the visibility of the display object is relatively high, it can be said that selection by line of sight is relatively easy. In addition, it can be said that it is relatively easy to select by line of sight when the display object is displayed neatly rather than being displayed neatly.
  • the display attribute of the designated display object is changed. It may be given indirectly by a change in a display object other than the designated display object.
  • the former can include measures such as changing or highlighting the display area of the designated display object.
  • the latter includes, for example, measures for deleting display objects other than the specified display object from the display screen, making display objects other than the specified display object inconspicuous, and newly displaying information related to the specified display object. obtain.
  • the user's attention is more easily directed to this designated display item than other display items. Since the designated display object is a display object corresponding to the user's trigger operation or the gaze area, as a result, in the second display state, the display object according to the user's intention is easily visible to the user.
  • the first display state is conceptually a display state having a relatively high degree of freedom that can be defined by the second display state.
  • visibility is impeded on the assumption that the user is not interested in a specific display object or the user is about to start searching for a specific display object. It is constructed so that more information can be provided to the user if it is not done.
  • one of the first display state and the second display state according to the user's intention is selectively applied. Therefore, information display according to the user's intention is realized.
  • the second display state In the second display state, the designated display object displayed with a higher weight than the other display objects is only a candidate that can be determined that the user is interested. However, since the designated display object in the second display state is given a display attribute indicating that the line-of-sight selection is easier than in the first display state, and the user can call higher attention, the user can display the second display state.
  • the desired display object can be easily and accurately searched from the designated display objects displayed by the line of sight.
  • the operation for determining the display object can be replaced by the trigger operation described above.
  • the embodiment of the display control apparatus of the present invention overcomes the low search accuracy of the information search based on the line of sight by switching the display state of the display screen to the second display state.
  • the display timing and display period of the display according to the display state can be accurately determined by a trigger operation as a gesture with greatly improved ease of detection. That is, in the embodiment according to the display control apparatus of the present invention, a good mutual complementarity relationship is established between the user intention estimation based on the line of sight and the user intention estimation based on the gesture. It is an important feature. This feature cannot be obtained by simply combining information retrieval by gaze and information retrieval by gesture.
  • the control operation of the control means is constructed so that only the advantages of both can be utilized after finding out the disadvantages of both.
  • At least one display object is selected as the selection display object based on the detected gaze area from the designated display object. It further comprises selection means for selecting.
  • At least one display object is selected as the selection display object from the designated display objects based on the gaze area. Therefore, display control according to the user's intention is possible.
  • control means may highlight the selection display object.
  • the user can visually grasp the display object selected by the user at that time.
  • the second display state is a display state in which the designated display object is highly visible as compared with the first display state.
  • the designated display object in the second display state has higher visibility than the first display state. That is, in the second display state, an attribute indicating relatively high visibility is given to the designated display object as an example of a display attribute that facilitates line-of-sight selection. Therefore, the ease or certainty of the information search (namely, search of a desired display object) centering on the designated display object is suitably ensured.
  • measures for improving visibility are ambiguous, and may include, for example, enlarged display, highlighted display, blinking display, display color change, and the like.
  • the second display state is a display state in which the display area of the designated display object is larger than the first display state.
  • the designated display object in the second display state has a larger display area than the first display state. That is, in the second display state, an attribute indicating that the display area is relatively large is given to the designated display object as an example of a display attribute that facilitates line-of-sight selection. Therefore, the ease or certainty of the information search (namely, search of a desired display object) centering on the designated display object is suitably ensured.
  • the second display state is a display state in which the designated display objects are aligned.
  • the designated display objects in the second display state are displayed side by side. That is, in the second display state, the designated display object is given an attribute indicating that it is displayed in an aligned manner as an example of a display attribute that facilitates line-of-sight selection. Therefore, the ease or certainty of the information search (namely, search of a desired display object) centering on the designated display object is suitably ensured.
  • the designated display object may be arranged linearly, may be arranged in a curved line, or may be positioned with respect to the user. They may be arranged according to the relationship. Further, when aligning the designated display objects, the attributes of the display objects other than the designated display objects may be changed together.
  • control means controls the display state to the first display state when the trigger operation is released.
  • the display state of the display object is returned to the first display state when the trigger operation is released, the display state according to the second display state is effectively controlled only for an accurate period. be able to.
  • “trigger operation is released” conceptually includes that the trigger operation is not detected.
  • the trigger operation is an operation of bringing a predetermined structure defined to assist detection of the trigger operation into contact with or away from the body part of the user. It is.
  • the user can perform the trigger operation only by bringing the structure and the body part into contact with or away from each other. Therefore, the operability is improved.
  • this structure is an object defined to support detection of a trigger operation.
  • the trigger operation is a gesture having high detectability.
  • the user's operation is necessary to perform the detection constantly and stably.
  • An object that can be regarded as stationary or always stationary with respect to a user for a period of time should be used as a reference. Therefore, according to this aspect, it is possible to stably detect the trigger operation.
  • the display control device may be mounted on a vehicle, the structure may be a handle of the vehicle, and the body part of the user may be a finger of a hand.
  • the handle is suitable as the structure described above.
  • the finger of the hand that holds the handle is suitable as the body part described above.
  • the image pickup unit and a display unit having the display screen are provided.
  • “comprising display means” is not limited to, for example, an embodiment related to a display control apparatus and a display means being integrally configured in hardware, but an embodiment related to a display control apparatus and a display. Means include that the means is electrically connected through, for example, electrical wiring or wireless communication to form a single system.
  • “comprising an imaging unit” is not limited to, for example, the configuration of the display control device and the imaging unit integrally configured in hardware, and the embodiment of the display control device and the imaging Means include that the means is electrically connected through, for example, electrical wiring or wireless communication to form a single system.
  • An embodiment according to the display control method of the present invention is a display control method for controlling a display state of a display screen, and based on an imaging result of an imaging means for imaging a user, the user's trigger operation and the display screen A detection step of detecting a user's gaze area, and a designated display object corresponding to the detected trigger action or the detected gaze area among a plurality of display objects displayed on the display screen in the first display state.
  • the triggering operation is detected in the determining step for determining and in the first display state, the display state is easily selected by line of sight compared to the first display state for at least the determined designated display object.
  • the embodiment according to the computer program of the present invention causes a computer system to function as the embodiment according to the display control device of the present invention.
  • the computer program is read into the computer system from a solid-state storage device such as a ROM, CD-ROM, DVD-ROM, hard disk or other storage medium storing the computer program, or a USB (Universal Serial Bus) memory.
  • a solid-state storage device such as a ROM, CD-ROM, DVD-ROM, hard disk or other storage medium storing the computer program, or a USB (Universal Serial Bus) memory.
  • the computer program is downloaded to a computer system via communication means or the like, for example, and then executed in a relatively simple manner. realizable.
  • the embodiment of the computer program of the present invention can also adopt various aspects.
  • the embodiment according to the recording medium of the present invention records the embodiment according to the computer program of the present invention.
  • the computer program of the present invention recorded by being attached to or connected to a computer system, or by being inserted into an appropriate reader provided in or connected to the computer system.
  • the embodiment according to the present invention can be read and executed by a computer system, and the embodiment according to the display control apparatus of the present invention described above can be realized relatively easily.
  • FIG. 1 is a conceptual diagram of the information display system 10.
  • an information display system 10 is a device that is mounted on a vehicle (not shown) and is used by a user 1 as a driver of the vehicle, and includes a display control device 100, a display DP, and a photographing unit CM.
  • the In the information display system 10, these elements are electrically connected via a control bus BS.
  • the information display system 10 is an application example of the display control apparatus according to the present invention, and is configured as a part of a car navigation system (not shown). Therefore, the information display system 10 can provide the user 1 with various types of information such as vehicle position information, map information, peripheral facility information, and road information.
  • the application of the display control device according to the present invention is not limited to the car navigation field.
  • the display control device 100 is a computer device that includes a CPU (Central processing Unit) ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the ROM of the display control device 100 stores control programs related to various controls executed by the display control device 100.
  • This control program includes a control program related to information display control, which will be described later.
  • the control program related to the information display control is an example of the “computer program” according to the present invention.
  • the ROM is an example of the “recording medium” according to the present invention. Since the ROM is a non-volatile storage device, in the present embodiment, a control program related to information display control is provided in the control device 100 in advance, but this control program may be provided in the RAM, the hard disk, or the control device 100. It may be written in another volatile control device. In this case, update and maintenance of the control program can be performed relatively easily. It is also possible to take measures such as distributing the control program over a network or distributing a recording medium on which the control program is recorded.
  • the display DP is an information display device as an example of the “display unit” according to the present invention, which is fixed in a state of being suspended from the roof portion in front of the windshield in front of the driver seat of the vehicle.
  • the display DP has a display screen (reference numeral omitted) used for visual recognition of the user 1.
  • the display DP and the display control device 100 are configured separately, but this is an example of a form that the display control device according to the present invention can take.
  • the display control device 100 and the display DP can be configured integrally.
  • the photographing unit CM is a digital camera that is an example of the “imaging unit” according to the present invention and is fixed so that the user 1 can be photographed in a meter hood located on the back side of the handle HD. Note that a control unit for controlling the digital camera is accommodated in the camera.
  • the photographing unit CM is a stereo camera capable of infrared photographing provided with a visible light cut filter.
  • the photographing unit CM is configured to be capable of both infrared photographing performed while irradiating infrared rays in the direction of the subject (here, the user 1) and normal photographing in which infrared rays are not emitted.
  • the display control apparatus 100 includes a viewpoint detection unit 110, an operation detection unit 120, a display information control unit 130, a layout control unit 140, and an operation detection unit 150 that function by executing the control program.
  • the viewpoint detection unit 110 is a point that the user 1 is gazing on from the captured image of the imaging unit CM (an example of “imaging result” according to the present invention) in the display screen (not shown) of the display DP (hereinafter, “ The position of the “gaze point” is detected.
  • the viewpoint detection unit 110 can detect the gaze point of the user 1 as position coordinates in the display screen.
  • FIG. 2 is a conceptual diagram of gazing point detection.
  • the same reference numerals are given to the same portions as those in FIG. 1, and the description thereof will be omitted as appropriate.
  • the positional relationship between the display DP and the photographing unit CM is known in advance (arrow a in the figure).
  • the line-of-sight direction of the user 1 can be detected based on the photographed image obtained by the photographing unit CM (see the arrow c in the figure).
  • the position of the eyeball of the user 1 with respect to the photographing unit CM can be detected (see the arrow b in the drawing). From this information, the position coordinate of the gazing point d of the user 1 is obtained as an intersection point between the line of sight of the user 1 and the display screen of the display DP by a known geometric technique.
  • the operation detection unit 120 is configured to be able to detect the operation of the user 1, and includes a preliminary operation detection unit 121 and a determination operation detection unit 122.
  • the preliminary operation detection unit 121 is configured to be able to detect the preliminary operation of the user 1.
  • the preliminary operation is defined as a pointing operation performed on the handle HD (a gesture of placing one finger on the handle HD).
  • the preliminary operation is an example of the “trigger operation” according to the present invention. A specific detection mode of the preliminary operation by the preliminary operation detection unit 121 will be described later.
  • the determination operation detection unit 122 is configured to be able to detect the determination operation of the user 1.
  • the determination operation is defined as a tap operation performed with one finger on the handle HD.
  • the detection of the determination operation is an example of “detection of release of trigger operation” according to the present invention. A specific detection mode of the determination operation by the determination operation detection unit 122 will be described later.
  • the display information control unit 130 determines various types of information to be displayed at that time as a car navigation system based on positioning information obtained from map information, GPS (Global Positioning System), etc., and controls the display DP. It is configured to be displayed on the display screen.
  • the layout control unit 140 is configured to accurately control the screen configuration of the display screen including the display state of the information to be displayed determined by the display information control unit 130 according to the situation at that time.
  • the situation at that time in the present embodiment is a detection result in each of the viewpoint detection unit 110 and the operation detection unit 120.
  • the information laid out by the layout control unit 140 includes an operation target display object that is selected and determined by the operation of the driver 1.
  • the operation target display object is an example of the “plural display objects” according to the present invention.
  • the operation output unit 150 is selected by the user 1 based on the layout of the display screen at that time and the position on the display screen where the determination operation is detected. In this configuration, the display object on which the display is performed is confirmed, and information regarding the confirmed display object is output to the user 1.
  • FIG. 3 is a flowchart of the information display control.
  • step S110 when information display control is started, display information to be displayed on the display screen of the display DP is determined (step S110).
  • display information is determined based on map information, facility information, road information, destination information set in advance, set route information, position information, and the like.
  • the current position and the traveling direction are acquired based on a GPS signal or the like, and the current position and the traveling direction are displayed as position information on the map from separately acquired map information.
  • a near-future travel route is predicted based on the set route information and any search condition is set at that time, information on facilities and the like that match the search condition is displayed on this near-future travel route. Is done. For example, if “restaurant” is set as the search condition, information on the restaurant on the travel route of the vehicle is retrieved from the facility information and displayed on the display screen in a form superimposed on the map information.
  • the display screen of the display DP is controlled.
  • the display screen may be a display screen such as an HMD (Head-Mounted Display).
  • the information is superimposed on the map information (which may be a three-dimensional image or a two-dimensional image).
  • the facility information is attached to the image of the outside world that actually spreads in front of the vehicle.
  • a kind of AR Augmented Reality may be realized.
  • a user operation is detected by the operation detection unit 120 (step S120).
  • a gesture of the hand of the user 1 is detected.
  • FIG. 4 is a conceptual diagram of the gesture detection area.
  • FIG. 4A illustrates one captured image of the user 1 in the imaging unit CM. Since the imaging unit CM is a stereo camera, there are a plurality of captured images (images corresponding to FIG. 4A) of the imaging unit CM. A region of the handle HD (hereinafter referred to as “handle region” as appropriate) is specified from the plurality of captured images.
  • the installation position and the imaging direction of the imaging unit CM with respect to the handle HD are fixed in advance, and in the captured image, the handle HD should appear to be elliptical, and in an arc shape in the upper half of the captured image Should be visible. Furthermore, the handle HD is relatively dark and uniform. Since these prior predictions are established, the handle area can be specified in the captured image. In addition, according to the stereo camera, the handle area can be detected more accurately, but it is also possible to specify the handle area from the captured image of the monaural camera based on the known image recognition process or pattern recognition process. is there.
  • FIG. 4B shows a state where the handle area is specified.
  • the outline of the handle is shown by a white broken line. That is, the inside of this broken line frame is the handle area.
  • the gesture detection area Ages is set along the specified handle area (see the hatched area in the drawing). Specifically, the gesture detection area Ages is set inside the handle area, and its width (open angle with respect to the imaging unit CM) is set to the left and right with the uppermost part of the handle HD in the captured image as a base point. For example, this width is set to about 20 degrees to the left and right with the top as the base point.
  • the gesture detection area Ages can be used permanently once it is set in an environmental condition in which the contrast between the steering wheel HD and the others tends to be strong and the sunlight in the passenger compartment is good. However, when the user changes the physical position of the handle, the gesture detection area Ages is reset as appropriate.
  • Stereo parallax is obtained when there is a stationary object that crosses the handle area for a predetermined time or more, or when an object that crosses the handle area moves in one direction. That is, there is a high possibility that these stationary objects and objects are hands touching the handle HD (the former is a state where the user 1 is steering the handle HD, and the latter is the user 1 is steering the handle HD). This is because the stereo parallax can be obtained.
  • Stereo parallax is obtained at a plurality of positions of the handle HD. Based on this stereo parallax, it is possible to determine whether the finger detected near the handle HD is in contact with or away from the handle HD.
  • the handle HD is an example of the “structure” according to the present invention.
  • step S120 In the detection of the user operation according to step S120, first, a finger near the handle HD is detected.
  • Finger detection is performed by comparing captured images for each of the time of infrared irradiation and non-irradiation. This comparison is performed for each of the left and right captured images taken in stereo. By this comparison, a subject close to the imaging unit CM is detected. When a subject close to the imaging unit CM is detected, a subject that crosses the above-described gesture detection area Ages is further detected and is determined to be the finger of the user 1.
  • the determined finger position is specified as one-dimensional position information crossing the gesture detection area Ages.
  • FIG. 5 is a diagram illustrating a finger detection process.
  • the same reference numerals are given to the same portions as those in FIG. 4, and the description thereof will be omitted as appropriate.
  • FIG. 5A is an example of an infrared photographed image
  • FIG. 5B is an example of a non-infrared photographed image.
  • infrared imaging is performed in this way, there is a clear difference in the brightness of an object near the handle HD. Therefore, only an object close to the handle appears in the difference between them. This is shown in FIG. Since the object close to the handle is behind the handle area (on the user 1 side) and has a reasonable thickness, the object is determined to be the finger of the user 1. This state is shown in FIG.
  • FIG. 5D shows how the finger detection results rs1, rs2, rs3, and rs4 are obtained in the gesture detection area Ages.
  • the operation detection unit 120 repeatedly performs the operations related to the above detection and determination, and after the user 1 intentionally puts a finger on the handle HD (preliminary operation) and once the finger is separated from the handle HD, Each tap operation to contact the handle HD again is detected.
  • the viewpoint detection unit 110 detects the gaze point of the user 1 (step S130).
  • the gaze point of the user 1 is detected according to the concept described above, but more specifically, is detected as follows.
  • the viewpoint detection unit 110 extracts the eye area of the user 1 from the captured image of the user 1 acquired from the imaging unit CM. Next, the line-of-sight direction is calculated from the pupil center and the Purkinje elephant.
  • the imaging unit CM has previously captured the eyes of the user 1 in stereo, and the viewpoint detection unit 110 determines the positional relationship between the imaging unit CM and the eyes of the user 1 from the stereo imaged eyes. Is calculated. Since the position of the display DP with respect to the imaging unit CM is given as initial information, the position of the intersection point between the user's line of sight and the display screen is obtained from the information and the eye position. This determined position is finally converted into a coordinate point on the display screen as the position of the point of sight.
  • the gaze point is an example of a “gaze area” according to the present invention.
  • step S200 a display screen creation process is performed by the layout control unit 140 (step S200).
  • the display screen creation processing by the layout control unit 140 is an example of the operation of the “control unit” according to the present invention.
  • the layout control unit 140 there are roughly two types of display information layouts controlled by the layout control unit 140.
  • One is a normal layout and the other is an operation layout.
  • the former is an example of a “first display state” according to the present invention, and the latter is an example of a “second display state” according to the present invention.
  • FIG. 6 is a conceptual diagram of the normal layout.
  • FIG. 6 shows how the display information determined in step S110 is displayed according to the normal layout. That is, in the normal layout, a plurality of display objects are displayed in a two-dimensional discrete manner in accordance with the positional relationship of the outside world instead of an organized list format in the display screen (rectangular frame in the figure).
  • the display object obj1 is a target travel path of the vehicle presented by the car navigation function.
  • display objects obj11, obj12, obj13, obj14, obj15, obj16, and obj17 are displayed as information on the facility along the target travel route.
  • the display area of each display object is different in order to realize information display in accordance with the positional relationship of the outside world. That is, as with the display of the target travel path, the display area (facility) that is closer to the vehicle at the present time has a larger display area.
  • the normal layout is a layout in which the user 1 can easily grasp the overall information because the positional relationship between the display objects holds the actual positional relationship in the outside world.
  • the display screen creation process overcomes such problems.
  • an operation layout is selected in such a situation. That is, the layout of the display object is changed from the standard layout to the operation layout.
  • FIG. 7 is a flowchart of the display screen creation process.
  • step S210 it is determined whether or not a preliminary operation has been detected.
  • the preliminary operation according to the present embodiment is an operation of placing one finger on the handle HD as already described.
  • step S210: NO the display object is displayed according to the normal layout (step S260).
  • a selection target display object is extracted (step S220).
  • the selection target display object is a display object that is selected from the operation target display objects displayed on the display screen and can be determined to match the intention of the user 1.
  • the selection target display object is an example of the “designated display object” according to the present invention.
  • FIG. 8 is a conceptual top view of the user 1.
  • FIG. 9 is a diagram illustrating a display example of the selection target display object.
  • the same reference numerals are assigned to the same portions as those in the previous drawings, and the description thereof is omitted as appropriate.
  • FIG. 8 shows the correspondence between the position input on the handle HD by the preliminary operation and the position on the display screen.
  • the preliminary operation detected by the preliminary operation detection unit 121 is an operation of placing a finger on one handle HD.
  • the gesture detection area Ages is an area set along the handle HD below the handle HD. Therefore, strictly speaking, the preliminary operation places a finger on the handle HD below the handle HD. It is an operation.
  • the operation detection unit 120 can specify the position of the finger of the user 1 as one-dimensional position information that crosses the gesture detection area Ages. Therefore, the layout control unit 140 associates the gesture detection area Ages with the horizontal axis of the display screen of the display PD in a one-dimensional manner, and the position on the gesture detection area Ages to which the preliminary operation is input is displayed on the display screen. (See the black circle in the figure).
  • the selection target display object is extracted from the operation target display object based on the position on the display screen corresponding to the preliminary operation. This is shown in FIG.
  • FIG. 9A the input position of the preliminary operation is displayed with a thick arrow for convenience.
  • the display content of the display screen shown in the figure is a display according to a normal layout for convenience.
  • the layout control unit 140 extracts several display objects close to the input position corresponding to the preliminary operation as selection target display objects. This is shown in FIG. 9 (b).
  • FIG. 9B shows how the display objects obj14, obj15, obj16, and obj17 are extracted.
  • control information for displaying the display object according to the operation layout is generated, and the display object is displayed according to the operation layout (step S230).
  • the operation layout is the same as the normal layout in that the display objects are displayed in accordance with the actual positional relationship.
  • the layout at the time of operation is to support the act of selecting one display object from the display objects to be selected by line of sight (that is, to facilitate selection by line of sight in comparison with the concept of the present invention). ),
  • the visibility of the extracted selection target display object is enhanced compared to the normal layout.
  • FIG. 10 is a conceptual diagram of the layout at the time of operation.
  • the same reference numerals are given to the same portions as those in FIG. 9, and the description thereof will be omitted as appropriate.
  • FIG. 10 (a) is a diagram showing an enlarged state of the selection target display object.
  • display objects obj14, obj15, obj16, and obj17 are enlarged while maintaining the actual positional relationship, and are changed to selection target display objects or14, or15, or16, and or17, respectively. Is done.
  • the operation target display object other than the selection target display object is temporarily deleted from the display screen.
  • the display screen in which the display state of the display object is actually controlled according to the layout at the time of operation is as shown in FIG. That is, the display screen on which the selection target display object is displayed in accordance with the operation layout is a screen suitable for the user 1 to input a line of sight.
  • a display attribute indicating that the line-of-sight selection is easier than the normal layout is given to the selection target display object.
  • this display attribute is brought about by a direct change that enlarges the selection target display object and an indirect change that erases display objects other than the selection target display object.
  • the layout at the time of operation according to FIG. 10B is the “second display state in which the visibility of the designated display object is higher than that in the first display state” and the “designated display in comparison with the first display state” according to the present invention. This is an example of the “second display state in which the display area of an object is large”.
  • the number of the selection target display objects is set to a predetermined value or less
  • the size of the selection target display object is set to a predetermined value or more
  • the display interval of the selection target display object is set to a predetermined value or more. Measures such as alignment while being held as much as possible may be taken.
  • the selection target display object during these switching transition periods or when the input position of the preliminary operation changes.
  • animation processing or the like for the purpose of reducing a sense of incongruity may be performed.
  • step S240 when the selection target display object is displayed according to the operation layout, it is determined whether or not the line of sight of the user 1 is detected (step S240).
  • the line of sight of the user 1 means a gazing point detected by the viewpoint detection unit 110. If the line of sight is not detected (step S240: NO), the display screen creation process ends.
  • the layout control unit 140 selects one of the selection target display objects based on the position coordinates of the gazing point on the display screen that has already been obtained.
  • the display object is selected and the selected display object is highlighted (step S250).
  • the highlighted display may include blinking display, coloring display, display color change, and the like.
  • the layout control unit 140 draws the line-of-sight cursor CS on the display screen together with the highlighted display of the selected display object.
  • the line-of-sight cursor CS is a cursor indicating the position of the gazing point of the user 1 detected by the viewpoint detection unit 110.
  • FIG. 11 is a conceptual diagram of a display screen when a display object is selected by line of sight.
  • the same reference numerals are assigned to the same parts as those in FIG. 10, and the description thereof is omitted as appropriate.
  • the line-of-sight cursor CS that is, the gazing point of the user 1 is as illustrated, and among the selection target display objects enlarged and displayed according to the operation layout, the display object closest to the line-of-sight cursor CS is the selection target.
  • the display of the line-of-sight cursor CS allows the user 1 to visually recognize how much the line of sight is changed to select an adjacent display object. Therefore, the operability is further improved.
  • the display screen creation process ends.
  • the display screen creation process is performed as described above.
  • step S140 when the display screen creation process is completed, the process is returned to the information display control which is the main routine, and an operation output is performed (step S140).
  • the determination operation of the user 1 is detected by the determination operation detection unit 122
  • the detected determination operation that is, a tap operation where the finger is released from the handle HD and touched again
  • the display screen layout returns to the normal layout again.
  • the action may be executed together with the cancellation of the preliminary operation. For example, data output or the like may be performed.
  • the operation output is performed, the information display control ends.
  • the information display control is a process that is repeatedly executed at a predetermined cycle. Therefore, the process is repeated again from step S110.
  • the information display control is executed as described above.
  • the layout of the display object is switched by a simple trigger operation such as placing or releasing a finger on the handle HD, and the information selection operation by the user's line of sight is performed. It is possible to perform the operation on the layout suitable for the operation. Therefore, it is possible to display information in accordance with the operation layout at an accurate timing according to the user's intention and for an accurate period, thereby realizing an intuitive, accurate and simple information selection by gaze input. It can be done.
  • the information display control according to the present embodiment is (1) that it is practically difficult to accurately detect a complicated gesture of the user and use it for information display control. It has been found that the layout of a display object suitable for information selection by line of sight differs from the layout of a display object suitable for providing information to the user. On that basis, the technical idea of switching the display state of the display object between an operation layout suitable for information selection and a normal layout suitable for information provision using simple gestures such as preliminary operation and determination operation as a trigger operation. I am thinking. In other words, the inventors have conceived the technical idea of mutually complementing the defect of information input by line of sight and the defect of information input by gesture. This technical idea makes it possible to realize accurate information display according to the user's intention.
  • the selection target display object is extracted based on the position on the gesture detection area Ages into which the preliminary operation is input, which is converted to the position on the display screen.
  • the selection target display object is merely a selection target, that is, a candidate
  • the position coordinates of the gazing point of the user 1 detected by the viewpoint detection unit 110 are used for extraction of the selection target display object. Is also possible. Further, it is also possible to extract the selection target display object by considering the position coordinates of the gazing point and the position coordinates by the preliminary operation according to the present embodiment.
  • the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification.
  • a display control apparatus with such a change is also applicable.
  • it is included in the technical scope of the present invention.

Abstract

 表示画面(DP)における表示物(obj11~17)の表示状態を制御する表示制御装置(100)は、ユーザ(1)を撮像する撮像手段(CM)の撮像結果に基づいて前記ユーザのトリガ動作及び前記ユーザの前記表示画面上の注視領域を検出する検出手段(110、120)と、第1表示状態において前記表示画面に表示される複数の前記表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定手段(140)と、前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、前記決定された指定表示物の表示状態が前記第1表示状態と異なる第2表示状態に制御する制御手段(130、140)とを備える。

Description

表示制御装置
 本発明は、例えば車載情報表示装置等に適用可能な表示制御装置の技術分野に関する。
 この種の技術分野において、虚像を前景に重畳させて表示する虚像表示装置が提案されている(特許文献1参照)。
 特許文献1の虚像表示装置は、運転者の目を撮影する視点検知用カメラ及び運転者の手を撮影するジェスチャ検知用カメラを備える。運転者が指先で表示虚像を指し示す動作をすると、視点検知用カメラ及びジェスチャ検知用カメラによる撮影画像が画像認識処理され、運転者の目位置と指先位置の検出を経て運転者の視線が特定される。この特定された視線上にある注視虚像の表示は、表示制御指令に基づいて制御される。即ち、特許文献1の虚像表示装置によれば、表示制御指令の実行対象とすべき前景物を見ながら、その前景物を指し示すことにより、その前景物を特定することができる。従って、複雑な入力を行うことなく、所望の前景物を簡便に特定でき、特定した前景物についての指令を出すことができるとされている。
 尚、特許文献1には、この虚像表示装置が車両に搭載された場合に、ステアリングに配置された被操作部の操作に基づいて表示制御指令の内容が特定される態様も開示されている。また、予め設定された領域に向けて赤外線レーザ光を照射し、表示制御指令としての操作者の手或いは指の動きを認識する態様についても開示されている。また、この表示制御指令に応じた表示制御として、警告表示の消去、警告表示の移動、警告表示の拡大等が例示されている。また、運転者が建築物の方向に自分の手を移動させ、指先でその建築物を指し示す動作をした後に、「これ何?」と発話した場合において、その建築物の名称が前景に重畳されて表示される例についても記載されている。
 一方、特許文献2には、ユーザの意思を反映した対話制御が可能なジェスチャ認識装置が開示されている。
 例えば、このジェスチャ認識装置では、ユーザの指示待ち状態において、顔の向き検出部によりうなずき動作が検出される。そして、うなずき動作中に視線検出部により検出された視線が選択候補を向いている場合に、その選択候補を選択する意思があるものとして、当該選択候補が選択されたものとしての処理が行われる。或いは、このジェスチャ認識装置では、ユーザの指示待ち状態において、視線検出手段によりユーザの視線が検出される。この視線が選択候補に向いている状態で所定のジェスチャが認識された場合に、ジェスチャ認識手段の認識結果に基づき所定の処理が行われる。
 また、特許文献2には、検出された視線が所定時間滞留している注視状態である場合に、検出された視線がいずれかの選択候補に向いているとする技術思想も開示されている。
 他方、特許文献3には、視線追跡に基づいてコンピュータ装置を制御するにあたって、視線の動的変化に基づいて特定の注視パターンを表す信号を生成することが記載されている。また、補助入力信号として、ボタン、スイッチ、音声信号、入力要素の運動パターン、ジェスチャのパターン、顔の表情及びEEG信号が利用可能であることも記載されている。
特開2005-138755号公報 特開2000-163196号公報 特表2008-502990号公報
 特許文献1には、ユーザのジェスチャを表示物の選択動作として利用する点が記載されている。
 しかしながら、実践的には、限られた空間内でユーザが制限無く自由に行うジェスチャの内容を単にカメラによる撮像結果や画像認識処理等を用いて正確に特定することは非常に困難である。
 従って、特許文献1に開示される装置では、ユーザの意思を正確に特定することが困難である。必然的に、特許文献1に開示される装置では、ユーザの意思に沿わない表示物が選択される、或いは、ユーザの意思に沿わない表示制御が行われる等の事態が発生する。無論、ジェスチャの内容に関する特定精度は、例えば、環境変動に対して相対的に安定なレーザ光を利用したり、カメラを増設したりすれば向上する。しかしながら、このような措置は、確実にコストの増加を招き、また多くの場合、空間的制約にも抵触する。このような問題は、例えば、車両の室内空間等を想定した場合において顕著に発生し得る。
 また、特許文献1には、ユーザの視線を表示物の選択動作に利用する技術思想についても開示されている。しかしながら、ユーザの視線の先にある表示物が、選択に適した表示態様で表示されているとは限らない。それどころか、ユーザにとって有益な情報を表示しようとする場合、少なくともユーザの意思を明確に特定し得ない限りは、より多くの表示物が表示される傾向がある。また、個々の表示物の表示面積は小さくなる傾向がある。このような状況において、視線に基づいてユーザの選択対象を明確に特定することは非常に困難である。必然的に、特許文献1に開示される装置では、ユーザの意思に沿わない表示物が選択される、或いは、ユーザの意思に沿わない表示制御が行われる等の事態が発生する。
 また、ユーザの選択している表示物の特定精度とは別の問題として、ユーザの視線からユーザの決定意思を検出することも難しい。例えば、ユーザが一箇所を注視している場合に、その注視している表示物に対する処理が所望されているとの判断を行うことは一見合理的である。しかしながら、その場合、ユーザは相当程度の時間にわたって一箇所を注視していなければならず、ユーザの他の動作(例えば、車両の運転等)が制約を受ける。また、単なる決定動作(決定意思)の検出であれば、予め設置場所が決められた操作スイッチ等を操作するだけで足りるとの判断も一見合理的である。しかしながら、表示物を選択する動作(即ち、視線、ジェスチャ及びそれらの組み合わせ)と、この種の決定動作とが、全く性質の異なる動作となる。従って、ユーザは直感的に決定動作を行うことができず、操作性が低下する。これは、特許文献1に開示されるように、例えばこの種の操作スイッチがユーザにとって操作が容易なハンドル付近に設置されていたとしても、根本的に変わることが無い。
 また、上述した各種の問題は、特許文献2及び3に開示される技術思想を適用したところで何ら変わることなく生じ得る。即ち、上記先行技術文献に開示される装置を含む従来の装置では、複数の表示物の中からユーザの意思に沿った情報を的確に選択することが困難であるという技術的問題点がある。
 本発明は、例えば、係る技術的問題点に鑑みてなされたものであり、ユーザの意思に沿った情報表示を実現し得る表示制御装置を提供することを少なくとも一つの課題とする。
 上述した課題を解決するため、請求の範囲第1項に記載された表示制御装置は、表示画面の表示状態を制御する表示制御装置であって、ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出手段と、第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定手段と、前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御手段とを備える。
 上述した課題を解決するため、請求の範囲第11項に記載された表示制御方法は、表示画面の表示状態を制御する表示制御方法であって、ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出工程と、第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定工程と、前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御工程とを備える。
 上述した課題を解決するため、請求の範囲第12項に記載されたコンピュータプログラムは、コンピュータ装置を請求の範囲第1項から第10項のいずれか一項に記載の表示制御装置として機能させることを特徴とする。
 上述した課題を解決するため、請求の範囲第13項に記載された記録媒体は、請求の範囲第12項に記載されたコンピュータプログラムが記録されることを特徴とする。
本発明の実施例に係る情報表示システムの概念図である。 図1の情報表示システムにおける注視点検出の概念図である。 図1の情報表示システムにおいて実行される情報表示制御のフローチャートである。 ジェスチャ検出領域の概念図である。 指の検出過程を例示した図である。 図1の情報表示システムにおける通常時レイアウトの概念図である。 図3の情報表示制御において実行される表示画面作成処理のフローチャートである。 ユーザの概念的な上面視図である。 選択対象表示物の表示例を示す図である。 図1の情報表示システムにおける操作時レイアウトの概念図である。 視線による表示物の選択がなされた場合の表示画面の概念図である。
 <表示制御装置の実施形態>
 本発明の表示制御装置に係る実施形態は、表示画面の表示状態を制御する表示制御装置であって、ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出手段と、第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定手段と、前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御手段とを備える。
 本発明の表示制御装置に係る実施形態によれば、撮像手段の撮像結果に基づいてトリガ動作及びユーザの注視領域が検出される。
 トリガ動作とは、ユーザが行う一種のジェスチャであるが、先行技術に開示されるような、多数の機能動作に対応付けられた多数のパターンを有するものでない。即ち、トリガ動作とは、表示制御装置に対してトリガ信号を与え得る動作であって、その検出は、多くの場合、二値的な判断基準或いはそれに類する比較的簡素な判断基準に基づいて正確且つ簡便に行われ得る。
 一方、注視領域とは、表示画面上でユーザが注視していると判断され得る一点又は領域を意味する。ここで、撮像結果を注視領域の検出に利用するためには、現実的には少なくともユーザの目元付近が撮像される必要がある。しかしながら、上述したようにトリガ動作の検出は比較的簡便になされ得る。従って、トリガ動作の定義は、撮像手段を注視領域の検出に適した位置に設置することを前提として、その撮像領域で無理なく検出され得る動作として定めることができる。このため、本発明の表示制御装置に係る実施形態において、撮像手段が複数の撮像手段から構成される必要はない。この点において、多数の機能動作に対応付けられたジェスチャを検出する必要がある場合と較べて、表示制御装置の実施形態に係る装置構成上の制約は著しく緩和され得る。
 本発明の表示制御装置に係る実施形態によれば、決定手段により、第1表示状態において表示画面に表示される複数の表示物の中から、検出されたトリガ動作又は注視領域に対応する指定表示物が決定される。指定表示物とは、複数の表示物のうち、ユーザの意思に沿っている可能性が相対的に高いと判断され得る一又は複数の表示物を意味する。
 尚、上述したトリガ動作の検出の容易性に鑑みると、トリガ動作によって指定表示物が変化する、或いは複数の表示物の中から指定表示物となり得る表示物を特定することは、一見想到し難い面がある。然るに、トリガ動作の定義と、その実践的な態様とは必ずしも一対一に対応しない。また好適にはこれらは一対多に対応する。即ち、一の定義で包括されるトリガ動作の実践的態様は複数あってよい。従って、個々のトリガ動作と表示画面上の領域とを対応付けることは、必ずしも困難でない。トリガ動作に対応して指定表示物が決定される場合、トリガ動作には、好適には表示画面上の領域が対応付けられている。一方、注視領域に対応して指定表示物が決定される場合には、トリガ動作は単一の動作であっても問題ない。
 ここで、本発明の表示制御装置に係る実施形態によれば、トリガ動作の検出の有無と、表示画面の表示状態とが対応付けられている。即ち、表示画面の表示状態が、ある基準に従って複数の表示物が配置される第1表示状態に該当する場合において、トリガ動作が検出された場合には、表示状態は第2表示状態に切り替えられる。尚、第1表示状態に係る所定の基準とはどのようなものであってもよく、第1表示状態の実践的態様に制約は殆ど無い。
 第2表示状態とは、少なくとも上述した指定表示物の表示属性が第1表示状態とは異なる表示状態である。具体的には、第2表示状態においては、指定表示物について、視線による選択が第1表示状態と較べて容易となる表示属性が与えられている。表示属性とは、表示に関する属性を意味する。視線による選択が容易である、とは一見厳密性を欠くが、少なくとも相異なる複数の表示状態の相互関係の上で論じられる限りにおいては、表示物を視線で選択するにあたっていずれの表示状態が適しているかは一般的な見地から明確である。例えば、表示物の表示面積が相対的に大きければ、視線による選択は相対的に容易であると言える。また、例えば、表示物の視認性が相対的に高ければ、視線による選択は相対的に容易であると言える。また、表示物が雑然と表示されるよりは整然と表示される方が視線による選択が相対的に容易であると言える。
 尚、指定表示物に対して与えられる、視線選択を容易とする旨の表示属性は、指定表示物自身の変化により直接的に与えられるものであっても、指定表示物の表示属性に変化を与え得る、指定表示物以外の表示物の変化により間接的に与えられるものであってもよい。前者は、例えば、指定表示物の表示面積を変える或いは強調表示させる等の措置を含み得る。後者は、例えば、指定表示物以外の表示物を表示画面上から消去したり、指定表示物以外の表示物を目立たなくしたり、指定表示物に関連する情報を新たに表示したりする措置を含み得る。
 従って、この第2表示状態においては、ユーザの注意が、他の表示物よりもこの指定表示物へ向かい易くなる。指定表示物は、ユーザのトリガ動作又は注視領域に対応する表示物であるから、結果として、第2の表示状態においては、ユーザの意思に沿った表示物がユーザに視認され易くなる。
 尚、第1表示状態は、概念的には、第2表示状態によって定義され得る比較的自由度の高い表示状態である。但し、第1表示状態は、実践的には、ユーザが特定の表示物に対する興味を有さない状況、或いはユーザが特定の表示物の検索を開始しようとする状況を前提として、視認性が阻害されない範囲でより多くの情報がユーザに提供されるように構築される。
 このように、本発明の表示制御装置に係る実施形態によれば、第1表示状態と第2表示状態とのうちユーザの意思に応じた一方が選択的に適用される。従って、ユーザの意思に沿った情報表示が実現される。
 ここで重要となるのは、第2表示状態である。第2表示状態において他の表示物よりも高い重み付けを付帯されて表示される指定表示物は、あくまでユーザが興味を抱いていると判断され得る候補に過ぎない。しかしながら、第2表示状態における指定表示物は、第1表示状態と較べて視線選択が容易である旨の表示属性を与えられており、より高い注意を喚起し得るため、ユーザは第2表示状態において、表示される指定表示物の中から、視線によって容易に、また正確に所望の表示物を検索することができる。一方、意思に沿った表示物の検索さえ済んでしまえば、その表示物を決定する動作は、上述したトリガ動作によって代替することができる。
 このように、本発明の表示制御装置に係る実施形態は、視線による情報検索が有する検索精度の低さを、表示画面の表示状態を第2表示状態に切り替えることによって克服する一方で、第2表示状態に従った表示の表示タイミングや表示期間を、検出の容易性が格段に高められたジェスチャとしてのトリガ動作により正確に決定することができる。即ち、本発明の表示制御装置に係る実施形態は、視線に基づいたユーザ意思の推定とジェスチャに基づいたユーザ意思の推定との間に、良好な相互補完関係が構築されている点が一つの重要な特徴となっている。この特徴は、視線による情報検索とジェスチャによる情報検索とを単に組み合わせただけでは得ることができない。本発明の表示制御装置に係る実施形態は、両者の欠点を見出した上で、両者の利点のみを利用し得るように制御手段の制御動作が構築されているのである。
 本発明の表示制御装置に係る実施形態の一の態様では、前記第2の表示状態において、前記指定表示物の中から前記検出された注視領域に基づいて少なくとも一の表示物を選択表示物として選択する選択手段を更に備える。
 この態様によれば、指定表示物の中から注視領域に基づいて少なくとも一つの表示物が選択表示物として選択される。従って、ユーザの意思に沿った表示制御が可能である。
 尚、この態様では、前記制御手段は、前記選択表示物を強調表示させてもよい。
 このように選択表示物が強調表示された場合、ユーザは、その時点で自身が選択している表示物を視覚的に把握することができる。
 本発明の表示制御装置に係る実施形態の一の態様では、前記第2表示状態は、前記第1表示状態と較べて前記指定表示物の視認性が高い表示状態である。
 この態様によれば、第2表示状態における指定表示物は、第1表示状態と較べて視認性が高い。即ち、第2表示状態において、指定表示物には、視線選択を容易ならしめる表示属性の一例として、相対的に視認性が高い旨の属性が与えられる。従って、指定表示物を中心とした情報検索(即ち、所望の表示物の検索)の容易性又は確実性が好適に担保される。
 尚、視認性を高める措置は多義的であり、例えば、拡大表示、強調表示、点滅表示、表示色の変更等が含まれ得る。
 本発明の表示制御装置に係る実施形態の他の態様では、前記第2表示状態は、前記第1表示状態と較べて前記指定表示物の表示面積が大きい表示状態である。
 この態様によれば、第2表示状態における指定表示物は、第1表示状態と較べて表示面積が大きい。即ち、第2表示状態において、指定表示物には、視線選択を容易ならしめる表示属性の一例として、相対的に表示面積が大きい旨の属性が与えられる。従って、指定表示物を中心とした情報検索(即ち、所望の表示物の検索)の容易性又は確実性が好適に担保される。
 本発明の表示制御装置に係る実施形態の他の態様では、前記第2表示状態は、前記指定表示物を整列させた表示状態である。
 この態様によれば、第2表示状態における指定表示物は整列して表示される。即ち、第2表示状態において、指定表示物には、視線選択を容易ならしめる表示属性の一例として、整列して表示される旨の属性が与えられる。従って、指定表示物を中心とした情報検索(即ち、所望の表示物の検索)の容易性又は確実性が好適に担保される。
 尚、指定表示物を整列表示させるにあたっての基準は様々であってよく、指定表示物は、直線的に整列していてもよいし、曲線的に整列していてもよいし、ユーザとの位置関係に従って整列していてもよい。また、指定表示物を整列させるにあたって、指定表示物以外の表示物の属性が併せて変更されてもよい。
 本発明の表示制御装置に係る実施形態の他の態様では、前記制御手段は、前記トリガ動作が解除された場合に前記表示状態を前記第1表示状態に制御する。
 この態様によれば、トリガ動作が解除された場合に表示物の表示状態が第1表示状態に戻されるため、第2表示状態に従った表示状態の制御を的確な期間についてのみ効果的に行うことができる。尚、「トリガ動作が解除される」とは、概念的には、トリガ動作が非検出であることを含む。
 本発明の表示制御装置に係る実施形態の他の態様では、前記トリガ動作は、前記トリガ動作の検出を支援すべく定められた所定の構造物と前記ユーザの身体部位とを接触又は離間させる動作である。
 この態様によれば、ユーザは構造物と身体部位とを接触又は離間させるだけでトリガ動作を行うことができる。従って、操作性が向上する。
 尚、この構造物は、トリガ動作の検出を支援すべく定められた物体である。トリガ動作は、上述したようにその検出性が高いジェスチャであるが、トリガ動作の検出が撮像結果に基づいてなされる点に鑑みれば、その検出を常時安定して行うためには、ユーザの動作期間についてユーザに対して常時静止している、又は常時静止しているとみなし得る物体を基準にするのがよい。従って、この態様によれば、トリガ動作の安定した検出が可能である。
 尚、この態様では、前記表示制御装置は、車両に搭載され、前記構造物は前記車両のハンドルであり、前記ユーザの身体部位は手の指であってもよい。
 本発明の表示制御装置に係る実施形態が車両に搭載されることを前提とした場合、ハンドルは上述した構造物として好適である。またハンドルを握る手の指は、上述した身体部位として好適である。
 本発明の表示制御装置に係る実施形態の他の態様では、前記撮像手段と、前記表示画面を有する表示手段とを備える。
 この態様によれば、表示制御装置と撮像手段及び表示手段との間の制御信号のやり取りが最適化され得るので、本発明の表示制御装置に係る実施形態の効能がより顕著に発揮され得る。
 尚、「表示手段を備える」とは、例えば、表示制御装置に係る実施形態と表示手段とがハードウェア的に一体に構成されることのみに限定されず、表示制御装置に係る実施形態と表示手段とが、例えば、電気配線や無線通信等を通じて電気的に接続され、一個のシステムをなすこと等を含む趣旨である。同様に「撮像手段を備える」とは、例えば、表示制御装置に係る実施形態と撮像手段とがハードウェア的に一体に構成されることのみに限定されず、表示制御装置に係る実施形態と撮像手段とが、例えば、電気配線や無線通信等を通じて電気的に接続され、一個のシステムをなすこと等を含む趣旨である。
 <表示制御方法の実施形態>
 本発明の表示制御方法に係る実施形態は、表示画面の表示状態を制御する表示制御方法であって、ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出工程と、第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定工程と、前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御工程とを備える。
 表示制御方法に係る実施形態によれば、上記表示制御装置に係る実施形態の各手段と同等の作用を実現する各工程により、上記表示制御装置に係る実施形態と同様に、ユーザの意思に沿った情報表示が実現される。
 <コンピュータプログラムの実施形態>
 本発明のコンピュータプログラムに係る実施形態は、コンピュータシステムを本発明の表示制御装置に係る実施形態として機能させる。
 当該コンピュータプログラムを格納するROM、CD-ROM、DVD-ROM、ハードディスク等の記録媒体或いはUSB(Universal Serial Bus)メモリ等コンピュータシステムに着脱可能な固体型記憶装置から、当該コンピュータプログラムをコンピュータシステムに読み込んで実行させれば、或いは、当該コンピュータプログラムを、例えば、通信手段等を介してコンピュータシステムにダウンロードさせた後に実行させれば、上述した本発明の表示制御装置に係る実施形態を比較的簡単に実現できる。
 尚、上述した本発明の表示制御装置に係る実施形態における各種態様に対応して、本発明のコンピュータプログラムに係る実施形態も各種態様を採ることが可能である。
 <記録媒体の実施形態>
 本発明の記録媒体に係る実施形態は、本発明のコンピュータプログラムに係る実施形態が記録される。
 本発明の記録媒体に係る実施形態によれば、コンピュータシステムに装着又は接続することによって、或いはコンピュータシステムに備わる又は接続された然るべき読取装置に挿入することによって、記録している本発明のコンピュータプログラムに係る実施形態を、コンピュータシステムに読み込ませて実行させることができ、上述した本発明の表示制御装置に係る実施形態を比較的簡単に実現できる。
 本発明のこのような作用及び他の利得は次に説明する実施例から明らかにされる。
 以下、適宜図面を参照して、本発明の好適な実施例として、情報表示システム10について説明する。
 <実施例の構成>
 始めに、図1を参照し、情報表示システム10の構成について説明する。ここに、図1は、情報表示システム10の概念図である。
 図1において、情報表示システム10は、図示せぬ車両に搭載され、当該車両の運転者たるユーザ1に利用される装置であり、表示制御装置100、ディスプレイDP及び撮影部CMを含んで構成される。情報表示システム10において、これら各要素は、制御バスBSを介して電気的に接続されている。情報表示システム10は、本発明に係る表示制御装置の一適用例であり、不図示のカーナビゲーションシステムの一部として構成されている。従って、情報表示システム10は、車両の位置情報、地図情報、周辺施設の情報、道路情報等の各種情報を、利用者1に提供することができる。尚、本発明に係る表示制御装置の用途は、カーナビゲーション分野に限定されない。
 表示制御装置100は、CPU(Central processing Unit)ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたコンピュータ装置である。表示制御装置100のROMには、表示制御装置100が実行する各種の制御に関する制御プログラムが格納されている。この制御プログラムの中には、後述する情報表示制御に関する制御プログラムも含まれる。
 尚、この情報表示制御に関する制御プログラムは、本発明に係る「コンピュータプログラム」の一例である。また、このROMは、本発明に係る「記録媒体」の一例である。尚、ROMは不揮発性記憶装置であるから、本実施例において、情報表示制御に関する制御プログラムは予め制御装置100に備わることになるが、この制御プログラムは、RAM若しくはハードディスク或いは制御装置100に備わり得る他の揮発性制御装置に書き込まれていてもよい。この場合、制御プログラムのアップデート及びメンテナンス等が比較的簡便になされ得る。また、この制御プログラムをネットワークで配信する、或いは制御プログラムが記録された記録媒体を配布する等の措置を講じることも可能となる。
 ディスプレイDPは、車両の運転席前方におけるフロントガラスの手前に、ルーフ部分から吊り下げられた状態で固定された、本発明に係る「表示手段」の一例たる情報表示装置である。ディスプレイDPは、ユーザ1の視認に供される表示画面(符号省略)を有する。尚、本実施例では、ディスプレイDPと表示制御装置100とが別体に構成されるが、これは本発明に係る表示制御装置の採り得る形態の一例である。例えば、表示制御装置100とディスプレイDPとを一体的に構成することも可能である。
 撮影部CMは、ハンドルHDの奥側に位置するメータフード内においてユーザ1を撮像可能に固定された、本発明に係る「撮像手段」の一例たるデジタルカメラである。尚、当該デジタルカメラを制御する制御部は、カメラ内部に収容されている。撮影部CMは、可視光カットフィルタが設けられた、赤外線撮影が可能なステレオカメラである。撮影部CMは、被写体(ここでは、ユーザ1)の方向に赤外線を照射しながら行われる赤外線撮影と、赤外線の照射が行われない通常撮影との双方が可能な構成となっている。
 表示制御装置100は、上記制御プログラムが実行されることによって機能する、視点検出部110、操作検出部120、表示情報制御部130、レイアウト制御部140及び操作検出部150を備える。
 視点検出部110は、撮影部CMの撮影画像(本発明に係る「撮像結果」の一例)から、ディスプレイDPの表示画面(符号省略)内でユーザ1が注視している点(以下、適宜「注視点」と称する)の位置を検出可能に構成されている。視点検出部110は、このユーザ1の注視点を、上記表示画面内の位置座標として検出することができる。
 ここで、図2を参照し、視点検出部110によるユーザ1の注視点の検出について説明する。ここに、図2は、注視点検出の概念図である。尚、同図において、図1と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
 図2において、予めディスプレイDPと撮影部CMとの位置関係は既知である(図示矢線a)。一方、撮影部CMにより得られた撮影画像に基づいて、ユーザ1の視線方向を検出することができる(図示矢線c参照)。また、同様に撮影部CMに対するユーザ1の眼球位置を検出することができる(図示矢線b参照)。ユーザ1の注視点dの位置座標は、これらの情報から、公知の幾何学的手法により、ユーザ1の視線とディスプレイDPの表示画面との交点として求められる。
 操作検出部120は、ユーザ1の操作を検出可能に構成されており、予備操作検出部121及び決定操作検出部122を含んで構成される。
 予備操作検出部121は、ユーザ1の予備操作を検出可能に構成される。本実施例において、予備操作は、ハンドルHD上で行われる指差し操作(ハンドルHD上に指を一本置くジェスチャ)として定義される。尚、予備操作は、本発明に係る「トリガ操作」の一例である。予備操作検出部121による予備操作の具体的な検出態様については後述する。
 決定操作検出部122は、ユーザ1の決定操作を検出可能に構成される。本実施例において、決定操作は、ハンドルHD上で指一本により行われるタップ操作として定義される。尚、決定操作の検出は、本発明に係る「トリガ動作の解除の検出」の一例である。決定操作検出部122による決定操作の具体的な検出態様については後述する。
 表示情報制御部130は、地図情報やGPS(Global Positioning System)等から得られる測位情報を基に、カーナビゲーションシステムとしてその時点で表示すべき各種の情報を決定し、ディスプレイDPの制御を介して表示画面に表示させる構成となっている。
 レイアウト制御部140は、表示情報制御部130により決定された表示すべき情報の表示状態を含む表示画面の画面構成を、その時の状況に応じて的確に制御する構成となっている。ここで、本実施例における「その時の状況」とは、視点検出部110及び操作検出部120の各々における検出結果である。レイアウト制御部140によりレイアウトされる情報には、運転者1の操作により選択及び決定がなされる操作対象表示物が含まれる。操作対象表示物は、本発明に係る「複数の表示物」の一例である。
 操作出力部150は、決定操作検出部122によりユーザ1の決定操作が検出された場合に、その時点の表示画面のレイアウト及び決定操作が検出された表示画面上の位置から、ユーザ1によって選択操作が行われた表示物を確定し、当該確定した表示物に関する情報をユーザ1に出力する構成となっている。
 <実施例の動作>
 次に、実施例の動作として、情報表示システム10の動作について説明する。
 <情報表示制御の詳細>
 始めに、図3を参照し、情報表示制御の詳細について説明する。ここに、図3は、情報表示制御のフローチャートである。
 図3において、情報表示制御が開始されると、ディスプレイDPの表示画面に表示すべき表示情報が決定される(ステップS110)。
 ここでは、地図情報、施設情報、道路情報、事前に設定された目的地情報、設定経路情報及び位置情報等に基づいて、表示情報が決定される。例えば、GPS信号等に基づいて現在位置及び進行方向が取得され、別途取得される地図情報から、現在位置及び進行方向が地図上の位置情報として表示される。一方、設定経路情報に基づいて近未来的な走行経路が予測され、その時点で何らかの検索条件が設定されていれば、この近未来的な走行経路において検索条件に合致する施設等の情報が表示される。例えば、検索条件として「飲食店」が設定されていれば、施設情報から車両の走行経路上の飲食店に関する情報が検索され、地図情報に重畳される形で表示画面に表示される。
 尚、本実施例では、ディスプレイDPの表示画面が制御される構成としたが、表示画面は、例えば、HMD(Head Mounted Display)等の表示画面であってもよい。また、本実施例では、地図情報(三次元画像でも二次元画像でもよい)に情報が重畳される構成としたが、実際に車両前方に広がる外界の映像に施設情報等が付帯されることによって一種のAR(Augmented Reality)が実現されてもよい。
 次に、操作検出部120によりユーザ操作が検出される(ステップS120)。本実施例では、ユーザ操作として、ユーザ1の手(本発明に係る「身体部位」の一例)のジェスチャが検出される。
 ここで、ジェスチャの詳細な検出手法について説明する。
 始めに、図4を参照し、ジェスチャ検出領域について説明する。ここに、図4は、ジェスチャ検出領域の概念図である。
 図4において、図4(a)は、撮像部CMにおけるユーザ1の一撮影画像を例示したものである。撮像部CMはステレオカメラであるから、撮像部CMの撮影画像(図4(a)に相当する画像)は複数である。この複数の撮影画像から、ハンドルHDの領域(以下、適宜「ハンドル領域」とする)が特定される。
 より具体的には、ハンドルHDに対する撮像部CMの設置位置及び撮像方向は予め固定されており、撮影画像において、ハンドルHDは、楕円形に見えるはずであり、また撮影画像の上半分に弧状に見えるはずである。更にハンドルHDは相対的に暗色であり一様である。これらの事前予測が成立することから、撮影画像においてハンドル領域を特定することができる。尚、ステレオカメラによれば、ハンドル領域をより正確に検出可能であるが、公知の画像認識処理やパターン認識処理に基づいて、モノラルカメラの撮影画像からハンドル領域を特定することも十分に可能である。
 一方、図4(b)には、ハンドル領域が特定された様子が示される。図4(b)には、ハンドルの外郭が白破線で示されている。即ち、この破線枠内部がハンドル領域となる。ここで、ジェスチャ検出領域Agesは、この特定されたハンドル領域に沿って設定される(図示ハッチング領域参照)。具体的には、ジェスチャ検出領域Agesは、ハンドル領域の内側に設定され、その幅は(撮像部CMに対する開角)は、撮影画像におけるハンドルHDの最上部を基点として左右に設定される。例えば、この幅は、当該最上部を基点に左右に20度前後に設定される。
 尚、ハンドルHDと撮像部CMとの位置関係は、半永久的に固定されている。従って、ジェスチャ検出領域Agesは、ハンドルHDとそれ以外とのコントラストが強くなり易い、車室内の日当たりが良好な環境条件において一度設定されれば、永続的に使用可能である。但し、ユーザがハンドルの物理的位置を変更した場合等には、ジェスチャ検出領域Agesは適宜再設定される。
 図3に戻り、ジェスチャが検出されるにあたっては、上述したハンドル領域が特定された上で、事前にハンドル領域の任意の位置におけるステレオ視差が求められる。ステレオ視差は、ハンドル領域を所定時間以上横切る静止物が存在する場合や、ハンドル領域を横切る物体が一方向に移動する場合に求められる。即ち、それら静止物や物体は、ハンドルHDに触れている手である可能性が高く(前者はユーザ1がハンドルHDを保舵している状態、後者はユーザ1がハンドルHDを操舵している状態に夫々対応する)、ステレオ視差を求めることができるからである。ステレオ視差は、ハンドルHDの複数の位置で求められる。このステレオ視差に基づいて、ハンドルHD付近で検出された指がハンドルHDに接触しているか離間しているかの判定が可能となる。尚、ハンドルHDは、本発明に係る「構造物」の一例である。
 ステップS120に係るユーザ操作の検出においては、先ず、ハンドルHD付近の指が検出される。
 指の検出は、赤外線照射時及び赤外線非照射時の各々について撮影画像を比較することにより行われる。尚、この比較はステレオ撮影された左右の撮影画像の各々について行われる。この比較により、撮像部CMに近接している被写体が検出される。撮像部CMに近接している被写体が検出されると、その中で先述したジェスチャ検出領域Agesを横切る被写体が更に検出され、ユーザ1の指であると判定される。
 尚、ハンドルHDを横切る被写体が指として太過ぎる場合やハンドル領域をも被写体が横切っている場合は、如何なる状態であるかに関係なく、指であるか否かの判定精度を担保するため、ここでは指であるとの判定は行われない。判定された指の位置は、ジェスチャ検出領域Agesを横切る一次元の位置情報として特定される。
 この様子が図5に例示される。図5は、指の検出過程を例示した図である。尚、同図において、図4と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
 図5において、図5(a)は赤外線撮影画像の例であり、図5(b)は非赤外線撮影画像の例である。このように赤外線撮影が行われると、ハンドルHDに近接した物体の明るさに明確な差異が生じる。従って、それらの差分には、ハンドルに近接した物体のみが現れる。この様子が図5(c)に表される。このハンドルに近接した物体は、ハンドル領域よりも後(ユーザ1側)にあり、その太さも妥当であるため、ユーザ1の指であると判定される。
この様子は、図5(d)に表される。図5(d)には、ジェスチャ検出領域Agesにおいて、指の検出結果rs1、rs2、rs3及びrs4が得られた様子が示される。
 一方、左右のステレオ撮影画像の各々において指が検出されると、夫々で検出された画像上の指同士が近付けられステレオ視差が求められる。この求められたステレオ視差と予め求められていたステレオ視差との比較により、検出された指がハンドルHDに触れているか否かが判定される。この判定動作により、ハンドルHD近傍で検出された指の本数と位置、ハンドルHDへの接触状態が求められる。操作検出部120では、上記の検出及び判定に係る動作を繰り返し実行し、ユーザ1がハンドルHD上に意図的に指を置く操作(予備操作)及びその指を一旦ハンドルHDから離間させた後、再びハンドルHDに接触させるタップ操作の夫々を検出する。
 図3に戻り、視点検出部110によりユーザ1の注視点が検出される(ステップS130)。ユーザ1の注視点は、上述した概念に従って検出されるが、より具体的には、次のように検出される。
 即ち、視点検出部110は、撮像部CMから取得したユーザ1の撮影画像から、ユーザ1の目元領域を抽出する。次に、瞳孔中心とプルキニエ象から視線方向を算出する。一方、撮像部CMは、これに先立ってユーザ1の目をステレオ撮影しており、視点検出部110は、このステレオ撮影された目の画像から、撮像部CMとユーザ1の目との位置関係を算出する。撮像部CMに対するディスプレイDPの位置は初期情報として与えられているため、これらの情報と目の位置とから、ユーザ1の視線と表示画面との交点の位置が求められる。この求められた位置は、注視点の位置として、最終的に表示画面上の座標点に変換される。尚、注視点は、本発明に係る「注視領域」の一例である。
 次に、レイアウト制御部140により表示画面作成処理が行われる(ステップS200)。ここでは、ステップS110で決定された表示情報のレイアウトの制御が行われる場合について説明する。尚、本発明との対比の上では、このレイアウト制御部140による表示画面作成処理は、本発明に係る「制御手段」の動作の一例である。
 ここで、レイアウト制御部140により制御される表示情報のレイアウトには大別二種類存在する。一方は通常時レイアウトであり、他方は操作時レイアウトである。前者は本発明に係る「第1表示状態」の一例であり、後者は本発明に係る「第2表示状態」の一例である。
 ここで、通常時レイアウトについて、図6を参照して説明する。ここに、図6は、通常時レイアウトの概念図である。
 図6には、ステップS110で決定された表示情報が、通常時レイアウトに従って表示されている様子が示される。即ち、通常時レイアウトでは、表示画面(図示矩形枠)内で複数の表示物が、整理されたリスト形式ではなく、外界の位置関係に即して二次元的に離散的に表示される。
 具体的には、表示物obj1は、カーナビゲーション機能により提示された車両の目標走行路である。また、目標走行路に沿った施設の情報として、表示物obj11、obj12、obj13、obj14、obj15、obj16、obj17が示される。各表示物の表示面積が異なるのは、外界の位置関係に即した情報表示を実現するためである。即ち、目標走行路の表示と同様に、現時点で車両に近接している表示物(施設)程、その表示面積は大きくなる。このように通常時レイアウトは、表示物同士の位置関係が、外界における実際の位置関係を保持しているため、ユーザ1が全体的な情報を把握し易いレイアウトになっている。
 一方、通常時レイアウトにおいては、ユーザ1の意思と、表示物の表示面積との間に関係性がない。即ち、図6において、ユーザ1が、外界において遠方に位置する表示物obj16の詳細な内容を確認しようとしても、表示物obj16を選択することは容易でない。この際、表示物obj16をカーソルやポインタの移動操作で指定することは非直感的であり簡便でもない。またジェスチャで表示物obj16を選択することも容易でない。何故なら、何らの制約も設けられないジェスチャを単なる画像認識処理で検出することは実践的には困難だからである。本実施例に係る表示画面作成処理は、このような問題点を克服するものである。表示画面作成処理では、このような状況で操作時レイアウトが選択される。即ち、表示物のレイアウトが標準時レイアウトから操作時レイアウトに変更される。
 ここで、図7を参照し、表示画面作成処理の詳細について説明する。ここに、図7は、表示画面作成処理のフローチャートである。
 図7において、予備操作が検出されたか否かが判定される(ステップS210)。本実施例に係る予備操作とは、既に述べたように、ハンドルHDに対して指を一本置く動作である。予備操作が検出されない場合(ステップS210:NO)、通常時レイアウトに従って表示物が表示される(ステップS260)。
 一方、予備操作が検出されると(ステップS210:YES)、選択対象表示物が抽出される(ステップS220)。選択対象表示物は、表示画面に表示されている操作対象表示物の中から選択された、ユーザ1の意思に合致していると判断され得る表示物である。選択対象表示物は、本発明に係る「指定表示物」の一例である。
 ここで、図8及び図9を参照し、予備操作の検出に伴う選択対象表示物の抽出について説明する。ここに、図8は、ユーザ1の概念的な上面視図である。また、図9は、選択対象表示物の表示例を示す図である。尚、これら各図において、既出の各図と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
 図8には、予備操作によるハンドルHD上での位置入力と、表示画面上の位置との対応関係が示される。
 予備操作検出部121により検出される予備操作は、指を一本ハンドルHDに置く操作である。尚、ジェスチャ検出領域Agesは、既に述べたように、ハンドルHDの下方にハンドルHDに沿って設定された領域であるので、予備操作は、厳密にはハンドルHDの下方においてハンドルHDに指を置く操作である。
 既に述べたように、操作検出部120は、ユーザ1の指の位置を、ジェスチャ検出領域Agesを横切る一次元の位置情報として特定することができる。そこで、レイアウト制御部140は、ジェスチャ検出領域Agesと、ディスプレイPDの表示画面の水平方向軸とを一次元的に対応付け、この予備操作が入力されたジェスチャ検出領域Ages上の位置を表示画面上の位置に変換する(図示黒丸参照)。
 次に、予備操作に対応する表示画面上の位置に基づいて、操作対象表示物から選択対象表示物が抽出される。この様子が図9に示される。
 図9(a)は、予備操作の入力位置が便宜的に太い矢線で表示されている。尚、図示する表示画面の表示内容は、便宜的に通常時レイアウトに従った表示となっている。
 ここで、レイアウト制御部140は、通常時レイアウトに従って操作対象表示物を表示した場合に、この予備操作に対応する入力位置に近い数個の表示物を選択対象表示物として抽出する。この様子が図9(b)に示される。図9(b)には、表示物obj14、obj15、obj16、obj17が抽出された様子が示される。
 図7に戻り、選択対象表示物が抽出されると、表示物を操作時レイアウトに従って表示するための制御情報が生成され、表示物が操作時レイアウトに従って表示される(ステップS230)。操作時レイアウトは、表示物同士を実際の位置関係に即して表示するレイアウトである点については通常時レイアウトと同様である。但し、操作時レイアウトは、選択対象表示物の中から視線により一の表示物を選択する行為を支援するため(即ち、本願発明の概念との対比の上では、視線による選択を容易とするため)、抽出された選択対象表示物の視認性が通常時レイアウトと較べて高められたレイアウトである。視認性を向上させるための措置は多義的であるが、ここでは、表示面積を拡大する措置について説明する。
 操作時レイアウトについて、図10を参照して説明する。ここに、図10は、操作時レイアウトの概念図である。尚、同図において、図9と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
 図10において、図10(a)は、選択対象表示物の拡大の様子を示した図である。図10(a)において、表示物obj14、obj15、obj16及びobj17(夫々符号省略)は、夫々が実際の位置関係を保持したまま拡大され、夫々選択対象表示物or14、or15、or16及びor17に変更される。また、図10(a)では、選択対象表示物以外の操作対象表示物は、一時的に表示画面上から消去される。
 その結果、実際に操作時レイアウトに従って表示物の表示状態が制御された表示画面は、図10(b)のようになる。即ち、操作時レイアウトに従って選択対象表示物が表示された表示画面は、ユーザ1による視線入力に適した画面となる。言い換えれば、操作時レイアウトにおいて、選択対象表示物には、通常時レイアウトと較べて視線選択が容易である旨の表示属性が与えられる。具体的には、この表示属性は、選択対象表示物を拡大する旨の直接的変化と、選択対象表示物以外の表示物を消去する旨の間接的変化によりもたらされる。
 尚、図10(b)に係る操作時レイアウトは、本発明に係る「第1表示状態と較べて指定表示物の視認性が高い第2表示状態」及び「第1表示状態と較べて指定表示物の表示面積が大きい第2表示状態」の夫々一例である。
 尚、操作時レイアウトにおける選択対象表示物の視認性向上措置に係る態様は、各種ある。例えば、選択対象表示物の数を所定値以下とする、選択対象表示物の大きさを所定以上とする、選択対象表示物の表示間隔を所定以上とする、選択対象表示物を、元の位置関係が可及的に保持されたまま整列させる等の措置が講じられてもよい。また、通常時レイアウトと操作時レイアウトとの間で二値的にレイアウトが変化する点に鑑みれば、これらの切り替え過渡期において、或いは、予備操作の入力位置が変化する等して選択対象表示物が変化する場合等において、違和感軽減等を目的としたアニメーション処理等が行われてもよい。
 図7に戻り、操作時レイアウトに従って選択対象表示物が表示されると、ユーザ1の視線が検出されたか否かが判定される(ステップS240)。ユーザ1の視線とは、視点検出部110により検出される注視点を意味する。視線が検出されない場合(ステップS240:NO)には、表示画面作成処理は終了する。
 一方、ユーザ1の視線が検出された場合(ステップS240:YES)、レイアウト制御部140は、既に求められている表示画面上の注視点の位置座標に基づいて、選択対象表示物の中から一の表示物を選択し、当該選択された表示物を強調表示する(ステップS250)。強調表示とは、点滅表示、着色表示、表示色の変更等を含み得る。また、レイアウト制御部140は、選択された表示物の強調表示と併せて、表示画面上に視線カーソルCSを描画する。視線カーソルCSは、視点検出部110により検出されたユーザ1の注視点の位置を示すカーソルである。
 ここで、図11を参照し、視線による表示物の選択について説明する。ここに、図11は、視線による表示物の選択がなされた場合の表示画面の概念図である。尚、同図において、図10と重複する箇所には同一の符号を付してその説明を適宜省略することとする。
 図11において、視線カーソルCS、即ちユーザ1の注視点は図示の通りであり、操作時レイアウトに従って拡大表示された選択対象表示物のうち、この視線カーソルCSに最も近接した表示物は、選択対象表示物or15である。従って、選択対象表示物or15が選択表示物として強調表示(図ではハッチングで示されている)される。また、表示画面には、その時点で選択されている選択対象表示物に関する詳細な情報が表示される。
 尚、視線カーソルCSは必ずしも必要がないが、視線カーソルCSが表示されることにより、ユーザ1は、どの程度視線を変化させれば隣接する表示物が選択されるのかを視覚的に認識することができるため、操作性は一層向上する。
 図7に戻り、強調処理が終了すると、表示画面作成処理は終了する。表示画面作成処理は以上のように行われる。
 図3に戻り、表示画面作成処理が終了すると、処理はメインルーチンである情報表示制御に戻され、操作出力が行われる(ステップS140)。具体的には、決定操作検出部122によりユーザ1の決定操作が検出された場合に、検出された決定操作(即ち、ハンドルHDから指を離し、再度触れるタップ操作)が予備操作の解除操作であると判定される。予備操作が解除されることにより、表示画面のレイアウトは再び通常時レイアウトに復帰する。尚、決定操作に何らかのアクションが対応付けられている場合には、予備操作の解除と共に当該アクションが実行されてもよい。例えば、データの出力等が行われてもよい。操作出力が行われると、情報表示制御は終了する。尚、情報表示制御は、所定周期で繰り返し実行される処理である。従って、再び処理はステップS110から繰り返される。情報表示制御は以上のように実行される。
 このように、本実施例に係る情報表示制御によれば、ハンドルHDに指を置く/離すといった簡便なトリガ操作により表示物のレイアウトを切り替え、ユーザ1の視線による情報選択操作を、情報選択操作に適した操作時レイアウト上で行わせることが可能となる。従って、ユーザの意思に沿った的確なタイミングで、また的確な期間について、操作時レイアウトに従った情報表示を行って、視線入力による直感的な、正確な且つ簡便な情報選択を実現することができるのである。
 即ち、本実施例に係る情報表示制御は、(1)ユーザの複雑なジェスチャを正確に検出して情報の表示制御に利用することが実践的には困難である点と、(2)ユーザの視線による情報選択に適した表示物のレイアウトと、ユーザへの情報提供に適した表示物のレイアウトとが異なる点とを見出している。その上で、予備操作及び決定操作といった簡便なジェスチャをトリガ操作として、情報選択に適した操作時レイアウトと情報提供に適した通常時レイアウトとの間で表示物の表示状態を切り替える旨の技術思想に想到している。言い換えれば、視線による情報入力の欠点とジェスチャによる情報入力の欠点とを相互的に補完する旨の技術思想に想到している。係る技術思想によって、ユーザの意思に沿った的確な情報表示を実現することを可能としているのである。
 尚、本実施例では、選択対象表示物が、表示画面上の位置に変換された、予備操作が入力されたジェスチャ検出領域Ages上の位置に基づいて抽出される構成となっている。しかしながら、選択対象表示物が、あくまで選択対象、即ち候補に過ぎない点に鑑みれば、視点検出部110により検出されたユーザ1の注視点の位置座標を、選択対象表示物の抽出に利用することもまた可能である。また、この注視点の位置座標と、本実施例に係る予備操作による位置座標とを相互に勘案して選択対象表示物の抽出に利用することもまた可能である。
 本発明は、上述した実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う表示制御装置もまた本発明の技術的範囲に含まれるものである。
 1…ユーザ、10…情報表示システム、100…表示制御装置、CM…撮像部、DP…ディスプレイ、HD…ハンドル、110…視点検出部、120…操作検出部、121…予備動作検出部、122…決定動作検出部、130…表示情報制御部、140…レイアウト制御部、150…操作出力部。

Claims (13)

  1.  表示画面の表示状態を制御する表示制御装置であって、
     ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出手段と、
     第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定手段と、
     前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御手段と
     を備える表示制御装置。
  2.  前記第2の表示状態において、前記指定表示物の中から前記検出された注視領域に基づいて少なくとも一の表示物を選択表示物として選択する選択手段を更に備える
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  3.  前記制御手段は、前記選択表示物を強調表示させる
     ことを特徴とする請求の範囲第2項に記載の表示制御装置。
  4.  前記第2表示状態は、前記第1表示状態と較べて前記指定表示物の視認性が高い表示状態である
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  5.  前記第2表示状態は、前記第1表示状態と較べて前記指定表示物の表示面積が大きい表示状態である
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  6.  前記第2表示状態は、前記指定表示物を整列させた表示状態である
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  7.  前記制御手段は、前記トリガ動作が解除された場合に前記表示画面を前記第1表示状態に制御する
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  8.  前記トリガ動作は、前記トリガ動作の検出を支援すべく定められた所定の構造物と前記ユーザの身体部位とを接触又は離間させる動作である
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  9.  前記表示制御装置は、車両に搭載され、
     前記構造物は前記車両のハンドルであり、
     前記ユーザの身体部位は手の指である
     ことを特徴とする請求の範囲第8項に記載の表示制御装置。
  10.  前記撮像手段と、前記表示画面を有する表示手段とを備える
     ことを特徴とする請求の範囲第1項に記載の表示制御装置。
  11.  表示画面の表示状態を制御する表示制御方法であって、
     ユーザを撮像する撮像手段の撮像結果に基づいて、前記ユーザのトリガ動作及び表示画面における前記ユーザの注視領域を検出する検出工程と、
     第1表示状態において前記表示画面に表示される複数の表示物のうち、前記検出されたトリガ動作又は前記検出された注視領域に対応する指定表示物を決定する決定工程と、
     前記第1表示状態において前記トリガ動作が検出された場合に、前記表示状態を、少なくとも前記決定された指定表示物に対し前記第1表示状態と較べて視線による選択を容易とする表示属性が与えられた第2表示状態に制御する制御工程と
     を備える表示制御方法。
  12.  コンピュータ装置を請求の範囲第1項から第10項のいずれか一項に記載の表示制御装置として機能させることを特徴とするコンピュータプログラム。
  13.  請求の範囲第12項に記載のコンピュータプログラムが記録されることを特徴とする記録媒体。
PCT/JP2013/064395 2013-05-23 2013-05-23 表示制御装置 WO2014188565A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13885025.0A EP3001289A4 (en) 2013-05-23 2013-05-23 Display controller
JP2015518003A JPWO2014188565A1 (ja) 2013-05-23 2013-05-23 表示制御装置
PCT/JP2013/064395 WO2014188565A1 (ja) 2013-05-23 2013-05-23 表示制御装置
US14/893,187 US20160089980A1 (en) 2013-05-23 2013-05-23 Display control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/064395 WO2014188565A1 (ja) 2013-05-23 2013-05-23 表示制御装置

Publications (1)

Publication Number Publication Date
WO2014188565A1 true WO2014188565A1 (ja) 2014-11-27

Family

ID=51933148

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064395 WO2014188565A1 (ja) 2013-05-23 2013-05-23 表示制御装置

Country Status (4)

Country Link
US (1) US20160089980A1 (ja)
EP (1) EP3001289A4 (ja)
JP (1) JPWO2014188565A1 (ja)
WO (1) WO2014188565A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039074B2 (ja) * 2013-07-01 2016-12-07 パイオニア株式会社 撮像システム
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018031822A (ja) * 2016-08-22 2018-03-01 パイオニア株式会社 表示装置及び方法、並びにコンピュータプログラム及び記録媒体
JP2020091375A (ja) * 2018-12-04 2020-06-11 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体
JP2020117184A (ja) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 動作認識装置、コンピュータプログラム、および記憶媒体
CN114220204A (zh) * 2021-12-10 2022-03-22 山东黄海智能装备有限公司 一种用于酒店的身份证阅读机

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5754410B2 (ja) * 2012-04-13 2015-07-29 トヨタ自動車株式会社 表示装置
DE102012215407A1 (de) * 2012-08-30 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen einer Eingabe für ein Bedienelement
DE102013013698A1 (de) * 2013-08-16 2015-02-19 Audi Ag Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
KR102337682B1 (ko) * 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US9652047B2 (en) * 2015-02-25 2017-05-16 Daqri, Llc Visual gestures for a head mounted device
US20180239442A1 (en) * 2015-03-17 2018-08-23 Sony Corporation Information processing apparatus, information processing method, and program
WO2016147498A1 (ja) * 2015-03-17 2016-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6464869B2 (ja) * 2015-03-25 2019-02-06 株式会社デンソー 操作システム
EP3342326B1 (en) * 2015-08-28 2022-01-19 FUJIFILM Corporation Instrument operation device, instrument operation method, and electronic instrument system
CN106372095B (zh) * 2015-10-16 2020-02-07 北京智谷睿拓技术服务有限公司 电子地图显示方法、装置及车载设备
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
US10040352B2 (en) * 2016-04-12 2018-08-07 International Business Machines Corporation Vehicle steering control display device
US10387719B2 (en) * 2016-05-20 2019-08-20 Daqri, Llc Biometric based false input detection for a wearable computing device
US10296097B2 (en) * 2016-07-15 2019-05-21 International Business Machines Corporation Controlling a computer system using epidermal electronic devices
DE102016124125A1 (de) * 2016-12-13 2018-06-14 International Automotive Components Group Gmbh Kraftfahrzeug-Innenverkleidungsteil
US11036045B2 (en) * 2017-03-14 2021-06-15 Pioneer Corporation Display device
JP6694112B2 (ja) * 2017-03-17 2020-05-13 マクセル株式会社 Ar表示装置及びar表示方法
JP6922686B2 (ja) * 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置
JP2019104450A (ja) * 2017-12-14 2019-06-27 矢崎総業株式会社 車載撮影装置、及び車載撮影方法
ES2718429B2 (es) * 2017-12-29 2019-11-18 Seat Sa Método y dispositivo asociado para controlar al menos un parámetro de un vehículo
JPWO2021230049A1 (ja) * 2020-05-12 2021-11-18

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2005138755A (ja) 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2008502990A (ja) 2004-06-18 2008-01-31 トビイ テクノロジー アーベー 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2013143012A (ja) * 2012-01-11 2013-07-22 Tokai Rika Co Ltd 視線入力装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10121392A1 (de) * 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
DE102004005816B4 (de) * 2004-02-06 2007-02-08 Audi Ag Kraftfahrzeug
US8120577B2 (en) * 2005-10-28 2012-02-21 Tobii Technology Ab Eye tracker with visual feedback
DE102007025530A1 (de) * 2007-05-31 2008-12-04 Volkswagen Ag Informationsvermittlungsvorrichtung und Verfahren zur Vermittlung von Informationen
JP4884417B2 (ja) * 2008-04-01 2012-02-29 富士フイルム株式会社 携帯型電子装置及びその制御方法
JP2012022632A (ja) * 2010-07-16 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2016503741A (ja) * 2012-12-21 2016-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 自動車用の入力装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2005138755A (ja) 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2008502990A (ja) 2004-06-18 2008-01-31 トビイ テクノロジー アーベー 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム
JP2012221498A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc ユーザーの視線、及びジェスチャによるフィードバック提供システム、及び方法
JP2013143012A (ja) * 2012-01-11 2013-07-22 Tokai Rika Co Ltd 視線入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3001289A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039074B2 (ja) * 2013-07-01 2016-12-07 パイオニア株式会社 撮像システム
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
JP7092028B2 (ja) 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018031822A (ja) * 2016-08-22 2018-03-01 パイオニア株式会社 表示装置及び方法、並びにコンピュータプログラム及び記録媒体
JP2020091375A (ja) * 2018-12-04 2020-06-11 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体
JP7262040B2 (ja) 2018-12-04 2023-04-21 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体
JP2020117184A (ja) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 動作認識装置、コンピュータプログラム、および記憶媒体
CN114220204A (zh) * 2021-12-10 2022-03-22 山东黄海智能装备有限公司 一种用于酒店的身份证阅读机
CN114220204B (zh) * 2021-12-10 2024-01-26 山东黄海智能装备有限公司 一种用于酒店的身份证阅读机

Also Published As

Publication number Publication date
US20160089980A1 (en) 2016-03-31
EP3001289A4 (en) 2017-01-18
JPWO2014188565A1 (ja) 2017-02-23
EP3001289A1 (en) 2016-03-30

Similar Documents

Publication Publication Date Title
WO2014188565A1 (ja) 表示制御装置
US11745585B2 (en) Vehicle infotainment apparatus using widget and operation method thereof
RU2638004C2 (ru) Устройство обработки информации, способ управления отображением и программа
US10591729B2 (en) Wearable device
US9244527B2 (en) System, components and methodologies for gaze dependent gesture input control
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
US9910506B2 (en) Method for interacting with an object displayed on data eyeglasses
KR102029842B1 (ko) 차량 제스처 인식 시스템 및 그 제어 방법
JP6039074B2 (ja) 撮像システム
US20230289049A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
US20140181759A1 (en) Control system and method using hand gesture for vehicle
US20130290884A1 (en) Computer-readable non-transitory storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing control method
JP2012022632A (ja) 情報処理装置およびその制御方法
JP6184827B2 (ja) 電子装置、ジェスチャー入力方法、及びプログラム
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
KR20210129575A (ko) 위젯을 이용한 차량용 인포테인먼트 장치와 그의 동작 방법
KR101296599B1 (ko) 영상 데이터를 디스플레이 하는 방법 및 장치
JP2017197015A (ja) 車載用情報処理システム
US8731824B1 (en) Navigation control for a touch screen user interface
TWM564749U (zh) 車輛多螢幕控制系統
WO2017188098A1 (ja) 車載用情報処理システム
JP5413593B2 (ja) ユーザインターフェイス装置及びコンピュータプログラム
JP6315443B2 (ja) 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20230249552A1 (en) Control apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13885025

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015518003

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2013885025

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14893187

Country of ref document: US

Ref document number: 2013885025

Country of ref document: EP