WO2017013834A1 - 表示操作装置 - Google Patents

表示操作装置 Download PDF

Info

Publication number
WO2017013834A1
WO2017013834A1 PCT/JP2016/002985 JP2016002985W WO2017013834A1 WO 2017013834 A1 WO2017013834 A1 WO 2017013834A1 JP 2016002985 W JP2016002985 W JP 2016002985W WO 2017013834 A1 WO2017013834 A1 WO 2017013834A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile
display
presenter
image
display area
Prior art date
Application number
PCT/JP2016/002985
Other languages
English (en)
French (fr)
Inventor
希 北川
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/745,963 priority Critical patent/US20180210551A1/en
Publication of WO2017013834A1 publication Critical patent/WO2017013834A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • the present disclosure relates to a display operation device that allows an operator to operate an image of an operation target displayed in a space.
  • Patent Document 1 discloses a tactile sensation presentation device that gives a tactile sensation as if it is touching an object by applying ultrasonic stimulation to human skin.
  • a tactile sensation presentation apparatus By combining such a tactile sensation presentation apparatus with a display that displays a 3D image in space and an infrared camera that specifies the position of a finger or the like that operates the 3D image, a virtual object is accompanied by a tactile sensation.
  • An interaction system that can be operated by hand is constructed.
  • the inventor of the present disclosure has a high-sensitivity portion with high sensitivity to tactile stimulation and a low-sensitivity portion with low sensitivity in the operator's fingers and the like. I found out. In order for a finger touching an image displayed in the space to feel a virtual tactile sensation, it is desirable that tactile stimulation is applied to a highly sensitive part.
  • the tactile sensation presentation device cannot always give tactile stimulation to a highly sensitive part such as a finger that operates the image because of the positional relationship with the image displayed in the space. For this reason, depending on the state of an operating body such as a finger that manipulates an image, it may be difficult for the operator to feel a tactile stimulus.
  • the present disclosure has been made in view of the above points, and the purpose of the present disclosure is to provide an operator who operates an image of an intangible operation target displayed in the space with certainty of operation. Is to provide a simple display operation device.
  • a display operation device is a display operation device that allows an operator to operate an image of an operation object displayed in a space, and the operation object is displayed in a virtual aerial display area defined in the space.
  • a spatial display device that displays an image
  • a position specifying device that specifies the position of the operating tool in the aerial display area
  • an operating tool whose position is specified by the position specifying device touch the video of the operation target
  • a tactile presentation device that provides tactile stimulation to the body in a non-contact manner, and the image of the operation target is a high-sensitivity portion sensitive to tactile stimulation in the operation body that is a part of the operator. This is a display mode for guiding the state of the operating body so as to face a direction in which it is likely to receive a tactile stimulus.
  • the display / operation device can surely give a feeling of operation to an operator who operates an image of an intangible operation target displayed in the space.
  • FIG. 1 is a diagram showing a layout around a driver's seat of a vehicle equipped with a display operation device
  • FIG. 2 is a diagram showing the positional relationship of each component of the display operation device
  • FIG. 3 is a block diagram illustrating an electrical configuration of the display operation device according to the first embodiment of the present disclosure.
  • FIG. 4 is a flowchart showing details of the tactile control process performed by the tactile sensation control unit.
  • FIG. 5 is a flowchart showing details of the video control process performed by the display control unit.
  • FIG. 6 is a diagram showing a display mode of an image of the operation target in the first embodiment and a state of a finger guided by this image.
  • FIG. 7 is a diagram illustrating a display mode of an image of an operation target in the second embodiment of the present disclosure and a state of a finger guided by the image
  • FIG. 8 is a diagram illustrating a display mode of an image of the operation target in the third embodiment of the present disclosure and a state of a finger guided by the image
  • FIG. 9 is a block diagram showing an electrical configuration of the display operation device according to the third embodiment.
  • FIG. 10 is a diagram illustrating a display mode of the image of the operation target object in the fourth embodiment of the present disclosure and the state of the hand guided to the image
  • FIG. 10 is a diagram illustrating a display mode of the image of the operation target object in the fourth embodiment of the present disclosure and the state of the hand guided to the image
  • FIG. 11 is a block diagram showing an electrical configuration of the display operation device according to the fourth embodiment.
  • FIG. 12 is a diagram illustrating a display mode of an image of the operation target object in the fifth embodiment of the present disclosure and a state of a finger guided by the image;
  • FIG. 13 is a diagram for explaining the operation of the moving mechanism accompanying the dial rotation operation;
  • FIG. 14 is a flowchart showing details of the tactile control process performed by the tactile sensation control unit of the fifth embodiment.
  • FIG. 15 is a block diagram showing an electrical configuration of the display operation device according to the fifth embodiment.
  • FIG. 16 is a diagram illustrating a display mode of an image of an operation target in the sixth embodiment of the present disclosure and a state of a finger guided by the image;
  • FIG. 16 is a diagram illustrating a display mode of an image of an operation target in the sixth embodiment of the present disclosure and a state of a finger guided by the image;
  • FIG. 17 is a diagram for explaining switching of the tactile presenter accompanying the dial rotation operation
  • FIG. 18 is a diagram for explaining switching of the tactile presentation device in accordance with the rotation operation of the dial.
  • FIG. 19 is a flowchart showing details of the haptic control process performed by the haptic control unit of the sixth embodiment.
  • FIG. 20 is a block diagram showing an electrical configuration of the display operation device according to the sixth embodiment.
  • the display operation device 100 is mounted on a vehicle, for example, to other in-vehicle devices such as an air conditioner 121 (see FIG. 3) and an audio device 122 (see FIG. 3). It functions as a user interface for vehicles that accept operations.
  • Each component of the display operation device 100 is accommodated in the center cluster 111 and the center console 112.
  • the display operation device 100 displays an image of the operation target 61 in a virtual aerial display area 60 (see the dot range in FIG. 1) defined in a rectangular planar shape.
  • the aerial display area 60 is defined in a space above the center console 112 and behind the center cluster 111.
  • a driver seated in the driver's seat, a passenger seated in the passenger's seat, and the like can operate the video of the virtual operation target 61 displayed in the air between the driver's seat and the passenger's seat as the operator OP.
  • the display operation device 100 includes an operation tool specifying device 20, a tactile presentation device 30, and a space display device 50 as shown in FIGS.
  • the operation body specifying device 20, the tactile presentation device 30, and the space display device 50 are electrically connected to each other and can exchange information with each other.
  • the display operation device 100 can output operation information input by an operator OP or the like toward other in-vehicle devices.
  • the longitudinal direction of the aerial display area 60 is the left-right direction HD
  • the direction perpendicular to the left-right direction HD along the aerial display area 60 is the vertical direction VD
  • the front side of the vehicle with respect to the aerial display area 60 is the back side
  • the rear side of the vehicle with respect to the aerial display area 60 is the front side.
  • the operating tool identifying unit 20 includes, for example, an infrared camera, and detects the state of the operating tool (for example, a finger F) that is to operate the image of the operation target 61.
  • the operation tool identification device 20 is disposed above and behind the tactile sense presentation device 30.
  • the operating tool specifying unit 20 can detect the state of the operating tool in a three-dimensional space including at least the aerial display region 60 and its surroundings.
  • the operating tool specifying unit 20 includes a position specifying unit 21 and a posture specifying unit 22.
  • the position specifying unit 21 specifies the position of the finger F in the aerial display area 60 by analyzing the image captured by the infrared camera.
  • the posture identifying unit 22 identifies the posture of the finger F in the aerial display area 60 by analyzing an image captured by the infrared camera.
  • the tactile sensation presentation device 30 is formed in a flat plate shape as a whole and is disposed below the aerial display area 60.
  • the tactile presentation device 30 has an ultrasonic wave generation surface 31 and a tactile sensation control unit 32.
  • the ultrasonic wave generation surface 31 is formed by two-dimensionally arranging a plurality of vibrators that oscillate ultrasonic waves.
  • the tactile presentation device 30 is fixed to the center console 112 in a posture in which the ultrasonic wave generation surface 31 faces the aerial display area 60.
  • the ultrasonic wave generation surface 31 generates a tactile sensation on the operating body in the tactile sense presentation area 36 by pressure generated by the ultrasonic vibrator.
  • the tactile sensation presentation area 36 is a three-dimensional space including at least the aerial display area 60 and the periphery thereof, and substantially coincides with a range in which the operating tool identifier 20 can detect the operating tool.
  • the tactile sensation control unit 32 controls a tactile sensation stimulus applied to the operating body by operating a plurality of ultrasonic transducers in a coordinated manner.
  • the tactile sensation control unit 32 repeatedly performs the tactile sense control process (see FIG. 4).
  • the tactile sensation control unit 32 acquires information on the position and orientation of the finger F from the operating tool identifier 20 (see S101 in FIG. 4), and acquires shape information of the operation target 61 from the space display 50 (S102 in FIG. 4). reference). Then, the tactile sensation control unit 32 determines whether or not an operation body such as a finger F is touching the image of the operation target 61 based on each acquired information (see S103 in FIG. 4). As a result, when affirmative determination is made that the finger F is touching the operation target 61, the tactile sensation control unit 32 gives a tactile stimulus without contact to the finger F or the like (see S104 in FIG. 4).
  • the space display 50 includes a liquid crystal panel 51, a reflector 52, and a display control unit 53.
  • the liquid crystal panel 51 includes a display panel that forms the display surface 51a, a backlight that illuminates the display panel, and the like.
  • the liquid crystal panel 51 can display full-color images by continuously forming image data sequentially acquired from the display control unit 53 on the display surface 51a.
  • the liquid crystal panel 51 is disposed below the reflector 52 and is fixed in the center cluster 111 or the center console 112 with the display surface 51a facing the reflector 52.
  • the reflector 52 is formed in a flat plate shape as a whole, and is disposed above the liquid crystal panel 51.
  • the reflector 52 is a so-called two-plane orthogonal reflector, and is an optical element in which a large number of micromirrors are arranged.
  • the reflector 52 is formed in a lattice shape to form a large number of minute through holes.
  • Each through hole is formed in a square hole shape.
  • Each side surface that divides the through-hole has a mirror shape, and forms the above-described micromirror.
  • Each micromirror is orthogonal to each other.
  • a part of the light emitted from the display surface 51 a is reflected once by the two micromirrors orthogonal to each other, and a real image is formed in the space opposite to the liquid crystal panel 51 with the reflector 52 interposed therebetween. Is imaged.
  • a two-dimensional imaging surface that forms an image of the display surface 51 a is defined in advance as the aerial display region 60. The operator OP can see the video of the operation target 61 displayed in the air in the aerial display area 60 with the naked eye.
  • the display control unit 53 controls a plurality of pixels provided on the liquid crystal panel 51 to control the form of a video image displayed on the display surface 51a and eventually a real image formed on the aerial display region 60.
  • the display control unit 53 repeatedly performs a video control process (see FIG. 5) that changes the shape of the operation target 61 in accordance with the operation input of the finger F.
  • the display control unit 53 acquires the position information of the finger F from the operating tool identifier 20 (see S111 in FIG. 5), and whether or not there is an operation input of the finger F or the like to the operation target 61 based on the acquired information. Is determined (see S112 in FIG. 5).
  • the display control unit 53 updates the form of the operation target 61 in accordance with the operation input by the finger F (see S113 in FIG. 5). Further, the display control unit 53 outputs the updated shape information of the operation target 61 to the tactile presenter 30 (see S114 in FIG. 5) and directs a command signal based on the operation of the finger F to an external in-vehicle device. Output.
  • the image of the operation target 61 is such that the high-sensitivity part SR having high sensitivity to tactile stimulation in the finger F of the operator OP is directed in a direction in which the tactile stimulation is easily received by the tactile presentation device 30, that is, downward. It is set as the display mode which induces a state. It is presumed that receptors that function as biological tactile sensors such as Meissner bodies present directly under the skin and Merkel cells present in the epidermis are distributed at high density in the high-sensitivity region SR. In the first embodiment, a part from the abdomen to the side of the fingertip is a high sensitivity part SR, and the other part of the finger F is a low sensitivity part DR.
  • the image of the operation target 61 includes a knob portion 62 that can move in the left-right direction HD, and a slider groove portion 63 that indicates the movement range of the knob portion 62.
  • the display controller 53 moves the knob 62 along the slider groove 63.
  • the operator OP can change, for example, a set sound volume in the audio device, a set temperature in the air conditioner, and the like by a slide operation of the knob unit 62.
  • the direction in which the knob portion 62 is movable in the first embodiment is defined along the plate surface direction of the ultrasonic wave generation surface 31. Therefore, when the knob 62 is to be moved in the left-right direction HD along the slider groove 63, the operator OP sandwiches the knob 62 from both sides in the left-right direction HD with the thumb and index finger. As a result, the high-sensitivity portions SR of the thumb and index finger are directed downward where the ultrasonic wave generation surface 31 is located. According to the above, the operator OP receives the tactile stimulation by the ultrasonic wave output from the ultrasonic wave generation surface 31 with the fingertips of the thumb and forefinger, and has a virtual tactile sensation as if the knob part 62 is sandwiched. I can feel it.
  • a knob 162 that can be moved in the vertical direction VD is shown in FIG.
  • the knob portion 162 is movable in a direction orthogonal to the plate surface direction of the ultrasonic wave generation surface 31.
  • the operator OP sandwiches the knob portion 162 from above and below with the thumb and index finger.
  • the thumb is in a state where the back of the finger, which is the low sensitivity portion DR, is directed downward where the ultrasonic wave generation surface 31 is located.
  • the high sensitivity portion SR of the index finger is hidden from the ultrasonic wave generation surface 31 by the thumb. Based on the above, it becomes difficult for the operator OP to receive the tactile sensation stimulus by the ultrasonic waves at the fingertips of the thumb and the index finger.
  • the tactile sensation presentation device 30 provides strength to the tactile stimulation given to each of the thumb and the index finger when the operation of moving the knob unit 62 is performed. Specifically, a stronger tactile sensation is generated with respect to the fingertip on the rear side in the movement direction than the fingertip on the front side in the movement direction among the two fingertips sandwiching the knob portion 62. Specifically, when the knob 62 is slid toward the driver's seat, a stronger tactile stimulus is applied to the fingertip of the index finger than to the fingertip of the thumb. On the other hand, when the knob 62 is slid toward the passenger seat side, a stronger tactile stimulus is applied to the fingertip of the thumb than to the fingertip of the index finger. As described above, the operator OP can feel a virtual resistance feeling associated with the movement of the knob 62 at the fingertip.
  • the highly sensitive region SR having high sensitivity to tactile stimulation in the finger F of the operator OP is guided by the image of the operation target 61 displayed in the space. It can turn to the direction which is easy to receive the tactile sense stimulus by the tactile presenter 30. Therefore, even if the tactile stimulus is applied in a non-contact manner, the certainty that the operator feels is high. According to the above, the display / operation device 100 can surely give a feeling of operation to the operator OP who operates the image of the operation object 61 having no substance displayed in the space.
  • the operator OP moves the knob portion 62 from both sides of the left-right direction HD. Should be sandwiched by F. As a result, the highly sensitive part SR of the finger F comes to face the ultrasonic wave generation surface 31. Therefore, the tactile sensation presentation device 30 gives a tactile sensation to the high-sensitivity part SR of each fingertip that sandwiches the knob unit 62, and makes the operator OP feel as if the knob unit 62 is sandwiched. it can.
  • the high-sensitivity part SR can feel the strength of the tactile stimulation received with high sensitivity. Therefore, if tactile stimuli having different strengths are applied to the two fingertips sandwiching the knob unit 62, the tactile sensation presentation device 30 performs a slide operation by pushing the knob unit 62 from the rear side in the moving direction. It is possible to make the operator OP feel a realistic tactile sensation.
  • the finger F corresponds to an “operation body”
  • the position specifying unit 21 corresponds to a “position specifying unit”
  • the posture specifying unit 22 corresponds to a “posture specifying unit”
  • the surface 31 corresponds to a “generation surface”
  • the knob portion 62 corresponds to a “contact portion”.
  • the second embodiment of the present disclosure shown in FIG. 7 is a modification of the first embodiment.
  • the video of the operation target 261 in the second embodiment includes a plurality of push buttons 262.
  • the plurality of push buttons 262 are arranged in the left-right direction HD along the ultrasonic wave generation surface 31.
  • the push button 262 is provided with a pressing surface 263 directed toward the operator OP.
  • the pressing surface 263 is slightly inclined upward toward the back side. Due to the inclination of the pressing surface 263, each push button 262 can be recognized by the operator OP as an input unit capable of a downward push operation where the tactile presentation device 30 is located.
  • the display control unit 53 displays a video image of pushing down the push button 262 to which the operation has been input.
  • the tactile sensation control unit 32 (see FIG. 3) provides a tactile sensation to the fingertip of the finger F touching the pressing surface 263 and controls to increase the tactile sensation to be generated in accordance with the timing when the push button 262 is pressed. Do. Based on the above, the operator OP can feel a virtual keystroke feeling associated with the push operation.
  • the operator OP is guided to the shape of the push button 262, so that the operator OP performs the push operation in a state where the belly portion of the finger F, which is the high-sensitivity region SR, faces the ultrasonic wave generation surface 31. Should try to do.
  • the tactile sensation presentation device 30 can give a tactile sensation stimulus to the abdomen of the finger F so that the operator can feel the push button 262 being pressed.
  • the push button 262 corresponds to a “push button unit”.
  • the third embodiment of the present disclosure shown in FIGS. 8 and 9 is another modification of the first embodiment.
  • the display operation device 300 according to the third embodiment includes an operation tool specifying unit 20, a first tactile presenter 330, a second tactile presenter 340, a space display 350, and a control unit 310.
  • the first haptic presenter 330 has a configuration corresponding to the haptic presenter 30 of the first embodiment.
  • the tactile sensation control unit 32 (see FIG. 3) is omitted from the first tactile sense presenter 330.
  • the first tactile sensation presentation device 330 is disposed below the aerial display area 60 and can give a tactile sensation to an operating body such as a finger F in the tactile sensation presentation area 36.
  • the second haptic presenter 340 has substantially the same configuration as the first haptic presenter 330, and is arranged on the back side of the aerial display region 60 separately from the first haptic presenter 330.
  • the ultrasonic generation surface 341 of the second haptic presenter 340 is directed to the aerial display area 60 in the same manner as the ultrasonic generation surface 31 of the first haptic presenter 330.
  • the ultrasonic wave generation surface 341 can give a tactile sensation to the operation body such as the finger F and the palm in the tactile sensation presentation area 36 defined on the front side from a direction different from that of the first tactile sensation presentation device 330.
  • the space indicator 350 has a configuration corresponding to the space indicator 50 (see FIG. 3) of the first embodiment.
  • the display controller 53 (see FIG. 3) is omitted from the space display 350.
  • the reflector 52 (see FIG. 2) of the space display 350 is arranged so as to be shifted in the vertical direction VD with respect to the second tactile presenter 340.
  • the control unit 310 is electrically connected to the operating body identifying device 20, the first tactile presenter 330, the second tactile presenter 340, and the space display 350.
  • the control unit 310 is electrically connected to an in-vehicle device outside the display / operation device 300, and outputs operation information to the in-vehicle device.
  • the control unit 310 is mainly composed of a microcomputer having a processor, a RAM, and a memory.
  • the control unit 310 constructs the operation information acquisition unit 11, the display control unit 12, and the tactile sensation control unit 13 as functional blocks by causing a processor to execute a predetermined program.
  • the operation information acquisition unit 11 acquires information indicating the position and posture of the operating body from the position specifying unit 21 and the posture specifying unit 22.
  • the display control unit 12 can exhibit a function corresponding to the display control unit 53 (see FIG. 3) of the first embodiment, and controls an image displayed in the aerial display area 60.
  • the tactile sensation control unit 13 can exhibit a function corresponding to the tactile sensation control unit 32 (see FIG. 3) of the first embodiment, and controls tactile stimulation applied to the operating body from each of the two tactile presentation devices 330 and 340. To do.
  • the menu screen group includes at least an air conditioning menu screen that accepts an operation on the air conditioner 121, an audio menu screen that accepts an operation on the audio device 122, and a main menu screen that is an upper layer of these.
  • the operator OP performs display from the main menu screen to a lower level such as an air conditioning menu screen and an audio menu screen by selecting and determining one of a plurality of icons displayed on the main menu screen. Transition can be made.
  • the video of the operation target 361 includes at least one rotatable dial 362.
  • the dial 362 is displayed in the aerial display area 60 in a posture in which a virtual rotation axis intersects the aerial display area 60.
  • the rotation axis of the dial 362 in the third embodiment is substantially orthogonal to the aerial display area 60.
  • the display mode of the image of the operation target 361 guides the operator OP to grasp the dial 362 from above with a plurality of fingers F and rotate it in any direction.
  • the display control unit 12 counterclockwise based on the information output from the position specifying unit 21 and the posture specifying unit 22 to the operation information acquiring unit 11.
  • the image of the rotating dial 362 is displayed.
  • an image of the dial 362 rotating clockwise is displayed.
  • the operator OP can sequentially switch icons that are selected on the menu screen being displayed.
  • tactile sensation stimulation is given to the fingertip of the finger F touching the dial 362 by the first tactile sensation presenter 330 controlled by the tactile sensation control unit 13. As a result, the operator OP can feel a virtual tactile sensation as if holding the dial 362.
  • the display control unit 12 displays an image of the dial 362 that is displaced inward. Furthermore, when the currently selected icon is determined by pressing the dial 362, the display control unit 12 changes the level of the menu screen group to another level. Then, the tactile sensation is given to the finger F and the palm performing the pushing operation by the second tactile sensation presentation device 340 controlled by the tactile sensation control unit 13 at the timing when the dial 362 is pushed. As a result, the operator OP can feel a virtual click feeling associated with the pressing operation of the dial 362.
  • the high-sensitivity portion SR of each finger F that grips the dial 362 can face downward where the first tactile presenter 330 is located.
  • the first tactile sensation presentation device 330 can provide a tactile sensation to the abdomen of the finger F holding the dial 362 so that the operator can feel the sense of gripping the dial 362 with certainty.
  • the plurality of tactile presenters 330 and 340 can give tactile stimulation to the operating body from different directions. Therefore, the display operation device 300 can make the finger F feel a virtual tactile sensation corresponding to each of the rotation operation and the push-in operation. As a result, the display operation device 300 can give a sufficient operational feeling even to the operator OP who performs a complicated input that makes a transition between menu screen groups configured in multiple layers.
  • the dial 362 corresponds to a “dial part”.
  • the fourth embodiment of the present disclosure shown in FIGS. 10 and 11 is a modification of the third embodiment.
  • the display operation device 400 according to the fourth embodiment includes a left tactile presenter 430 and a right tactile presenter 440 instead of the first tactile presenter 330 and the second tactile presenter 340 according to the third embodiment. .
  • These tactile sense presenters 430 and 440 are provided to face each other, one on each side of the aerial display area 60 in the left-right direction HD.
  • the left tactile presenter 430 is disposed on the left side of the aerial display area 60.
  • the left tactile sense presenter 430 is fixed in a posture in which the ultrasonic wave generation surface 431 is directed to the aerial display region 60 located in the right direction.
  • the right tactile presenter 440 is disposed on the right side of the aerial display area 60.
  • the right tactile sensation presentation device 440 is fixed in a posture in which the ultrasonic wave generation surface 441 is directed toward the aerial display region 60 located in the left direction.
  • the ultrasonic wave generation surface 441 faces the ultrasonic wave generation surface 431 in the left-right direction HD.
  • the tactile sense presenters 430 and 440 can apply tactile sensations to the operation body in the tactile sense presenting region 36 defined between the two ultrasonic wave generation surfaces 431 and 441 from different directions.
  • the image of the operation target 461 of the fourth embodiment includes a set of guide display units 462 and 463.
  • Each guide display unit 462 and 463 guides an operation of moving an operating body such as a hand in the left-right direction HD within the aerial display area 60.
  • the moving direction of the hand guided by the guide display units 462 and 463 is the same as the direction in which the two tactile presenters 430 and 440 are arranged.
  • Each of the guide display units 462 and 463 is an image imitating an arrow.
  • the guide display portions 462 and 463 are displayed side by side in the left-right direction HD, and are directed in opposite directions.
  • One of the two guide display portions located on the left side is an arrow pointing in the left direction, and is displayed in blue, for example.
  • the operator OP can lower the set temperature of the air conditioner 121 by moving the hand inserted into the aerial display area 60 leftward.
  • the other (right guide display portion 463) located on the right side is an arrow pointing to the right direction, and is displayed in red, for example.
  • the operator OP can raise the set temperature of the air conditioner 121 by moving the hand inserted into the aerial display area 60 in the right direction.
  • the operator OP is guided to the arrow-shaped guide display portions 462 and 463 and performs an operation of moving the hand in the left-right direction HD in the aerial display area 60.
  • the palm is the high sensitivity part SR and the back of the hand is the low sensitivity part DR.
  • the control unit 310 When an operation that crosses the aerial display area 60 is input, the control unit 310 outputs a command signal for instructing a change in the set temperature to the air conditioner 121 (see FIG. 3).
  • the tactile sensation control unit 13 controls the left tactile sensation presenter 430 and the right tactile sensation presenter 440 to generate tactile stimulation on the palm and the back of the hand. Based on the above, the operator OP can feel a virtual resistance.
  • the tactile sensation control unit 13 can detect the orientation of the palm based on the information acquired by the operation information acquisition unit 11.
  • the tactile sensation control unit 13 outputs the tactile stimulus output generated by the right tactile presenter 440 from the output of the tactile stimulus generated by the left tactile presenter 430 when the palm is directed leftward. Set too high.
  • the tactile sensation given to the low sensitivity part DR becomes stronger than the tactile sensation given to the high sensitivity part SR, so that the operator OP can surely feel the tactile sensation on both the palm and the back of the hand.
  • the tactile sensation control unit 13 outputs the tactile sensation generated by the left tactile sensation presentation device 430 and outputs the haptic stimulation generated by the right tactile sensation presentation device 440 when the palm is directed rightward. Set higher than the output of.
  • the tactile sensation control unit 13 generates a stronger tactile stimulation when the moving operating body approaches each of the tactile sense presenters 430 and 440 than when the operating body moves away. For example, when the operator OP moves his / her hand to the left, the tactile sensation control unit 13 increases the tactile stimulus output from the left tactile presenter 430 and also outputs the tactile stimulus output from the right tactile presenter 440. Weaken. As described above, the operator OP can feel a sense of resistance as if the hand is moving in a highly viscous fluid.
  • the orientation of the hand is guided by the image of the operation target 461, and the operator OP can surely feel the feeling of operation on at least the palm as the high-sensitivity part SR.
  • the palm as the high-sensitivity region SR can be in a state of facing either the left or right tactile presenter 430, 440 by the guidance of each guide display unit 462, 463.
  • the left tactile sensation presenter 430 or the right tactile sensation presenter 440 can give a tactile sensation to the palm inserted into the aerial display region 60 and cause the operator OP to feel resistance.
  • the tactile sensation control unit 13 can make the operator OP performing an operation across the aerial display area 60 feel a virtual sense of resistance with high reality.
  • the left tactile presenter 430 and the right tactile presenter 440 correspond to the “tactile presenter”
  • the left-right direction HD corresponds to the “opposite direction”.
  • the fifth embodiment of the present disclosure shown in FIGS. 12 to 15 is another modification of the third embodiment.
  • the tactile sensation control unit 513 of the display operation device 500 according to the fifth embodiment is electrically connected to the haptic presenter 530 and the moving mechanism 580.
  • the haptic presenter 530 has substantially the same configuration as that of the first embodiment.
  • the tactile sense presenter 530 is movable around the aerial display area 60 while maintaining the posture in which the ultrasonic wave generation surface 31 is directed to the aerial display area 60.
  • the moving mechanism 580 is a mechanism that changes the relative position of the tactile presenter 530 with respect to the aerial display area 60.
  • the moving mechanism 580 can move the haptic presenter 530 below the aerial display area 60.
  • the movable range of the tactile presenter 530 by the movement mechanism 580 is, for example, between the lower left and the lower right of the aerial display area 60.
  • the moving mechanism 580 moves the tactile presenter 530 to a position where it is easy to give a tactile stimulus to the high sensitivity part SR.
  • the haptic presenter 530 revolves around the aerial display area 60 in the clockwise direction.
  • the tactile sensation control unit 513 controls the generation of tactile sensation by the tactile sense presenter 530 and controls the movement of the tactile presenter 530 by the movement mechanism 580.
  • the tactile sensation control unit 513 determines whether or not the finger F is touching the image of the operation target 361 based on the information acquired from the operation information acquisition unit 11 by performing the tactile control process (see S501 to S503 in FIG. 14). ).
  • the tactile sensation control unit 513 is based on the posture of the finger F specified by the posture specifying unit 22, and the sensitive part SR of the finger F is used.
  • the tactile sense presenter 530 is moved to a position where it is easy to give a tactile sensation (see S504 in FIG. 14).
  • the tactile sensation control unit 513 applies a tactile sensation stimulus to the high-sensitivity part SR of the finger F without contact (see S505 in FIG. 14).
  • the same effects as in the third embodiment can be obtained, and the operator OP can surely feel the feeling of operation even when operating the innocent dial 362.
  • the tactile sense presenter 530 gives a tactile stimulus to the high-sensitivity region SR by adjusting the position by the moving mechanism 580. Easy state can be maintained. According to the above, in the rotation operation of the dial 362, the operator OP can continue to feel the virtual feeling holding the dial 362.
  • the sixth embodiment of the present disclosure shown in FIGS. 16 to 20 is still another modified example of the third embodiment.
  • the tactile sensation control unit 613 of the display operation device 600 is electrically connected to a plurality (three) of tactile presenters 630, 640 a, and 640 b provided at different positions with respect to the aerial display region 60.
  • the lower tactile presenter 630 corresponds to the tactile presenter 30 (see FIG. 6) of the first embodiment, and generates a tactile stimulus from below the aerial display area 60.
  • the left tactile presenter 640a corresponds to the left tactile presenter 430 (see FIG. 10) of the fourth embodiment, and generates a tactile stimulus from the left side of the aerial display area 60.
  • the right tactile presenter 640b corresponds to the right tactile presenter 440 (see FIG. 10) of the fourth embodiment, and generates a tactile stimulus from the right side of the aerial display area 60.
  • the tactile sensation control unit 613 determines whether or not the finger F is touching the image of the operation target 361 based on the information acquired from the operation information acquisition unit 11 by performing the tactile control process (see S601 to S603 in FIG. 19). ). As a result, when it is determined that the finger F is touching the operation target 361, the tactile sensation control unit 613 selects a tactile presenter to be actuated (see S604 in FIG. 19). Specifically, the tactile sensation control unit 613 is based on the posture of the finger F specified by the posture specifying unit 22 and is located at a position where the tactile sensation stimulus is easily applied to the high sensitivity part SR among the plurality of tactile presenters 630, 640a, 640b.
  • At least one is determined as a haptic presenter to be activated. Then, a tactile sensation is given to the high-sensitivity region SR of the finger F in a non-contact manner by the tactile sensation device that is the operation target (see S605 in FIG. 19).
  • a tactile sensation is given to the finger F mainly by the lower tactile presenter 630 (see FIG. 16).
  • a tactile sensation is applied to the finger F mainly by the left tactile presenter 640a (see FIG. 17).
  • a tactile stimulus is given to the finger F mainly by the right tactile sense presenter 640b (see FIG. 18).
  • the same effects as in the third embodiment are obtained, and the operator OP can surely feel the feeling of operation even when operating the innocent dial 362.
  • the tactile sensation is applied to the high-sensitivity region SR by cooperative control of a plurality of tactile presenters by the tactile sensation control unit 613. Will continue to be given.
  • the operator OP can continue to feel the virtual feeling holding the dial 362.
  • a right tactile presenter (see FIG. 10) is provided instead of the tactile presenter 30 (see FIG. 6).
  • the movable direction of the knob portion specified by the slider groove is set to the vertical direction VD along the ultrasonic wave generation surface of the right tactile presenter.
  • the second haptic presenter 340 (see FIG. 8) is omitted. Also in the second modification example, the configuration corresponding to the first tactile sensation presenter 330 (see FIG. 8) gives a tactile stimulus to the high-sensitive part of the finger from below the aerial display region 60 and holds the dial. This makes it possible for the operator to continue to feel that feeling.
  • the number and arrangement of the tactile presenters can be appropriately changed according to the space that can be secured for the display operation device in the vehicle. Then, the display form of the image of the operation target is appropriately set so as to be an affordance picture in which a highly sensitive part such as a finger faces the tactile presenter in correspondence with the relative position of the tactile presenter with respect to the aerial display area. It can be changed.
  • Each tactile presentation device in the above embodiment forms an ultrasonic wave generation surface by arranging vibrators in a flat plate shape.
  • the ultrasonic wave generation surface on which the transducers are arranged may have a curved shape.
  • the tactile presenter need not have a configuration using ultrasonic waves.
  • a device that gives a tactile sensation to the operating body by injecting a converged airflow toward the operating body can be used as the tactile sense presenter.
  • the operating object specifying device in the above embodiment detects the position and posture of a finger or the like by analyzing a captured image of an infrared camera.
  • various configurations capable of detecting the state of the operating tool in the air can be employed as the operating tool specifying device.
  • a stereo camera, a time-of-flight (TOF) distance image camera, a high-sensitivity electrostatic capacity sensor, or the like can be used as the operation body specifying device.
  • the space display in the above embodiment is configured to allow the operator to visually recognize the image formed in the space by the reflector 52 (see FIG. 2).
  • the space indicator may be configured not to use the reflector 52.
  • the aerial display area may have a vertically long rectangular shape and a horizontally long elliptical shape.
  • the vertical direction VD and the horizontal direction HD of the aerial display area may be inclined with respect to the vertical direction and the width direction of the vehicle in a stationary state.
  • an image displayed in the aerial display area may be easily viewed by an operator sitting in the driver's seat by arranging the front of the aerial display area toward the headrest of the driver's seat.
  • the display operation device In the display operation device according to the first embodiment, the operator can see the back side through the video displayed in the aerial display area. Therefore, the display operation device can reduce the load of the line of sight movement of the operator sitting in the driver's seat by positioning the aerial display area at a height close to the driver's line of sight.
  • the display operation device of the third embodiment since the second tactile presenter is located on the far side of the aerial display area, it is difficult for the operator to visually recognize the other side of the aerial display area. Therefore, in the display operation device as in the third embodiment, it is desirable to locate the aerial display area in the vicinity of the operator sitting in the driver's seat, for example, immediately above the center console.
  • the display operation device of the above embodiment is an interface that receives operations of an air conditioner, an audio device, and the like.
  • the in-vehicle devices that can be operated by input to the display operation device are not limited to the above-described devices.
  • the menu screen displayed when operating each in-vehicle device may be displayed in the aerial display area as in the above embodiment, or displayed in another display area such as a liquid crystal screen of a combination meter. Also good.
  • the operator has inserted his / her finger into the tactile sense presentation area in order to operate the displayed knob part. Therefore, the range from the abdomen to the side of the finger is a high-sensitivity region and is guided to the tactile presentation device.
  • the operator inserts the entire hand into the tactile sense presentation area. Therefore, the palm is regarded as a high-sensitivity region and is guided to the tactile presenter.
  • the range set as the high-sensitivity part can be set as appropriate in accordance with the operation method assumed to be input by the operator. However, it is desirable that the receptors functioning as the living body tactile sensor are distributed at a higher density in the range set as the high-sensitivity region than in other ranges in the tactile sense presentation area.
  • a control unit is provided for each of the tactile presentation device and the space display device.
  • the control unit that controls the tactile sense presenter and the space display is provided in the control unit.
  • the functions provided by each control unit can be provided by hardware and software different from those described above, or a combination thereof.
  • the processor of the control circuit provided in the space display can specify the position and posture of the operating body by controlling the tactile presentation device or analyzing the image analysis.
  • an application target of the present disclosure is not limited to a display operation device mounted on a vehicle.
  • a display device to which the present disclosure is applied is suitable for an interface of a medical device with particularly strict hygiene management because fingers and the like do not touch a tangible object.
  • the display operation device to which the present disclosure is applied is also suitable for an interface of a device in which operations are input by an unspecified number of operators such as an automatic teller machine.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

表示操作装置(100)は、空間表示器(50)、操作体特定器(20)、及び触覚提示器(30)を備え、空間に表示された操作対象物(61)の映像を操作者(OP)に操作させることができる。空間表示器(50)は、操作対象物(61)の映像を空中表示領域(60)に表示する。操作体特定器(20)は、空中表示領域(60)にある手指(F)の位置を特定する。触覚提示器(30)は、操作対象物(61)の映像に触れた手指(F)に非接触で触感刺激を与える。そして、操作対象物(61)の映像は、触感刺激への感度の高い指先の腹から側面が、触覚提示器(30)による触感刺激を受け易い方向を向くように、手指(F)の状態を誘導する表示態様とされる。

Description

表示操作装置 関連出願の相互参照
 本出願は、2015年7月23日に出願された日本特許出願番号2015-145926号に基づくもので、ここにその記載内容を援用する。
 本開示は、空間に表示された操作対象物の映像を操作者に操作させる表示操作装置に関する。
 従来、例えば特許文献1には、超音波による刺激を人間の皮膚に与えることにより、あたかも物体に触れているかのような触感刺激を感じさせる触覚提示装置が開示されている。このような触覚提示装置を、三次元映像を空間に表示させる表示器、及び三次元映像を操作する手指等の位置を特定する赤外線カメラと組み合わせることによれば、バーチャルな物体を、触感を伴いながら手で操作可能なインタラクションシステムが構成される。
特許第5343946号公報
 本開示の発明者は、特許文献1のようなインタラクションシステムを開発する過程において、操作者の手指等には、触感刺激への感度の高い高感度部位と、感度の低い低感度部分とがあることを見出した。空間に表示された映像に触れる手指に、バーチャルな触感を確実に感じてもらうためには、触感刺激は、高感度部位に与えられるのか望ましい。
 しかし、触覚提示装置は、空間に表示される映像との位置関係から、映像を操作する手指等の感度の高い部位に、常に触感刺激を与えられるわけではない。そのため、映像を操作する手指等の操作体の状態によっては、操作者に触感刺激を感じさせることが困難な状況も生じ得た。
 本開示は、上記点に鑑みてなされたものであって、その目的は、空間に空中表示された実体のない操作対象物の映像を操作する操作者に、確実に操作感を与えることが可能な表示操作装置を提供することにある。
 本開示の一態様による表示操作装置は、空間に表示された操作対象物の映像を操作者に操作させる表示操作装置であって、空間に規定される仮想の空中表示領域に、操作対象物の映像を表示する空間表示器と、空中表示領域にある操作体の位置を特定する位置特定器と、位置特定器にて位置を特定された操作体が操作対象物の映像に触れると、この操作体に非接触で触感刺激を与える触覚提示器と、を備え、操作対象物の映像は、操作者の一部である操作体において触感刺激への感度の高い高感度部位が、触覚提示器による触感刺激を受け易い方向を向くように、操作体の状態を誘導する表示態様である。
 この開示によれば、空間に表示された操作対象物の映像に誘導されることにより、操作者の操作体において触感刺激への感度の高い高感度部位は、触覚提示器による触感刺激を受け易い方向に向き得る。故に、非接触にて加えられる触感刺激であっても、操作者の感じる確実性は高くなる。以上によれば、表示操作装置は、空間に表示された実体のない操作対象物の映像を操作する操作者に対して、操作感を確実に与えることができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、表示操作装置が搭載された車両の運転席周辺のレイアウトを示す図であり、 図2は、表示操作装置の各構成の位置関係を示す図であり、 図3は、本開示の第一実施形態による表示操作装置の電気的構成を示すブロック図であり、 図4は、触感制御部にて実施される触覚制御処理の詳細を示すフローチャートであり、 図5は、表示制御部にて実施される映像制御処理の詳細を示すフローチャートであり、 図6は、第一実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図であり、 図7は、本開示の第二実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図であり、 図8は、本開示の第三実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図であり、 図9は、第三実施形態による表示操作装置の電気的構成を示すブロック図であり、 図10は、本開示の第四実施形態における操作対象物の映像の表示態様と、この映像に誘導される手の状態を示す図であり、 図11は、第四実施形態による表示操作装置の電気的構成を示すブロック図であり、 図12は、本開示の第五実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図であり、 図13は、ダイヤルの回転操作に伴う移動機構の作動を説明するための図であり、 図14は、第五実施形態の触感制御部にて実施される触覚制御処理の詳細を示すフローチャートであり、 図15は、第五実施形態による表示操作装置の電気的構成を示すブロック図であり、 図16は、本開示の第六実施形態における操作対象物の映像の表示態様と、この映像に誘導される手指の状態を示す図であり、 図17は、ダイヤルの回転操作に伴う触覚提示器の切り替えを説明するための図であり、 図18は、ダイヤルの回転操作に伴う触覚提示器の切り替えを説明するための図であり、 図19は、第六実施形態の触感制御部にて実施される触覚制御処理の詳細を示すフローチャートであり、 図20は、第六実施形態による表示操作装置の電気的構成を示すブロック図である。
 以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
 (第一実施形態)
 図1及び図2に示す本開示の第一実施形態による表示操作装置100は、車両に搭載され、例えば空調装置121(図3参照)及びオーディオ装置122(図3参照)といった他の車載機器への操作を受け付ける車両用のユーザーインターフェースとして機能する。表示操作装置100の各構成は、センタークラスター111及びセンターコンソール112に収容されている。表示操作装置100は、矩形の平面状に規定された仮想の空中表示領域60(図1のドットの範囲を参照)に、操作対象物61の映像を表示する。空中表示領域60は、センターコンソール112の上方であって、センタークラスター111の後方の空間に規定されている。運転席に着座する運転者及び助手席に着座する乗員等は、操作者OPとして、運転席及び助手席の間に空中表示されたバーチャルな操作対象物61の映像を操作することができる。
 表示操作装置100は、図1~図3に示すように、操作体特定器20、触覚提示器30、及び空間表示器50を備えている。操作体特定器20、触覚提示器30、及び空間表示器50は、互いに電気的に接続されており、相互に情報をやり取りすることができる。表示操作装置100は、他の車載機器へ向けて、操作者OP等によって入力された操作情報を出力することができる。
 尚、以下の説明では、空中表示領域60の長手方向を左右方向HDとし、空中表示領域60に沿って左右方向HDと直交する方向を上下方向VDとする。また、空中表示領域60に対して車両前方を奥側とし、空中表示領域60に対して車両後方を手前側とする。
 操作体特定器20は、例えば赤外線カメラ等を含む構成であって、操作対象物61の映像を操作しようとする操作体(例えば手指F等)の状態を検出する。操作体特定器20は、触覚提示器30の上方且つ奥側に配置されている。操作体特定器20は、空中表示領域60とその周囲を少なくとも含む三次元空間での操作体の状態を検出することができる。
 操作体特定器20は、位置特定部21及び姿勢特定部22を有している。位置特定部21は、赤外線カメラによって撮像された画像を解析することにより、空中表示領域60における手指Fの位置を特定する。姿勢特定部22は、赤外線カメラによって撮像された画像を解析することにより、空中表示領域60における手指Fの姿勢を特定する。
 触覚提示器30は、全体として平板状に形成されており、空中表示領域60の下方に配置されている。触覚提示器30は、超音波発生面31及び触感制御部32を有している。超音波発生面31は、超音波を発振する複数の振動子を二次元配列することによって形成されている。超音波発生面31が空中表示領域60を向く姿勢にて、触覚提示器30は、センターコンソール112に固定されている。超音波発生面31は、超音波振動子によって生じさせる圧力により、触覚提示領域36にある操作体に触感刺激を発生させる。触覚提示領域36は、空中表示領域60とその周囲を少なくとも含む三次元空間であり、操作体特定器20が操作体を検出可能な範囲と概ね一致している。
 触感制御部32は、複数の超音波振動子を協調動作させることにより、操作体に与える触感刺激を制御する。触感制御部32は、触覚制御処理(図4参照)を繰り返し実施する。触感制御部32は、操作体特定器20から手指Fの位置及び姿勢の情報を取得すると共に(図4 S101参照)、空間表示器50から操作対象物61の形状情報を取得する(図4 S102参照)。そして触感制御部32は、取得した各情報に基づき、操作対象物61の映像に手指F等の操作体が触れているか否かを判定する(図4 S103参照)。その結果、手指Fが操作対象物61に触れていると肯定判定した場合に、触感制御部32は、手指F等に非接触で触感刺激を与える(図4 S104参照)。
 空間表示器50は、液晶パネル51、リフレクタ52、及び表示制御部53を有している。液晶パネル51は、表示面51aを形成する表示パネルと、表示パネルを透過照明するバックライト等とによって構成されている。液晶パネル51は、表示制御部53から逐次取得する画像データを表示面51aに連続的に形成することにより、フルカラーの映像を表示することができる。液晶パネル51は、リフレクタ52の下方に配置され、表示面51aをリフレクタ52に向けた姿勢にて、センタークラスター111又はセンターコンソール112内に固定されている。
 リフレクタ52は、全体として平板状に形成されており、液晶パネル51の上方に配置されている。リフレクタ52は、所謂二面直交リフレクタであり、多数のマイクロミラーが配列された光学素子である。詳記すると、リフレクタ52は、格子状に形成されることで、多数の微小な貫通孔を形成している。各貫通孔は、四角孔状に形成されている。貫通孔を区画している各側面は、鏡面状とされており、上述のマイクロミラーを形成している。各マイクロミラーは、互いに直交している。
 以上の構成によれば、表示面51aから出射される光の一部は、互いに直交する二つのマイクロミラーによって一回ずつ反射され、リフレクタ52を挟んで液晶パネル51とは反対側の空間に実像として結像される。表示面51aの映像を結像させている二次元状の結像面が、空中表示領域60として予め規定される。操作者OPは、空中表示領域60に空中表示される操作対象物61の映像を裸眼視することができる。
 表示制御部53は、液晶パネル51に設けられた複数の画素を制御することにより、表示面51aに映る映像、ひいては空中表示領域60に結像される実像の形態を制御する。表示制御部53は、手指Fの操作入力に合わせて操作対象物61の形態を変化させる映像制御処理(図5参照)を繰り返し実施する。表示制御部53は、操作体特定器20から手指Fの位置情報を取得し(図5 S111参照)、取得した情報に基づいて操作対象物61への手指F等の操作入力があるか否かを判定する(図5 S112参照)。その結果、操作入力があると判定した場合に、表示制御部53は、手指Fによる操作入力に合わせて、操作対象物61の形態を更新する(図5 S113参照)。さらに表示制御部53は、更新された操作対象物61の形状情報を触覚提示器30へ向けて出力する(図5 S114参照)と共に、手指Fの操作に基づく指令信号を外部の車載機器へ向けて出力する。
 次に、第一実施形態における操作対象物61の詳細を、図6に基づいて、図1を参照しつつ説明する。
 操作対象物61の映像は、操作者OPの手指Fにおいて触感刺激への感度の高い高感度部位SRが、触覚提示器30による触感刺激を受け易い方向、即ち下方を向くように、手指Fの状態を誘導する表示態様とされている。高感度部位SRには、皮膚直下に存在するマイスナー小体、及び表皮に存在するメルケル細胞といった生体触覚センサとして機能する受容器が高密度で分布しているものと推定される。第一実施形態では、指先の腹から側面にかけての部位を高感度部位SRとし、手指Fの他の部位を低感度部位DRとする。
 操作対象物61の映像は、左右方向HDに移動可能なツマミ部62と、ツマミ部62の移動範囲を示すスライダ溝部63とを含んでいる。空間に表示された映像としてのツマミ部62を左右方向HDへスライドさせる操作が操作者OPによって入力されると、表示制御部53は、スライダ溝部63に沿ってツマミ部62を移動させる。操作者OPは、ツマミ部62のスライド操作により、例えばオーディオ装置における設定音量、及び空調装置における設定温度等を変更することができる。
 第一実施形態におけるツマミ部62の移動可能な方向は、超音波発生面31の板面方向に沿って規定されている。故に、ツマミ部62をスライダ溝部63に沿って左右方向HDに移動させようとした場合、操作者OPは、親指と人差指とによってツマミ部62を左右方向HDの両側から挟みにいく。その結果、親指及び人差指の高感度部位SRは、超音波発生面31の位置する下方に向くようになる。以上によれば、操作者OPは、超音波発生面31から出力される超音波による触感刺激を親指及び人差指の各指先で確実に受けて、ツマミ部62を挟んでいるようなバーチャルな触感を感じることができる。
 比較のために、上下方向VDに移動可能なツマミ部162を図6に図示する。このツマミ部162は、超音波発生面31の板面方向に対して直交する方向に移動可能である。ツマミ部162を上下方向VDに移動させようとした場合、操作者OPは、親指と人差指とによってツマミ部162を上下から挟みにいく。その結果、親指は、低感度部位DRである指の背を超音波発生面31の位置する下方へ向けた状態となる。さらに、人差指の高感度部位SRは、親指によって超音波発生面31から隠された状態となる。以上によれば、操作者OPは、超音波による触感刺激を親指及び人差指の各指先で受け難くなってしまうのである。
 さらに触覚提示器30は、ツマミ部62を移動させる操作が行われた場合に、親指及び人差指のそれぞれへ与える触感刺激に強弱を設ける。具体的に、ツマミ部62を挟んでいる二つの指先のうちで移動方向前側にある指先よりも、移動方向後側にある指先に対して、強い触感刺激を発生させる。具体的には、運転席側へ向けてツマミ部62をスライドさせる場合には、親指の指先よりも人差指の指先に強い触感刺激が与えられる。反対に、助手席側へ向けてツマミ部62をスライドさせる場合には、人差指の指先よりも親指の指先に強い触感刺激が与えられる。以上により、操作者OPは、ツマミ部62の移動に伴うバーチャルな抵抗感を指先に感じることができる。
 ここまで説明した第一実施形態によれば、空間に表示された操作対象物61の映像に誘導されることで、操作者OPの手指Fにおいて触感刺激への感度の高い高感度部位SRは、触覚提示器30による触感刺激を受け易い方向に向き得る。故に、非接触にて加えられる触感刺激であっても、操作者の感じる確実性は高くなる。以上によれば、表示操作装置100は、空間に表示された実体のない操作対象物61の映像を操作する操作者OPに対して、操作感を確実に与えることができる。
 加えて第一実施形態のように、超音波発生面31に沿って左右方向HDにスライド可能なツマミ部62が表示されれば、操作者OPは、ツマミ部62を左右方向HDの両側から手指Fによって挟むはずである。その結果、手指Fの高感度部位SRは、超音波発生面31を向くようになる。したがって、触覚提示器30は、ツマミ部62を挟んでいる各指先の高感度部位SRに触感刺激を与えて、このツマミ部62を挟んでいるかのような感覚を操作者OPに感じさせることができる。
 また第一実施形態によれば、高感度部位SRは、受ける触感刺激の強弱も感度良く感じ得る。故に、ツマミ部62を挟んでいる二本の指先に対して異なる強さの触感刺激を与えるようにすれば、触覚提示器30は、移動方向後側からツマミ部62を押してスライド操作をしているようなリアリティのある触感を、操作者OPに感じさせることができる。
 尚、第一実施形態において、手指Fが「操作体」に相当し、位置特定部21が「位置特定器」に相当し、姿勢特定部22が「姿勢特定器」に相当し、超音波発生面31が「発生面」に相当し、ツマミ部62が「接触部」に相当する。
 (第二実施形態)
 図7に示す本開示の第二実施形態は、第一実施形態の変形例である。第二実施形態における操作対象物261の映像には、複数の押釦262が含まれている。複数の押釦262は、超音波発生面31に沿って左右方向HDに並んでいる。押釦262には、操作者OPに向けられた押圧面263が設けられている。押圧面263は、奥側へ向かうに従って上方に僅かに傾斜している。こうした押圧面263の傾斜により、各押釦262は、触覚提示器30の位置する下方へ向けたプッシュ操作の可能な入力部として操作者OPに認識され得る。
 以上の押釦262に下方へ向けたプッシュ操作が入力されると、表示制御部53(図3参照)は、操作の入力された押釦262を下方へ押し下げる映像を表示させる。加えて触感制御部32(図3参照)は、押圧面263に触れている手指Fの指先に触感刺激を与えると共に、押釦262が押し込まれたタイミングに合わせて、発生させる触感刺激を強める制御を行う。以上によれば、操作者OPは、プッシュ操作に伴ったバーチャルな打鍵感を感じることができる。
 ここまで説明した第二実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物261の映像によって手指Fの状態が誘導され、操作者OPは、実体の無い操作対象物261の映像の操作においても、操作感を確実に感じることができる。
 加えて第二実施形態では、押釦262の形状に誘導されることで、操作者OPは、高感度部位SRである手指Fの腹の部分を超音波発生面31へ向けた状態で、プッシュ操作を行おうとするはずである。その結果、触覚提示器30は、手指Fの腹の部分に触感刺激を与えて、押釦262を押している感覚を操作者に感じさせることができる。尚、第二実施形態では、押釦262が「押釦部」に相当する。
 (第三実施形態)
 図8及び図9示す本開示の第三実施形態は、第一実施形態の別の変形例である。第三実施形態における表示操作装置300は、操作体特定器20、第一触覚提示器330、第二触覚提示器340、空間表示器350、及び制御ユニット310を備えている。
 第一触覚提示器330は、第一実施形態の触覚提示器30に相当する構成である。第一触覚提示器330からは、触感制御部32(図3参照)が省略されている。第一触覚提示器330は、空中表示領域60の下方に配置されて、触覚提示領域36にある手指F等の操作体に触感刺激を与えることができる。
 第二触覚提示器340は、第一触覚提示器330と実質的に同一の構成であり、第一触覚提示器330とは別に、空中表示領域60の奥側に配置されている。第二触覚提示器340の超音波発生面341は、第一触覚提示器330の超音波発生面31と同様に、空中表示領域60へ向けられている。超音波発生面341は、手前側に規定された触覚提示領域36にある手指F及び手の平等の操作体に、第一触覚提示器330とは異なる方向から触感刺激を与えることができる。
 空間表示器350は、第一実施形態の空間表示器50(図3参照)に相当する構成である。空間表示器350からは、表示制御部53(図3参照)が省略されている。空間表示器350のリフレクタ52(図2参照)は、第二触覚提示器340に対して上下方向VDにずらして配置されている。
 制御ユニット310は、操作体特定器20、第一触覚提示器330、第二触覚提示器340、及び空間表示器350と電気的に接続されている。制御ユニット310は、表示操作装置300の外部の車載機器と電気的に接続されており、当該車載機器に操作情報を出力する。制御ユニット310は、プロセッサ、RAM、及びメモリを有するマイクロコンピュータを主体に構成されている。
 制御ユニット310は、プロセッサに所定のプログラムを実行させることにより、操作情報取得部11、表示制御部12、及び触感制御部13を機能ブロックとして構築する。操作情報取得部11は、位置特定部21及び姿勢特定部22から操作体の位置及び姿勢を示す情報を取得する。表示制御部12は、第一実施形態の表示制御部53(図3参照)に相当する機能を発揮可能であり、空中表示領域60に表示される映像を制御する。触感制御部13は、第一実施形態の触感制御部32(図3参照)に相当する機能を発揮可能であり、二つの触覚提示器330,340のそれぞれから操作体に加えられる触感刺激を制御する。
 次に、表示操作装置300によって空中表示領域60に空中表示される映像の詳細を説明する。
 空中表示領域60には、多階層に構成されたメニュー画面群の一つと、操作対象物361の映像等が表示される。メニュー画面群には、例えば空調装置121への操作を受け付ける空調メニュー画面、及びオーディオ装置122への操作を受け付けるオーディオメニュー画面等と、これらの上位の階層となるメインメニュー画面が少なくとも含まれている。操作者OPは、メインメニュー画面に表示された複数のアイコンのうちの一つを選択及び決定する操作により、メインメニュー画面から、空調メニュー画面及びオーディオメニュー画面等の下位の階層へと、表示を遷移させることができる。
 操作対象物361の映像には、少なくとも一つの回転可能なダイヤル362が含まれている。ダイヤル362は、空中表示領域60に対して仮想の回転軸を交差させた姿勢にて、当該空中表示領域60に表示される。第三実施形態におけるダイヤル362の回転軸は、空中表示領域60に対して実質的に直交している。こうした操作対象物361の映像の表示態様により、操作者OPは、ダイヤル362を複数の手指Fによって上方から掴み、いずれかの方向へ回転させる操作を誘導される。
 以上のダイヤル362に反時計回りの回転操作が入力されると、表示制御部12は、位置特定部21及び姿勢特定部22から操作情報取得部11に出力された情報に基づき、反時計回りに回転しているダイヤル362の映像を表示させる。同様に、時計回りの回転操作が入力された場合でも、時計回りに回転しているダイヤル362の映像が表示される。こうした回転操作によれば、操作者OPは、表示中のメニュー画面において選択中とされるアイコンを、順に切り替えることができる。さらに、ダイヤル362に触れている手指Fの指先には、触感制御部13によって制御された第一触覚提示器330により、触感刺激が与られる。その結果、操作者OPは、ダイヤル362を掴んでいるかのようなバーチャルな触感を感じることができる。
 また、回転軸に沿って奥側へ押し込む押込操作がダイヤル362に入力されると、表示制御部12は、奥側へ変位するダイヤル362の映像を表示させる。さらに、ダイヤル362の押し込みによって選択中のアイコンが決定されると、表示制御部12は、メニュー画面群の階層を他の階層へ遷移させる。そして、押込操作を行う手指F及び手の平には、ダイヤル362が押し込まれたタイミングに合わせて、触感制御部13によって制御された第二触覚提示器340により、触感刺激が与られる。その結果、操作者OPは、ダイヤル362の押込操作に伴ったバーチャルなクリック感を感じることができる。
 ここまで説明した第三実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物361の映像によって手指Fの状態が誘導され、操作者OPは、実体の無い操作対象物361の映像の操作においても、操作感を確実に感じることができる。
 加えて第三実施形態においても、ダイヤル362を掴む各手指Fの高感度部位SRは、第一触覚提示器330の位置する下方へ向き得る。以上によれば、第一触覚提示器330は、ダイヤル362を掴んでいる手指Fの腹の部分に触感刺激を与えて、ダイヤル362を握っている感覚を操作者に確実に感じさせることができる。
 また第三実施形態では、複数の触覚提示器330,340が互いに異なる方向から操作体に触感刺激を与え得る。故に、表示操作装置300は、回転操作及び押込操作のそれぞれに対応したバーチャルな触感を、手指Fに感じさせることができる。その結果、多階層に構成されたメニュー画面群を遷移するような複雑な入力を行う操作者OPに対しても、表示操作装置300は、十分な操作感を感じさせることができる。尚、第三実施形態では、ダイヤル362が「ダイヤル部」に相当する。
 (第四実施形態)
 図10及び図11示す本開示の第四実施形態は、第三実施形態の変形例である。第四実施形態による表示操作装置400は、第三実施形態の第一触覚提示器330及び第二触覚提示器340に替えて、左方触覚提示器430及び右方触覚提示器440を備えている。これら触覚提示器430,440は、空中表示領域60の左右方向HDの両側に一つずつ、互いに対向して設けられている。
 左方触覚提示器430は、空中表示領域60の左側に配置されている。左方触覚提示器430は、超音波発生面431を右方向に位置する空中表示領域60へ向けた姿勢で固定されている。右方触覚提示器440は、空中表示領域60の右側に配置されている。右方触覚提示器440は、超音波発生面441を左方向に位置する空中表示領域60へ向けた姿勢で固定されている。超音波発生面441は、左右方向HDにおいて超音波発生面431と対向している。各触覚提示器430,440は、二つの超音波発生面431,441の間に規定された触覚提示領域36にある操作体に対して、互いに異なる方向から触感刺激を与えることができる。
 第四実施形態の操作対象物461の映像には、一組のガイド表示部462,463が含まれている。各ガイド表示部462,463は、空中表示領域60内で手等の操作体を左右方向HDに移動させる操作を案内している。各ガイド表示部462,463によって案内される手の移動方向は、二つの触覚提示器430,440が並ぶ方向と同じである。各ガイド表示部462,463はそれぞれ、矢印を模った画像である。各ガイド表示部462,463は、左右方向HDに並んで表示されており、且つ、互いに反対の方向を向けられている。
 二つのガイド表示部のうちで左側に位置する一方(左方ガイド表示部462)は、左方向を指し示す矢印であり、例えば青色で表示されている。操作者OPは、空中表示領域60に差し込んだ手を左方向に動かすことにより、空調装置121の設定温度を下げることができる。右側に位置する他方(右方ガイド表示部463)は、右方向を指し示す矢印であり、例えば赤色で表示されている。操作者OPは、空中表示領域60に差し込んだ手を右方向へ動かすことにより、空調装置121の設定温度を上げることができる。以上のように、操作者OPは、矢印状とされたガイド表示部462,463に誘導されて、空中表示領域60内において手を左右方向HDに移動させる操作を行うようになる。尚、第四実施形態では、手の平が高感度部位SRとされ、手の甲が低感度部位DRとされる。
 空中表示領域60を横切るような操作が入力されると、制御ユニット310は、設定温度の変更を指示する指令信号を空調装置121(図3参照)へ向けて出力する。また触感制御部13は、左方触覚提示器430及び右方触覚提示器440を制御することにより、手の平と手の甲とに触感刺激を発生させる。以上によれば、操作者OPは、バーチャルな抵抗感を感じることができる。
 加えて触感制御部13は、操作情報取得部11にて取得する情報に基づき、手の平の向きを検知できる。触感制御部13は、手の平が左方向を向いていた場合に、右方触覚提示器440により発生させている触感刺激の出力を、左方触覚提示器430により発生させている触感刺激の出力よりも高く設定する。その結果、高感度部位SRに与えられる触感刺激よりも、低感度部位DRに与えられる触感刺激が強くなるため、操作者OPは、手の平と手の甲の両方に、確実に触感を感じるようになる。尚、触感制御部13は、手の平が右方向を向いていた場合には、左方触覚提示器430によって発生させている触感刺激の出力を、右方触覚提示器440によって発生させている触感刺激の出力よりも高く設定する。
 さらに触感制御部13は、移動する操作体が各触覚提示器430,440に近づいてくる場合に、操作体が遠ざかる場合よりも強い触感刺激を発生させる。例えば、操作者OPが手を左方向へ動かした場合、触感制御部13は、左方触覚提示器430から出力される触感刺激を強めると共に、右方触覚提示器440から出力される触感刺激を弱める。以上により、操作者OPは、あたかも粘性の高い流体内で手を動かしているかのような抵抗感を感じることができる。
 ここまで説明した第四実施形態でも、第一実施形態と同様の効果を奏することが可能である。その結果、操作対象物461の映像によって手の向きが誘導され、操作者OPは、少なくとも高感度部位SRとしての手の平に操作感を確実に感じることができる。
 加えて第四実施形態によれば、各ガイド表示部462,463の誘導により、高感度部位SRとしての手の平は、左右いずれかの触覚提示器430,440を向いた状態とされ得る。その結果、左方触覚提示器430又は右方触覚提示器440は、空中表示領域60に差し込まれた手の平に触感刺激を与えて、操作者OPに抵抗感を感じさせることができる。
 加えて第四実施形態では、手の平だけでなく手の甲にも触感刺激が与えられ、且つ、手の移動方向に応じて触感刺激の強弱が調整される。以上によれば、触感制御部13は、空中表示領域60を横切る操作をしている操作者OPに対し、リアリティの高いバーチャルな抵抗感を感じさせることができる。尚、第四実施形態では、左方触覚提示器430及び右方触覚提示器440が「触覚提示器」に相当し、左右方向HDが「対向方向」に相当する。
 (第五実施形態)
 図12~図15示す本開示の第五実施形態は、第三実施形態の別の変形例である。第五実施形態による表示操作装置500の触感制御部513は、触覚提示器530及び移動機構580と電気的に接続されている。触覚提示器530は、第一実施形態と実質的に同一の構成である。触覚提示器530は、空中表示領域60に超音波発生面31を向けた姿勢を維持しつつ、空中表示領域60の周囲を移動可能とされている。
 移動機構580は、空中表示領域60に対する触覚提示器530の相対位置を変化させる機構である。移動機構580は、空中表示領域60の下方において触覚提示器530を移動させることができる。移動機構580による触覚提示器530の可動範囲は、例えば空中表示領域60の左下から右下までの間とされている。ダイヤル362の回転操作によって手の姿勢が変化した場合(図13参照)、移動機構580は、高感度部位SRに触感刺激を与え易い位置へ、触覚提示器530を移動させる。例えば、ダイヤル362を時計回りに回転させる操作が入力された場合、触覚提示器530は、空中表示領域60の周囲を時計回りに公転する。
 触感制御部513は、触覚提示器530による触感刺激の発生を制御すると共に、移動機構580による触覚提示器530の移動を制御する。触感制御部513は、触覚制御処理の実施により、操作情報取得部11から取得する情報に基づき、操作対象物361の映像に手指Fが触れているか否かを判定する(図14 S501~S503参照)。その結果、手指Fが操作対象物361に触れていると肯定判定した場合に、触感制御部513は、姿勢特定部22にて特定された手指Fの姿勢に基づき、手指Fの高感度部位SRに触感刺激を与え易い位置まで触覚提示器530を移動させる(図14 S504参照)。そうしたうえで、触感制御部513は、手指Fの高感度部位SRに非接触で触感刺激を与える(図14 S505参照)。
 ここまで説明した第五実施形態でも、第三実施形態と同様の効果を奏し、操作者OPは、実体の無いダイヤル362の操作でも、操作感を確実に感じることができる。加えて第五実施形態では、ダイヤル362を回転させる操作の過程において手指Fの姿勢が変化しても、移動機構580による位置調整により、触覚提示器530は、高感度部位SRに触感刺激を与え易い状態を維持し得る。以上によれば、ダイヤル362の回転操作において、操作者OPは、ダイヤル362を掴んでいるバーチャルな感覚を継続して感じ続けることができる。
 (第六実施形態)
 図16~図20示す本開示の第六実施形態は、第三実施形態のさらに別の変形例である。表示操作装置600の触感制御部613は、空中表示領域60に対して互いに異なる位置に設けられた複数(三つ)の触覚提示器630,640a,640bと電気的に接続されている。下方触覚提示器630は、第一実施形態の触覚提示器30(図6参照)に相当し、空中表示領域60の下方から触感刺激を発生させる。左方触覚提示器640aは、第四実施形態の左方触覚提示器430(図10参照)に相当し、空中表示領域60の左方から触感刺激を発生させる。右方触覚提示器640bは、第四実施形態の右方触覚提示器440(図10参照)に相当し、空中表示領域60の右方から触感刺激を発生させる。
 触感制御部613は、触覚制御処理の実施により、操作情報取得部11から取得する情報に基づき、操作対象物361の映像に手指Fが触れているか否かを判定する(図19 S601~S603参照)。その結果、手指Fが操作対象物361に触れていると肯定判定した場合、触感制御部613は、作動対象とする触覚提示器を選択する(図19 S604参照)。具体的に、触感制御部613は、姿勢特定部22により特定された手指Fの姿勢に基づき、複数の触覚提示器630,640a,640bうちで、高感度部位SRに触感刺激を与え易い位置にある少なくとも一つを、作動対象とする触覚提示器として決定する。そして、作動対象とされた触覚提示器により、手指Fの高感度部位SRに非接触で触感刺激が与えられる(図19 S605参照)。
 以上によれば、ダイヤル362を上方から掴んだ初期の状態では、主に下方触覚提示器630によって手指Fに触感刺激が与えられる(図16参照)。そして、ダイヤル362を時計回りに回転させる操作が入力された場合には、主に左方触覚提示器640aによって手指Fに触感刺激が与えられる(図17参照)。一方で、ダイヤル362を反時計回りに回転させる操作が入力された場合には、主に右方触覚提示器640bによって手指Fに触感刺激が与えられる(図18参照)。
 ここまで説明した第六実施形態でも、第三実施形態と同様の効果を奏し、操作者OPは、実体の無いダイヤル362の操作でも、操作感を確実に感じることができる。加えて第六実施形態では、ダイヤル362を回転させる操作の過程において手指Fの姿勢が変化しても、触感制御部613による複数の触覚提示器の協調制御により、高感度部位SRには触感刺激が与えられ続ける。以上によれば、ダイヤル362の回転操作において、操作者OPは、ダイヤル362を掴んでいるバーチャルな感覚を継続して感じ続けることができる。
 (他の実施形態)
 以上、本開示による複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 上記第一実施形態の変形例1では、触覚提示器30(図6参照)に替えて、右方触覚提示器(図10参照)が設けられている。こうした構成では、スライダ溝部によって明示されるツマミ部の移動可能な方向は、右方触覚提示器の超音波発生面に沿った上下方向VDに設定される。
 上記第三実施形態の変形例2では、第二触覚提示器340(図8参照)が省略されている。このような変形例2でも、第一触覚提示器330(図8参照)に相当する構成が、空中表示領域60の下方から手指の高感度部位に触感刺激を与えて、ダイヤルを掴んでいるバーチャルな感覚を操作者に感じさせ続けることができる。
 以上のように、触覚提示器の数及び配置は、車両において表示操作装置に対して確保可能なスペースに応じて適宜変更可能である。そして、操作対象物の映像の表示形態は、空中表示領域に対する触覚提示器の相対位置に対応させて、手指等の高感度部位が触覚提示器を向くようなアフォーダンスの絵図となるように、適宜変更可能である。
 上記実施形態における各触覚提示器は、振動子を平板状に配列することによって超音波発生面を形成していた。しかし、振動子の配列される超音波発生面は、湾曲形状とされていてもよい。さらに、手指等の操作体に触感刺激を与えることができれば、触覚提示器は、超音波を用いた構成でなくてもよい。例えば、収束させた気流を操作体へ向けて射出することにより、操作体に触感刺激を与える装置が触覚提示器として採用可能である。
 上記実施形態における操作体特定器は、赤外線カメラの撮像画像を解析することにより、手指等の位置及び姿勢を検出していた。しかし、空中にある操作体の状態を検出可能な種々の構成が、操作体特定器として採用可能である。例えば、ステレオカメラ、TOF(Time Of Flight)方式の距離画像カメラ、高感度な静電容量センサ等が、操作体特定器をして採用可能である。
 上記実施形態における空間表示器は、リフレクタ52(図2参照)によって空間に結像させた映像を操作者に視認させる構成であった。しかし、空間に映像を表示することが可能なスクリーンレスの空中ディスプレイであれば、空間表示器は、リフレクタ52を用いない構成であってもよい。
 上記実施形態における空中表示領域の規定位置、形状、大きさ、及び姿勢等は、適宜変更可能である。例えば、空中表示領域は、縦長の矩形形状及び横長の楕円形状等であってもよい。また、空中表示領域の上下方向VD及び左右方向HDは、静止状態にある車両の鉛直方向及び幅方向に対して傾斜していてもよい。例えば、空中表示領域の正面を運転席のヘッドレストへ向ける配置により、運転席に座る操作者に空中表示領域に表示されている映像が見易くされてもよい。
 上記第一実施形態による表示操作装置では、操作者は、空中表示領域に表示される映像を透過して、奥側を視認可能であった。故に、表示操作装置は、運転者の目線に近い高さに空中表示領域を位置させて、運転席に座る操作者の視線移動の負荷を軽減させることができた。一方、第三実施形態の表示操作装置では、第二触覚提示器が空中表示領域の奥側に位置しているため、操作者は、空中表示領域の向こう側を視認し難くなる。故に、第三実施形態のような表示操作装置は、運転席に座る操作者の手元近傍、例えばセンターコンソールの直上に、空中表示領域を位置させるのが望ましい。
 上記実施形態の表示操作装置は、空調装置及びオーディオ装置等の操作を受け付けるインターフェースであった。しかし、表示操作装置への入力によって操作可能な車載機器は、上述の装置に限定されない。また、各車載機器を操作する際に表示されるメニュー画面は、上記実施形態のように空中表示領域に表示されてもよく、又はコンビネーションメータの液晶画面のような他の表示領域に表示されてもよい。
 上記第一実施形態等では、操作者は、表示されたツマミ部を操作するために、手指を触覚提示領域に差し込んでいた。故に、手指の腹から側面の範囲が高感度部位とされ、触覚提示器へ向くよう誘導されていた。一方、第四実施形態では、操作者は、手の全体を触覚提示領域に差し込んでいた。故に、手の平が高感度部位とされ、触覚提示器へ向くように誘導されていた。以上のように、操作者による入力が想定される操作方法に合わせて、高感度部位とされる範囲は、適宜設定可能である。但し、高感度部位とされる範囲には、触覚提示領域にある他の範囲よりも、生体触覚センサとして機能する受容器が高密度で分布していることが望ましい。
 上記第一実施形態等では、触覚提示器及び空間表示器のそれぞれに制御部が設けられていた。また上記第三実施形態等では、触覚提示器及び空間表示器を制御する制御部は、制御ユニットに纏めて設けられていた。このような各制御部によって提供されていた機能は、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供可能である。例えば、空間表示器に設けられた制御回路のプロセッサが、触覚提示器の制御、又は画像解析の解析による操作体の位置及び姿勢の特定を行うことも可能である。
 上記実施形態では、車両用の表示操作装置に本開示を適用した例を説明したが、本開示の適用対象は、車両に搭載される表示操作装置に限定されない。例えば、本開示を適用した表示装置は、手指等が有体物に触れないため、特に衛生管理の厳しい医療機器のインターフェースに好適である。さらに、現金自動預け払い機等の不特定多数の操作者によって操作が入力される機器のインターフェースにも、本開示を適用した表示操作装置は好適である。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。

 

Claims (11)

  1.  空間に表示された操作対象物(61,261,361,461)の映像を操作者(OP)に操作させる表示操作装置であって、
     空間に規定される仮想の空中表示領域(60)に、前記操作対象物の映像を表示する空間表示器(50)と、
     前記空中表示領域にある操作体(F)の位置を特定する位置特定器(21)と、
     前記位置特定器にて位置を特定された前記操作体が前記操作対象物の映像に触れると、この操作体に非接触で触感刺激を与える触覚提示器(30,330,430,440,530,630)と、を備え、
     前記操作者の一部である前記操作体は、触感刺激への感度の高い高感度部位(SR)と前記高感度部位よりも感度の低い低感度部位(DR)を有し、
     前記操作対象物の映像は、前記操作体の高感度部位(SR)が、前記触覚提示器による触感刺激を受け易い方向を向くように、前記操作体の状態を誘導する表示態様である表示操作装置。
  2.  前記触覚提示器は、前記空中表示領域を向く姿勢に設けられて前記操作体に触感刺激を発生させる発生面(31)を有し、
     前記空間表示器は、前記発生面に沿って移動可能な接触部(62)を含む前記操作対象物の映像を表示する請求項1に記載の表示操作装置。
  3.  前記触覚提示器は、前記接触部を移動させる操作が行われた場合に、当該接触部を挟んでいる前記操作体の二つの部位のうちで移動方向前側にある部位よりも移動方向後側にある部位に対して、強い触感刺激を発生させる請求項2に記載の表示操作装置。
  4.  前記空間表示器は、前記触覚提示器へ向けてのプッシュ操作が可能な押釦部(262)を含む前記操作対象物の映像を表示する請求項1に記載の表示操作装置。
  5.  前記触覚提示器(330,530,630)は、前記空中表示領域の下方に配置され、
     前記空間表示器は、面状に規定された前記空中表示領域に対して仮想の回転軸を交差させた姿勢の回転可能なダイヤル部(362)、を含む前記操作対象物の映像を表示する請求項1に記載の表示操作装置。
  6.  前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
     前記姿勢特定器により特定された前記操作体の姿勢に基づき、前記高感度部位に触感刺激を与え易い位置へ前記触覚提示器(530)を移動させる移動機構(580)と、をさらに備える請求項5に記載の表示操作装置。
  7.  多階層に構成されたメニュー画面群を操作可能な表示操作装置であって、
     前記触覚提示器としての第一触覚提示器(330)とは別に、前記空中表示領域の奥側に配置される第二触覚提示器(340)をさらに備え、
     前記空間表示器は、前記回転軸に沿って奥側へ押し込む操作により、前記メニュー画面群の階層を遷移させる前記ダイヤル部を表示し、
     前記第二触覚提示器は、前記操作体によって前記ダイヤル部を奥側へ押し込む操作が行われた場合に、前記操作体に触感刺激を発生させる請求項5又は6に記載の表示操作装置。
  8.  前記空中表示領域に対して互いに異なる位置に設けられる複数の前記触覚提示器と、
     前記空中表示領域にある前記操作体の姿勢を特定する姿勢特定器(22)と、
     前記姿勢特定器により特定された前記操作体の姿勢に基づき、複数の前記触覚提示器のうちで、前記高感度部位に触感刺激を与え易い位置にある少なくとも一つによって前記操作体に触感刺激が与えられるよう、各前記触覚提示器を制御する触感制御部(613)と、をさらに備える請求項5に記載の表示操作装置。
  9.  前記触覚提示器は、前記空中表示領域の両側に一つずつ互いに対向して設けられ、
     前記空間表示器は、ガイド表示部(462,463)を含む前記操作対象物の映像を表示し、
     前記ガイド表示部は、二つの前記触覚提示器が並ぶ対向方向(HD)に沿って、前記操作体を前記空中表示領域内で移動させる操作を案内する表示態様である請求項1に記載の表示操作装置。
  10.  二つの前記触覚提示器のうちで、前記高感度部位よりも感度の低い前記低感度部位(DR)に触感刺激を与える一方は、前記高感度部位に触感刺激を与える他方よりも、強い触感刺激を発生させる請求項9に記載の表示操作装置。
  11.  前記触覚提示器は、移動する前記操作体が当該触覚提示器に近づいてくる場合に、当該操作体が遠ざかる場合よりも強い触感刺激を発生させる請求項9又は10に記載の表示操作装置。

     
PCT/JP2016/002985 2015-07-23 2016-06-21 表示操作装置 WO2017013834A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/745,963 US20180210551A1 (en) 2015-07-23 2016-06-21 Display manipulation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-145926 2015-07-23
JP2015145926A JP2017027401A (ja) 2015-07-23 2015-07-23 表示操作装置

Publications (1)

Publication Number Publication Date
WO2017013834A1 true WO2017013834A1 (ja) 2017-01-26

Family

ID=57834158

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/002985 WO2017013834A1 (ja) 2015-07-23 2016-06-21 表示操作装置

Country Status (3)

Country Link
US (1) US20180210551A1 (ja)
JP (1) JP2017027401A (ja)
WO (1) WO2017013834A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035274A1 (en) * 2019-08-01 2021-02-04 Siemens Healthcare Gmbh Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643206B (zh) * 2016-06-28 2023-05-02 株式会社尼康 控制装置、显示装置、程序及检测方法
EP3409553B1 (en) * 2017-06-01 2021-08-04 Honda Research Institute Europe GmbH System and method for automated execution of a maneuver or behavior of a system
DE102017116012A1 (de) * 2017-07-17 2019-01-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Anzeigevorrichtungen und pixel für eine anzeigevorrichtung
JP6900133B2 (ja) * 2018-01-25 2021-07-07 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
JP7017675B2 (ja) * 2018-02-15 2022-02-09 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
JP6981295B2 (ja) * 2018-02-16 2021-12-15 トヨタ自動車株式会社 操作認識装置
CN109407908B (zh) * 2018-09-30 2020-09-04 清华大学 一种带有触觉引导功能的图形显示器及其使用方法
KR20210052574A (ko) 2018-10-01 2021-05-10 레이아 인코포레이티드 홀로그래픽 현실 시스템, 멀티뷰 디스플레이 및 방법
DE112019005069T5 (de) * 2018-10-11 2021-08-19 Omron Corporation Eingabevorrichtung
JP7377615B2 (ja) * 2019-03-27 2023-11-10 株式会社Subaru 車両の非接触操作装置、および車両
JP7304184B2 (ja) 2019-03-27 2023-07-06 株式会社Subaru 車両の非接触操作装置、および車両
JP7336228B2 (ja) * 2019-03-27 2023-08-31 株式会社Subaru 車両の非接触操作装置、および車両
JP2023113979A (ja) * 2020-07-08 2023-08-17 株式会社ニコン 音場生成装置、音場生成方法、および音場生成プログラム
JPWO2022018929A1 (ja) * 2020-07-22 2022-01-27
CN114906065A (zh) * 2021-02-09 2022-08-16 现代摩比斯株式会社 车辆显示装置
US20230009427A1 (en) * 2021-07-08 2023-01-12 Hyundai Mobis Co., Ltd. Display control system using knobs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071157A (ja) * 2003-08-26 2005-03-17 Yamaha Corp ポインティングデバイス
JP2006323492A (ja) * 2005-05-17 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 制御装置およびプログラム
US20150007025A1 (en) * 2013-07-01 2015-01-01 Nokia Corporation Apparatus
JP5720684B2 (ja) * 2010-07-23 2015-05-20 日本電気株式会社 立体表示装置及び立体表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071157A (ja) * 2003-08-26 2005-03-17 Yamaha Corp ポインティングデバイス
JP2006323492A (ja) * 2005-05-17 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 制御装置およびプログラム
JP5720684B2 (ja) * 2010-07-23 2015-05-20 日本電気株式会社 立体表示装置及び立体表示方法
US20150007025A1 (en) * 2013-07-01 2015-01-01 Nokia Corporation Apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035274A1 (en) * 2019-08-01 2021-02-04 Siemens Healthcare Gmbh Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium
US11816821B2 (en) * 2019-08-01 2023-11-14 Siemens Healthcare Gmbh Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium

Also Published As

Publication number Publication date
JP2017027401A (ja) 2017-02-02
US20180210551A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
WO2017013834A1 (ja) 表示操作装置
US20230320799A1 (en) User-interface control using master controller
US10417880B2 (en) Haptic device incorporating stretch characteristics
CN104750247B (zh) 使用单个控制器和支持触觉的用户接口控制多个显示器的系统和方法
KR101334107B1 (ko) 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US20210030491A1 (en) Interaction between user-interface and master controller
EP2624238B1 (en) Virtual mock up with haptic hand held aid
JP2019192242A (ja) 没入型現実インターフェースモードを提供するシステム、デバイス及び方法
US10144285B2 (en) Method for operating vehicle devices and operating device for such devices
US10821831B2 (en) Method for interacting with image contents displayed on a display device in a transportation vehicle
CN108434726A (zh) 自动局部触觉生成系统
US20150323988A1 (en) Operating apparatus for an electronic device
EP3220234A1 (en) Gesture input system
CN109116979A (zh) 可变注视取向虚拟环境中的触觉维度
CN106066689B (zh) 基于ar或vr系统的人机交互方法和装置
JP6115421B2 (ja) 入力装置および入力システム
JP5725368B2 (ja) 触覚ディスプレイ、操作入力装置、及び操作入力システム
US11385715B2 (en) Non-contact operating apparatus for vehicle and vehicle
EP1182535A1 (en) Haptic terminal
CN117120967A (zh) 触觉反馈控制方法、触觉反馈控制装置及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16827402

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15745963

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16827402

Country of ref document: EP

Kind code of ref document: A1