WO2006013783A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2006013783A1
WO2006013783A1 PCT/JP2005/013866 JP2005013866W WO2006013783A1 WO 2006013783 A1 WO2006013783 A1 WO 2006013783A1 JP 2005013866 W JP2005013866 W JP 2005013866W WO 2006013783 A1 WO2006013783 A1 WO 2006013783A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
display
shape
input device
Prior art date
Application number
PCT/JP2005/013866
Other languages
English (en)
French (fr)
Inventor
Atsushi Yamashita
Atsushi Iisaka
Takuya Hirai
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Publication of WO2006013783A1 publication Critical patent/WO2006013783A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0264Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present invention relates to an input device for a user to input commands and information to a device.
  • the present invention relates to an input device that allows a user to input commands and information using a body such as a hand based on information displayed on a display or the like.
  • a touch panel display as an input device for a user to input commands and information using a finger or the like based on information displayed on a display screen such as a display.
  • the touch panel display has a touch panel on the display screen.
  • a GUI Graphic User Interface
  • GUI components displayed on the screen includes display components represented by menus and button switches (hereinafter referred to as GUI components).
  • GUI components displayed on the screen includes display components represented by menus and button switches (hereinafter referred to as GUI components).
  • the user can input a command or information associated with the GUI component by touching the desired GUI component on the screen.
  • touch panel displays are widely used in bank ATMs (Automated Teller Machines) and car navigation systems.
  • the display screen In order for a user to touch the touch panel display with a finger, the display screen must be placed close to the body. In ergonomics, the optimal arrangement conditions of the input interface for VDT (Video Display Terminal) operation, etc. are defined, and it is assumed that the body force radius is within 50 cm!
  • VDT Video Display Terminal
  • the display screen should be installed as far as possible!
  • One example is a large television installed in a home or a car navigation device installed in a car. Viewing TV at a short distance of about 30cm is not good for the eyes.
  • the time it takes for the driver to adjust the focal length of the eyes has been reported to hinder attention to driving. In other words, it is safer that the difference between the focal length during driving (a few meters away) and the focal length when viewing the display screen of the car navigation system is smaller.
  • a display device that can increase the focal distance when viewing the display screen, there is a far-focus display represented by a head-up display (HUD) using a lens or a mirror.
  • the touch panel cannot be applied because the display screen cannot be touched.
  • the touch panel display has an essential problem that the visibility of the display is deteriorated because a fingerprint is put on the display screen by a user input operation.
  • a touch panel display the user does not touch the display screen.
  • the touch tracer There is a tablet that is generally used as an input device of a PC (Personal Computer) (for example, see Patent Document 1).
  • a cursor with a shape such as an arrow is displayed on the display screen, and if the user moves his / her finger or pen while making contact with a predetermined operation surface provided on the operation unit, the movement will occur.
  • the cursor on the screen moves accordingly.
  • the user can input a command or information associated with the GUI component by confirming that the cursor has moved over the desired GUI component and performing a predetermined confirmation operation (for example, a click operation). Monkey.
  • an input interface in which the display screen and the operation unit are separated requires the cursor displayed on the screen to be moved by sliding a finger or a pen on the operation surface of the operation unit. It is not possible to select a desired GUI part like a display with a single touch. In other words, after confirming the current position of the cursor, it is necessary to slide the finger on the operation surface to move the cursor onto the desired GUI part, so quick input such as a touch panel display is difficult. is there. In this way, the display screen An input interface with a separate screen and operation unit is not capable of intuitive input like a touch panel display, and is less operable than a touch panel display.
  • the display and the touch panel are arranged separately, and the finger of the user who is operating the touch panel is picked up by the camera, and the output image thereof
  • An input device that combines and displays the image with a display image is also considered (for example, see Patent Document 2).
  • the user can perform input operations while looking at his / her finger displayed on the display, so that accurate input can be performed using the touch panel placed at hand while keeping the line of sight fixed on the display. The operation can be performed.
  • Patent Document 1 Japanese Patent Laid-Open No. 11 3169
  • Patent Document 2 Japanese Patent Laid-Open No. 10-269012
  • the input device using the camera as described above has a problem that the installation position of the camera is restricted.
  • the camera In order to photograph the finger of the user who is operating the touch panel, the camera must be installed in a direction perpendicular to the operation surface of the touch panel.
  • a camera is provided directly below the operation surface.
  • the purpose of the present invention is to provide intuitive and accurate input as if the touch screen is directly touching and inputting even if the display screen and the operation unit are separated. It is possible to provide an input device that is possible and has a high degree of freedom in installation.
  • a first aspect of the present invention is an operation unit (300) that is operated by a user and outputs an operation signal corresponding to the operation, and display information for creating a display image that assists the operation by the user.
  • a body shape input unit (100) including a creation unit (700), a camera for imaging a body part of a user involved in the operation, and outputting image data obtained as a result of the imaging; and the body shape input A body image representing the body part by detecting the shape and position of the body part based on the image data output from the unit and performing shape correction processing for correcting the shape and position of the detected body part
  • an arbitrary optical imaging device such as a camera, a plurality of light receiving units, or a line sensor can be typically used. Furthermore, information for specifying the shape and position of the user's body part may be acquired by a method other than the optical method.
  • a second aspect of the present invention is that, in the first aspect, the body shape extraction unit performs viewpoint conversion processing in consideration of a relative positional relationship between the camera and the operation unit as the shape correction processing.
  • Figure 26 and Figure 27 the shape of the body part can be displayed in a more realistic form.
  • the body shape extraction unit determines whether the shape detected from the image data output from the body shape input unit is the shape of the body part. Is determined by pattern matching using a shape pattern of a body part held in advance. As a result, it is possible to determine whether or not the detected shape is the shape of the body part, so that arbitrary control according to the determination result is possible.
  • the body shape extraction unit is configured based on the shape pattern based on the shape of the body part detected from the image data output from the body shape input unit. Correction. This makes it possible to Even if the body part obtained by image recognition is missing, such as when wearing a niche, the body image can be displayed without a sense of incongruity.
  • a mark used in the shape correction process is attached to a predetermined position of the operation unit.
  • a shape correction process is performed so that the position of the mark in the image data output from the force lens is converted to a predetermined position on the screen of the display unit.
  • a sixth aspect of the present invention is that, in the first aspect, the image composition unit emphasizes an outline of the body image when the display image and the body image are synthesized. Features. Thereby, it can avoid that display information is hidden by displaying a body image.
  • a seventh aspect of the present invention is that, in the first aspect, the image composition unit changes the transparency of the body image and synthesizes the body image when the display image and the body image are composed. It is characterized by emphasizing the outline of the image (Fig. 42C). Thereby, it can be avoided that the display information is hidden by displaying the body image.
  • the image composition unit detects a fingertip portion of a user in the body image when the display image and the body image are composed, It is characterized by highlighting the fingertip ( Figure 42D). As a result, the user's attention can be directed to the fingertip part that is greatly involved in the input operation.
  • the image composition unit adds a shadow of the body image when the display image and the body image are composed. (Fig. 42E). Thereby, a body image can be displayed more realistically.
  • the image composition unit may be hidden in the display image that is hidden by the body image when the display image and the body image are composed. It is characterized in that the display information is displayed in a pop-up area where it is not hidden by the body image (Fig. 42F). As a result, the user can also check the display information that has been hidden by displaying the body image.
  • An eleventh aspect of the present invention is that, in the first aspect, the image composition unit is configured to hide the display image and the body image in the display image that are hidden by the body image. The display information is displayed in front of the body image (Fig. 42G). As a result, the user can also check the display information hidden by displaying the body image.
  • the image composition unit detects a fingertip portion of the user in the body image when the display image and the body image are synthesized,
  • the display information in the display image overlapping the fingertip portion is emphasized (FIG. 42H).
  • the user can easily confirm which display information corresponds to the position of his / her fingertip.
  • the image composition unit enlarges display information in the display image overlapping the fingertip portion or changes the color of the display information.
  • the display information is emphasized by fading, changing the display information so that it appears three-dimensionally, or displaying auxiliary information related to the display information in a pop-up manner.
  • the user can easily confirm which display information corresponds to the current fingertip position.
  • the display information creation unit generates a display image to be created according to a detection result of the shape of the body part in the body shape extraction unit. It is a thing to change. This makes it possible to create display information according to the situation.
  • the display information creation unit creates a display image only when the shape of the body part is detected by the body shape extraction unit. It is characterized by being. As a result, the power consumption can be reduced by not performing the image display process when no body part is detected.
  • the display information creating unit includes a display image to be created when the shape of the body part is detected by the body shape extracting unit. It is characterized by emphasizing the GUI parts (Figs. 38B and 39B). As a result, GUI parts are displayed inconspicuously when the body part is not detected, and the GUI It is possible to make display information other than parts easier to see and increase the amount of information.
  • the body shape extraction unit determines whether the shape detected based on the information acquired by the body shape input unit is the shape of the body part.
  • the display information creating unit changes display information to be created according to the judgment result of the body shape extracting unit. Accordingly, for example, when something other than the body is detected, it is possible to suppress power consumption by not performing the image display process.
  • the body shape extraction unit determines whether the body part is a right hand left hand based on the detected shape of the body part.
  • the display information creation unit changes a display image to be created according to a determination result of the body shape extraction unit (FIGS. 40A and 40B).
  • the display information creating means displays the display information only when the shape of the body part detected by the body shape extraction unit is that of the right hand or the left hand. It is characterized by creating. Thus, for example, display information is displayed only when the user performs an input operation from the right side of the operation unit, or display information is displayed only when the user performs an input operation from the left side of the operation unit. Can be displayed.
  • the display information creation unit creates the body part shape detected by the body shape extraction unit when the shape is a right hand or a left hand. It is characterized by highlighting the GUI part in the display image to be displayed, changing the position of the GUI part, or changing the validity of the GUI part. As a result, only when the user performs input operation from the right side (or left side) of the operation unit, the G UI part is highlighted, the GUI part is enabled, or the GUI part is disabled. Can be displayed. In addition, the position of the GUI component can be changed to the input position to match the user's position.
  • the body shape extraction unit determines whether the body part is an adult or a child based on the detected shape of the body part.
  • the display information creation unit is configured according to the determination result of the body shape extraction unit, The display image to be created is changed (FIGS. 41A and 41B).
  • the display information creating unit displays the display information only when the shape of the body part detected by the body shape extracting unit is an adult or a child. It is characterized by creating. Thereby, for example, the display information can be displayed only when the user is an adult, or the display information can be displayed only when the user is a child.
  • the display information creating unit creates the body part shape detected by the body shape extracting unit when it is an adult or a child. It is characterized by highlighting the GUI part in the display image to be displayed, changing the position of the GUI part, or changing the validity of the GUI part. As a result, only when the user is an adult (or child), it is possible to highlight the GUI component, enable the GUI component, or display that the GUI component is disabled. In addition, depending on whether the user is an adult or a child, the position of the GUI component can be changed to the position of the input operation.
  • the input device has two operation modes, a mode in which an input operation by a user can be performed and a mode in which the user cannot perform the operation.
  • the input device has two operation modes, a mode in which an input operation by a user is possible and a mode incapable of being input, and the image synthesizing unit Is characterized in that the method of combining the display image created by the display information creation unit and the body image is changed according to the operation mode.
  • the image synthesizing unit Is characterized in that the method of combining the display image created by the display information creation unit and the body image is changed according to the operation mode.
  • the image composition unit displays the body image in a translucent state or in a circle when the user can perform an input operation.
  • the display image and the body image are displayed so that the body image is displayed in an opaque state or in a translucent and contoured state, and the body image is displayed in an opaque state when the user cannot perform an input operation. It is characterized by synthesizing. As a result, it is possible to suggest to the user when it is a mode in which an input operation by the user is impossible.
  • a twenty-seventh aspect of the present invention is characterized in that, in the first aspect, the image composition unit changes a composition method according to each part of the display image. As a result, the user can be informed that the operation form and result differ depending on each part of the display image.
  • the display image has an operable region and an inoperable region, and the image composition unit is operable with the display image.
  • the body image is synthesized in a region, and the body image is not synthesized in the inoperable region.
  • the display image is easier to see than when synthesized.
  • the display screen and the operation unit are separated! /, But it is intuitive as if the touch force is directly touching the screen as in the touch panel display.
  • accurate input is possible.
  • realistic body images can be displayed, enabling more intuitive input operations.
  • shape of the body part can be displayed in a more realistic form without accurately placing the camera at a position perpendicular to the operation surface of the operation unit, so the degree of freedom of the installation position of the camera is high.
  • FIG. 1 is a conceptual diagram of an input device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the input device.
  • FIG. 3 is an example of installation of an input device in a vehicle.
  • FIG. 4 is an example of installation of an input device in a vehicle.
  • FIG. 5 is an installation example of an input device in a vehicle.
  • FIG. 6 is an example of installation of an input device in a vehicle.
  • FIG. 7 is an installation example of the body shape input unit 100.
  • FIG. 8 is an installation example of the body shape input unit 100.
  • FIG. 9 is an example in which body shape input unit 100 and operation unit 300 are configured integrally.
  • FIG. 10 is a side view of an example in which the body shape input unit 100 is installed below the operation unit 300.
  • FIG. 11 is a top view of an example in which body shape input unit 100 is installed below operation unit 300.
  • FIG. 12 is an example of a blinking rule for the light source 110.
  • FIG. 13 is an example of an image of a hand imaged when the light source 110 is turned on.
  • FIG. 14 is an example of a hand image captured when the light source 110 is turned off.
  • FIG. 15 is an example of an image of a hand after removing the influence of external light.
  • FIG. 16 is a configuration example in which a plurality of light receiving units 150 are used as the body shape input unit 100.
  • FIG. 17 is a diagram showing a light emission range of the light emitting unit 160.
  • FIG. 18 is a diagram showing a light receiving range of the light receiving unit 150.
  • FIG. 19 is a diagram showing a sensitivity range 171.
  • FIG. 20 shows an example in which the light emitting unit 160 is disposed above the operation unit 300.
  • FIG. 21 is a configuration example using a line sensor as the body shape input unit 100.
  • FIG. 22 is a flowchart showing a process flow of the body shape extraction unit 600.
  • FIG. 23 is an example of image data processed by the body shape extraction unit 600.
  • FIG. 24 is an example of body region 607 extracted by body shape extraction unit 600.
  • FIG. 25 is an example of a contour 609 extracted by the body shape extraction unit 600.
  • FIG. 26 shows an example of shape correction processing.
  • FIG. 27 is an example of shape correction processing.
  • FIG. 28 is an example of a body image created by body shape extraction unit 600.
  • FIG. 29 is an example of dot image data processed by the body shape extraction unit 600.
  • FIG. 30 is an example of the result of extracting the dots in the contour portion by the body shape extraction unit 600
  • FIG. 31 is an example of a contour extracted by body shape extraction unit 600.
  • FIG. 32 is an example of line image data processed by the body shape extraction unit 600.
  • FIG. 33 is an example of a contour extracted by body shape extraction unit 600.
  • FIG. 34 is an example of the operation unit 300.
  • FIG. 35 is an example of a user operation method.
  • FIG. 36 is an example of the operation unit 300.
  • FIG. 37 is a sequence diagram showing a process flow of the control unit 500 for displaying a body image.
  • FIG. 38A is an example of display information created by the display information creation unit 700 when a body shape is not detected.
  • FIG. 38B is an example of display information created by the display information creation unit 700 when a body shape is detected.
  • FIG. 39A is an example of display information created by the display information creation unit 700 when a body shape is not detected.
  • FIG. 39B is an example of display information created by the display information creation unit 700 when a body shape is detected.
  • FIG. 40A is an example of display information created by display information creation section 700 when the right hand is detected.
  • FIG. 40B is an example of display information created by display information creation section 700 when the left hand is detected.
  • FIG. 41A is an example of display information created by display information creation section 700 when a relatively large hand is detected.
  • FIG. 41B is an example of display information created by the display information creation unit 700 when a relatively small hand is detected.
  • FIG. 42A is an example of an image synthesized by the image synthesizing unit 800.
  • FIG. 42B is an example of an image combined by the image combining unit 800.
  • FIG. 42C is an example of an image synthesized by the image synthesis unit 800.
  • FIG. 42D is an example of an image combined by the image combining unit 800.
  • FIG. 42E is an example of an image combined by the image combining unit 800.
  • FIG. 42F is an example of an image combined by the image combining unit 800.
  • FIG. 42G is an example of an image synthesized by the image synthesizing unit 800.
  • FIG. 42H is an example of an image synthesized by the image synthesizing unit 800.
  • FIG. 421 shows an example of an image synthesized by the image synthesis unit 800.
  • FIG. 42J shows an example of an image synthesized by the image synthesis unit 800.
  • FIG. 43 is a sequence diagram showing a process flow of the control unit 500 when an input operation by the user is detected.
  • FIG. 44A is an example of display information created by display information creation section 700 when a user performs an input operation.
  • FIG. 44B is an example of display information created by the display information creation unit 700 when an input operation is performed by the user.
  • FIG. 1 is a conceptual diagram of an input device that works according to an embodiment of the present invention.
  • a touch pad 4 for operation is installed at the user's hand, and a display 2 is installed at a position away from the user.
  • Camera 1 is installed above touch pad 4.
  • the display 2 displays one or more GUI parts 3 for the user to input desired commands and information.
  • Each point on the operation surface of the touch pad 4 has a one-to-one correspondence with each point on the display screen of the display 2.
  • the coordinate data absolute coordinate data
  • the coordinate data indicating the touch pad 4 force is also output to the control unit, and based on this coordinate data, the GUI part 3 corresponding to the contact position is identified, and the command or Information is entered.
  • the control unit performs image recognition processing on the image data output from camera 1, extracts only the hand 6 portion from the entire image, and displays the extracted hand 6 image as a hand image 7 on display 2 by superimposition. To do. While viewing the hand image 7 displayed on the display 2, the user moves the hand 6 so that the fingertip of the hand image 7 is on the desired GUI part 3 and presses the touch pad 4. Then, a command or information associated with the GUI part 3 corresponding to the contact position (that is, the GUI part 3 located at the fingertip of the hand image 7) is input.
  • hand image 7 is not displayed on the screen.
  • the user wants to select the GUI part 3 displayed at the center of the screen, it is necessary to move the line of sight to the operation surface of the touch node 4 to check the center position of the touch pad 4 and press the force with a finger. It is inconvenient. It is especially dangerous to move your line of sight while driving.
  • the input device of the present invention by viewing the hand image 7 displayed on the display 2, it is possible to confirm which position on the screen the current finger position corresponds to. . Therefore, the user can select the GUI component 3 while looking only at the display 2 without moving the line of sight to the touch pad 4.
  • the hand image 7 is displayed on the screen even when the user lifts his / her finger with a slight operating force of the touch pad 4, so the user actually puts his / her finger on the touch pad 4 You can check the position of the current finger on the screen without touching and sliding it. Therefore, simply pressing the touch pad 4 enables simple and quick input operation.
  • the force at which the touch pad 4 force coordinate data is output As will be described later, the touch pad 4 does not necessarily have a function of outputting the coordinate data of the contact position. It may be one that only detects whether or not it has been pressed. In this case, it is only necessary to detect the position of the fingertip from the image captured by the camera 1 and to determine which GUI component 3 the user has selected.
  • FIG. 2 is a block diagram showing a configuration of the input device.
  • the input device 1000 includes a body shape input unit 100, a display unit 200, an operation unit 300, and a calculation unit 400.
  • the calculation unit 400 includes a control unit 500 that controls the calculation unit 400 as a whole, a body shape extraction unit 600 that extracts the body shape by processing the output of the body shape input unit 100, and a display necessary for inputting commands and information by the user.
  • Display information creation unit 700 for creating information that is, an image including GUI part 3
  • an image representing the body part of the user who operates the operation unit 300 and the display information created by the display information creation unit 700 are combined. It consists of an image composition unit 800.
  • Body shape input unit 100 is a means for inputting the shape and position of a body part such as a hand used by a user to the apparatus, and uses a camera that receives visible light, near infrared light, and the like. In some cases, an individual sensor such as a sensor photodiode is used. Each case will be described below.
  • the body shape input unit 100 for example, a visible light power mela, a near infrared camera, an infrared camera, or an ultrasonic camera can be used.
  • the body shape input unit 100 is arranged at a position where the operation unit 300 can be imaged, images the operation unit 300, and outputs the image data.
  • the hand 6 is included in the image photographed by the body shape input unit 100.
  • the body shape input unit 100 is preferably disposed on a normal line passing through the center of the operation surface of the operation unit 300, and installed such that the optical axis of the lens is parallel to the normal line.
  • the body shape input unit 100 is a visible light power mela
  • a light source 110 that emits visible light so that the hand 6 can be clearly photographed even at night.
  • the operation surface of the operation unit 300 is preferably a uniform color, and particularly preferably black or blue.
  • the body shape input unit 100 is a near-infrared camera, it is preferable to provide a light source 110 that emits near-infrared light so that the hand 6 is always clearly photographed.
  • the operation surface of 300 is preferred to be black.
  • FIG. 3 shows a first installation example.
  • the operation unit 300 is an extension of the center console, and is installed at a position where the driver can operate with the elbow resting on the elbow rest.
  • the body shape input unit 100 is installed at a position where the operation unit 300 can capture an image.
  • the body shape input unit 100 is preferably installed at the position B (normally the ceiling of the vehicle) on the normal line of the operation unit 300, but the map lamp is located in front of the position B (position A). It may be built in a mirror. Also, it can be installed in the room lamp unit behind B (C position).
  • the shape force of the hand 6 imaged by the body shape input unit 100 is viewed from a direction perpendicular to the operation surface.
  • the shape of the hand 6 may be different, and the viewpoint conversion process described later when creating the hand image 7 (an image viewed from an oblique direction with respect to the operation surface is viewed from a direction perpendicular to the operation surface) In some cases, image processing for conversion to an image) is required.
  • FIG. 4 shows a second installation example.
  • the operation unit 300 is installed obliquely upward in the center of the steering.
  • the body shape input unit 100 is installed at a position where the operation unit 300 can capture an image (such as the ceiling of a vehicle).
  • the image photographed by the body shape input unit 100 rotates according to the steering angle of the steering wheel.
  • the effect of this rotation is obtained. Can be removed.
  • the image data correction method it is conceivable to provide a means for detecting the steering angle of the steering wheel and to perform rotation processing on the image data in accordance with the detected angle of inclination.
  • one or more reference marks are attached to the operation surface of the operation unit 300, and the steering angle of the steering is detected by detecting the position of the mark from the image data. It is conceivable to perform rotation processing on the image data in accordance with the snake angle.
  • FIG. 5 shows a third installation example.
  • the operation unit 300 is installed inside the driver's door so that the driver can operate with the elbow resting on the elbow rest.
  • the body shape input unit 100 is installed at a position where the operation unit 300 can capture an image (such as a vehicle ceiling).
  • FIG. 6 shows a fourth installation example.
  • the operation unit 300 is installed on an armrest in the center of the rear seat.
  • the body shape input unit 100 is installed at a position where the operation unit 300 can take an image (a vehicle ceiling or a room lamp).
  • the body shape input unit 100 is separated from the operation unit 300 such as the ceiling of a vehicle.
  • the body shape input unit 100 and the operation unit 300 may be configured integrally.
  • an example in which the body shape input unit 100 and the operation unit 300 are integrally configured will be described with reference to FIGS.
  • FIG. 7 shows an example in which the body shape input unit 100 is installed at a predetermined position above the operation unit 300.
  • a light source 110 may be installed near the body shape input unit 100 as necessary.
  • the light source 110 needs to be visible light if the body shape input unit 100 creates a color image, but if the body shape input unit 100 creates a black-and-white image, it may be near-infrared light. Good.
  • FIG. 8 is an example in which a mirror 120 is installed at a predetermined position above the operation unit 300, and the operation unit 300 and the hand 6 reflected on the mirror 120 are imaged by the body shape input unit 100.
  • the relative position of the body shape input unit 100 with respect to the operation unit 300 may be fixed using, for example, a housing 130 as shown in FIG.
  • the operation unit 300 and the hand 6 are picked up by the body shape input unit 100 from above (that is, the operation surface side of the operation unit 300). It is also conceivable that the body shape input unit 100 takes an image from below (that is, the side opposite to the operation surface of the operation unit 300).
  • FIG. 10 and FIG. 11 a configuration example in which the body shape input unit 100 captures an image of the operation unit 300 with a downward force will be described.
  • FIG. 10 shows an example in which a transparent touch panel is adopted as the operation unit 300 and the body shape input unit 100 and the light source 110 are installed below the operation panel 300.
  • FIG. 11 is a view of the operation unit 300 in FIG. In this example, the visible light cut filter 140 is disposed on the lower surface of the touch panel.
  • the light source 110 emits near-infrared light
  • the body shape input unit 100 is an imaging device that is sensitive to near-infrared light.
  • near-infrared light emitted from the light source 110 is set in accordance with a certain temporal rule in order to remove the influence of near-infrared light included in external light. It is also possible to make it blink. This will be described with reference to FIGS.
  • FIG. 12 as an example of the simplest rule in blinking of the light source 110, a pattern in which turning on and off is repeated every certain period is shown.
  • FIG. 13 is an example of an image of a body part (here, a hand) captured by the body shape input unit 100 when the light source 110 is turned on.
  • FIG. 14 is an example of an image of a body part (hand) when the light source 110 is turned off.
  • the light source 110 is turned on, as shown in FIG. 13, it is conceivable that images from the light source 110 and external light overlap. Further, when the light source 110 is turned off, it is conceivable that an image by external light is captured as shown in FIG.
  • a body shape extraction unit 600 (or body shape input unit 100), which will be described later, performs a subtraction process for subtracting FIG. 14 from FIG. 13 for each pixel included in the imaging result, thereby producing a light source 110 as shown in FIG. Only the image by can be taken out. By doing in this way, the influence of external light can be removed.
  • the first example is an example of functioning as a dot sensor by two-dimensionally arranging a plurality of light receiving parts such as photodiodes.
  • a touch panel is adopted as the operation unit 300, and a plurality of pairs each including a light receiving unit 150 and a light emitting unit 160 are two-dimensionally arranged below the operation panel 300.
  • the light emitting unit 160 emits light in the hatched area 151 in FIG. 17, and the light receiving unit 150 has sensitivity to the hatched area 161 in FIG. 18 (that is, can receive light from the hatched area 161). ). Therefore, if the user's hand 6 exists in the range where the range 151 and the range 161 intersect, that is, the shaded sensitivity range 171 in FIG. 19, the light emitted from the light emitting unit 160 is reflected on the hand 6, and the reflected light Is received by the light receiving unit 150.
  • the body shape input unit 100 outputs data indicating whether or not the reflected light is received by each light receiving unit 150 to the calculation unit 400.
  • the sensitivity range 171 shown in FIG. 19 can be arbitrarily set depending on how the light receiving unit 150 and the light emitting unit 160 are installed, but is preferably set to a distance of about 10 cm from the operation surface. Thereby, it is possible to prevent the position and shape of the hand 6 from being detected in vain when the user moves the hand 6 above the operation unit 300 with an intention other than the operation.
  • one or a plurality of light emitting units 160 are provided above the operation unit 300, and the light from the light emitting unit 160 is transmitted to the operation unit 300.
  • the light may be received by a plurality of light receiving units 150 that are two-dimensionally arranged below the light source.
  • the hand 6 does not exist on the light receiving unit 150 that has received the light from the light emitting unit 160, and the hand 6 exists on the light receiving unit 150 that has received the light from the light emitting unit 160. .
  • the second example is an example in which one or more line sensors are used.
  • a line sensor is arranged as a body shape input unit 100 above the operation unit 300.
  • the line sensor is a sensor configured to detect light from one line on the operation surface of the operation unit 300 (light reflected by the operation unit 300 or light transmitted through the operation unit 300). By moving the line sensor in parallel with the operation unit 300, the entire operation surface can be scanned. In this case, the line sensor may be rotated as well as moved linearly if necessary due to restrictions such as installation location. However, in order to identify the position and shape of the hand 6 viewed from the upward force of the operation unit 300 based on the scanning result when the line sensor is rotated, correction processing according to the movement pattern of the line sensor is required.
  • the entire operation surface is scanned without moving the line sensor by using a line sensor that can simultaneously detect the force of providing a plurality of line sensors and the light of a plurality of line forces on the operation surface. It is also possible to do. In this case, the entire operation surface can be scanned at a higher speed than when the line sensor is moved.
  • the color of the operation surface of operation unit 300 be uniform.
  • the line sensor is installed in a direction perpendicular to the operation surface of the operation unit 300.
  • the line sensor is oblique to the operation surface of the operation unit 300 (ie, a direction different from the vertical direction). ) May be provided with a line sensor.
  • the shape of the hand 6 detected by the line sensor may be different from the shape of the hand 6 when viewed from the direction perpendicular to the operation surface, and the hand image 7 is created. In some cases, the viewpoint conversion process described later may be required.
  • a line sensor may be disposed below the operation unit 300.
  • a transparent one is used for the operation unit 300, the light from the operation unit 300 is reflected by a mirror and guided to the line sensor, or a plurality of holes are formed in the operation unit 300 so It is necessary to devise such as detecting the position and shape with a line sensor.
  • Body shape extraction section 600 extracts body shape data based on the output of body shape input section 100.
  • the body shape data refers to, for example, the shape and position of a body part (ie, hand or foot) placed on the operation surface of the operation unit 300 by the user (the operation surface force may also be floating). It is the data shown.
  • the specific operation of the body shape extraction unit 600 differs depending on whether a camera is used as the body shape input unit 100 or a sensor other than the camera. Hereinafter, the operation of the body shape extraction unit 600 in each case will be described.
  • body shape extraction unit 600 when a camera is used as body shape input unit 100 will be described.
  • FIG. 22 is a flowchart showing the flow of body shape extraction processing by body shape extraction unit 600.
  • the body shape extraction unit 600 first takes in the image data output from the body shape input unit 100 (here, a camera) into the frame memory (S602).
  • FIG. 23 shows an example of the image data captured in the frame memory.
  • reference numeral 603 denotes an operation surface of the operation unit 300
  • reference numeral 605 denotes a user's hand 6.
  • the body shape extraction unit 600 determines the region corresponding to the user's body (here, hand 6) from the image data captured in the frame memory in step S602 as shown in FIG. Extracted as area 607 (S604).
  • the following three methods can be considered as methods for extracting a body region from image data.
  • the first extraction method is a background subtraction method.
  • the background subtraction method first, the operation unit 300 is photographed by the body shape input unit 100 in a state where nothing exists between the body shape input unit 100 and the operation unit 300, and the result is stored as background image data. deep. Then, the image data output from the body shape input unit 100 and the background image data are compared for each pixel or each block, and a portion different between the two is extracted as a body region.
  • the background subtraction method is advantageous in that the operation surface of the operation unit 300 does not need to be a single color.
  • the background image data may be stored in the memory in advance, or when the image data output from the body shape input unit 100 does not change for a certain period of time, the image data is stored in the background image data. It may be stored as a data.
  • the second extraction method is a luminance threshold method.
  • the luminance threshold method the body region is extracted by comparing the luminance value of each pixel of the image data output from the body shape input unit 100 with a predetermined threshold value. Therefore, in the image data output from the body shape input unit 100, the operation surface of the operation unit 300 is blackened so that the luminance difference between the hand 6 portion and the operation surface portion of the operation unit 300 becomes large. It is preferable that the color is close to black and the operation surface is matted to minimize reflection of light.
  • the threshold value is set to a value larger than the luminance value of the shifted pixel corresponding to the operation unit 300 in the image data output from the body shape input unit 100.
  • a body region can be extracted by extracting a region having a luminance value higher than the threshold value set in this way.
  • the body region is below the threshold by irradiating visible light or near-infrared light to the range of the field angle of the body shape input unit 100. It is necessary to make it appear bright.
  • the third extraction method is a blackjack processing method.
  • the chromach processing method is a method commonly used in television broadcasts, etc., which shoots a person or object using a monochrome background and removes the color portion of the background from the image data obtained by shooting. By doing this, only people are extracted. Therefore, in order to apply the chromach processing method to the present invention, the operation surface of the operation unit 300 needs to be a single color (for example, blue). In order to extract a stable body region even in the dark, such as at night, the angle of view of the body shape input unit 100 It is necessary to irradiate the range of visible light.
  • the user's body part is not necessarily placed on the operation surface of the operation unit 300.
  • luggage may be placed.
  • an image of the package is displayed on the display unit 200, which hinders display of display information. Therefore, if it is determined whether or not the shape extracted in step S606 is the shape of a body part, and if it is not a body part, the subsequent processing is not performed, it is possible to avoid such a problem.
  • step S606 determines whether the shape extracted in step S606 is the shape of the body part.
  • hold the shape pattern of the body part in advance and compare the shape extracted in step S606 with this shape pattern (pattern matching )
  • pattern matching the input operation by the operation unit 300 can be validated only when the shape extracted in step S606 is found to be the shape of the body part. Conceivable. As a result, it is possible to prevent malfunction due to a load placed on the operation surface of the operation unit 300.
  • step S606 when the user has applied a nail polish of the same color as the operation surface of the operation unit 300 to the nail, in step S606, the shape of the hand with the nail portion missing is detected.
  • a shape pattern as described above is prepared, a partially missing portion in the detected shape of the body part can be complemented with reference to this shape pattern.
  • the body shape extraction unit 600 extracts the contour 609 as shown in Fig. 25 based on the body region 607 extracted in step S604 (S606).
  • This contour extraction processing is performed by extracting pixels that are in contact with pixels in a region other than the body region 607 from pixels included in the body region 607. More specifically, among all the pixels included in the body region 607, four neighboring pixels in the upper, lower, left, and right sides (or eight neighboring pixels obtained by further adding the upper right, upper left, lower right, and lower left pixels of the target pixel ) In which a pixel in a region other than the body region 607 is included. Note that smooth contour processing may be performed on the extracted contour 609 as necessary. By performing smooth wrinkle processing, contour 6 Aliasing that occurs in 09 can be eliminated.
  • the body shape extraction unit 600 performs shape correction processing (S608).
  • shape correction processing among the pixels of the image data output from the body shape input unit 100, for the contour 609 extracted in step S606 and the pixels in the contour 609, camera lens distortion correction processing, viewpoint conversion processing, and other processing are performed. Perform correction processing.
  • the camera lens distortion correction processing is performed using lens distortion data, particularly when a wide-angle lens is used in the body shape input unit 100. Therefore, when a lens with a small distortion (for example, a standard lens or a telephoto lens) is used in the body shape input unit 100, the distortion correction of the camera lens is unnecessary.
  • a lens with a small distortion for example, a standard lens or a telephoto lens
  • the viewpoint conversion processing is performed when the body shape input unit 100 cannot be installed at a desired viewpoint (in this example, a viewpoint from directly above the operation unit 300) due to restrictions on the installation position. To do.
  • the viewpoint conversion technique is a well-known technique. An example of the viewpoint conversion process will be described with reference to FIGS.
  • FIG. 26 is an example of viewpoint conversion processing applied when the body shape input unit 100 is installed at a position such as position A in FIG.
  • the image is displayed so that the four corners (a, b, c, d) of the operation unit 300 in the image data 601 output from the body shape input unit 100 correspond to the four corners of the screen of the display unit 200. Be stretched.
  • the positions of the four corners (a, b, c, d) of the operation unit 300 in the image data 601 are also fixed. It is possible to perform viewpoint conversion processing as shown in Fig. 26 without detecting the corner position each time.
  • FIG. 27 is a view applied when the body shape input unit 100 is installed at the position of FIG. It is an example of a point conversion process.
  • the operation unit 300 since the operation unit 300 rotates with the steering, the operation unit 300 in the image data 6001 output from the body shape input unit 100 also rotates according to the rotation of the steering. Also in this case, the four corners (a, b, c, d) of the operation unit 300 in the image data 601 output from the body shape input unit 100 are detected, and the four corners of the screen of the four-corner force display unit 200 are detected. The image is stretched to the corresponding position
  • step S608 shape correction processing other than camera lens distortion correction processing and viewpoint conversion processing is also performed as necessary. For example, a process of converting the resolution and aspect ratio of the image data output from the body shape input unit 100 into the screen resolution and aspect ratio of the display unit 200 is appropriately performed.
  • a standard lens which does not require lens distortion correction in the body shape input unit 100, and the body shape input unit 100 is set on a normal passing through the center of the operation surface of the operation unit 300. Installed so that the optical axis of the body shape input unit 100 is parallel to the normal line, and the angle of view of the body shape input unit 100 is set so that the entire operation surface of the operation unit 300 is exactly within the image. Assuming that In this case, the shape correction process in step S608 is not necessary.
  • step S608 As a result of the shape correction processing in step S608, a hand image 611 as shown in FIG. 28 is obtained.
  • a body shape extraction section 600, a body image generation process performs (S610) o
  • This step is a step of creating a body image to be displayed on the display unit 200.
  • the body image created in step S608 for example, the hand image 611 in FIG. 28
  • the body image created in step S608 is displayed on the display unit 200 as it is, there is no need to perform any particular processing in this step.
  • the body image created in step S608 is dark, the body image is smoothed to increase its brightness, to make the fine lines of the hand inconspicuous, and to correct the color tone of the body image.
  • the hand is displayed more clearly, or a texture image prepared in advance is pasted in the area inside the contour. Examples of textures include animal skins, wood, concrete, metal, and artificial patterns.
  • the operation of the body shape extraction unit 600 when a sensor other than a camera is used as the body shape input unit 100 will be described.
  • a body shape extraction unit when a dot sensor in which sensors such as photodiodes are two-dimensionally arranged as shown in FIG. 16 is used as the body shape input unit 100.
  • the operation of 600 will be described.
  • Body shape extraction unit 600 first takes in the data output from body shape input unit 100 and creates dot image data as shown in FIG.
  • the value of each dot in the dot image data is either 0 or 1.
  • a dot having a value of 1 is indicated by a black circle.
  • the body shape extraction unit 600 performs contour dot extraction processing on the dot image data.
  • Figure 30 shows the result of contour dot extraction processing for the dot image data in Fig. 29.
  • the body shape extraction unit 600 creates a contour image as shown in FIG. 31 by approximating the dots selected by the contour dot extraction process with a spline curve or the like.
  • the body shape extraction unit 600 executes a process of converting the resolution and aspect ratio of the created contour image into the resolution and aspect ratio of the screen of the display unit 200, as necessary. If necessary, smoothing processing is performed on the contour image, or a texture image prepared in advance is pasted in the area inside the contour. Examples of textures include human hands, animal skins, wood, concrete, metal, and artificial patterns.
  • body shape extraction section 600 when a line sensor is used as body shape input section 100 as shown in FIG.
  • Body shape extraction unit 600 first takes in the data output from body shape input unit 100 and creates line image data as shown in FIG.
  • body shape extraction section 600 performs contour extraction processing on the line image data. Specifically, a contour image as shown in Fig. 33 is created by approximating the end points of each line included in the line image data with a spline curve or the like.
  • the body shape extraction unit 600 executes processing for converting the resolution and aspect ratio of the created contour image into the resolution and aspect ratio of the screen of the display unit 200 as necessary, and If necessary, smooth the contour image or remove the area inside the contour. Processing such as pasting a texture image prepared in advance in the area is performed. Examples of textures include human hands, animal skins, wood, concrete, metal, and artificial patterns.
  • the display unit 200 displays an image synthesized by the image synthesis unit 800 on the screen.
  • the display unit 200 includes a liquid crystal display, a CRT (Cathode Ray Tube) display, an EL (Electronic Luminescence) display, and the like. Is available.
  • the display unit 200 is an aerial image obtained by combining the image synthesized by the image synthesis unit 800, such as HUD (Head Up Display) or HMD (Head Mounted Display), using a half mirror, mirror, lens, or the like. It may be a display that forms an image. In this case, for example, an image can be displayed even at a position where the display unit 200 is difficult to install, such as above the front hood of the vehicle.
  • HUD Head Up Display
  • HMD Head Mounted Display
  • a projector may be used as the display unit 200.
  • the image synthesized by the image synthesis unit 800 is projected onto the screen by the projector, a large screen display can be realized at low cost.
  • the configuration of the display unit 200 may be appropriately selected according to the installation location, the display purpose, and the like.
  • the operation unit 300 detects an input operation by the user and outputs a signal corresponding to the input operation.
  • a coordinate input device such as a touch panel or a touch pad, or a switch such as a button switch or a jog dial (a switch as a software) can be used.
  • the operation unit 300 may include both a coordinate input device and a switch.
  • a coordinate input device is used as the operation unit 300 and an example in which a switch is used will be described.
  • the operation unit 300 is a coordinate input device such as a touchpad touch panel, and outputs coordinate data indicating the position touched (or pressed) by the user at a predetermined timing. To do.
  • the user As the user's input operation detected by the operation unit 300, the user generally touches the operation surface of the operation unit 300 or presses the operation surface. Depends on device type and settings. For example, in the case of a capacitive touch pad, it is generally detected whether the user has touched the operation surface. On the other hand, in the case of a pressure-sensitive touch pad, it is detected whether the user presses the operation surface with a pressure higher than a certain value, rather than whether the operation surface is touched. If the pressure threshold is increased, it can be detected as an input operation only when the user strongly presses the operation surface.
  • Input operation can be considered.
  • These input operations do not necessarily need to be detected only by the operation unit 300. For example, even if the control unit 500 detects an input operation such as a double click or a drag based on the coordinate data output by the operation unit 300. Good.
  • a rotary switch for volume adjustment is displayed on the display unit 200 in a simulated manner using a GUI component, and a drag operation that draws a circle on the operation surface of the operation unit 300 is detected.
  • the volume may be changed according to the drag operation.
  • the shape, position, function, and number of GUI parts displayed on the display unit 200 can be arbitrarily changed as needed. . Further, for example, it is possible to easily specify an arbitrary point on the map displayed on the display unit 200. Therefore, a very general-purpose input device can be realized.
  • the operation unit 300 is not necessarily provided with a function of outputting such coordinate data provided in a general touchpad touch panel. Ie It is also possible to output only a signal indicating whether the user touches the operation surface or whether it is pressed. In this case, since the position touched (or pressed) by the user cannot be detected from the output of the operation unit 300, it is necessary to detect the position based on the data output from the body shape input unit 100. For example, if the user is constrained to select a GUI part with his index finger up as shown in Fig. 1 and the hand image power obtained by the body shape extraction unit 600 detects the position of the fingertip of the index finger, You can see which GUI part is selected.
  • the operation unit 300 has a function for outputting coordinate data, for example, as shown in FIG. 35, a plurality of fingers are positioned on a plurality of GUI parts in advance, and the hand 6 is not moved. It is possible to use these GUI parts to select the desired GUI parts as appropriate.
  • the operation unit 300 includes a base unit 301 and a plurality of switches 310.
  • the switch 310 include a button switch 311, a toggle switch, a rotary switch 312, a jog dial 313, and a joystick 314.
  • the display unit 200 displays GUI components corresponding to the position of the switch 310 installed in the operation unit 300.
  • the shape of these GUI parts is preferably almost the same as the shape of the switch 310.
  • the function of the GUI component displayed on the display unit 200 can be arbitrarily changed whenever necessary.
  • the rotary switch 312 in the audio mode, can be used as a volume control unit, and in the navigation mode, the rotary switch 312 can be used as a map display magnification changing unit.
  • the user can perform an input operation while sensing the behavior of the switch by touch, and therefore, the input operation can be performed only with a visual sense such as a touch pad. In comparison, more intuitive and reliable input is possible.
  • the operation unit 300 may include both the coordinate input device and the switch.
  • a coordinate input device may be further arranged in the center of the base 301 in FIG. Yes.
  • the corresponding switch is provided in the operation unit 300 to select it.
  • other GUI components can be selected using a coordinate input device, making the placement of the GUI components flexible and enabling effective use of the screen.
  • calculation unit 400 Since the body shape extraction unit 600 included in the calculation unit 400 has already been described, the description thereof is omitted here.
  • the processing of the calculation unit 400 is roughly divided into processing executed to display an image of the user's body part on the display unit 200, and processing executed when a user input operation is performed. It is divided into.
  • the body shape extraction unit 600 detects the body shape in step S501, the body shape extraction unit 600 sends a message to the control unit 500 that the body shape has been detected.
  • the body shape extraction unit 600 may detect characteristics related to the body shape (eg, hand size, left hand or right hand) and send the characteristics to the control unit 500 together with a message.
  • control unit 500 checks the operation mode at that time.
  • control unit 500 changes the display information to be displayed on display unit 200 to display information creation unit 700 in step S503.
  • the display information creation unit 700 changes the display information according to this instruction.
  • FIG. 38A and FIG. 38B show the case where the body shape extraction unit 600 detects the body shape (that is, the case where the user's body part exists on the operation unit 300) and the case where the body shape extraction unit 600 does not detect the body shape (that is, This is a first example in which the display information is changed when the user's body part does not exist on the operation unit 300.
  • FIG. 38A and FIG. 38B show the case where the body shape extraction unit 600 detects the body shape (that is, the case where the user's body part exists on the operation unit 300) and the case where the body shape extraction unit 600 does not detect the body shape (that is, This is a first example in which the display information is changed when the user's body part does not exist on the operation unit 300.
  • FIG. 38A and FIG. 38B show the case where the body shape extraction unit 600 detect
  • FIG. 38A is a screen display example when the body shape extraction unit 600 does not detect the body shape.
  • the outline of a GUI part here, a button
  • FIG. 39B is a screen display example corresponding to FIG. 38A when the body shape extraction unit 600 detects the body shape.
  • the buttons are displayed in three dimensions, the user can recognize at a glance where the area to be selected is.
  • FIG. 39A and FIG. 39B show the case where the body shape extraction unit 600 detects the body shape (that is, the case where the user's body part exists on the operation unit 300) and the case where the body shape extraction unit 600 does not detect the body shape.
  • FIG. 39A is another screen display example when the body shape extraction unit 600 does not detect the body shape.
  • GUI parts buttons here
  • FIG. 39B is a screen display example corresponding to FIG. 38A when the body shape extraction unit 600 detects the body shape.
  • the button is displayed larger than FIG.
  • the user can easily select the button.
  • the display information in this way, it is easy for the user to perform input operations, sometimes it is easier to see information other than the buttons, and when the user is trying to perform input operations, the buttons are enlarged and operated. Can be improved.
  • FIG. 40A and FIG. 40B are examples in which the display information is changed between when the body shape extraction unit 600 detects the right hand and when the left hand is detected.
  • the body shape extraction unit 600 determines whether the detected body shape is that of the right hand or the left hand, and notifies the control unit 500 of the determination result as characteristics relating to the body shape. Based on this determination result, the controller 500
  • the display information creation unit 700 is instructed to change the display information. Whether the detected body shape is right-handed or left-handed can be determined from data such as FIG. 24 and FIG. 25 using various existing algorithms.
  • FIG. 40A is a screen display example when the body shape extraction unit 600 detects the right hand
  • FIG. 40B is a screen display example when the body shape extraction unit 600 detects the left hand.
  • the operation unit 300 has two users on both the left and right sides, and exists on the right side of the operation unit 300.
  • the user who operates the operation unit 300 with his left hand and the user who is present on the left side of the operation unit 300 operates the operation unit 300 with his right hand will assume the situation! That is, when the body shape extraction unit 600 detects the right hand, it is considered that the user operating the operation unit 300 is on the left side of the operation unit 300.
  • a GUI component here, a button
  • a button is displayed on the left side of the screen as shown in FIG. 40A.
  • a button is displayed on the right side of the screen as shown in FIG. 40B.
  • the button placement position is changed between when the body shape extraction unit 600 detects the right hand and when the left hand is detected, but the function, shape, size, number, etc. of the buttons are changed. You may make it do.
  • the control unit 300 is installed between the driver's seat and front passenger seat of a right-hand drive car, and the right hand (i.e. passenger's hand in the front passenger seat) is detected while the vehicle is moving, Displays buttons that require relatively complicated input operations such as character input and buttons that require relatively simple input operations such as screen scrolling, but the left hand (that is, the driver's hand) is moving while the vehicle is moving. If detected, only buttons that require relatively simple input operations may be displayed for safety.
  • buttons that require relatively complex input operations and buttons that require relatively simple input operations are displayed, but if the right hand (i.e., the driver's hand) is detected while the vehicle is moving, it is relatively simple. It may be possible to display only buttons that require input operations.
  • FIGS. 41A and 41B show display information when the body shape extraction unit 600 detects a relatively large hand (that is, an adult hand) and when a relatively small hand (that is, a child's hand) is detected. It is an example to change.
  • the body shape extraction unit 600 determines whether the detected body shape is a relatively large hand or a relatively small hand, and notifies the control unit 500 of the determination result as characteristics relating to the body shape. Based on the determination result, the control unit 500 instructs the display information creation unit 700 to change the display information.
  • Whether the detected body shape is a relatively large hand or a relatively small hand can be determined, for example, by comparing the area and width of the body region 607 in FIG. 24 with a predetermined threshold.
  • FIG. 40A is a screen display example when the body shape extraction unit 600 is relatively large and detects a hand. When the body shape extraction unit 600 is relatively large and detects a hand, it is considered that an adult is trying to operate, so the input operation is not particularly limited.
  • FIG. 40B is a screen display example when the body shape extraction unit 600 detects a relatively small hand. If the body shape extraction unit 600 is relatively large and the hand is detected, it is considered that the child is trying to operate, so some or all buttons are disabled to restrict input operations, and the buttons are disabled. Change the color of the button or mark it so that it is shared with the user.
  • the button color is changed or a mark is added.
  • the present invention is not limited to this. Variations are possible. For example, it may be possible to change a difficult word included in the display information to an easy word, or to change the screen configuration or coloring to a child-like style.
  • the display information creation unit 700 includes a body shape extraction unit.
  • Display information may be generated only when the shape of the body part is detected by 600.
  • the processing related to image display is interrupted when the user does not perform an input operation, so that power consumption can be reduced.
  • the display information creation unit 700 may hesitate to generate display information only when the body shape extraction unit 600 detects the right hand (or left hand).
  • the display information creation unit 700 may generate display information only when an adult hand (or a child's hand) is detected by the body shape extraction unit 600.
  • the shape detected by the body shape extraction unit 600 is not necessarily the shape of the body part.
  • the display information creation unit 700 may not generate a GUI part.
  • the display information creation unit 700 may not generate a GUI part.
  • step S504 the control unit 500 creates (changes) the body image created by the body shape extraction unit 600 and the display information creation unit 700 for the image composition unit 800.
  • the display information is instructed to be combined.
  • the image composition unit 800 synthesizes the body image and the display information according to this instruction. An example of an image synthesized by the image synthesis unit 800 will be described below.
  • FIG. 42A is a screen example when the body image created by the body shape extraction unit 600 (eg, FIG. 28) is overwritten on the display information created by the display information creation unit 700.
  • FIG. 42B shows a screen when the contour information created by the body shape extraction unit 600 (eg, FIG. 25, FIG. 31, FIG. 33) is overwritten on the display information created by the display information creation unit 700 as a body image. It is an example. By such image composition, the shape and position of the body part are displayed, and at the same time, the display information inside the body image is also displayed, so that it is easy to check the display information during the operation.
  • the contour information created by the body shape extraction unit 600 eg, FIG. 25, FIG. 31, FIG. 33
  • FIG. 42C shows the body image created by the body shape extraction unit 600, processed so that the outline is opaque and the inside is translucent, and then overwritten on the display information created by the display information creation unit 700. It is an example of a screen in the case of. Intuitive input operation is possible by such image composition. At the same time, it becomes easier to check the display information during the operation.
  • FIG. 42D shows a screen when the contour image created by the body shape extraction unit 600 is processed so that the fingertip portion is highlighted, and then the display information created by the display information creation unit 700 is overwritten.
  • This kind of image composition allows the user to quickly confirm the position he / she is trying to press, and the display information inside the body image is also displayed, making it easier to confirm the display information during operation.
  • a method of detecting the fingertip portion for example, a method of specifying the fingertip portion using a pattern matching method from the shape of the contour, or extracting the nail portion with the image data force as shown in FIG. 23 is conceivable.
  • Examples of highlighting include displaying a mark, changing the color, changing the transparency, and gradually increasing the color of the outline as you go to the fingertip, or gradually as you go to the fingertip.
  • One example is to reduce the transparency of the contour.
  • FIG. 42E is a screen example when the body image created by the body shape extraction unit 600 is overwritten with the display information created by the display information creation unit 700 after adding a translucent or opaque shadow. .
  • Such image composition can give the user the feeling of actually touching the screen.
  • the body image is checked as necessary to overwrite the display information created by the force display information creation unit 700. It is also possible to process other than hand images. Hereinafter, such an example will be described.
  • Fig. 42F shows auxiliary information (G UI component label) in the vicinity of a GUI component that is partially or entirely hidden when the body image created by the body shape extraction unit 600 is overwritten on the display information. And information such as auxiliary explanation) are displayed in a pop-up.
  • the image composition unit 800 first determines whether each GUI component included in the display information created by the display information creation unit 700 overlaps the body image using a known algorithm. Then, if there is a GUI part that overlaps the body image, find an area that is away from the GUI part's position in a predetermined direction (such as rightward or upward) and does not overlap the body image, and that area Displays auxiliary information for GUI parts.
  • a predetermined direction such as rightward or upward
  • Fig. 42G shows a GUI part overwritten with the body image created by the body shape extraction unit 600. If the body part created by the body shape extraction unit 600 is overwritten on the display information, the GUI part label is overwritten on the body part. It is an example. In the example of FIG. 42G, the force of overwriting the body image with only the label of the hidden GUI part may be overwritten together with the shape of the hidden GUI part. By such image composition, the user can identify the G UI component hidden by the body image without moving the hand, and the operability is improved.
  • FIG. 42H is an example in which a GUI component that overlaps the fingertip portion of the body image is highlighted when the body image created by the body shape extraction unit 600 is overwritten on the display information.
  • the user can easily confirm which GUI part the fingertip of the body image is on.
  • a method for detecting the position of the fingertip portion for example, a method of specifying the fingertip portion using a pattern matching method from the shape of the contour, or extracting the nail portion with image data power as shown in FIG. It is done.
  • highlighting is, for example, changing the color, changing the transparency, changing the shape, changing the line type 'line thickness, changing the text format, changing the icon, changing the color or transparency continuously (gradient ) Etc. are possible by various methods.
  • the screen is divided into a map area and a TV area, and the user's hand is combined only in the map area, and combined in the TV area. Not. This is because, for example, in the television area, there is no button to be operated, so there is no need to synthesize a hand image. In this way, it is possible to improve the visibility of the TV area and inform the user that there is no target to operate in the TV area.
  • Fig. 42J As in the example of Fig. 421, the screen is divided into the map area and the TV area, and the user's hand is located across both areas. Are synthesized while being opaque, and only the outline is synthesized in the television area. This is an illustration For example, in the example shown in Fig. 421, since it is completely hidden, it is disliked that the hand is cut out, and the hand shape is displayed in a more natural shape while the visibility of the TV area is reduced. This is to keep it to a minimum.
  • step S511 the operation unit 300 sends a message to the control unit 500 when detecting a contact operation or a pressing operation by the user.
  • the operation unit 300 may simply output only the coordinate data to the control unit 500, and the control unit 500 may detect a contact operation or the like based on the coordinate data.
  • control unit 500 instructs display information creation unit 700 to change the display information.
  • Display information creation unit 700 changes the display information in accordance with instructions from control unit 500. An example of changing the display information here will be described with reference to FIGS. 44A and 44B.
  • FIG. 44A is an example in which a GUI part corresponding to a point on the operation unit 300 touched (or pressed) by the user (that is, a GUI part selected by the user) is highlighted.
  • the GUI component here, button
  • FIG. 44A a hand image is shown for convenience, but actually, the display information created by the display information creation unit 700 does not include the hand image.
  • FIG. 44B is an example in which a point on the screen corresponding to a point on the operation unit 300 touched (or pressed) by the user is highlighted.
  • a circular mark is overwritten at the point on the screen corresponding to the point on the operation unit 300 touched (or pressed) by the user, as if the fingerprint also remained with the force.
  • This circular mark is displayed until a certain time has elapsed after the mark is displayed or until the user touches (or presses) the operation unit 300 again.
  • the user can easily confirm whether or not the user has correctly specified the point on the screen that he / she has specified. In particular, if the point you are trying to specify and the point that you actually specified are misaligned, Can be confirmed.
  • step S513 the control unit 500 causes the image composition unit 800 to display the body image created by the body shape extraction unit 600 and the display information created by the display information creation unit 700. To be synthesized.
  • the image composition unit 800 synthesizes the body image and the display information in accordance with this instruction.
  • an intuitive input operation using a GUI can be performed without the user's direct contact with the screen and without looking at the hand during operation. Can do.
  • the input device of the present invention enables intuitive input operation such as a touch panel display without directly touching the screen, and the input operation is performed at a position away from the display. It is also suitable when a far-focus display is used as a display means. Further, since it is not necessary to look at the hand at the time of input operation, it is also suitable as an input device for a car navigation device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ユーザーの手元に操作用のタッチパッド(4)が設置され、タッチパッド(4)の上方にはカメラ(1)が設置される。ディスプレー(2)には、ユーザーが所望の命令や情報を入力するための1つ以上のGUI部品(3)が表示される。ユーザーがGUI部品(3)を選択するためにタッチパッド(4)上に手(6)を移動させると、タッチパッド(4)を背景とした手(6)の画像がカメラ(1)によって撮像される。カメラ(1)から出力された画像データから、形状補正処理を経て手画像(7)が作成され、ディスプレー(2)に表示される。ユーザーは、ディスプレー(2)に表示された手画像(7)を見ながら、手画像(7)の指先が所望のGUI部品(3)上に来るように手(6)を移動させてからタッチパッド(4)を押す。

Description

入力装置
技術分野
[0001] 本発明は、ユーザーが機器に対して命令や情報を入力するための入力装置に関し
、より特定的には、ディスプレー等に表示された情報をもとにユーザーが手などの身 体を用いて命令や情報を入力することのできる入力装置に関する。
背景技術
[0002] 従来、ディスプレー等の表示画面に表示された情報をもとにユーザーが指などを用 いて命令や情報を入力する入力装置として、タツチパネルディスプレーがある。タツチ パネルディスプレーは、ディスプレーの表示画面上にタツチパネルを設けた構成であ る。画面に表示される GUI (Graphical User Interface)には、メニューやボタンス イッチに代表される表示部品(以下では、 GUI部品と呼ぶ)が含まれる。ユーザーは 、画面上で所望の GUI部品に触れることによって、その GUI部品に関連付けられた 命令や情報を入力することができる。このように、タツチパネルディスプレーを利用す れば、簡単かつ直感的に命令や情報を入力することができるため、入力操作に不慣 れな者にも分力りやすい入力インターフェースを実現できる。そのため、タツチパネル ディスプレーは、銀行の ATM (Automated Teller Machine)やカーナビゲーシ ヨン装置などに広く採用されている。
[0003] しかしながら、タツチパネルディスプレーは、表示画面に直接触れることによって入 力を行うため、表示画面の設置位置に関して一種のジレンマが生じる。
[0004] ユーザーが指でタツチパネルディスプレーに触れるためには表示画面を身体の近 くに置かなければならない。人間工学では、 VDT (Video Display Terminal)の 操作などに関する入力インターフェースの最適な配置条件が定められており、身体 力 半径 50cm以内がよ!、とされて!/、る。
[0005] 一方で、表示画面はなるべく遠くに設置した方がよ!、場合がある。その一例が、家 庭に設置される大型テレビや、車内に設置されるカーナビゲーシヨン装置である。テ レビを 30cm程度の近距離で見ることは、目にとつて良くない。また、車の運転中に用 いるカーナビゲーシヨン装置では、運転者が目の焦点距離を調節するのにかかる時 間が、運転に対する注意の妨げになることが報告されている。つまり、運転中の焦点 距離 (数 m先)とカーナビゲーシヨン装置の表示画面を見るときの焦点距離との差は より小さい方がより安全である。ところで、表示画面を見るときの焦点距離を離すこと のできる表示装置として、レンズや鏡を用いた HUD (Head Up Display)に代表さ れる遠焦点ディスプレーが存在するが、この遠焦点ディスプレーではユーザーが表 示画面に触れることができないため、タツチパネルを適用することができない。
[0006] さらに、タツチパネルディスプレーは、ユーザーの入力操作によって表示画面に指 紋がっくため表示の視認性が悪ィ匕するという本質的な問題も抱えている。
[0007] 一方、タツチパネルディスプレーのようにユーザーが表示画面に触れるのではなぐ 表示画面から離れた場所にある操作部を利用して入力を行うことのできる入力インタ 一フェースとして、タツチトレーサーや、 PC (Personal Computer)の入力装置とし て一般的に利用されているタブレットなどがある(例えば、特許文献 1参照)。これらの 入力インターフェースでは、表示画面に矢印などの形状のカーソルが表示され、ユー ザ一が指またはペンを操作部に設けられた所定の操作面に接触させた状態で移動 させると、その動きに対応して画面上のカーソルが移動する。ユーザーは、カーソル が所望の GUI部品上に移動したことを確認して力 所定の確定動作 (例えばクリック 操作)を行うことによって、その GUI部品に関連づけられた命令や情報を入力するこ とがでさる。
[0008] タツチトレーサーやタブレットでは、表示画面と操作部が分離しているため、表示画 面を遠くに、操作部を近くに置くことが可能である。またユーザーが画面を触ることが な 、ので画面に指紋が付く心配もな!/、。
[0009] しかし、表示画面と操作部が分離された入力インターフェースは、操作部の操作面 上で指やペンをスライドさせることによって画面に表示されたカーソルを移動させる必 要があるため、タツチパネルディスプレーのように所望の GUI部品をワンタッチで選 択することはできない。すなわち、カーソルの現在位置を確認してから、指を操作面 上でスライドさせてカーソルを所望の GUI部品上に移動させる操作が必要になるの で、タツチパネルディスプレーのような素早い入力は困難である。このように、表示画 面と操作部が分離された入力インターフェースはタツチパネルディスプレーのような 直感的な入力が不可能であり、タツチパネルディスプレーよりも操作性に劣る。
[0010] そこで、上記のような入力装置の問題点を解消するものとして、ディスプレイとタツチ パネルを分離して配置するとともに、タツチパネルを操作中のユーザの指をカメラで 撮像して、その出力画像をディスプレーの表示画像と合成して表示する入力装置も 考えられている(例えば、特許文献 2参照)。このような入力装置を用いれば、ユーザ は、ディスプレーに表示されている自分の指を見ながら入力操作を行えるので、視線 をディスプレーに固定したまま、手元に配置されたタツチパネルを用いて正確な入力 操作を行うことができる。
特許文献 1:特開平 11 3169号公報
特許文献 2:特開平 10— 269012号公報
発明の開示
発明が解決しょうとする課題
[0011] し力しながら、上記のようなカメラを利用した入力装置では、カメラの設置位置に制 約があるという問題がある。
[0012] タツチパネルを操作中のユーザの指を撮影するためには、タツチパネルの操作面 に対して垂直な方向にカメラを設置しなくてはならない。例えば、上記の特許文献 2 に記載されて 、る情報表示装置では、操作面の真下にカメラが設けられて 、る。
[0013] ところが、このような入力装置を車載装置に適用する場合には、タツチパネルやカメ ラの設置スペースが限られて 、るため、適切な位置にカメラを設置できな 、場合があ る。また、カメラの設置スペースが十分に存在する場合でも、美観上の理由などから、 適切な位置にカメラを設置することが望まれない場合もある。
[0014] それゆえに本発明の目的は、表示画面と操作部が分離していても、タツチパネルの ようにあた力も画面に直接触れて入力しているかのような、直感的かつ正確な入力が 可能であり、かつ設置の自由度が高い入力装置を提供することである。
課題を解決するための手段
[0015] 上記目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参 照符号や図番号は、本発明の理解を助けるために、図面との対応関係を示したもの であって、本発明の範囲を何ら限定するものではない。
[0016] 本発明の第 1の局面は、ユーザーによって操作され、当該操作に対応した操作信 号を出力する操作部(300)と、ユーザーによる操作の補助となる表示画像を作成す る表示情報作成部(700)と、前記操作に関わるユーザーの身体部分を撮像するカメ ラを含み、当該撮影の結果として得られた画像データを出力する身体形状入力部(1 00)と、前記身体形状入力部から出力される画像データに基づいて前記身体部分の 形状および位置を検出し、当該検出された身体部分の形状および位置を補正する ための形状補正処理を行って、前記身体部分を表す身体画像を作成する身体形状 抽出部 (600)と、前記表示情報作成部が作成した表示画像と前記身体形状抽出部 が作成した身体画像を合成する画像合成部(800)と、前記画像合成部が合成した 画像を表示する表示部(200)とを備えた入力装置である。身体形状入力部としては 、代表的にはカメラや複数の受光部やラインセンサなどの任意の光学的な撮像デバ イスを利用することができる。さらには、光学的な手法以外の手法によって、ユーザー の身体部分の形状および位置を特定するための情報を取得するものであっても構わ ない。
[0017] 本発明の第 2の局面は、第 1の局面において、前記身体形状抽出部は、前記形状 補正処理として、前記カメラと前記操作部の相対的な位置関係を考慮した視点変換 処理(図 26、図 27)を行うものであることを特徴とする。これにより、身体部分の形状 をより実際に近い形で表示することができる。
[0018] 本発明の第 3の局面は、第 1の局面において、前記身体形状抽出部は、前記身体 形状入力部から出力される画像データから検出された形状が身体部分の形状である 力どうかを、予め保持しておいた身体部分の形状パターンを用いたパターンマツチン グによって判定するものであることを特徴とする。これにより、検出された形状が身体 部分の形状であるかどうかを判定することができるので、判定結果に応じた任意の制 御が可能となる。
[0019] 本発明の第 4の局面は、第 3の局面において、前記身体形状抽出部は、前記身体 形状入力部から出力される画像データから検出された身体部分の形状を前記形状 パターンに基づいて補正するものであることを特徴とする。これにより、例えば爪にマ ニキユアを塗って、、た場合など、画像認識によって得られた身体部分の形状の一部 が欠けて ヽる場合でも、違和感のな ヽ身体画像を表示することができる。
[0020] 本発明の第 5の局面は、第 1の局面において、前記操作部の所定位置には、前記 形状補正処理で利用される目印が付されており、前記身体形状抽出手段は、前記力 メラから出力された画像データ中の前記目印の位置が前記表示部の画面上の所定 位置に変換されるように形状補正処理を行うものであることを特徴とする。これにより、 カメラと操作部の相対位置に左右されずに、違和感のな ヽ身体画像を生成すること ができる。
[0021] 本発明の第 6の局面は、第 1の局面において、前記画像合成部は、前記表示画像 と前記身体画像を合成するときに、当該身体画像の輪郭を強調するものであることを 特徴とする。これにより、身体画像を表示することによって表示情報が隠れてしまうこ とを回避できる。
[0022] 本発明の第 7の局面は、第 1の局面において、前記画像合成部は、前記表示画像 と前記身体画像を合成するときに、当該身体画像の透明度を変化させ、かつ当該身 体画像の輪郭を強調するものであることを特徴とする(図 42C)。これにより、身体画 像を表示することによって表示情報が隠れてしまうことを回避できる。
[0023] 本発明の第 8の局面は、第 1の局面において、前記画像合成部は、前記表示画像 と前記身体画像を合成するときに、当該身体画像におけるユーザーの指先部分を検 出し、当該指先部分を強調するものであることを特徴とする(図 42D)。これにより、入 力操作に大きく関わる指先部分にユーザーの注意を向けることができる。
[0024] 本発明の第 9の局面は、第 1の局面において、前記画像合成部は、前記表示画像 と前記身体画像を合成するときに、当該身体画像の影を付すものであることを特徴と する(図 42E)。これにより、身体画像をよりリアルに表示することができる。
[0025] 本発明の第 10の局面は、第 1の局面において、前記画像合成部は、前記表示画 像と前記身体画像を合成するときに、当該身体画像によって隠れてしまう前記表示 画像中の表示情報を、当該身体画像によって隠れてしまわな 、ような領域にポップ アップ表示させるものであることを特徴とする(図 42F)。これにより、ユーザーは、身 体画像を表示することによって隠れてしまった表示情報も確認することができる。 [0026] 本発明の第 11の局面は、第 1の局面において、前記画像合成部は、前記表示画 像と前記身体画像を合成するときに、当該身体画像によって隠れてしまう前記表示 画像中の表示情報を、当該身体画像よりも前面に表示させるものであることを特徴と する(図 42G)。これにより、ユーザーは、身体画像を表示することによって隠れてしま つた表示情報も確認することができる。
[0027] 本発明の第 12の局面は、第 1の局面において、前記画像合成部は、前記表示画 像と前記身体画像を合成するときに、当該身体画像におけるユーザーの指先部分を 検出し、当該指先部分に重なる前記表示画像中の表示情報を強調するものであるこ とを特徴とする(図 42H)。これにより、ユーザーは、自分の指先の位置に対応する表 示情報がどれかを容易に確認することができる。
[0028] 本発明の第 13の局面は、第 12の局面において、前記画像合成部は、前記指先部 分に重なる前記表示画像中の表示情報を拡大する、もしくは当該表示情報の色を変 ィ匕させる、もしくは当該表示情報を立体的に見えるように変化させる、もしくは当該表 示情報に関する補助情報をポップアップ表示させることによって、当該表示情報を強 調するものであることを特徴とする。これにより、ユーザーは、現在の自分の指先の位 置に対応する表示情報がどれかを容易に確認することができる。
[0029] 本発明の第 14の局面は、第 1の局面において、前記表示情報作成部は、前記身 体形状抽出部における前記身体部分の形状の検出結果に応じて、作成すべき表示 画像を変更するものであることを特徴とする。これにより、状況に応じた表示情報を作 成することができる。
[0030] 本発明の第 15の局面は、第 14の局面において、前記表示情報作成部は、前記身 体形状抽出部において前記身体部分の形状が検出されたときにのみ表示画像を作 成するものであることを特徴とする。これにより、身体部分が検出されない場合に画像 表示処理を行わな!/、ようにして、消費電力を抑えることができる。
[0031] 本発明の第 16の局面は、第 14の局面において、前記表示情報作成部は、前記身 体形状抽出部において前記身体部分の形状が検出された場合に、作成すべき表示 画像中の GUI部品を強調するものであることを特徴とする(図 38B、図 39B)。これに より、身体部分が検出されない場合には GUI部品を目立たないように表示し、 GUI 部品以外の表示情報を見やすくしたり、その情報量を増やしたりすることができる。
[0032] 本発明の第 17の局面は、第 14の局面において、前記身体形状抽出部は、前記身 体形状入力部が取得した情報に基づ 、て検出した形状が、身体部分の形状かどう かを判断するものであり、前記表示情報作成部は、前記身体形状抽出部の判断結 果に応じて、作成すべき表示情報を変更するものであることを特徴とする。これにより 、例えば身体以外のものが検出された場合に画像表示処理を行わないようにして、 消費電力を抑えるといったことが可能となる。
[0033] 本発明の第 18の局面は、第 14の局面において、前記身体形状抽出部は、検出し た身体部分の形状に基づいて当該身体部分が右手力左手かを判断するものであり 、前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、作成すべき 表示画像を変更するものであることを特徴とする(図 40A、図 40B)。
[0034] 本発明の第 19の局面は、第 18の局面において、前記表示情報作成手段は、前記 身体形状抽出部において検出された身体部分の形状が右手または左手のものの場 合にのみ表示情報を作成するものであることを特徴とする。これにより、例えばユーザ 一が操作部の右側から入力操作をして ヽる場合にのみ表示情報を表示したり、ユー ザ一が操作部の左側から入力操作をして 、る場合にのみ表示情報を表示したりと ヽ つたことが可能である。
[0035] 本発明の第 20の局面は、第 18の局面において、前記表示情報作成部は、前記身 体形状抽出部において検出された身体部分の形状が右手または左手のものの場合 に、作成すべき表示画像中の GUI部品を強調表示、もしくは当該 GUI部品の位置を 変更、もしくは当該 GUI部品の有効性を変更するものであることを特徴とする。これに より、ユーザーが操作部の右側(または左側)から入力操作をしている場合にのみ、 G UI部品を強調したり、 GUI部品を有効にしたり、 GUI部品が無効化されていることを 表示したりすることができる。また、ユーザーの位置に合わせて GUI部品の位置を入 力操作のしゃすい位置に変更することができる。
[0036] 本発明の第 21の局面は、第 14の局面において、前記身体形状抽出部は、検出し た身体部分の形状に基づいて当該身体部分が大人のものか子供のものかを判断す るものであり、前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、 作成すべき表示画像を変更するものであることを特徴とする(図 41A、図 41B)。
[0037] 本発明の第 22の局面は、第 21の局面において、前記表示情報作成部は、前記身 体形状抽出部において検出された身体部分の形状が大人または子供のものの場合 にのみ表示情報を作成するものであることを特徴とする。これにより、例えばユーザー が大人の場合にのみ表示情報を表示したり、ユーザーが子供の場合にのみ表示情 報を表示したりといったことが可能である。
[0038] 本発明の第 23の局面は、第 21の局面において、前記表示情報作成部は、前記身 体形状抽出部において検出された身体部分の形状が大人または子供のものの場合 に、作成すべき表示画像中の GUI部品を強調表示、もしくは当該 GUI部品の位置を 変更、もしくは当該 GUI部品の有効性を変更するものであることを特徴とする。これに より、ユーザーが大人 (または子供)の場合にのみ、 GUI部品を強調したり、 GUI部 品を有効にしたり、 GUI部品が無効化されていることを表示したりすることができる。 また、ユーザーが大人か子供かによつて、 GUI部品の位置を入力操作のしゃすい位 置に変更することができる。
[0039] 本発明の第 24の局面は、第 1の局面において、当該入力装置は、ユーザーによる 入力操作が可能なモードと不可能なモードの 2つの動作モードを有し、前記画像合 成部は、ユーザーによる入力操作が可能なモードのときには、前記表示情報作成部 が作成した表示画像を、前記身体画像と合成することなしに、そのまま前記表示部に 表示させるものであることを特徴とする。これにより、ユーザーによる入力操作が不可 能なモードであるときに、それをユーザーに示唆することができる。
[0040] 本発明の第 25の局面は、第 1の局面において、当該入力装置は、ユーザーによる 入力操作が可能なモードと不可能なモードの 2つの動作モードを有し、前記画像合 成部は、前記動作モードに応じて、前記表示情報作成部が作成した表示画像と前記 身体画像との合成方法を変更するものであることを特徴とする。これにより、例えばュ 一ザ一による入力操作が不可能なモードであるときに、その旨を画面に表示するとい つたことが可能である。
[0041] 本発明の第 26の局面は、第 25の局面において、前記画像合成部は、ユーザーに よる入力操作が可能なモードのときには前記身体画像が半透明で表示、もしくは輪 郭を強調して表示、もしくは半透明でかつ輪郭を強調して表示され、ユーザーによる 入力操作が不可能なモードのときには当該身体画像が不透明で表示されるように、 前記表示画像と前記身体画像を合成するものであることを特徴とする。これにより、ュ 一ザ一による入力操作が不可能なモードであるときに、それをユーザーに示唆するこ とがでさる。
[0042] 本発明の第 27の局面は、第 1の局面において、前記画像合成部は、前記表示画 像の各部分によって、合成方法を変更することを特徴とする。これにより、表示画像の 各部分によって操作の形態、結果が異なることを、ユーザに知らせることが出来る。
[0043] 本発明の第 28の局面は、第 27の局面において、前記表示画像は、操作可能な領 域と不可能な領域を有し、前記画像合成部は、前記表示画像の操作可能な領域で は前記身体画像を合成し、前記操作不可能な領域では前記身体画像を合成しな 、 ことを特徴とする。これにより、表示画像の操作可能領域と操作不可能領域を、表示 画像を変化させることなぐユーザに知らせることが出来る。また、操作不可能領域で は、手を合成しないので、合成したときと比較して、表示画像が見やすくなるという効 果を持つ。
発明の効果
[0044] 以上のような本発明により、表示画面と操作部が分離して!/、ても、タツチパネルディ スプレーのようにあた力も画面に直接触れて入力しているかのような、直感的かつ正 確な入力が可能となる。また、リアルな身体画像を表示することができ、より直感的な 入力操作が可能となる。また、操作部の操作面に対して垂直な位置にカメラを正確に 配置しなくても身体部分の形状をより実際に近い形で表示できるので、カメラの設置 位置の自由度が高い。
図面の簡単な説明
[0045] [図 1]図 1は、本発明の一実施形態に力かる入力装置の概念図である。
[図 2]図 2は、入力装置の構成を示すブロック図である。
[図 3]図 3は、車内における入力装置の設置例である。
[図 4]図 4は、車内における入力装置の設置例である。
[図 5]図 5は、車内における入力装置の設置例である。 [図 6]図 6は、車内における入力装置の設置例である。
[図 7]図 7は、身体形状入力部 100の設置例である。
[図 8]図 8は、身体形状入力部 100の設置例である。
[図 9]図 9は、身体形状入力部 100と操作部 300を一体的に構成した例である。
[図 10]図 10は、身体形状入力部 100を操作部 300の下方に設置した例の側面図で ある。
[図 11]図 11は、身体形状入力部 100を操作部 300の下方に設置した例の上面図で ある。
[図 12]図 12は、光源 110の点滅規則の一例である。
[図 13]図 13は、光源 110が点灯しているときに撮像される手の像の例である。
[図 14]図 14は、光源 110が消灯しているときに撮像される手の像の例である。
[図 15]図 15は、外光の影響を取り除 、た手の像の例である。
[図 16]図 16は、身体形状入力部 100として複数の受光部 150を用 、た構成例である
[図 17]図 17は、発光部 160の発光範囲を示す図である。
[図 18]図 18は、受光部 150の受光範囲を示す図である。
[図 19]図 19は、感度範囲 171を示す図である。
[図 20]図 20は、発光部 160を操作部 300の上方に配置した例である。
[図 21]図 21は、身体形状入力部 100としてラインセンサを用いた構成例である。
[図 22]図 22は、身体形状抽出部 600の処理の流れを示すフローチャートである。
[図 23]図 23は、身体形状抽出部 600で処理される画像データの例である。
[図 24]図 24は、身体形状抽出部 600で抽出される身体領域 607の例である。
[図 25]図 25は、身体形状抽出部 600で抽出される輪郭 609の例である。
[図 26]図 26は、形状補正処理の例である。
[図 27]図 27は、形状補正処理の例である。
[図 28]図 28は、身体形状抽出部 600で作成される身体画像の例である。
[図 29]図 29は、身体形状抽出部 600で処理されるドット画像データの例である。
[図 30]図 30は、身体形状抽出部 600で輪郭部分のドットを抽出した結果の例である [図 31]図 31は、身体形状抽出部 600で抽出される輪郭の例である。
[図 32]図 32は、身体形状抽出部 600で処理されるライン画像データの例である。
[図 33]図 33は、身体形状抽出部 600で抽出される輪郭の例である。
[図 34]図 34は、操作部 300の例である。
[図 35]図 35は、ユーザーによる操作方法の例である。
[図 36]図 36は、操作部 300の例である。
[図 37]図 37は、身体画像を表示するための制御部 500の処理の流れを示すシーケ ンス図である。
[図 38A]図 38Aは、身体形状が検出されていない場合に表示情報作成部 700によつ て作成される表示情報の例である。
圆 38B]図 38Bは、身体形状が検出された場合に表示情報作成部 700によって作成 される表示情報の例である。
[図 39A]図 39Aは、身体形状が検出されていない場合に表示情報作成部 700によつ て作成される表示情報の例である。
圆 39B]図 39Bは、身体形状が検出された場合に表示情報作成部 700によって作成 される表示情報の例である。
[図 40A]図 40Aは、右手が検出された場合に表示情報作成部 700によって作成され る表示情報の例である。
[図 40B]図 40Bは、左手が検出された場合に表示情報作成部 700によって作成され る表示情報の例である。
[図 41A]図 41Aは、比較的大きい手が検出された場合に表示情報作成部 700によつ て作成される表示情報の例である。
[図 41B]図 41Bは、比較的小さい手が検出された場合に表示情報作成部 700によつ て作成される表示情報の例である。
[図 42A]図 42Aは、画像合成部 800によって合成された画像例である。
[図 42B]図 42Bは、画像合成部 800によって合成された画像例である。
[図 42C]図 42Cは、画像合成部 800によって合成された画像例である。 [図 42D]図 42Dは、画像合成部 800によって合成された画像例である。
[図 42E]図 42Eは、画像合成部 800によって合成された画像例である。
[図 42F]図 42Fは、画像合成部 800によって合成された画像例である。
[図 42G]図 42Gは、画像合成部 800によって合成された画像例である。
[図 42H]図 42Hは、画像合成部 800によって合成された画像例である。
[図 421]図 421は、画像合成部 800によって合成された画像例である。
[図 42J]図 42Jは、画像合成部 800によって合成された画像例である。
[図 43]図 43は、ユーザーによる入力操作が検知されたときの制御部 500の処理の流 れを示すシーケンス図である。
[図 44A]図 44Aは、ユーザーによる入力操作があった時に表示情報作成部 700によ つて作成される表示情報の例である。
[図 44B]図 44Bは、ユーザーによる入力操作があった時に表示情報作成部 700によ つて作成される表示情報の例である。
符号の説明
1 カメラ
2 ディスプレー
3 GUI部品
4 タツチパッド
6 手
7 手画像
100 身体形状入力部
110 光源
120 ミラー
130 筐体
140 可視光カットフィルター
150 受光部
160 発光部
171 感度範囲 200 表示部
300 操作部
400 演算部
500 制御部
600 身体形状抽出部
700 表示情報作成部
800 画像合成部
1000 入力装置
発明を実施するための最良の形態
[0047] 以下に、本発明の実施形態について詳しく説明する。
[0048] 図 1は、本発明の一実施形態に力かる入力装置の概念図である。
[0049] 図 1において、ユーザーの手元に操作用のタツチパッド 4が設置され、ユーザーか ら離れた位置にディスプレー 2が設置されている。タツチパッド 4の上方にはカメラ 1が 設置されている。ディスプレー 2には、ユーザーが所望の命令や情報を入力するため の 1つ以上の GUI部品 3が表示されている。
[0050] タツチパッド 4の操作面の各点は、ディスプレー 2の表示画面の各点と一対一で対 応しており、ユーザーがタツチパッド 4の操作面のある点を指で押すと、その接触位置 を示す座標データ (絶対座標データ)がタツチパッド 4力も制御部へと出力され、この 座標データに基づいて、その接触位置に対応する GUI部品 3が特定され、その GUI 部品 3に関連付けられた命令や情報が入力される。
[0051] ユーザーが GUI部品 3を選択するためにタツチパッド 4上に手 6を移動させると、タ ツチパッド 4を背景とした手 6の画像がカメラ 1によって撮像される。制御部は、カメラ 1 から出力された画像データに画像認識処理を施して画像全体から手 6の部分だけを 抽出し、抽出した手 6の画像をスーパーインポーズによってディスプレー 2に手画像 7 として表示する。ユーザーは、ディスプレー 2に表示された手画像 7を見ながら、手画 像 7の指先が所望の GUI部品 3上に来るように手 6を移動させてカもタツチパッド 4を 押す。するとその接触位置に対応する GUI部品 3 (すなわち、手画像 7の指先に位置 する GUI部品 3)に関連付けられた命令や情報が入力される。 [0052] なお、仮に手画像 7が画面に表示されな ヽ場合を想定してみる。この場合、ユーザ 一は例えば画面の中央に表示されている GUI部品 3を選択しょうとするときに、タツチ ノッド 4の操作面に視線を移してタツチパッド 4の中央位置を確かめて力も指で押す 必要があり不便である。特に車の運転中では視線を手元に移すことは危険である。し かし本発明の入力装置によれば、ディスプレー 2に表示された手画像 7を見ることに よって、現在の指の位置が画面上のどの位置に対応しているのかを確認することが できる。よって、ユーザーはタツチパッド 4に視線を移すことなくディスプレー 2だけを 見ながら GUI部品 3を選択することができる。
[0053] また、本発明の入力装置では、ユーザーが指をタツチパッド 4の操作面力 少し浮 力している状態でも手画像 7が画面に表示されるため、ユーザーは、タツチパッド 4に 指を実際に接触させてスライドさせてみることなしに、現在の指の位置が画面上のど の位置に対応しているのかを確認することができる。よって、タツチパッド 4を一押しす るだけと 、う単純かつ素早 、入力操作が可能となる。
[0054] なお、ここではタツチパッド 4力 座標データが出力されるとした力 後述するように、 タツチパッド 4は必ずしも接触位置の座標データを出力する機能を備えている必要は なぐ単にユーザーがタツチパッド 4を押したかどうかだけを検出するものでも構わな い。この場合、カメラ 1で撮像された画像カゝら指先の位置を検出し、検出された指先 の位置力 ユーザーがどの GUI部品 3を選択したかを判断すればよい。
[0055] 以下、入力装置についてより詳細に説明する。
[0056] 図 2は、入力装置の構成を示すブロック図である。図 2において、入力装置 1000は 、身体形状入力部 100、表示部 200、操作部 300および演算部 400からなる。演算 部 400は、演算部 400全体を制御する制御部 500、身体形状入力部 100の出力を 処理して身体形状を抽出する身体形状抽出部 600、ユーザーによる命令や情報の 入力に必要となる表示情報 (すなわち GUI部品 3を含む画像)を作成する表示情報 作成部 700、および、操作部 300を操作するユーザーの身体部分を表す画像と表示 情報作成部 700によって作成された表示情報とを合成する画像合成部 800とからな る。以下、各部の構成について詳細に説明する。
[0057] (身体形状入力部 100) まず、身体形状入力部 100について説明する。
[0058] 身体形状入力部 100は、ユーザーが操作に用いる手など身体部分の形状と位置を 装置に入力するための手段であり、可視光,近赤外線などを受光するカメラを用いる 場合と、ラインセンサ'フォトダイオードなどの個別のセンサを用いる場合とがある。以 下に、それぞれの場合について説明する。
[0059] まず、身体形状入力部 100としてカメラを用いた例について、図 3〜図 11を参照し ながら説明する。
[0060] 身体形状入力部 100としては、例えば可視光力メラ、近赤外カメラ、赤外線カメラ、 超音波カメラを利用することができる。身体形状入力部 100は、操作部 300を撮像す ることのできる位置に配置され、操作部 300を撮影してその画像データを出力する。 ユーザーが操作部 300を手 6で操作しているときには、身体形状入力部 100によつ て撮影される画像に手 6が含まれることとなる。身体形状入力部 100は、好ましくは、 操作部 300の操作面の中央を通る法線上に配置され、かつレンズの光軸が法線と平 行になるように設置される。
[0061] 身体形状入力部 100が可視光力メラの場合には、夜間でも手 6が明瞭に撮影され るように、可視光を照射する光源 110を設けることが好ましぐまた、身体形状入力部 100から出力された画像データ力も手の形状を抽出し易くするために、操作部 300 の操作面は均一色であるのが好ましぐ特に黒や青であるのが好ましい。
[0062] 身体形状入力部 100が近赤外カメラの場合には、常に手 6が明瞭に撮影されるよう に、近赤外光を照射する光源 110を設けることが好ましぐまた、操作部 300の操作 面は黒であるのが好まし 、。
[0063] また、身体形状入力部 100から出力された画像データ力も手の形状を抽出し易く するためにも、操作部 300や操作中の手 6に日光、車のヘッドライト、街灯などが直接 照射されな 、様にするのが好ま 、。
[0064] 図 3〜図 6を用いて車内における設置例を説明する。
[0065] 図 3は第 1の設置例を示している。この設置例では、操作部 300がセンターコンソ一 ルの延長上であって、運転者が肘置きに肘をお 、た状態で操作できるような位置に 設置される。身体形状入力部 100は、操作部 300が撮像できる位置に設置される。 身体形状入力部 100は、操作部 300の法線上である Bの位置(車両の天井など)に 設置されるのが好ましいが、 Bの位置よりも前方 (Aの位置)にあるマップランプゃル ームミラーに組み込まれていても良い。また、 Bの位置よりも後方(Cの位置)にあるル ームランプユニットに組み込まれて 、てもよ 、。
[0066] なお、図 3の Aの位置や Cの位置のように、操作部 300の操作面に対して斜め方向
(すなわち垂直方向とは異なる方向)に身体形状入力部 100が設置される場合には 、身体形状入力部 100によって撮像された手 6の形状力 操作面に対して垂直な方 向から見たときの手 6の形状とは異なる可能性があり、手画像 7を作成する際に後述 する視点変換処理 (操作面に対して斜め方向から見た画像を、操作面に対して垂直 方向から見た画像に変換する画像処理)が必要となる場合がある。
[0067] 図 4は第 2の設置例を示している。この設置例では、操作部 300がステアリングの中 央部に斜め上向きに設置される。身体形状入力部 100は、操作部 300が撮像できる 位置(車両の天井など)に設置される。この場合、身体形状入力部 100によって撮影 される画像はステアリングの蛇角に応じて回転することになるが、身体形状入力部 10 0から出力される画像データを補正することによって、この回転による影響を除去する ことができる。画像データの補正方法の一例として、ステアリングの蛇角を検出する手 段を設けて、検出された蛇角に応じて画像データに回転処理を施すことが考えられ る。また、他の例として、操作部 300の操作面に 1つ以上の基準となる目印を付して おき、画像データからこの目印の位置を検出することによってステアリングの蛇角を 検出し、検出された蛇角に応じて画像データに回転処理を施すことが考えられる。
[0068] 図 5は第 3の設置例を示している。この設置例では、操作部 300が運転席のドアの 内側であって、運転者が肘置きに肘をおいた状態で操作できるような位置に設置さ れる。身体形状入力部 100は、操作部 300が撮像できる位置(車両の天井など)に設 置される。
[0069] 図 6は第 4の設置例を示している。この設置例では、操作部 300が後部座席の中央 にある肘掛け上に設置される。身体形状入力部 100は、操作部 300が撮像できる位 置(車両の天井やルームランプ)に設置される。
[0070] 図 3〜図 6の例では、身体形状入力部 100を車両の天井等、操作部 300から離れ た位置に設置しているが、身体形状入力部 100と操作部 300とを一体的に構成する ことも考えられる。以下、図 7〜図 9を参照して、身体形状入力部 100と操作部 300と を一体的に構成した例を説明する。
[0071] 図 7は、操作部 300の上方の所定位置に身体形状入力部 100を設置した例を示し ている。身体形状入力部 100の近傍に必要に応じて光源 110を設置してもよい。光 源 110は、身体形状入力部 100が色画像を作成するものであれば可視光で有る必 要があるが、身体形状入力部 100が白黒画像を作成するものであれば近赤外光でも よい。
[0072] 図 8は、操作部 300の上方の所定位置にミラー 120を設置し、このミラー 120に映る 操作部 300および手 6を身体形状入力部 100で撮像するようにした例である。
[0073] 図 7や図 8のような構成を実現するには、例えば図 9のような筐体 130を用いて操作 部 300に対する身体形状入力部 100の相対位置を固定すればよい。
[0074] このように身体形状入力部 100と操作部 300とを一体的に構成することにより、身体 形状入力部 100の光軸調整が簡単になるという利点がある。また、操作部 300を図 9 のような筐体 130で遮蔽することにより、外部力もの光 (太陽光など)が操作部 300に 当たりにくくなると 、う利点もある。
[0075] 図 3〜図 9の例では、操作部 300および手 6を上方 (すなわち操作部 300の操作面 側)から身体形状入力部 100で撮像して ヽるが、操作部 300および手 6を下方 (すな わち操作部 300の操作面とは反対の面側)から身体形状入力部 100で撮像すること も考えられる。以下、図 10および図 11を参照して、身体形状入力部 100で操作部 3 00を下方力ゝら撮像するようにした構成例を説明する。
[0076] 図 10は、操作部 300として透明なタツチパネルを採用し、その下方に身体形状入 力部 100と光源 110を設置した例である。図 11は、図 10において操作部 300を上方 力も見た図である。この例ではタツチパネルの下側の面に重ねて可視光カットフィル ター 140が配置されている。また、光源 110は近赤外光を照射するものであり、身体 形状入力部 100は近赤外光に感度のある撮像装置である。
[0077] また、図 10および図 11に示した構成において、外光に含まれる近赤外線による影 響を除去するために、光源 110から発せられる近赤外光を、ある時間的規則に則つ て点滅させるという方法も考えられる。これについて、図 12〜図 15を用いて説明する
[0078] 図 12では、光源 110の点滅における最も単純な規則の例として、一定の期間ごと に点灯と消灯を繰り返すパターンを示した。図 13は、光源 110が点灯しているときに 身体形状入力部 100が撮像した身体部分 (ここでは手)の像の例である。一方、図 1 4は、光源 110が消灯しているときの身体部分 (手)の像の例である。光源 110が点灯 している場合は、図 13に示すように、光源 110および外光による像が重なることが考 えられる。また、光源 110が消灯している場合は、図 14に示すように、外光による像 が撮像されることが考えられる。後述する身体形状抽出部 600 (または身体形状入力 部 100)は、撮像結果に含まれる各画素について、図 13から図 14を引く引き算の処 理を行うことにより、図 15に示すような光源 110による像のみを取り出すことができる。 このようにすることにより、外光の影響を取り除くことができる。
[0079] なお、上記のように光源を所定の規則で点滅させることによって外光の影響を取り 除く手法は、後述のように身体形状入力部 100にカメラ以外のセンサを用いる場合に も適用することができる。また、この手法と図 9の筐体 130とを組み合わせることにより 、さらに効果的に外光の影響を取り除くことができる。
[0080] 次に、身体形状入力部 100に、フォトダイオードやラインセンサなど、カメラ以外の センサを用いた 2つの例にっ 、て説明する。
[0081] まず、第 1の例について図 16〜図 19を参照して説明する。第 1の例は、フォトダイ オードなどの複数の受光部を二次元的に配置することによってドットセンサとして機 能させる例である。
[0082] 図 16において、操作部 300としてタツチパネルが採用され、その下方にはそれぞ れ受光部 150と発光部 160からなる複数の対が 2次元的に配置されて 、る。発光部 1 60は、図 17の斜線の範囲 151に光を発し、受光部 150は、図 18の斜線の範囲 161 に対して感度を有する(すなわち斜線範囲 161からの光を受光することができる)。よ つて、範囲 151と範囲 161とが交わる範囲、すなわち図 19の斜線の感度範囲 171に ユーザーの手 6が存在すれば、発光部 160から発せられた光が手 6に反射し、その 反射光が受光部 150で受光される。このことから、反射光を受光した受光部 150の上 には手 6が存在し、反射光を受光して 、な 、受光部 150の上には手 6が存在しな 、こ とが分かる。身体形状入力部 100は、各受光部 150で反射光を受光した力否かを示 すデータを演算部 400に出力する。なお、図 19に示す感度範囲 171は、受光部 15 0と発光部 160の設置の仕方によって任意に設定することが可能であるが、操作面か ら 10cm程度の距離に設定するのが好ましい。これにより、ユーザーが操作以外の意 図で操作部 300の上方に手 6を移動させたときに、手 6の位置および形状を無駄に 検出してしまうことを防止できる。
[0083] なお、上記第 1の例の変形例として、図 20のように、操作部 300の上方に 1つまた は複数の発光部 160を設け、この発光部 160からの光を操作部 300の下方に二次 元的に配置された複数の受光部 150で受光するようにしても良い。この場合、発光部 160からの光を受光した受光部 150の上には手 6が存在せず、発光部 160からの光 を受光した受光部 150の上には手 6が存在することが分かる。
[0084] 次に、第 2の例について図 21を参照して説明する。第 2の例は、ラインセンサを単 数または複数個用いる例である。
[0085] 図 21において、操作部 300の上方には身体形状入力部 100としてラインセンサが 配置されている。ラインセンサは、操作部 300の操作面上のある 1ラインからの光 (操 作部 300で反射した光もしくは操作部 300を透過した光)を検出するように構成され たセンサである。ラインセンサを操作部 300と平行に移動させることによって操作面全 体を走査することができる。この場合、設置場所等の制約から必要であれば、ライン センサを直線的に移動させるだけではなく回転させてもよい。ただし、ラインセンサを 回転させたときの走査結果に基づいて操作部 300の上方力 見た手 6の位置および 形状を特定するには、ラインセンサの移動パターンに応じた補正処理が必要となる。
[0086] なお、複数のラインセンサを設ける力、操作面上の複数のライン力 の光を同時に 検出することのできるラインセンサを用いることによって、ラインセンサを移動させるこ となく操作面全体を走査することも可能である。この場合、ラインセンサを移動させる 場合と比較して操作面全体を高速に走査することができる。
[0087] なお、検出精度の向上のために、操作部 300の操作面の色は均一にするのが好ま しい。 [0088] なお、図 21の例では操作部 300の操作面に対して垂直方向にラインセンサを設置 しているが、操作部 300の操作面に対して斜め方向(すなわち垂直方向とは異なる 方向)にラインセンサを設置してもよい。ただし、この場合にはラインセンサによって検 出される手 6の形状が、操作面に対して垂直な方向から見たときの手 6の形状とは異 なる可能性があり、手画像 7を作成する際に後述する視点変換処理が必要となる場 合がある。
[0089] また、ラインセンサを操作部 300の下方に配置してもよ ヽ。この場合、操作部 300と して透明のものを採用したり、操作部 300からの光をミラーで反射させてラインセンサ に導いたり、操作部 300に複数の穴を開けてそこ力 手 6の位置および形状をライン センサで検知したりするなどの工夫が必要になる。
[0090] (身体形状抽出部 600)
次に、身体形状抽出部 600について説明する。
[0091] 身体形状抽出部 600は、身体形状入力部 100の出力に基づいて身体形状データ を抽出する。身体形状データとは、例えばユーザーが操作部 300の操作面に載せて V、る (操作面力も浮 、て 、ても良 、)身体部分 (すなわち手や足など)の形状とその位 置を示すデータである。身体形状抽出部 600の具体的な動作は、身体形状入力部 1 00としてカメラを用いた場合とカメラ以外のセンサを用いた場合とで異なる。以下、各 場合における身体形状抽出部 600の動作を説明する。
[0092] まず、身体形状入力部 100としてカメラを用いた場合の身体形状抽出部 600の動 作について説明する。
[0093] 図 22は、身体形状抽出部 600による身体形状抽出処理の流れを示すフローチヤ ートである。
[0094] 身体形状抽出部 600は、まず身体形状入力部 100 (ここではカメラ)から出力された 画像データをフレームメモリに取り込む(S602)。図 23は、フレームメモリに取り込ま れた画像データの一例を示している。図 23の画像データ 601において、 603は操作 部 300の操作面であり、 605はユーザーの手 6である。
[0095] 続いて身体形状抽出部 600は、ステップ S602でフレームメモリに取り込んだ画像 データから、図 24のようにユーザーの身体 (ここでは手 6)に対応する領域を身体領 域 607として抽出する(S604)。画像データから身体領域を抽出する方法としては、 例えば以下の 3つの方法が考えられる。
[0096] 第 1の抽出方法は、背景差分法である。背景差分法では、まず、身体形状入力部 1 00と操作部 300との間に何も存在しない状態で身体形状入力部 100によって操作 部 300を撮影し、その結果を背景画像データとして記憶しておく。そして、身体形状 入力部 100から出力された画像データと背景画像データとを画素毎またはブロック毎 に比較し、両者間で異なる部分を身体領域として抽出する。背景差分法は、操作部 300の操作面を単一色にする必要が無いという点で有利である。なお、背景画像デ ータは、予めメモリーに記憶しておいても良いし、身体形状入力部 100から出力され る画像データが一定時間以上変化しな力つた場合にその画像データを背景画像デ ータとして記憶するようにしても良 、。
[0097] 第 2の抽出方法は、輝度閾値法である。輝度閾値法では、身体形状入力部 100か ら出力された画像データの各画素の輝度値を所定の閾値と比較することによって身 体領域を抽出する。よって、身体形状入力部 100から出力された画像データにおい て、手 6の部分と操作部 300の操作面の部分との輝度差が大きくなるように、操作部 300の操作面を黒な 、し黒に近 、色とし、かつ操作面につや消し処理を施して光の 反射を極力無くすことが好ましい。閾値は、身体形状入力部 100から出力される画像 データにぉ 、て操作部 300に対応する 、ずれの画素の輝度値よりも大き!/、値に設定 される。このようにして設定された閾値よりも高い輝度値を有する領域を抽出すること により、身体領域を抽出することができる。なお、夜間など暗い場合にも安定した身体 領域の抽出を行うためには、身体形状入力部 100の画角の範囲に可視光や近赤外 光を照射するなどして、身体領域が閾値よりも明るく映るようにする必要がある。
[0098] 第 3の抽出方法は、クロマキ一処理法である。クロマキ一処理法は、テレビ放送など で一般的に利用されている方法であって、単色の背景を用いて人物や物体を撮影し 、撮影によって得られた画像データ力 背景の色の部分を除去することによって人物 だけを抽出するものである。よって、クロマキ一処理法を本発明に適用するためには 、操作部 300の操作面を単一色 (例えば青色)とする必要がある。なお、夜間など暗 い場合にも安定した身体領域の抽出を行うためには、身体形状入力部 100の画角 の範囲に可視光を照射する必要がある。
[0099] 本実施例では処理負荷が最も少な 、輝度閾値法を用いるものとして以下の説明を 行う。
[0100] なお、操作部 300の操作面には必ずしもユーザーの身体部分が載せられるとは限 らず、例えば荷物などが載せられる場合もある。この場合、荷物が身体部分として認 識されてしまうため、表示部 200に荷物の画像が表示されてしまい、表示情報の表示 の妨げとなってしまう。そこで、ステップ S606で抽出された形状が身体部分の形状か どうかを判定し、身体部分でなければ以降の処理を行わないようにすれば、このよう な問題を回避することができる。ステップ S606で抽出された形状が身体部分の形状 カゝどうかを判定するには、身体部分の形状パターンを予め保持しておき、ステップ S6 06で抽出された形状をこの形状パターンと比較 (パターンマッチング)すればよ 、。 なお、このパターンマッチングの結果を制御部 500に通知することによって、ステップ S606で抽出された形状が身体部分の形状だと判明した場合にだけ操作部 300によ る入力操作を有効にすることも考えられる。これにより、操作部 300の操作面に載せ られた荷物などによる誤動作を防止することができる。
[0101] ところで、ユーザーが爪に操作部 300の操作面と同一の色のマ-キュアを塗ってい た場合などには、ステップ S606において、爪の部分が欠けたような手の形状が検出 されることになるが、上記のような形状パターンを用意しておけば、この形状パターン を参照して、検出された身体部分の形状において部分的に欠けた部分を補完するが できる。
[0102] 身体領域の抽出が完了すると、次に身体形状抽出部 600は、ステップ S604で抽 出した身体領域 607に基づいて、図 25に示すようにその輪郭 609を抽出する(S60 6)。この輪郭抽出処理は、身体領域 607に含まれる画素の中から、身体領域 607以 外の領域の画素と接している画素を抽出することにより行われる。より具体的には、身 体領域 607に含まれる全ての画素の中から、その上下左右の 4近傍画素 (もしくは注 目画素の右上 ·左上 ·右下 ·左下の画素をさらに加えた 8近傍画素)の中に身体領域 607以外の領域の画素が含まれているような画素を抽出する。なお、必要に応じて、 抽出した輪郭 609に平滑ィ匕処理を施してもよい。平滑ィ匕処理を行うことにより、輪郭 6 09に生じるエイリアシングを解消することができる。
[0103] 次に身体形状抽出部 600は、形状補正処理を行う (S608)。形状補正処理では、 身体形状入力部 100から出力された画像データの画素のうち、ステップ S606で抽 出した輪郭 609および輪郭 609内の画素について、カメラレンズの歪み補正処理や 視点変換処理やその他の補正処理を行う。
[0104] カメラレンズの歪み補正処理は、特に身体形状入力部 100で広角レンズを用いた 場合に、レンズの歪曲収差データを用いて補正するものである。よって、身体形状入 力部 100で歪みの小さいレンズ (例えば標準レンズや望遠レンズ)を用いた場合には カメラレンズの歪み補正は不要である。
[0105] 視点変換処理は、設置位置の制約などで所望の視点 (本実施例の場合は、操作 部 300の真上方向からの視点)に身体形状入力部 100を設置できな力つた場合に行 うものである。視点変換技術は周知の技術である。図 26および図 27を参照して、視 点変換処理の例を説明する。
[0106] 図 26は、身体形状入力部 100が図 3の位置 Aのような位置に設置されている場合 に適用される視点変換処理の例である。身体形状入力部 100から出力された画像デ ータ 601における操作部 300の 4隅(a, b, c, d)が、表示部 200の画面の 4隅に対応 する位置となるように画像が引き延ばされる。このとき、身体形状入力部 100と操作部 300の相対位置が固定であれば、画像データ 601における操作部 300の 4隅(a, b, c, d)の位置も固定であるため、これら 4隅の位置をその都度検出しなくても図 26のよ うな視点変換処理を施すことが可能である。しかし、身体形状入力部 100と操作部 3 00の相対位置が固定でない場合には、身体形状入力部 100から出力された画像デ ータ 601から操作部 300の 4隅の位置を検出する必要がある。この場合、操作部 300 の 4隅に何らかの目印を付けておけば、 4隅の位置をより正確に検出することができる 。なお、操作部 300の操作面内の任意の領域を表示部 200の画面に対応させること もできる。この場合にも、その任意の領域の 4隅に基準となる目印を付けておけば、そ の 4隅が表示部 200の画面の 4隅に対応する位置となるように画像を引き延ばすこと ができる。
[0107] 図 27は、身体形状入力部 100が図 4の位置に設置されている場合に適用される視 点変換処理の例である。図 4の例では操作部 300がステアリングとともに回転するた め、ステアリングの回転に応じて、身体形状入力部 100から出力された画像データ 6 01内の操作部 300も回転することとなる。この場合も、身体形状入力部 100から出力 された画像データ 601における操作部 300の 4隅(a, b, c, d)が検出され、これらの 4隅力 表示部 200の画面の 4隅に対応する位置となるように画像が引き延ばされる
[0108] なお、ステップ S608では、必要に応じて、カメラレンズの歪み補正処理や視点変換 処理以外の形状補正処理も行われる。例えば、身体形状入力部 100から出力された 画像データの解像度およびアスペクト比を、表示部 200の画面の解像度およびァス ぺクト比に変換する処理が適宜行われる。
[0109] なお、本実施例では、身体形状入力部 100でレンズ歪み補正の必要のな 、標準レ ンズを用い、身体形状入力部 100は操作部 300の操作面の中央を通る法線上に設 置され、身体形状入力部 100の光軸はその法線と平行になるように設置され、身体 形状入力部 100の画角は操作部 300の操作面全体が画像内にちょうど収まるよう〖こ 設定されているものと仮定する。この場合、ステップ S608の形状補正処理は不要で ある。
[0110] ステップ S608の形状補正処理の結果、図 28のような手画像 611が得られる。
[0111] 次に身体形状抽出部 600は、身体画像作成処理を行う (S610) oこのステップでは 、表示部 200に表示すべき身体画像を作成するステップである。ステップ S608で作 成した身体画像 (例えば図 28の手画像 611)をそのまま表示部 200に表示する場合 には、このステップで特に何らかの処理を行う必要はない。ここでは、ステップ S608 で作成した身体画像が暗い場合に明度を上げたり、手の細かなしわなどを目立たな くするために身体画像に平滑ィヒ処理を施したり、身体画像の色調を補正して手がより 綺麗に表示されるようにしたり、輪郭の内側の領域に予め用意したテクスチャー画像 を貼り付けたりといった処理を行う。テクスチャーの例としては、動物の皮、木、コンク リート、金属、人工的な模様などが挙げられる。
[0112] 次に、身体形状入力部 100としてカメラ以外のセンサを用いた場合の身体形状抽 出部 600の動作にっ 、て説明する。 [0113] まず、図 29〜図 31を参照して、身体形状入力部 100としてフォトダイオードなどの センサを図 16のように二次元的に配置したドットセンサを用いた場合の身体形状抽 出部 600の動作を説明する。
[0114] 身体形状抽出部 600は、まず身体形状入力部 100から出力されるデータを取り込 んで図 29のようなドット画像データを作成する。ドット画像データにおける各ドットの値 は 0か 1のいずれかであり、図 29では値が 1であるドットを黒丸で示している。
[0115] 次に身体形状抽出部 600は、ドット画像データに対して輪郭ドット抽出処理を行う。
具体的には、値が 1である全てのドットの中から、その上下左右の 4近傍ドットの中に 値が 0であるドットが含まれているようなドットを抽出する。図 29のドット画像データに 対する輪郭ドット抽出処理の結果を図 30に示す。
[0116] 次に身体形状抽出部 600は、輪郭ドット抽出処理によって選択されたドットをスプラ イン曲線などで近似することにより、図 31のような輪郭画像を作成する。
[0117] 次に身体形状抽出部 600は、必要に応じて、作成した輪郭画像の解像度およびァ スぺタト比を、表示部 200の画面の解像度およびアスペクト比に変換する処理を実行 し、さらに必要に応じて、輪郭画像に対して平滑化処理を施したり、輪郭の内側の領 域に予め用意したテクスチャー画像を貼り付けたりといった処理を行う。テクスチャー の例としては、人間の手、動物の皮、木、コンクリート、金属、人工的な模様などが挙 げられる。
[0118] 次に、図 32および図 33を参照して、身体形状入力部 100として図 21のようにライン センサを用いた場合の身体形状抽出部 600の動作を説明する。
[0119] 身体形状抽出部 600は、まず身体形状入力部 100から出力されるデータを取り込 んで図 32のようなライン画像データを作成する。
[0120] 次に身体形状抽出部 600は、ライン画像データに対して輪郭抽出処理を行う。具 体的には、ライン画像データに含まれる各ラインの端点をスプライン曲線などで近似 することにより、図 33のような輪郭画像を作成する。
[0121] 次に身体形状抽出部 600は、必要に応じて、作成した輪郭画像の解像度およびァ スぺタト比を、表示部 200の画面の解像度およびアスペクト比に変換する処理を実行 し、さらに必要に応じて、輪郭画像に対して平滑化処理を施したり、輪郭の内側の領 域に予め用意したテクスチャー画像を貼り付けたりといった処理を行う。テクスチャー の例としては、人間の手、動物の皮、木、コンクリート、金属、人工的な模様などが挙 げられる。
[0122] (表示部 200)
次に、表示部 200について説明する。
[0123] 表示部 200は、画像合成部 800が合成した画像を画面に表示するものであり、表 示部 200としては、液晶ディスプレー、 CRT (Cathode Ray Tube)ディスプレー、 EL (Electronic Luminescence)ディスプレーなどが利用できる。
[0124] なお、表示部 200は、例えば HUD (Head Up Display)や HMD (Head Mou nted Display)のように、画像合成部 800が合成した画像をハーフミラー、鏡、レン ズなどを用いて空中に結像させるディスプレーであってもよい。この場合、例えば車 両のフロントボンネットの上方のように、表示部 200の設置が困難な位置にも画像を 表示することが可能となる。
[0125] また、表示部 200としてプロジェクターを利用してもよい。この場合、画像合成部 80 0が合成した画像がプロジェクターによってスクリーンに投影されるため、安価に大画 面表示を実現することができる。
[0126] このように、表示部 200の構成は、設置場所や表示目的などに応じて適宜に選択 すればよい。
[0127] (操作部 300)
次に、操作部 300について説明する。
[0128] 操作部 300は、ユーザーによる入力操作を検知し、その入力操作に対応する信号 を出力するものである。操作部 300としては、例えばタツチパネルゃタツチパッドなど の座標入力デバイスや、ボタンスィッチ ·ジョグダイヤルなどのスィッチ(ノヽ一ドウエアと してのスィッチ)が利用できる。もちろん、操作部 300が座標入力デバイスとスィッチを 両方含んでいてもよい。以下に、操作部 300として座標入力デバイスを用いる例とス イッチを用いる例についてそれぞれ説明する。
[0129] まず、操作部 300として座標入力デバイスを用いる例について図 34を参照して説 明する。 [0130] 図 34にお 、て、操作部 300はタツチパッドゃタツチパネルのような座標入力デバイ スであり、ユーザーが触れた (または押した)位置を示す座標データを、予め定められ たタイミングで出力する。
[0131] ここで、操作部 300で検知するユーザーの入力操作としては、ユーザーが操作部 3 00の操作面に触れる操作、または操作面を押す操作が一般的であるが、これは座 標入力デバイスの種類や設定にも依存する。例えば、静電容量式のタツチパッドの 場合は、一般的には、ユーザーが操作面に触れたカゝどうかを検知する。一方、感圧 式のタツチパッドの場合は、操作面に触れたかどうかではなぐユーザーが操作面を 一定値以上の圧力で押したかどうかを検知する。圧力の閾値を大きくすれば、ユー ザ一が操作面を強く押したときにだけ入力操作として検知することもできる。なお、ュ 一ザ一の入力操作としては、操作面に触れる操作や操作面を押す操作以外にも、例 えば、ダブルクリック (短い間隔で操作面に 2度触れる、または操作面を 2度押す)、ド ラッグ (操作面に触れた状態で指を移動させる)、長押し (一定時間以上操作面に触 れる、または操作面を押す)、操作面に近づける、操作面から離す、などの種々の入 力操作が考えられる。これらの入力操作は、必ずしも操作部 300のみで検知する必 要はなぐ例えば、操作部 300が出力する座標データに基づいて、制御部 500がダ ブルクリックやドラッグなどの入力操作を検知してもよい。
[0132] また、図 34に示すように、表示部 200に例えば音量調節用のロータリースィッチを GUI部品によって模擬的に表示し、操作部 300の操作面に円を描くようなドラッグ操 作を検知したときに、そのドラッグ操作に応じて音量を変化させるようにしてもよい。こ れにより、あた力も実際にロータリースィッチを回しているかのような直感的な入力操 作が可能となる。
[0133] このように、操作部 300として座標入力デバイスを用いれば、表示部 200に表示す る GUI部品の形、位置、機能、数を、必要に応じていつでも任意に変更することがで きる。また、例えば表示部 200に表示された地図上の任意の地点を指定することも簡 単にできる。よって、非常に汎用的な入力装置を実現することができる。
[0134] なお、前述したように、操作部 300は、一般的なタツチパッドゃタツチパネルが備え て 、るような座標データを出力する機能を必ずしも備えて 、る必要はな 、。すなわち 、ユーザーが操作面に触れたかどうか、もしくは押した力どうかだけを信号として出力 するようなものでも構わない。この場合、操作部 300の出力からはユーザーが触れた (または押した)位置を検出することができないため、身体形状入力部 100から出力さ れるデータに基づいてその位置を検出する必要がある。例えば、ユーザーに図 1のよ うに人差し指を立てた状態で GUI部品を選択するように制約を課し、身体形状抽出 部 600で得られた手画像力も人差し指の指先の位置を検出すれば、ユーザーがど の GUI部品を選択したかが分かる。ただし、上記のように何らかの制約を課さなけれ ば、身体形状入力部 100から出力されるデータに基づいてユーザーが押した位置を 正確に判定することは困難である。しかし、操作部 300が座標データを出力する機能 を備えていれば、例えば図 35のように予め複数の指を複数の GUI部品上にそれぞ れ位置させておき、手 6を移動させることなぐこれらの GUI部品の中力も所望の GUI 部品を適宜選択するような使!ヽ方も可能である。
[0135] 次に、操作部 300としてスィッチを用いる例について説明する。
[0136] 図 36において、操作部 300は、ベース部 301と複数のスィッチ 310からなる。スイツ チ 310の例としては、ボタンスィッチ 311、トグルスイッチ、ロータリースィッチ 312、ジ ョグダイヤル 313、ジョイスティック 314が挙げられる。
[0137] 表示部 200には、操作部 300に設置されたスィッチ 310の位置に対応して GUI部 品が表示される。これらの GUI部品の形状は、スィッチ 310の形状とほぼ同一とする のが好ましい。
[0138] なお、表示部 200に表示される GUI部品の機能は、必要に応じていつでも任意に 変更することができる。例えば、オーディオモードではロータリースィッチ 312を音量 調節手段として利用し、ナビゲーシヨンモードではロータリースィッチ 312を地図の表 示倍率変更手段として利用することができる。
[0139] このように、操作部 300としてスィッチを用いれば、ユーザーはスィッチの挙動を触 覚で感知しながら入力操作を行うことができるため、タツチパッドのように視覚だけを 頼りにした入力操作と比較して、より直感的かつ確実な入力が可能となる。
[0140] もちろん、操作部 300が座標入力デバイスとスィッチを両方とも備えていても構わな い。例えば、図 36のベース部 301の中央に座標入力デバイスをさらに配置してもよ い。座標入力デバイスとスィッチを組み合わせることにより、例えば、ユーザーの使用 頻度が高く表示部 200に固定的に表示されるような GUI部品については対応するス イッチを操作部 300に設けておくことでその選択操作を容易にすると同時に、それ以 外の GUI部品については座標入力デバイスを用いて選択させることで GUI部品の配 置を柔軟にし、画面を有効に利用することができる。
[0141] (演算部 400)
次に、演算部 400について説明する。なお、演算部 400に含まれる身体形状抽出 部 600についてはすでに説明したため、ここではその説明を省略する。
[0142] 演算部 400の処理は、大きく分けて、ユーザーの身体部分の画像を表示部 200に 表示するために実行される処理と、ユーザーの入力操作があつたときに実行される処 理とに分けられる。
[0143] まず、ユーザーの身体部分の画像を表示部 200に表示するために実行される制御 部 500の処理の流れを、図 37のシーケンス図を参照して説明する。
[0144] ステップ S501において身体形状抽出部 600が身体形状を検出すると、身体形状 抽出部 600は制御部 500に身体形状を検出した旨のメッセージを送る。ここで必要 であれば、身体形状抽出部 600は身体形状に関する特性 (手の大きさ、左手か右手 かなど)を検出し、その特性をメッセージと共に制御部 500に送っても良い。
[0145] ステップ S502において、制御部 500は、その時点での操作モードをチェックする。
ここでは、操作モードとして、ユーザーによる入力操作が許可されているモードと、ュ 一ザ一による入力操作が禁止されているモードの 2通りのモードが用意されているも のとする。カーナビゲーシヨン装置では、運転者が移動中にカーナビゲーシヨン装置 を操作することは危険につながるため、移動中はユーザーによる入力操作が禁止さ れるのが普通である。
[0146] ステップ S502のチェックによってユーザーによる入力操作が許可されていると判断 されると、制御部 500はステップ S503において、表示情報作成部 700に対して表示 部 200に表示すべき表示情報を変更するように指示する。表示情報作成部 700はこ の指示に従って表示情報を変更する。ここでの表示情報作成部 700による表示情報 の変更例を以下に説明する。 [0147] 図 38Aおよび図 38Bは、身体形状抽出部 600が身体形状を検出した場合 (すなわ ちユーザーの身体部分が操作部 300上に存在する場合)と検出していない場合 (す なわちユーザーの身体部分が操作部 300上に存在しな 、場合)とで表示情報を変 更する第 1の例である。図 38Aは、身体形状抽出部 600が身体形状を検出していな い場合の画面表示例である。ここでは、ユーザーが選択することのできる GUI部品( ここではボタン)の輪郭が、「目的地まで 24分」と書かれた単なるメッセージ表示用の 欄と同じ線種で表示されている。図 39Bは、身体形状抽出部 600が身体形状を検出 した場合の、図 38Aに対応する画面表示例である。ここでは、ボタンが立体的に表示 されるため、ユーザーは選択の対象となる領域がどこかを一目で認識することができ る。このように表示情報を変更することによって、ユーザーが入力操作をしょうとして いないときには表示情報を簡素化して表示情報の視認性を向上し、ユーザーが入力 操作をしょうとしているときには選択対象を強調表示して操作性を向上することができ る。
[0148] 図 39Aおよび図 39Bは、身体形状抽出部 600が身体形状を検出した場合 (すなわ ちユーザーの身体部分が操作部 300上に存在する場合)と検出していない場合 (す なわちユーザーの身体部分が操作部 300上に存在しな 、場合)とで表示情報を変 更する第 2の例である。図 39Aは、身体形状抽出部 600が身体形状を検出していな い場合の別の画面表示例である。ここでは、ユーザーが選択することのできる GUI部 品(ここではボタン)が比較的小さい大きさで表示されている。図 39Bは、身体形状抽 出部 600が身体形状を検出した場合の、図 38Aに対応する画面表示例である。ここ では、ボタンが図 39Aと比較してより大きく表示されるため、ユーザーはボタンを選択 し易くなる。このように表示情報を変更することによって、ユーザーが入力操作をしよ うとして ヽな 、ときにはボタン以外の情報を見易くし、ユーザーが入力操作をしょうと しているときにはボタンを拡大表示して操作性を向上することができる。
[0149] 図 40Aおよび図 40Bは、身体形状抽出部 600が右手を検出した場合と左手を検 出した場合とで表示情報を変更する例である。この場合、身体形状抽出部 600は、 検出された身体形状が右手のもの力左手のものかを判定し、その判定結果を身体形 状に関する特性として制御部 500に通知する。制御部 500はこの判定結果に基づい て表示情報作成部 700に表示情報の変更を指示する。検出された身体形状が右手 のものか左手のものかは、図 24や図 25のようなデータから既存の種々のァルゴリズ ムを用いて判定することができる。図 40Aは、身体形状抽出部 600が右手を検出し た場合の画面表示例であり、図 40Bは、身体形状抽出部 600が左手を検出した場合 の画面表示例である。ここでは、車内の運転席と助手席の間に操作部 300が設置さ れている場合のように、操作部 300が左右両側に 2人のユーザーが存在し、操作部 3 00の右側に存在するユーザーは操作部 300を左手で操作し、操作部 300の左側に 存在するユーザーは操作部 300を右手で操作すると ヽぅ状況を想定して!/ヽる。つまり 、身体形状抽出部 600が右手を検出したということは、操作部 300を操作しているュ 一ザ一は操作部 300の左側にいると考えられる。このとき、仮に GUI部品(ここではボ タン)が画面の右上に表示されていると、ユーザーがそのボタンを押そうとするときに 操作部 300の中央付近がユーザーの手のひらで覆われてしまい、その結果として表 示画面の中央付近が手画像で覆われることとなり、画面が見づらくなつてしまう。そこ で、このような問題を避けるために、身体形状抽出部 600が右手を検出した場合には 、図 40Aのようにボタンが画面の左側に表示され、逆に、身体形状抽出部 600が左 手を検出した場合には、図 40Bのようにボタンが画面の右側に表示される。
なお、上の例では、身体形状抽出部 600が右手を検出した場合と左手を検出した 場合とでボタンの配置位置を変更するようにしたが、ボタンの機能や形や大きさや数 などを変更するようにしても良い。例えば、操作部 300が右ハンドル車の運転席と助 手席の間に設置されて!、る場合に、車両の移動中に右手 (すなわち助手席の搭乗 者の手)が検出された場合には、文字入力のように比較的複雑な入力操作を要する ボタンも画面スクロールのように比較的簡単な入力操作を要するボタンも表示するが 、車両の移動中に左手 (すなわち運転者の手)が検出された場合には、安全のため に比較的簡単な入力操作を要するボタンだけを表示することが考えられる。同様に、 操作部 300が左ハンドル車の運転席と助手席の間に設置されている場合に、車両の 移動中に左手 (すなわち助手席の搭乗者の手)が検出された場合には、比較的複雑 な入力操作を要するボタンも比較的簡単な入力操作を要するボタンも表示するが、 車両の移動中に右手 (すなわち運転者の手)が検出された場合には、比較的簡単な 入力操作を要するボタンだけを表示することが考えられる。
[0151] 図 41Aおよび図 41Bは、身体形状抽出部 600が比較的大きい手 (すなわち大人の 手)を検出した場合と比較的小さい手 (すなわち子供の手)を検出した場合とで表示 情報を変更する例である。この場合、身体形状抽出部 600は、検出された身体形状 が比較的大きい手か比較的小さい手かを判定し、その判定結果を身体形状に関す る特性として制御部 500に通知する。制御部 500はこの判定結果に基づ 、て表示情 報作成部 700に表示情報の変更を指示する。検出された身体形状が比較的大きい 手のものか比較的小さい手のものかは、例えば図 24の身体領域 607の面積や幅を 所定の閾値と比較することにより判定することができる。図 41Aは、身体形状抽出部 6 00が比較的大き 、手を検出した場合の画面表示例である。身体形状抽出部 600が 比較的大き 、手を検出したと 、うことは、大人が操作しょうとして 、ると考えられるので 、入力操作は特に制限されない。図 40Bは、身体形状抽出部 600が比較的小さい手 を検出した場合の画面表示例である。身体形状抽出部 600が比較的大き 、手を検 出したということは、子供が操作しょうとしていると考えられるので、一部または全ての ボタンを無効化して入力操作を制限し、さらにボタンが無効化されていることがユー ザ一に分力るように、ボタンの色を変化させたり目印を付けたりする。
[0152] なお、上の例では、身体形状抽出部 600が比較的小さい手を検出した場合にボタ ンの色を変えたり目印を付けたりするとしたが、これに限らず、種々の表示情報の変 更例が考えられる。例えば、表示情報に含まれる難しい単語を易しい単語に変更し たり、画面構成や色遣いを子供風に変更したりすることも考えられる。
[0153] なお、表示情報の変更の他の例として、表示情報作成部 700は、身体形状抽出部
600によって身体部分の形状が検出された場合にのみ表示情報を生成するようにし てもよい。これにより、ユーザーが入力操作を行わないときに画像表示に係る処理を 中断するため、消費電力を抑えることができる。同様に、表示情報作成部 700は、身 体形状抽出部 600によって右手 (または左手)が検出された場合にのみ表示情報を 生成するよう〖こしてもよい。同様に、表示情報作成部 700は、身体形状抽出部 600に よって大人の手 (または子供の手)が検出された場合にのみ表示情報を生成するよう にしてもよい。 [0154] なお、身体形状抽出部 600によって検出された形状が必ずしも身体部分の形状で あるとは限らない。そこで、身体形状抽出部 600によって検出された形状が身体部分 の形状力どうかを判定し、身体部分の形状だった場合と、身体部分以外のものの形 状だった場合とで表示情報を変更するようにしても構わない。例えば、身体形状抽出 部 600によって検出された形状が身体部分の形状でな力つた場合には、表示情報 作成部 700は GUI部品を生成しな ヽようにしてもょ ヽ。これにより身体部分の形状で ない場合は、 GUI部品が表示されない分、その他の表示面積が広くなるという利点 がある。一方で、身体部分の形状を検出した場合は、ユーザーが GUI部品を操作し ようとしていることが予想されるため、表示情報作成部 700は GUI部品を生成するよう にする。身体形状抽出部 600によって検出された形状が身体部分の形状かどうかの 判定は、前述したパターンマッチングにより可能である。
[0155] 表示情報が変更されると、制御部 500はステップ S504において、画像合成部 800 に対して、身体形状抽出部 600によって作成された身体画像と表示情報作成部 700 によって作成 (変更)された表示情報とを合成するように指示する。画像合成部 800 はこの指示に従って身体画像と表示情報を合成する。画像合成部 800によって合成 された画像例を以下に説明する。
[0156] 図 42Aは、身体形状抽出部 600が作成した身体画像 (例えば図 28)を、表示情報 作成部 700が作成した表示情報に上書きした場合の画面例である。このようにリアル な手画像を表示することにより、実際に画面に触れているかのような感覚をユーザー に与えることができ、直感的な入力操作が可能となる。
[0157] 図 42Bは、身体形状抽出部 600が作成した輪郭画像 (例えば図 25、図 31、図 33) を身体画像として、表示情報作成部 700が作成した表示情報に上書きした場合の画 面例である。このような画像合成により、身体部分の形状と位置が表示されると同時 に、身体画像の内側の表示情報も表示されるので、操作中にも表示情報を確認し易 くなる。
[0158] 図 42Cは、身体形状抽出部 600が作成した身体画像を、輪郭を不透明にして内部 を半透明にするように加工してから、表示情報作成部 700が作成した表示情報に上 書きした場合の画面例である。このような画像合成により、直感的な入力操作が可能 となると同時に、操作中にも表示情報を確認し易くなる。
[0159] 図 42Dは、身体形状抽出部 600が作成した輪郭画像を、指先部分が強調表示さ れるように加工してから、表示情報作成部 700が作成した表示情報に上書きした場 合の画面例である。このような画像合成により、ユーザーは自分が押そうとしている位 置を素早く確認することができ、なおかつ身体画像の内側の表示情報も表示される ので、操作中にも表示情報を確認し易くなる。なお、指先部分を検出する方法として は、例えば輪郭の形状からパターンマッチング手法を用いて指先部分を特定したり、 図 23のような画像データ力も爪の部分を抽出したりといった方法が考えられる。また 、強調表示の例としては、印を表示したり、色を変更したり、透明度を変更したり、さら には、指先に行くほど徐々に輪郭の色を濃くしたり、指先に行くほど徐々に輪郭の透 明度を小さくしたりすることが挙げられる。
[0160] 図 42Eは、身体形状抽出部 600が作成した身体画像を、半透明または不透明の影 を付加してから、表示情報作成部 700が作成した表示情報に上書きした場合の画面 例である。このような画像合成により、実際に画面に触れているかのような感覚をユー ザ一に与えることができる。
[0161] 上記の図 42A〜図 42Eの例は、身体画像を必要に応じてカ卩ェして力 表示情報 作成部 700が作成した表示情報に上書きするものであるが、画像合成の際に手画像 以外を加工することも考えられる。以下、そのような例について説明する。
[0162] 図 42Fは、身体形状抽出部 600が作成した身体画像を表示情報に上書きするとそ の一部または全体が隠れてしまうような GUI部品について、その近傍に補助情報 (G UI部品のラベルや補助説明などの情報)をポップアップ表示した例である。この表示 を実現するために、画像合成部 800はまず、表示情報作成部 700が作成した表示情 報に含まれる各 GUI部品が身体画像と重なるかどうかを既知のアルゴリズムを用いて 判断する。そして、身体画像と重なる GUI部品があれば、その GUI部品の位置から 所定の方向(右方向や上方向など)に離れて存在する身体画像と重ならないような領 域を見つけ、その領域にその GUI部品の補助情報を表示する。このような画像合成 により、ユーザーは、画面に表示された任意の GUI部品に関する情報を、その GUI 部品に身体画像を重ねることによって簡単に取得することができる。また、身体画像 によって隠れてしまった GUI部品を、手を移動させることなく識別することができ、操 作性が向上する。
[0163] 図 42Gは、身体形状抽出部 600が作成した身体画像を表示情報に上書きするとそ の一部または全体が隠れてしまうような GUI部品について、その GUI部品のラベルを 身体画像に上書きした例である。なお、図 42Gの例では、隠れた GUI部品のラベル のみを身体画像に上書きしている力 隠れた GUI部品の形状もあわせて上書きして も良い。このような画像合成により、ユーザーは、身体画像によって隠れてしまった G UI部品を、手を移動させることなく識別することができ、操作性が向上する。
[0164] 図 42Hは、身体形状抽出部 600が作成した身体画像を表示情報に上書きしたとき に身体画像の指先部分に重なる GUI部品を強調表示した例である。このような画像 合成により、ユーザーは身体画像の指先がどの GUI部品の上にあるのかを容易に確 認することができる。なお、指先部分の位置を検出する方法としては、例えば輪郭の 形状からパターンマッチング手法を用いて指先部分を特定したり、図 23のような画像 データ力も爪の部分を抽出したりといった方法が考えられる。また、強調表示は、例 えば、色の変更、透明度の変更、形状の変更、線種 '線の太さの変更、文字書式の 変更、アイコンの変更、色や透明度の連続的な変更 (グラデーション)など、種々の方 法により可能である。
[0165] なお、画面の領域によって手画像の合成方法を変更することも考えられる。以下、 図 421および図 42Jを参照して、そのような例について説明する。
[0166] 図 421の例では、画面が地図領域とテレビ領域に分割されており、ユーザーの手は 両方の領域にまたがった位置に存在している力 地図領域でのみ合成され、テレビ 領域では合成されない。これは、例えばテレビ領域では操作する対象のボタンがな いため、手画像を合成する必要がないためである。このようにすることで、テレビ領域 の視認性を高めつつ、テレビ領域では操作する対象がな 、ことをユーザーに知らせ ることがでさる。
[0167] 図 42Jの例では、図 421の例と同様に、画面が地図領域とテレビ領域に分割されて おり、ユーザーの手が両方の領域にまたがった位置に存在している力 地図領域で は不透明のまま合成され、テレビ領域では輪郭のみが合成されている。これは例え ば、図 421の例では、完全に非表示になるために、手が切れた形で表示されるのを 嫌い、より自然な形で手形状を表示しつつ、テレビ領域の視認性の低下を最低限に おさえるためである。
[0168] 次に、ユーザーの入力操作があつたときに実行される制御部 500の処理の流れを、 図 43のシーケンス図を参照して説明する。
[0169] ステップ S511において、操作部 300は、ユーザーによる接触操作もしくは押圧操 作を検出すると制御部 500にメッセージを送る。ただし前述のように、操作部 300が 単に座標データだけを制御部 500に出力し、この座標データに基づいて制御部 500 が接触操作などを検知するようにしても構わな 、。
[0170] ステップ S512において、制御部 500は、表示情報作成部 700に対して表示情報を 変更するように指示する。表示情報作成部 700は、制御部 500の指示に従って表示 情報を変更する。ここでの表示情報の変更例を図 44Aおよび図 44Bを用いて説明 する。
[0171] 図 44Aは、ユーザーが触れた (または押した)操作部 300上の点に対応する GUI 部品(すなわちユーザーによって選択された GUI部品)を強調表示する例である。図 44Aの例では、ユーザーによって選択された GUI部品(ここではボタン)力 ボタンが 押し込まれたような画像に変更されている。なお図 44Aでは便宜上、手画像が図示 されているが、実際には、表示情報作成部 700が作成する表示情報に手画像は含ま れない。このような表示情報の変更により、ユーザーは、自分が選択しょうとした GUI 部品を正しく選択できたかどうかを容易に確認することができ、操作性が向上する。
[0172] 図 44Bは、ユーザーが触れた (または押した)操作部 300上の点に対応する画面上 の点を強調表示する例である。図 44Bの例では、ユーザーが触れた (または押した) 操作部 300上の点に対応する画面上の点に、あた力も指紋が残ったかのように、円 形の目印が上書きされている。この円形の目印は、この目印が表示されてから一定 時間が経過するか、ユーザーが再び操作部 300に触れる(または押す)までの間表 示される。このような表示情報の変更により、ユーザーは、自分が指定しょうとした画 面上の点を正しく指定できた力どうかを容易に確認することができる。特に、自分が 指定しょうとした点と実際に指定された点とがずれていた場合に、ずれた方向と距離 を確認することができる。
[0173] 表示情報が変更されると、制御部 500はステップ S513において、画像合成部 800 に対して、身体形状抽出部 600によって作成された身体画像と表示情報作成部 700 によって作成された表示情報とを合成するように指示する。画像合成部 800はこの指 示に従って身体画像と表示情報を合成する。
[0174] 以上のように、本実施形態の入力装置によれば、ユーザーが画面に直接触れるこ となぐし力も操作時に手元を見ることなしに、 GUIを利用した直感的な入力操作を 行うことができる。
産業上の利用可能性
[0175] 本発明の入力装置は、タツチパネルディスプレーのような直感的な入力操作を、画 面に直接触れることなしに行えるようにしたものであり、ディスプレーから離れた位置 で入力操作を行う場合や、表示手段として遠焦点ディスプレーを利用する場合に好 適である。また、入力操作時に手元を見る必要がないため、カーナビゲーシヨン装置 の入力装置としても好適である。

Claims

請求の範囲
[1] ユーザーが機器に対して命令や情報を入力するための入力装置であって、
ユーザーによって操作され、当該操作に対応した操作信号を出力する操作部と、 ユーザーによる操作の補助となる表示画像を作成する表示情報作成部と、 前記操作に関わるユーザーの身体部分を撮像するカメラを含み、当該撮影の結果 として得られた画像データを出力する身体形状入力部と、
前記身体形状入力部から出力される画像データに基づいて前記身体部分の形状 および位置を検出し、当該検出された身体部分の形状および位置を補正するための 形状補正処理を行って、前記身体部分を表す身体画像を作成する身体形状抽出部 と、
前記表示情報作成部が作成した表示画像と前記身体形状抽出部が作成した身体 画像を合成する画像合成部と、
前記画像合成部が合成した画像を表示する表示部とを備えた入力装置。
[2] 前記身体形状抽出部は、前記形状補正処理として、前記カメラと前記操作部の相 対的な位置関係を考慮した視点変換処理を行うものであることを特徴とする、請求項 1に記載の入力装置。
[3] 前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検 出された形状が身体部分の形状であるかどうかを、予め保持してお!、た身体部分の 形状パターンを用いたパターンマッチングによって判定するものであることを特徴とす る、請求項 1に記載の入力装置。
[4] 前記身体形状抽出部は、前記身体形状入力部から出力される画像データから検 出された身体部分の形状を前記形状パターンに基づいて補正するものであることを 特徴とする、請求項 3に記載の入力装置。
[5] 前記操作部の所定位置には、前記形状補正処理で利用される目印が付されており 前記身体形状抽出手段は、前記カメラから出力された画像データ中の前記目印の 位置が前記表示部の画面上の所定位置に変換されるように形状補正処理を行うもの であることを特徴とする、請求項 1に記載の入力装置。
[6] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像の輪郭を強調するものであることを特徴とする、請求項 1に記載の入力装置。
[7] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像の透明度を変化させ、かつ当該身体画像の輪郭を強調するものであることを特徴 とする、請求項 1に記載の入力装置。
[8] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像におけるユーザーの指先部分を検出し、当該指先部分を強調するものであること を特徴とする、請求項 1に記載の入力装置。
[9] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像の影を付すものであることを特徴とする、請求項 1に記載の入力装置。
[10] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像によって隠れてしまう前記表示画像中の表示情報を、当該身体画像によって隠れ てしまわな!/、ような領域にポップアップ表示させるものであることを特徴とする、請求 項 1に記載の入力装置。
[11] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像によって隠れてしまう前記表示画像中の表示情報を、当該身体画像よりも前面に 表示させるものであることを特徴とする、請求項 1に記載の入力装置。
[12] 前記画像合成部は、前記表示画像と前記身体画像を合成するときに、当該身体画 像におけるユーザーの指先部分を検出し、当該指先部分に重なる前記表示画像中 の表示情報を強調するものであることを特徴とする、請求項 1に記載の入力装置。
[13] 前記画像合成部は、前記指先部分に重なる前記表示画像中の表示情報を拡大す る、もしくは当該表示情報の色を変化させる、もしくは当該表示情報を立体的に見え るように変化させる、もしくは当該表示情報に関する補助情報をポップアップ表示さ せることによって、当該表示情報を強調するものであることを特徴とする、請求項 12 に記載の入力装置。
[14] 前記表示情報作成部は、前記身体形状抽出部における前記身体部分の形状の検 出結果に応じて、作成すべき表示画像を変更するものであることを特徴とする、請求 項 1に記載の入力装置。
[15] 前記表示情報作成部は、前記身体形状抽出部において前記身体部分の形状が 検出されたときにのみ表示画像を作成するものであることを特徴とする、請求項 14に 記載の入力装置。
[16] 前記表示情報作成部は、前記身体形状抽出部において前記身体部分の形状が 検出された場合に、作成すべき表示画像中の GUI部品を強調するものであることを 特徴とする、請求項 14に記載の入力装置。
[17] 前記身体形状抽出部は、前記身体形状入力部が取得した情報に基づいて検出し た形状が、身体部分の形状力どうかを判断するものであり、
前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、作成すべき 表示情報を変更するものであることを特徴とする、請求項 14に記載の入力装置。
[18] 前記身体形状抽出部は、検出した身体部分の形状に基づいて、当該身体部分が 右手か左手かを判断するものであり、
前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、作成すべき 表示画像を変更するものであることを特徴とする、請求項 14に記載の入力装置。
[19] 前記表示情報作成手段は、前記身体形状抽出部において検出された身体部分の 形状が右手または左手のものの場合にのみ表示情報を作成するものであることを特 徴とする、請求項 18に記載の入力装置。
[20] 前記表示情報作成部は、前記身体形状抽出部において検出された身体部分の形 状が右手または左手のものの場合に、作成すべき表示画像中の GUI部品を強調表 示、もしくは当該 GUI部品の位置を変更、もしくは当該 GUI部品の有効性を変更す るものであることを特徴とする、請求項 18に記載の入力装置。
[21] 前記身体形状抽出部は、検出した身体部分の形状に基づいて当該身体部分が大 人のものか子供のものかを判断するものであり、
前記表示情報作成部は、前記身体形状抽出部の判断結果に応じて、作成すべき 表示画像を変更するものであることを特徴とする、請求項 14に記載の入力装置。
[22] 前記表示情報作成部は、前記身体形状抽出部において検出された身体部分の形 状が大人または子供のものの場合にのみ表示情報を作成するものであることを特徴 とする、請求項 21に記載の入力装置。
[23] 前記表示情報作成部は、前記身体形状抽出部において検出された身体部分の形 状が大人または子供のものの場合に、作成すべき表示画像中の GUI部品を強調表 示、もしくは当該 GUI部品の位置を変更、もしくは当該 GUI部品の有効性を変更す るものであることを特徴とする、請求項 21に記載の入力装置。
[24] 当該入力装置は、ユーザーによる入力操作が可能なモードと不可能なモードの 2 つの動作モードを有し、
前記画像合成部は、ユーザーによる入力操作が可能なモードのときには、前記表 示情報作成部が作成した表示画像を、前記身体画像と合成することなしに、そのまま 前記表示部に表示させるものであることを特徴とする、請求項 1に記載の入力装置。
[25] 当該入力装置は、ユーザーによる入力操作が可能なモードと不可能なモードの 2 つの動作モードを有し、
前記画像合成部は、前記動作モードに応じて、前記表示情報作成部が作成した表 示画像と前記身体画像との合成方法を変更するものであることを特徴とする、請求項 1に記載の入力装置。
[26] 前記画像合成部は、ユーザーによる入力操作が可能なモードのときには前記身体 画像が半透明で表示、もしくは輪郭を強調して表示、もしくは半透明でかつ輪郭を強 調して表示され、ユーザーによる入力操作が不可能なモードのときには当該身体画 像が不透明で表示されるように、前記表示画像と前記身体画像を合成するものであ ることを特徴とする、請求項 25に記載の入力装置。
[27] 前記画像合成部は、前記表示画像の各部分によって、合成方法を変更することを 特徴とする、請求項 1に記載の入力装置。
[28] 前記表示画像は、操作可能な領域と不可能な領域を有し、
前記画像合成部は、前記表示画像の操作可能な領域では前記身体画像を合成し 、前記操作不可能な領域では前記身体画像を合成しないことを特徴とする、請求項 27に記載の入力装置。
PCT/JP2005/013866 2004-08-04 2005-07-28 入力装置 WO2006013783A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-228619 2004-08-04
JP2004228619 2004-08-04

Publications (1)

Publication Number Publication Date
WO2006013783A1 true WO2006013783A1 (ja) 2006-02-09

Family

ID=35787071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/013866 WO2006013783A1 (ja) 2004-08-04 2005-07-28 入力装置

Country Status (1)

Country Link
WO (1) WO2006013783A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272596A (ja) * 2006-03-31 2007-10-18 Denso Corp 移動体用操作物体抽出装置
JP2007276615A (ja) * 2006-04-06 2007-10-25 Denso Corp プロンプター方式操作装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008020406A (ja) * 2006-07-14 2008-01-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置
JP2008221960A (ja) * 2007-03-12 2008-09-25 Equos Research Co Ltd 車載装置
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
JP2009051253A (ja) * 2007-08-23 2009-03-12 Denso Corp 車両用遠隔操作装置
JP2009083533A (ja) * 2007-09-27 2009-04-23 Denso Corp 車両用プロンプター方式操作装置
JP2009143373A (ja) * 2007-12-13 2009-07-02 Denso Corp 車両用操作入力装置
JP2010083206A (ja) * 2008-09-29 2010-04-15 Denso Corp 車載用電子機器操作装置
JP2010160772A (ja) * 2009-01-06 2010-07-22 Pixart Imaging Inc バーチャル入力装置を有する電子装置
JP2010285148A (ja) * 2009-06-15 2010-12-24 Tesla Motors Inc タッチスクリーンを介して車両機能を制御するインターフェース
US8466871B2 (en) 2009-02-27 2013-06-18 Hyundai Motor Japan R&D Center, Inc. Input apparatus for in-vehicle devices
JPWO2014073403A1 (ja) * 2012-11-08 2016-09-08 アルプス電気株式会社 入力装置
JP2017210198A (ja) * 2016-05-27 2017-11-30 トヨタ紡織株式会社 車両用動き検出システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573196A (ja) * 1991-04-12 1993-03-26 Alpine Electron Inc データ入力装置
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2003323553A (ja) * 2003-03-05 2003-11-14 Hitachi Ltd 帳票処理方法およびシステム
JP2004120374A (ja) * 2002-09-26 2004-04-15 Fuji Photo Optical Co Ltd 資料提示装置
JP2004196260A (ja) * 2002-12-20 2004-07-15 Nissan Motor Co Ltd 車両用表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573196A (ja) * 1991-04-12 1993-03-26 Alpine Electron Inc データ入力装置
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2004120374A (ja) * 2002-09-26 2004-04-15 Fuji Photo Optical Co Ltd 資料提示装置
JP2004196260A (ja) * 2002-12-20 2004-07-15 Nissan Motor Co Ltd 車両用表示装置
JP2003323553A (ja) * 2003-03-05 2003-11-14 Hitachi Ltd 帳票処理方法およびシステム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970173B2 (en) 2006-03-31 2011-06-28 Denso Corporation Object-detecting device and method of extracting operation object
JP2007272596A (ja) * 2006-03-31 2007-10-18 Denso Corp 移動体用操作物体抽出装置
JP2007276615A (ja) * 2006-04-06 2007-10-25 Denso Corp プロンプター方式操作装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008020406A (ja) * 2006-07-14 2008-01-31 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2008123032A (ja) * 2006-11-08 2008-05-29 Toyota Motor Corp 情報入力装置
JP2008221960A (ja) * 2007-03-12 2008-09-25 Equos Research Co Ltd 車載装置
JP2008234594A (ja) * 2007-03-23 2008-10-02 Denso Corp 操作入力装置
JP2009051253A (ja) * 2007-08-23 2009-03-12 Denso Corp 車両用遠隔操作装置
JP2009083533A (ja) * 2007-09-27 2009-04-23 Denso Corp 車両用プロンプター方式操作装置
JP2009143373A (ja) * 2007-12-13 2009-07-02 Denso Corp 車両用操作入力装置
JP2010083206A (ja) * 2008-09-29 2010-04-15 Denso Corp 車載用電子機器操作装置
JP2010160772A (ja) * 2009-01-06 2010-07-22 Pixart Imaging Inc バーチャル入力装置を有する電子装置
US8466871B2 (en) 2009-02-27 2013-06-18 Hyundai Motor Japan R&D Center, Inc. Input apparatus for in-vehicle devices
JP2010285148A (ja) * 2009-06-15 2010-12-24 Tesla Motors Inc タッチスクリーンを介して車両機能を制御するインターフェース
JPWO2014073403A1 (ja) * 2012-11-08 2016-09-08 アルプス電気株式会社 入力装置
JP2017210198A (ja) * 2016-05-27 2017-11-30 トヨタ紡織株式会社 車両用動き検出システム

Similar Documents

Publication Publication Date Title
JP5201999B2 (ja) 入力装置、及びその方法
WO2006013783A1 (ja) 入力装置
JP4351599B2 (ja) 入力装置
TWI450132B (zh) A portrait recognition device, an operation judgment method, and a computer program
JP4783456B2 (ja) 映像再生装置及び映像再生方法
JP4702959B2 (ja) ユーザインタフェイスシステム
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
US20090002342A1 (en) Information Processing Device
US10591988B2 (en) Method for displaying user interface of head-mounted display device
JP5110438B2 (ja) 入力装置
JP5086560B2 (ja) 入力装置
US20100275159A1 (en) Input device
US20130135199A1 (en) System and method for user interaction with projected content
JP2010176565A (ja) 操作装置
JP2010033158A (ja) 情報処理装置及び情報処理方法
JP5921981B2 (ja) 映像表示装置および映像表示方法
US20040046747A1 (en) Providing input signals
JP4945694B2 (ja) 映像再生装置及び映像再生方法
JP2009282637A (ja) 表示方法および表示装置
JP4757132B2 (ja) データ入力装置
JP2020071641A (ja) 入力操作装置及びユーザインタフェースシステム
JP4973508B2 (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase