WO2010098050A1 - 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム - Google Patents

電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム Download PDF

Info

Publication number
WO2010098050A1
WO2010098050A1 PCT/JP2010/001090 JP2010001090W WO2010098050A1 WO 2010098050 A1 WO2010098050 A1 WO 2010098050A1 JP 2010001090 W JP2010001090 W JP 2010001090W WO 2010098050 A1 WO2010098050 A1 WO 2010098050A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
electronic device
information
touch panel
operator
Prior art date
Application number
PCT/JP2010/001090
Other languages
English (en)
French (fr)
Inventor
仙洞田充
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2010098050A1 publication Critical patent/WO2010098050A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Definitions

  • the present invention relates to an operation technique for an electronic device using a touch panel.
  • the touch panel is a typical input device that accepts an operation indicated by the operator's hand to control the function of the electronic device, and also has a function as an output device depending on the form of the electronic device, and is also called a touch screen There is.
  • Patent document 1 is disclosing the touch panel remote control which operates a to-be-controlled device using this touch panel. In this touch panel remote controller, it is detected that an operator's finger touches the touch panel, slides on the touch panel, or moves away from the touch panel, generates a corresponding control signal, and controls the controlled device. Executes functions such as starting and ending functions, adjusting parameter values, and entering characters and numbers.
  • the technique of detecting the operation indicated by the operator's hand on the panel surface of the touch panel and controlling the electronic device to be operated in accordance with the operation is a general electronic that uses a normal function planned for the touch panel. This is a device operation technique and is widely used in various electronic devices.
  • Patent Document 2 and Patent Document 3 disclose a technique for receiving an operation indicated by an operator's hand without using a touch panel.
  • the in-vehicle device interface of Patent Document 2 specifies the shape of a hand from an image obtained by capturing an in-vehicle occupant and switches the operation state of the in-vehicle device associated therewith.
  • the spatial operation input device of Patent Document 3 specifies an operation pattern from detected acceleration when it is held in the hand of an operator and moved in the air, and is applied in advance to the home appliance according to the corresponding transmission pattern code. A predetermined action is performed.
  • the technique for identifying the hand state from the image of a person as disclosed in Patent Document 2 is also adopted in the sign language recognition device of Patent Document 4 that recognizes the sign language action from stereoscopic image data captured by the two left and right TV cameras. ing.
  • Japanese Unexamined Patent Publication No. 2008-042481 Japanese Unexamined Patent Publication No. 2005-178473 Japanese Unexamined Patent Publication No. 2006-323599 Japanese Unexamined Patent Publication No. 11-174948
  • a touch panel (or touch screen) is used to detect a resistance film type contact point or capacitance generated by touching an operator's fingertip, and to detect a change in surface acoustic wave (SAW (Surface Acoustic Wave)).
  • SAW Surface Acoustic Wave
  • the system is used as the operating principle. That is, the touch panel is based on the premise that the principle of receiving an operation itself is touched (the operator's hand touches the panel surface).
  • the operation that the operator indicates on the touch panel is limited to the two-dimensional operation in which the fingertip is pointed in the panel surface and the position in the two-dimensional plane is specified. Movement is also limited to a two-dimensional plane parallel to the panel surface. For this reason, in the operation of the electronic device using the touch panel, the operator cannot perform a three-dimensional operation indicating a desired operation by moving his / her hand in each three-dimensional direction in the air.
  • the movement of the operator's hand is not limited within a specific two-dimensional plane, but the operator himself is not a technique for operating an electronic device using a touch panel. Since there is no visual information in the three-dimensional space under which the user is placed, the user moves his / her hand, so there is no room for adopting an operation mode that is linked to the operation using the touch panel. Since the touch panel is an operation means that enables intuitive operation of electronic devices based on the interaction with visual information accompanying the display, if the operation form can be expanded to a three-dimensional one, the operability will be improved. An excellent electronic device interface can be realized.
  • the present invention has been made in view of such circumstances, and in an operation of an electronic device using a touch panel, an operation indicated by an operator's hand in a three-dimensional space that is not limited within a specific two-dimensional plane. It is an object of the present invention to provide an operation technique for an electronic device that can be accepted and that can extend a two-dimensional operation form on a touch panel to a three-dimensional one to realize a three-dimensional operation.
  • an interface of an electronic device includes an operation unit of an electronic device having a touch panel, an image capturing unit that captures an image of a space above the touch panel, and the image captured by the image capturing unit.
  • Hand information detecting means for detecting hand information indicating the state of the hand of the operator of the electronic device specified from the above, touch detecting means for detecting the touch panel input of the operator on the touch panel, and the hand information detecting means Control means for controlling the function of the electronic device based on the hand information detected by the touch detection unit and the touch panel input detected by the touch detection means.
  • An electronic apparatus shows an operating means having a touch panel, an image capturing means for capturing an image of a space above the touch panel, and a state of an operator's hand specified from the image captured by the image capturing means.
  • Hand information detecting means for detecting hand information
  • touch detecting means for detecting touch panel input of the operator on the touch panel
  • the hand information detected by the hand information detecting means and the touch panel detected by the touch detecting means
  • Control means for controlling the function of the electronic device itself based on the input.
  • the input of the operator of the electronic device is received using the touch panel, the image of the space above the touch panel is captured, and the hand of the operator specified from the captured image is received.
  • Hand information indicating a state is detected, the touch panel input of the operator on the touch panel is detected, and the function of the electronic device is controlled based on the detected hand information and the detected touch panel input.
  • An operation program for an electronic device uses an input function for receiving an input from an operator of the electronic device using a touch panel, an image capturing function for capturing an image of a space above the touch panel, and the image capturing function.
  • a hand information detection function for detecting hand information indicating a state of the operator's hand specified from the captured image, a touch detection function for detecting the operator's touch panel input on the touch panel, and the hand information.
  • Electronic device operation for causing a computer to realize a control function for controlling the function of the electronic device based on the hand information detected using the detection function and the touch panel input detected using the touch detection function It is a program.
  • An operation system for an electronic device includes a first electronic device and a second electronic device that are communicably connected, and the first electronic device includes an operation unit having a touch panel, and an upper part of the touch panel.
  • An image capturing means for capturing an image of the space
  • hand information detecting means for detecting hand information indicating the state of the operator's hand identified from the image captured by the image capturing means, and the operator on the touch panel
  • Touch detection means for detecting the touch panel input
  • control means for controlling the communication function of the first electronic device based on the hand information detected by the hand information detection means and the touch panel input detected by the touch detection means
  • the first electronic device transmits and receives information to and from the second electronic device.
  • the function of the electronic device is controlled based on the hand information indicating the state of the operator's hand specified from the image in the space above the touch panel and the operator's touch panel input. For this reason, not only the input of the operator on the two-dimensional plane of the touch panel surface, but also the electronic device is controlled according to the state of the operator's hand captured in the space above the touch panel, and the operator's hand is three-dimensional The state shown in the space is accepted as an operation for controlling the electronic device.
  • the two-dimensional operation mode on the touch panel can be extended to a three-dimensional one to realize a three-dimensional operation.
  • FIG. 11 is an external view showing an embodiment when electronic device 600 is operated by an operator's hand.
  • 5 is a flowchart illustrating a procedure of processing for controlling the electronic device 600 by accepting a 3D (Dimensional) information operation using the compressed file decompression application by the interface.
  • FIG. 6 is an external view schematically showing an example of the state of the operator's hand during the 3D information operation of FIG.
  • FIG. 11 is an external view showing an embodiment when electronic device 600 is operated by an operator's hand.
  • FIG. 6 is an external view schematically showing an example of the state of the operator's hand during the 3D information operation of FIG. It is the flowchart which showed the procedure of the process of 3D information operation in the case of transferring information and copying between the electronic device 600 and other electronic devices 601 grade
  • FIG. 8 is an external view schematically showing an example of a state of an operator's hand and operation modes of the electronic device 600 and the electronic device 601 at the time of 3D information operation of FIG. 7. It is the external view which showed typically the example of the operation
  • FIG. 1 is a block diagram showing a main configuration of an interface of an electronic device according to an embodiment of the present invention.
  • This interface relates to a configuration of a part that receives an operation performed by an operator and controls a function of the target electronic device in an electronic device to which the interface is applied (hereinafter referred to as “target electronic device”). Therefore, the configuration of FIG. 1 corresponds to a part of the configuration of the target electronic device, and includes the operation unit 501, the image capturing unit 502, and the control unit 900, which are the part, and constitutes a main part of this interface. ing.
  • the operation unit 501 is an operation input device of a target electronic device configured by an input device such as a touch panel, has a touch panel as an essential input device, and has a push button type key switch or the like according to the form of the target electronic device. Other input devices are provided as appropriate.
  • the operation unit 501 is connected to the control unit 900, and supplies input information to the control unit 900 according to an operation of a touch panel or the like that was manually operated by the operator.
  • the touch panel is sometimes referred to as a touch screen, but here both are collectively referred to as a touch panel (therefore, the “touch panel” herein includes a so-called touch screen).
  • the image capturing unit 502 is an imaging (or photographing) device such as a camera that captures an image of a predetermined area in which the operator's hand is reflected when the operator performs an operation using the operation unit 501.
  • the image capturing unit 502 uses, as the predetermined region, a three-dimensional space area above the touch panel where an operator's hand is positioned during an operation using the touch panel of the operation unit 501, and the angle of view of the range in which the image is captured is the three-dimensional space.
  • the image is arranged so as to capture the area, and the image captured corresponding to the angle of view includes coordinates in the height direction from the touch panel surface upward.
  • the image capturing unit 502 is connected to the control unit 900, sequentially captures images of the predetermined area in time series, and sequentially supplies the image information as input image information to the control unit 900.
  • the control unit 900 is a control unit of the target electronic device main body.
  • the control unit 900 stores an arithmetic device such as a CPU (Central Processing Unit) that performs arithmetic processing related to information processing inside the target electronic device, system information necessary for performing various operations from the start of the target electronic device, and the like.
  • Storage device composed of non-volatile memory such as ROM (Read Only Memory) and semiconductor memory such as RAM (Random Access Memory) and cache memory for storing information that can be updated as a working storage area of the arithmetic device
  • a control device that controls operation of each part of the target electronic device and exchanges information with the outside, and controls functions of the entire target electronic device including this interface.
  • This interface mainly includes a configuration in which the operation unit 501 and the image capturing unit 502 are connected to the control unit 900 described above.
  • the operation performed by the operator using the operation unit 501 and the image capturing unit 502 are used. Both the operation grasped from the state of the operator's hand (hand shape, position, movement, etc.) in the captured image is accepted as an operation performed by the operator's hand, and the function of the target electronic device is controlled. . Therefore, the main part of the interface in the control unit 900 is an information processing function that accepts an operation performed by the operator based on input information from the operation unit 501 and input image information from the image capturing unit 502.
  • This part is a part related to an operation control function for controlling the operation of other components provided according to the form of the target electronic device in accordance with the operation received using the information processing function.
  • the control unit 900 includes a hand information detection unit 100, a touch detection unit 200, and a hand that are illustrated using the arithmetic device and the storage device described above.
  • a detection area designating unit 300 is provided inside.
  • the hand information detection unit 100 identifies or recognizes the hand state such as the shape, position, and movement of the operator's hand from the input image information supplied from the image capturing unit 502, and indicates hand information indicating the state of the operator's hand. (The specific configuration of the hand information detection unit 100 will be described later).
  • the touch detection unit 200 identifies or recognizes the operator's touch panel input from the input information supplied from the operation unit 501, and detects position information in the touch panel surface indicated by the operator (touched with a fingertip).
  • the touch detection unit 200 supplies touch detection information indicating the detected position information to the hand information detection unit 100.
  • the hand detection area designation unit 300 designates an area where the hand information detection unit 100 detects hand information.
  • the hand detection area designating unit 300 issues an instruction to execute detection when the operator's hand is within the designated area based on a preset designated area for detecting hand information and input image information from the image capturing unit 502. It is issued to the hand information detection unit 100 to enable the detection of hand information, and the operation of other components can be controlled by the control unit 900 based on the detected hand information.
  • the image capturing unit 502 is arranged so as to capture an image of a predetermined area where the operator's hand is positioned during an operation using the touch panel of the operation unit 501 as described above.
  • the predetermined area may be set in advance as a designated area for detecting hand information (however, the predetermined area is a three-dimensional space area, and the designated area is also a tertiary area in the real world). Since these areas are both projected onto the two-dimensional plane in the captured image, the areas in the image are treated as the projection areas onto the respective two-dimensional planes.
  • the coordinate system of the two-dimensional plane includes a coordinate axis in the height direction going upward from the touch panel surface.
  • the image capturing unit 502 is an imaging device that captures only the designated area in which the hand information detecting unit 100 detects hand information, and the predetermined area matches the designated area. 300 is not an essential component.
  • the operation using the touch panel is not performed even when the three-dimensional space region above the touch panel is set as the predetermined region.
  • the operator's hand (or another person's hand that is not related to the operation of the target electronic device or other object having an appearance such as a hand) may be reflected. Therefore, in the hand detection area designating unit 300, the operator who is operating using the touch panel within the entire area of the input image indicated by the input image information (within the projection area of the predetermined area onto the two-dimensional plane).
  • the range of the position of the image of the hand to be recognized as a hand is set as a designated area in advance, and the position of the operator's hand (the position of the hand in the input image) is within the preset designated area
  • the detection of hand information using the hand information detection unit 100 is validated, or the operation of the operation control function in the control unit 900 is permitted. In this way, by specifying the range of positions that should be recognized as the operator's hand at the time of operation in the captured image, erroneous recognition of the operator's hand information can be avoided.
  • a designated area for detecting hand information is set separately from the predetermined area, and the predetermined area includes the designated area. Thus, it is more practical to arrange the image capturing unit 502 so as to capture a predetermined area.
  • the setting of the designated area may be performed in advance by an operator appropriately inputting a setting instruction from the operation unit 501 while making the control unit 900 refer to input image information from the image capturing unit 502.
  • the hand state corresponding to the operation to be accepted is specified in advance (details of this specification will be described later), so the hand movement range allowed as the hand state corresponding to the specified operation is determined.
  • the designated area may be set in advance. The designated area can be determined geometrically based on the state of the hand corresponding to the operation, the angle of view of the imaging device, the relative positional relationship between the imaging device and the touch panel, and the like.
  • the set designated area is stored in the storage device of the control unit 900 or another storage device in the target electronic device (for example, the storage unit 513 shown in FIG. 3), and designated by the hand detection area designating unit 300. It is determined whether or not the position of the hand in the input image exists within the designated area with reference to the area.
  • the hand detection area designating unit 300 performs information processing such as a predetermined threshold calculation or addition / subtraction calculation based on input image information (for example, pixels having luminance and color within a certain range corresponding to a human hand are included in the designated area).
  • the image in the designated area includes a predetermined number or more, whether or not the area in which the luminance or color of the pixels in the designated area is almost constant is the color of the human hand, and the area of the area is within the designated area Whether or not there is an arcuate edge such as a finger or a fingertip in the area, and whether or not there are five such edges). It is sufficient to determine whether or not the position of the hand is within the designated area, and it is not necessary to specify a specific state such as the shape of the hand like the detection of hand information by the hand information detection unit 100. .
  • the control unit 900 includes the hand information detection unit 100, the touch detection unit 200, and the hand detection region designation unit 300 as described above, and the target electronic device is based on the detection results of the hand information detection unit 100 and the touch detection unit 200.
  • the touch detection unit 200 detects the touch panel input.
  • hand information on the state of the hand is stored in the image capturing unit 502. Based on the input image information from the hand information detection unit 100 detects.
  • the control unit 900 performs function control of the target electronic device corresponding to the operation indicated by the operator's hand, and realizes the portion related to the above-described operation control function.
  • the detection of hand information and the function control of the target electronic device are restricted so as to be possible when the hand detection area designating unit 300 determines that the position of the operator's hand is within a preset designated area. , Erroneous detection of hand information and malfunction of the target electronic device are avoided (that is, erroneous operation is prevented).
  • the components related to the operation control function of the control unit 900 are not explicitly shown in FIG. 1 because the components to be controlled vary depending on the form of the target electronic device. A specific example of the object will be described.
  • FIG. 2 is a functional block diagram illustrating a specific configuration of the hand information detection unit 100.
  • the hand information detection unit 100 is configured to detect hand information from the input image information 550 and the touch detection information 551, and includes an extraction unit 101, a template 102, a comparison unit 103, a shape specifying unit 104, a position specifying unit 105, A movement specifying unit 106 and a three-dimensional position specifying unit 107 are provided inside.
  • the three-dimensional position specifying unit 107 further includes a three-dimensional calibration unit 108.
  • the extraction unit 101 receives the input image information 550 from the image capturing unit 502, and extracts a hand portion that is an area where the hand is imaged in the input image indicated by the input image information 550.
  • the extraction unit 101 uses one or both of the information on the luminance and color of each pixel constituting the input image as extraction information for the hand portion, and the extraction information is preset in the input image information 550.
  • a region within an allowable range (within a range that can be recognized as a human hand) is determined as a hand portion, and a hand portion based on the input image is extracted.
  • the hand part to be extracted is an image of the region of the hand only part, and the image information of itself includes information such as the shape, size, and color of the hand.
  • the extraction unit 101 supplies the shape information of the extracted hand part to the comparison unit 103 and also specifies the image information of the extracted hand part and the information of the extraction position (position information of the hand part region in the input image). To the unit 105 and the three-dimensional position specifying unit 107.
  • the template 102 is a hand shape pattern dictionary or database in which information on the shape pattern indicating the shape of the hand corresponding to the received operation is stored in advance in a storage device.
  • a dictionary or database of hand shape patterns is built in advance in a storage device of the control unit 900 or another storage device in the target electronic device, and the control unit 900 refers to the template 102 in the hand information detection unit 100. As realized.
  • This interface accepts an operation indicated by the operator using his / her hand state in the three-dimensional space of the designated area as an operation for controlling the function of the target electronic device. Therefore, in this interface, the hand state corresponding to each operation to be accepted is specified in advance, and hand information indicating the hand state is held in the control unit 900 (or held in another storage device and the control unit 900.)
  • the template 102 holds hand information indicating the shape of the hand among such hand states, and holds hand shape pattern information as the hand information. For example, simple hand shapes include a “pick” shape, a “release” shape, and a “point” shape.
  • Each hand shape is specified in advance as a hand state corresponding to a predetermined operation, and shape pattern information indicating the shape of each hand is registered in a storage device in advance, so that the hand corresponding to the operation is registered.
  • a template 102 serving as a dictionary or database for referring to the shape is prepared in advance.
  • the comparison unit 103 Based on the shape information of the hand part from the extraction unit 101 and the shape pattern information in the template 102, the comparison unit 103 extracts the shape of the extracted hand part extracted from the input image and each shape pattern of the template 102 prepared in advance. And the comparison result is supplied to the shape specifying unit 104.
  • the comparison in the comparison unit 103 is a comparison for determining whether or not the shape of the extracted hand portion is similar to the shape of each registered shape pattern of the template 102.
  • the comparison unit 103 supplies information (error or difference, correlation value, etc.) indicating the similarity of each registered shape pattern to the shape of the extracted hand part to the shape specifying unit 104 as a comparison result.
  • the shape specifying unit 104 determines the shape pattern of the template 102 that is most similar to the shape of the extracted hand part based on the comparison result from the comparison unit 103. That is, the shape specifying unit 104 specifies (identifies) the shape of the hand that is most similar to the shape of the extracted hand portion among the registered hand shapes as the shape of the operator's hand, and the specified hand.
  • the shape is hand information of the operator. Thereby, hand information indicating the shape of the operator's hand is detected as hand information indicating the state of the operator's hand. Note that setting a threshold value for the similarity and determining that there is no similar shape in the registered shape pattern may be performed as necessary.
  • the position specifying unit 105 specifies the center of gravity of the extracted hand part as the position of the operator's hand based on the image information of the extracted hand part and the extracted position information from the extracting unit 101, and operates the specified hand position.
  • Information The position of the operator's hand specified by this is a position in the input image, and is a position on a two-dimensional plane obtained by projecting the three-dimensional space area above the touch panel onto the captured image of the image capturing unit 502. Accordingly, the position information includes position information in the height direction from the touch panel surface upward.
  • the imaging device of the image capturing unit 502 is arranged so as to look over the designated area (three-dimensional) above the touch panel surface from the peripheral edge of the touch panel, and the horizontal direction in the input image is the horizontal direction of the touch panel surface with respect to the imaging device side. If they match and the height direction in the input image matches the height direction vertically upward from the touch panel surface, the position information is the horizontal and height directions in the specified area (two-dimensional). It indicates the position.
  • the position specifying unit 105 supplies the position information of the position of the operator's hand to the movement specifying unit 106 and the three-dimensional position specifying unit 107. Note that the position specification of the hand in the position specifying unit 105 can also be performed using a general image processing technique in which the center of gravity of the image is determined from the extracted image and the center of gravity is used as the position of the analysis object.
  • the movement specifying unit 106 specifies a time-series change in the hand position specified by the position specifying unit 105 as the movement of the operator's hand, and the specified hand movement Is the operator's hand information.
  • the image capturing unit 502 sequentially captures images in time series and supplies the input image information 550. Accordingly, the extraction unit 101 sequentially supplies image information and the like of the extracted hand part to the position identifying unit 105, and the motion identifying unit
  • the position information from the position specifying unit 105 is sequentially supplied to 106.
  • the movement specifying unit 106 specifies a time-series change in the position of the operator's hand as the movement of the operator's hand based on the sequentially supplied position information.
  • the movement specifying unit 106 specifies the speed of the operator's hand (the trajectory moved and its speed) as the movement of the operator's hand, and determines the speed of the hand. It may be hand information of the operator.
  • the three-dimensional position specifying unit 107 is based on the image information and extraction position information of the extracted hand from the extracting unit 101, the position information from the position specifying unit 105, and the touch detection information 551 from the touch detection unit 200.
  • the position of the hand in the three-dimensional space is specified, and the specified position is used as the operator's hand information.
  • the hand information of the operator specified by this is three-dimensional position information.
  • the position information detected by the touch detection unit 200 at that time represents the position of the operator's hand in a two-dimensional plane parallel to the touch panel surface, and the position specifying unit at that time
  • the position information from 105 includes position information in the height direction from the touch panel surface upward as described above. Therefore, the three-dimensional position specifying unit 107 can specify the position in the three-dimensional space of the operator's hand based on the position information.
  • the imaging device of the image capturing unit 502 is arranged so as to look over the three-dimensional space region above the touch panel surface from the peripheral portion of the touch panel, and the horizontal direction in the input image is the same as the horizontal direction of the touch panel surface with respect to the imaging device side. If the height direction in the input image matches the height direction vertically upward from the touch panel surface, the position of the operator's hand in each of these directions is the position information from the position specifying unit 105. Identified based on. Since the touch detection information 551 indicates position information within the touch panel surface touched by the operator with the fingertip, the depth amount from the imaging device to the position of the operator's hand can be detected based on the position. The position of the operator's hand in the depth direction of the touch panel surface with respect to the imaging device can be specified from the depth amount.
  • the position in the horizontal direction and the height direction in the designated area is indicated as position information from the position specifying unit 105.
  • the touch detection unit 200 does not supply the position information itself in the touch panel surface as the touch detection information 551, but the depth amount from the imaging device to the position of the operator's hand based on the position information in the touch panel surface.
  • the detected depth amount may be supplied to the three-dimensional position specifying unit 107 as touch detection information 551.
  • the three-dimensional position specifying unit 107 is a three-dimensional operator's hand based on the horizontal and height positions specified by the position specifying unit 105 and the depth amount detected by the touch detection unit 200.
  • the position is specified, and the specified three-dimensional position information of the hand is used as the operator's hand information.
  • the three-dimensional position specifying unit 107 specifies the position in the three-dimensional space of the operator's hand as described above, but the operator's hand is in the input image according to the depth amount from the imaging device up to that position.
  • the size and amount of movement that can be captured by the camera changes.
  • the position of the operator's hand specified from the center of gravity of the extracted hand portion includes an error corresponding to the depth amount.
  • the depth amount is detected by the touch detection unit 200 if the imaging device is fixed at a fixed position (even if the depth amount is an oblique direction that does not face the imaging device regardless of the arrangement form of the imaging device). It can detect based on the positional information in the touch panel surface. On the other hand, when there is no touch panel input by the operator, the depth amount cannot be detected, and the three-dimensional position information of the operator's hand cannot be obtained.
  • the three-dimensional calibration unit 108 solves the problem of such errors and depth amount non-detection.
  • the depth amount can be detected based on the touch detection information 551 supplied at that time.
  • the extracted hand portion extracted from the input image captured by the image capturing unit 502 at the same time when the depth amount is detected is an image of the operator's hand located at the distance of the depth amount from the imaging device. . That is, the extracted hand portion indicates the size of the operator's hand seen from the imaging device at a position on the touch panel that is a distance of the depth amount from the imaging device.
  • the size of the operator's hand at the position on the touch panel is the area of the extracted hand part. It can be grasped geometrically from the size of and the depth amount. Therefore, the three-dimensional calibration unit 108 is based on the touch detection information based on the image information and the extraction position information of the extracted hand from the extraction unit 101 and the touch detection information 551 from the touch detection unit 200 when there is a touch panel input. The size of the operator's hand corresponding to the position on the touch panel surface indicated by 551 (that is, the size of the extracted hand part at this time) is calibrated.
  • the feature image size is the size of the image of the operator's hand as a reference in the input image.
  • a reference hand image may be specified in advance, and the image information (information including at least the image size) may be set and registered in the storage device.
  • the operator's hand that appears in the input image when the operator's hand is at a predetermined reference position such as the center on the touch panel, the center in the designated area, or the position closest to the imaging device in the designated area.
  • the size of the image can be determined and used as the featured image size.
  • the feature image size of the reference position is determined based on the position of the hand of the extracted hand portion based on the relative positional relationship between the position where the hand of the extracted hand portion indicated by the touch detection information 551 and the extraction position information is located and the reference position. It can be obtained by specifying the size magnification in the input image.
  • the three-dimensional calibration unit 108 obtains such a feature image size and calibrates the size of the extracted hand portion to the obtained feature image size or the like (corresponding to the actual size of the operator's hand that has eliminated the error corresponding to the depth amount). It is better to calibrate the size of the extracted hand part to the feature image size with the feature image size itself as such a reference size, but if not so depending on the selection of the reference position The size of the extracted hand portion is calibrated to the reference size based on the magnification of the feature image size with respect to the size).
  • the specific position of the operator's hand in the three-dimensional position specifying unit 107 is calibrated according to the change, and the specified position after the calibration is specified.
  • the three-dimensional position information of the position is used as the operator's hand information.
  • the three-dimensional calibration unit 108 thus calibrates the input image and the depth amount when detecting touch panel input.
  • the three-dimensional calibration unit 108 detects the depth direction of the operator's hand when the touch panel is not touched based on the image information of the extracted hand part sequentially supplied from the extraction unit 101 after the touch panel input is detected. The position is estimated or estimated, and the three-dimensional position specification of the operator's hand in the three-dimensional position specifying unit 107 is continued.
  • the three-dimensional calibration unit 108 performs calibration by obtaining the feature image size as described above, so the image size when the operator's hand is at the reference position and the detection position of the touch panel input.
  • This correspondence indicates the standard of how large the operator's hand will appear in the input image when it is at each position (especially each position in the depth direction).
  • the hand of the extracted hand portion is located can be obtained by using an image size comparison operation, an interpolation operation in a three-dimensional space region, or the like. Therefore, the three-dimensional calibration unit 108 uses the grasped correspondence relationship, and when the size of the operator's hand in the input image is the size of each extracted hand portion sequentially supplied from the extracting unit 101, respectively.
  • the position (in particular, the position in the depth direction) of the operator's hand when the input image is captured can be estimated or estimated.
  • the three-dimensional calibration unit 108 continues to estimate the position of the operator's hand relative to the target electronic device in the air in the three-dimensional space based on the input image.
  • the three-dimensional position specifying unit 107 continues to sequentially specify positions in the three-dimensional space of the operator's hand based on the estimation by the three-dimensional calibration unit 108, and the sequentially specified three-dimensional position information is determined by the operator. As hand information.
  • the configuration of the hand information detection unit 100 described above is an example of detecting hand information indicating the shape, position, and movement state of the operator's hand.
  • the hand information detection unit 100 may appropriately detect hand information of the state of another hand according to the content of the operation received through this interface, the form of the target electronic device, or the like.
  • the position and movement of the hand are appropriately specified in advance and registered in the storage device, and a dictionary or database such as the above-described template 102 regarding the shape of the hand is prepared in advance.
  • a dictionary or database such as the above-described template 102 regarding the shape of the hand is prepared in advance.
  • hand information corresponding to a specific operation can be detected. This will be described with a specific example in the operation description to be described later.
  • the information exchange between each part in the hand information detection part 100 is not restricted to the form mentioned above.
  • the three-dimensional position information calibrated by the three-dimensional calibrating unit 108 may be supplied to the position specifying unit 105 and the movement specifying unit 106, or the image information of the extracted hand part calibrated in size may be supplied to the comparison unit 103. Good.
  • 3D position information (calibrated 3D position information or 3D position information corresponding to the depth position in the calibrated 3D position information and the position specified by the position specifying unit 105) is supplied to the motion specifying unit 106
  • the movement specifying unit 106 specifies the movement of the operator's hand in three dimensions based on the time-series change of the hand position indicated by the three-dimensional position information, and the hand information indicating the movement of the hand in three dimensions. Is detected.
  • the appearance depending on the position of the extracted hand part may be nonlinear, and it may be better to calibrate the shape and position.
  • the input image is interpolated by appropriately grasping the correspondence such as the size, shape, and position of the reference operator's hand image and the plurality of extracted hand partial samples corresponding to multiple touch panel inputs. May be.
  • FIG. 3 is a diagram showing an overall configuration of an electronic device 600 to which the present interface is applied with an electronic device having a function as a communication terminal such as a mobile phone as a target electronic device. That is, FIG. 3 shows an overall configuration relating to control of an example of a target electronic device equipped with this interface.
  • the electronic device 600 includes an operation unit 501, an image capturing unit 502, and a control unit 900 corresponding to the above-described main configuration of the interface.
  • the electronic device 600 includes, as other components that can be controlled by the control unit 900, an antenna 511, a transmission / reception unit 512, a storage unit 513, an I / F (interface) 514 with other devices, other sensors 515, A speaker 516, a display unit 517, a light emitting unit 518, a vibration generating unit 519, and an audio capturing unit 520 are provided.
  • the electronic device 600 corresponds to an embodiment of the electronic device according to the present invention.
  • the control unit 900 exchanges various information with other components as necessary, and therefore, the flow of signals or information therein is omitted.
  • the antenna 511 and the transmission / reception unit 512 are components that have a wireless signal transmission / reception function in order to perform information communication with other devices using wireless communication.
  • a transmission / reception unit 512 that exchanges information with other devices is connected to the control unit 900 that is a control unit of the electronic device 600, and an antenna 511 is connected to the transmission / reception unit 512 (therefore, the electronic device 600 has a wireless connection).
  • This is an example of application to a wireless communication device having a used communication function, but the target electronic device may be a wired communication device or a device that does not have a communication function with other devices, and is not limited to a wireless communication device.
  • the control unit 900 controls functions performed by the antenna 511 and the transmission / reception unit 512 and performs wireless communication with other devices. Further, the control unit 900 includes an operation unit 501, an image capturing unit 502, a storage unit 513, an I / F 514 with other devices, other sensors 515, a speaker 516, a display unit 517, a light emitting unit 518, and a vibration generating unit 519. And an audio capturing unit 520 are connected.
  • the operation unit 501 is an operation input device of the electronic device 600
  • the image capturing unit 502 is an imaging device configured using a camera mounted on the electronic device 600.
  • Each of the operation units 501 is described in “(1) Main configuration”. It has the structure which did.
  • the storage unit 513 is a storage device (for example, the electronic device 600) configured using a non-volatile memory in which files of programs installed in the electronic device 600 and various data files handled by the programs are stored. And a storage medium that can be read by the computer, and has a function of storing information in the electronic device 600.
  • a basic software program file such as an OS (Operating System)
  • a program of an operation program for an electronic device that defines a processing operation for operating the electronic device using this interface -The file is stored.
  • the control unit 900 executes the operation program to realize the function of the configuration described in “(1) Configuration of main part” and “(2) Configuration of the hand information detection unit 100”.
  • the operation method of the used electronic device is implemented.
  • hand information registered in advance such as information on the shape pattern of the template 102 described above, information on a designated area set in advance, and the like are stored in the storage unit 513 as a data file handled by the operation program. Is an example of good information.
  • An I / F 514 with another device is an interface for a function to connect and exchange information with other devices, for example, USB (Universal Serial Bus), IEEE 1394 (Institute of Electrical and Electronics Electronic Engineers 1394), card An interface such as a memory slot, IrDA (Infrared Data Association), and Bluetooth (registered trademark) is appropriately provided.
  • the other sensor 515 is a sensor having a detection function or a detection function of a physical quantity necessary for the functional operation of the electronic apparatus 600, and for example, an acceleration sensor, a magnetic sensor, a force sensor, a temperature sensor, a humidity sensor, and the like are provided as appropriate.
  • the speaker 516 has an audio output function.
  • the display unit 517 is a display device that performs an information display function.
  • the touch panel of the operation unit 501 constitutes a part of the display unit 517 in terms of having an information display function.
  • the light emitting unit 518 and the vibration generating unit 519 have a light emitting function and a vibration function for a predetermined notification operation, respectively.
  • the voice capturing unit 520 is configured using a microphone or the like, and has a voice detection function or a sound collection function.
  • Each component of the electronic device 600 described above can be implemented using technology for configuring an existing communication terminal or the like with respect to a mounting structure as hardware.
  • the unique configuration of the electronic device 600 is a configuration in which an operation of the electronic device peculiar to this interface is performed by executing a processing operation defined in the above-described operation program.
  • the operation unit 501, the image capturing unit 502, and the control unit 900 constitute essential parts unique to this interface, and all other components are also specific components as specific examples of the control target of the operation control function performed by the control unit 900. It becomes.
  • a specific form in which the control unit 900 executes the above-described operation program and the electronic device 600 realizes the operation of the electronic device specific to the interface is as described in the following operation description.
  • FIG. 4 is an external view showing an embodiment when the electronic device 600 is operated by an operator's hand.
  • the image capturing area of the electronic device 600 is schematically shown using dotted lines and broken lines together with the external appearance. It is shown.
  • An electronic device 600 shown in FIG. 4 is an electronic device 600 having the above-described configuration shown in FIG. 3 along a specific external configuration example.
  • the touch panel of the operation unit 501 and an image are displayed on the upper surface side.
  • a camera (imaging device) of the capturing unit 502 is provided.
  • Other components such as an antenna 511, a transmission / reception unit 512, a storage unit 513, an I / F 514 with other devices, and the control unit 900 are built in, and do not appear in the appearance.
  • the touch panel of the operation unit 501 also has a function as the display unit 517, and folders stored in the storage unit 513 are represented by icons ("folder 1" to "folder 5" as shown in the figure, "folder 4"). Is hidden by the operator's hand), the operation bar (signs for minimizing, resizing and closing) is shown at the top, and the menu bar (“Edit (E) Display (V) Favorites” below it (A) Tool (T) ”) is displayed.
  • the camera of the image capturing unit 502 is arranged so as to look around the three-dimensional space area above the touch panel surface from the peripheral part of the touch panel, and the imaging range is directed in the direction indicated by the dotted line from the center of the lens as shown in the figure.
  • Images of a three-dimensional space area above the touch panel including a designated area surrounded by a virtual angle of view indicated by a broken line are sequentially captured as an input image in time series.
  • the horizontal direction in the input image coincides with the horizontal direction of the touch panel surface (left and right direction in FIG. 4), and the height direction in the input image is a height direction in which the touch panel surface moves upward. Is consistent with
  • an input image obtained by imaging a three-dimensional space area including the operator's hand is simultaneously captured by the image capturing unit 502 (camera of the image capturing unit 502). ).
  • the input information from the operation unit 501 and the input image information 550 from the image capturing unit 502 are processed inside the control unit 900.
  • the hand detection area designating unit 300 in the control unit 900 determines whether or not the operator's hand is within the designated area. Detection of hand information is effective.
  • the range of the position of the hand image that should be recognized as the hand of the operator who is operating using the touch panel as described above is specified in advance to avoid erroneous recognition of the hand information of the operator. Because.
  • the hand information is not detected because the operator's hand is outside the designated area indicated by the view angle virtual line.
  • the operator's hand at the position indicated by the alternate long and short dash line is very close to the top edge in the window, and it is highly likely that the operation is an erroneous operation. This is because there is nothing other than the operation of the menu bar (the operator's touch panel input indicated by a white small disk in FIG. 4 is an erroneous operation).
  • the operator's hand at such a position is not the hand of the operator who is operating using the touch panel, or even the hand of such an operator is not a hand that the interface should recognize. Therefore, the detection of hand information is not effective. (Even if there is a possibility that it is not an erroneous operation, an operation that can be completed only with detection using the touch panel may be detected by this interface. You do not have to detect it.)
  • the operator's hand when the operator's hand is at the position indicated by the solid line in FIG. 4, the operator's hand is in the designated area indicated by the view angle virtual line. Accordingly, a detection execution instruction is issued from the hand detection area designating unit 300 to the hand information detecting unit 100, and the hand information detection by the hand information detecting unit 100 is validated (shown by a black small disk in FIG. 4).
  • the operator's touch panel input starts detection of hand information because the operator may be about to start some operation using the touch panel.
  • the extraction unit 101 in the hand information detection unit 100 extracts the hand part of the hand-only image from the input image information 550 obtained by imaging the operator's hand.
  • the comparison unit 103 compares the extracted shape information of the hand part with a template 102 indicating a hand shape pattern registered in advance.
  • the shape specifying unit 104 specifies the shape of the shape pattern of the template 102 that is most similar as the shape of the operator's hand. For example, in the template 102, shape patterns such as a “pick” shape, a “release” shape, and a “point” shape are registered in advance as described above, and the shape most similar to the extracted hand portion is registered among them. Is identified, and the identified shape is detected as hand information of the operator.
  • the input image information 550 includes position information of coordinates in the height direction upward from the touch panel surface.
  • the position specifying unit 105 can obtain the height. In specifying the position of the hand in the position specifying unit 105, the position of the center of gravity of the image of the hand calculated from the extracted hand part is specified as the position of the hand (the position of the hand including the position in the height direction is specified), and is specified. The detected position is detected as hand information of the operator.
  • the input image information 550 is information sequentially acquired in time series, not only the moment of touch as in the case of normal input detection on the touch panel, but also the state of the operator's hand (operator before and after).
  • the movement specifying unit 106 specifies the movement of the hand before and after the touch panel input.
  • the hand “sweep” motion, “twist” motion, “throw” motion, etc. are specified in advance as the hand state corresponding to the operation accepted by this interface, and hand information indicating the hand motion is registered in advance.
  • the registered operation is most similar to the operation of the operator's hand.
  • the operator's hand information For an operation that can be identified based only on the movement of the hand position, a template in which information on the movement pattern of the position is registered in the storage device is prepared in advance and the movement specifying unit 106 is similar to the template 102 for the hand shape.
  • the registered movement pattern that is most similar to the movement of the operator's hand is identified and used as the operator's hand information.
  • the movement pattern information is registered in the storage device, and a template to be referred to by the movement specifying unit 106 is prepared in advance, and hand shape pattern information when the hand performs these operations is prepared in advance as a registered shape pattern of the template 102. (Register in advance as hand information specified according to both patterns of hand movement and hand shape).
  • the movement specifying unit 106 specifies the movement pattern most similar to the movement of the operator's hand
  • the shape specifying unit 104 specifies the shape pattern most similar to the shape of the operator's hand at that time.
  • the hand movement corresponding to the movement of the hand position specified by the movement specifying unit 106 and the shape of the hand specified by the shape specifying unit 104 is specified as operator hand information.
  • combining the movement of the hand performed by the movement identification unit 106 and the identification of the shape of the hand performed by the shape identification unit 104 are combined with movements such as “sweeping”, “twisting”, and “throwing”. It is possible to register a hand motion accompanied by deformation as a hand state corresponding to the operation in advance, and the hand motion of the operator can be detected as hand information. However, even if the hand movement is accompanied by movement and deformation, if any of them has characteristics that can be distinguished from other movements, either hand movement or shape can be specified and hand information You may decide to do it. For example, since the “twisting” operation mainly has a feature in the shape of the hand, it may be detected as hand information from the shape specification in the shape specification unit 104.
  • the input image information 550 is sequentially supplied in time series, and accordingly, the shape information of the extracted hand portion is sequentially supplied from the extraction unit 101 to the comparison unit 103. Therefore, the shape specification in the shape specifying unit 104 based on the comparison result is not limited to the specification based on the shape of a single extracted hand part, and a plurality of extracted hand parts are appropriately selected according to the state of the hand of the specific target.
  • the hand information may be detected by specifying the shape (change in the shape of the hand).
  • hand information can be detected as 3D information as well as shape, 2D position and motion.
  • the touch detection unit 200 determines which information on the touch panel based on the input information from the operation unit 501. Detect (recognize) whether the position is touched.
  • the image information of the operator's hand is captured by the camera of the image capturing unit 502.
  • the correspondence between the size of the operator's hand corresponding to the above and the feature image size is known, and the three-dimensional calibration unit 108 performs calibration as described above. Then, using the correspondence relationship, the position in the depth direction of the operator's hand in a state where the touch panel is not touched as described above is estimated, and the three-dimensional position specifying unit 107 is the tertiary of the operator's hand in the air.
  • the original position is specified, and the three-dimensional position information is detected as hand information.
  • the electronic device 600 uses this interface to detect (identify) the operator's hand information as described above, and the control unit 900 accepts an operation corresponding to the hand state indicated by the detected hand information.
  • the control unit 900 controls the operation of other components according to the accepted operation.
  • an operation indicated by the operator's hand is accepted in a specified area that is a three-dimensional space, and the two-dimensional operation mode on the touch panel is expanded to a three-dimensional operation mode.
  • the target electronic device can be operated three-dimensionally within the designated operation area.
  • three-dimensional operations such as “pick” with the hand, “release” from the hand, and “point” with the hand based on the shape specification in the shape specification unit 104 are possible. Based on this, it is possible to perform three-dimensional operations using hand movements (movements) and combine them to perform three-dimensional operations that include “sweep” by hand, “twist” by hand, and “throw” from hand. Operation becomes possible. Based on the three-dimensional position specification in the three-dimensional position specifying unit 107, it is possible to detect and calibrate the three-dimensional position information of the operator's hand.
  • 3D position information of the operator's hand can be detected without touch panel input, the shape, position, and movement of the hand that the operator shows in the 3D space without touching the touch panel.
  • 3D operation such a three-dimensional operation using this interface is referred to as a “3D operation”, and information displayed on the touch panel (operation unit 501 to display unit 517).
  • 3D information operation A series of operations related to the 3D operation for handling the image is referred to as “3D information operation”. For example, based on information about the operator's touch and information on an imaging device such as a camera, not only the information held in the electronic device is operated on the touch panel, but also three-dimensional operations such as pinching, moving, and dropping by hand It becomes possible to control according to.
  • FIG. 5 is a three-dimensional operation flowchart illustrating a processing procedure in which the compressed file decompression application receives a 3D information operation and controls the electronic device 600.
  • 6A and 6B are external views schematically showing an example of the state of the operator's hand and the operation mode of the electronic device 600 during the 3D information operation.
  • the compressed file decompression application program here is included in the operation program installed in the electronic device 600, and the control unit 900 executes it to perform the following processing operations.
  • the meaning of throwing the compressed file at a preset speed will be clarified in the following explanation, but the speed is set in advance in the same manner as the information of the designated area and stored in the storage device (predetermined Speed value or speed range).
  • the touch detection unit 200 detects (recognizes) input information from the operation unit 501, and 3D information operation is started (start of 3D information operation in FIG. 5).
  • the 3D information operation may be started in response to detection of an arbitrary operation that can be regarded as an intention of the operator to perform the 3D information operation, and is not limited to detection of touch panel input touching the touch panel.
  • the operation may be started in response to detection of another operation or the like in the unit 501.
  • step S1 information to be decompressed (file, folder, or some other displayed information) is selected from the information displayed on the touch panel (step S1).
  • the image capturing unit 502 captures an image of the operator's hand at that time, and the touch detection unit 200 detects the touch panel input, and the hand information detection operation described in the above “(1) Detection of hand information” is performed.
  • Start step S2
  • the selection of information may be performed by the first touch panel input when the operator starts the 3D information operation.
  • the hand detection area designating unit 300 sets the effective range of the hand portion indicated by the input image information from the image capturing unit 502 as the designated area (a specific range). Thereby, a hand other than the operation and an operator's hand for the operation are distinguished. Now, since the operator has selected information to be decompressed using touch on the touch panel, the hand is in the designated area. Therefore, detection of hand information is validated, input image information 550 at the time of selecting information is sent to the hand information detection unit 100, and the extraction unit 101 extracts a hand part. Then, the comparison unit 103 compares the shape information of the extracted hand portion with the hand shape pattern in the template 102, and the shape specifying unit 104 specifies the shape of the hand and detects the hand information (step S2).
  • a general information operation mode for extracting a file in a window to decompress a file or transfer it to another device is a drag operation using a pointing device.
  • a suitable example of the corresponding hand state is the “pick” shape of the hand. Therefore, in this interface, the hand state corresponding to the drag operation is specified in advance as the “pick” shape of the hand, and information on the shape pattern is registered in the template 102. Then, the compressed file decompression application determines whether the shape of the hand information detected since the selection of the information is a “pick” shape, and whether the hand information indicates a hand state corresponding to the drag operation. It is determined whether or not (whether or not the operator has performed a drag operation since information selection) (step S3).
  • step S3 the determination result in step S3 is “YES” and the process proceeds to step S4), and the drag operation is performed (“pick”).
  • the movement identifying unit 106 identifies the movement of the operator's hand (which remains in shape). That is, the control unit 900 tracks the subsequent movement of the operator's hand, assuming that the operator's hand is dragging the selected information.
  • the control unit 900 determines whether or not the information dragged by the operator is thrown on the touch panel at a speed higher than a preset speed. Judgment is made (step S5).
  • the control unit 900 executes a process of decompressing the compressed file (step S6), and ends the 3D information operation using the compressed file decompression application (end of 3D information operation). If the operator does not perform a drag operation when selecting information (the determination result in step S3 is “NO”), the compressed file decompression application does not perform any processing and the 3D information operation ends (3D). End of information manipulation).
  • FIG. 6A when the operator picks up “folder 3” displayed with a refrigerator or freezer icon indicating a compressed folder by hand, the control unit 900 is in the broken arrow and the operator's hand.
  • the virtual drag operation of the operator is accepted as a virtual drag operation as indicated by the icon.
  • FIG. 6B when an operation of throwing “Folder 3” dragged by the operator toward the screen on the touch panel is performed, a process of decompressing “Folder 3” of the compressed folder is executed (step S1 described above). To S6).
  • FIG. 6A when the operator picks up “folder 3” displayed with a refrigerator or freezer icon indicating a compressed folder by hand, the control unit 900 is in the broken arrow and the operator's hand.
  • the virtual drag operation of the operator is accepted as a virtual drag operation as indicated by the icon.
  • FIG. 6B when an operation of throwing “Folder 3” dragged by the operator toward the screen on the touch panel is performed, a process of decompressing “
  • the decompression effect of the compressed folder is displayed (the compressed folder is opened and the compressed information is expanded).
  • the touch panel or the display unit 517 performs display capable of visually recognizing this).
  • step S7 it is determined whether or not the information dragged by the operator is dropped (the determination result in step S5 is “NO”, and the process proceeds to the determination in step S7).
  • a preferable example of the hand state corresponding to the operation of dropping the information being dragged is a “release” shape of the hand. Therefore, in this interface, the state of the hand corresponding to the drop operation is specified in advance as the “release” shape of the hand, the shape pattern information is registered in the template 102, and the operator performs the above-mentioned throwing operation. It is determined whether or not the shape of the hand information detected when not performing is a “release” shape, and it is determined whether or not the operator has performed a drop operation (step S7).
  • step S7 the process flow returns to the determination of whether or not the above-mentioned throwing operation has been performed again, and the same process is repeated (the determination result in step S7 is “NO”).
  • step S5 “A” in FIG. 5 is a symbol indicating the joining point of the processing flow, and there is no processing step there. The same applies to certain “A” and “B” symbols.)
  • the control unit 900 determines that the operator has performed a drop operation based on the detected shape of the hand information, and the position where the operator has dropped the information in the drop operation. It is determined whether (location) is an activation position of another application (the determination result in step S7 is “YES” and the process proceeds to step S8).
  • the position where the operator dropped the information is a position on the touch panel surface specified from the hand information of the position detected by the position specifying unit 105 or the three-dimensional position specifying unit 107. If the position on the touch panel surface is the activation position of another application, control unit 900 shifts to an operation of expanding the processing operation to processing using another application according to the program of the application (in step S8). The determination result is “YES” and the process proceeds to step S9). On the other hand, if the position on the touch panel surface is not the start position of another application (the determination result in step S8 is “NO”), the control unit 900 uses the compressed file decompression application without performing any processing. The completed 3D information operation is terminated (end of 3D information operation).
  • the 3D information operation using the compressed file decompression application is performed as described above.
  • the motion hand information specified by the motion specifying unit 106 the speed of the operator's hand.
  • the operator's hand in FIG. 6B is shown as performing such a throwing action. Note that the drag operation corresponding to the “pick” operation by the operator may be effective in the vicinity of the display of an icon or the like not touching the touch panel surface directly.
  • FIG. 7 is a three-dimensional operation flowchart showing a procedure of 3D information operation processing when information is transmitted and received between such electronic devices to transfer files and the like.
  • FIGS. 8, 9A, and 9B are external views schematically illustrating examples of the state of the operator's hand during the 3D information operation and the operation modes of the electronic device 600, the electronic device 601, and other electronic devices. It is.
  • the electronic device 600 here is a transfer information transmission source device (own device) used by an operator as his / her own terminal.
  • the electronic device 601 and other electronic devices are devices (transmission destination devices or information transfer target terminals) used as transfer information transmission destination terminals.
  • the electronic device 601 is an electronic device to which the present interface is applied in the same manner as the electronic device 600 and has the same configuration as that of the electronic device 600 described above.
  • the program for performing the 3D information operation described here is included in the operation program installed in the electronic device 600 and the electronic device 601, and the control unit 900 of each of the electronic device 600 and the electronic device 601 stores the program. When executed, the following processing operations are performed.
  • the 3D information operation is started in response to the operator touching the touch panel or the like (3D information operation start in FIG. 7).
  • information is selected from the information displayed on the touch panel in response to the operator's touch (step S20), and the hand information detection operation described in “(1) Detection of hand information” is started. (Step S21).
  • the processing operations so far are the same as the processing operations described above in “(2) 3D information operation for decompressing a compressed file” (from the start of 3D information operation in FIG. 5 to step S2). However, these processing operations are performed by the electronic device 600, and information selected by the operator is information to be transferred to the electronic device 601 and copied.
  • step S22 the control unit 900 of the electronic device 600 determines whether or not the operator is performing a drag operation (step S22 in FIG. 7). If the operator has not performed the drag operation, the 3D information operation ends (the determination result in step S22 is “NO”, and the process proceeds to the end of the 3D information operation). When the operator is performing a drag operation, the 3D operation is valid (the determination result in step S22 is “YES”, and the 3D operation is determined to be valid and the process proceeds to step S23).
  • the control unit 900 of the electronic device 600 determines whether or not the operation to be performed is a file operation on another terminal (file operation with another terminal) (step S24). In other words, this determination is a determination as to whether or not there is another device that can transfer information from the electronic device 600 at that time, and when the 3D operation becomes valid as described above, the electronic device This is performed according to criteria such as whether or not there is another terminal connected to the device 600 over the network, and whether or not the terminal is a terminal that is qualified to transmit / receive information to / from the electronic device 600.
  • the control unit 900 determines whether there is another target terminal that can be a transmission destination device of communicable information. If there is such another target terminal, control unit 900 of electronic device 600 determines whether or not communication with the target terminal is short-range communication (the determination result in step S24 is “YES”). And go to step S25).
  • step S25 the determination result in step S25 is “YES”
  • step S26 the control unit 900 detects hand information from the input image captured by the camera of the image capturing unit 502.
  • the electronic device 600 When the control unit 900 of the electronic device 601 receives the operator's drop operation, the electronic device 600 indicates that the operator's drop operation has been performed through short-range communication with the other device via the I / F 514. The control unit 900 is notified. In accordance with the presence / absence of the notification from the electronic device 601, the electronic device 600 determines whether or not the camera constituting the image capturing unit 502 of the transmission destination device has captured the operator's drop operation (step S26).
  • step S26 the electronic device 600 communicates with the other device.
  • the control unit 900 transfers a file or the like (information in the storage unit 513) dragged by the operator with the electronic device 600 to the electronic device 601 through short-range communication via / F514 (step S27).
  • this file transfer operation is completed (step S28), the 3D information operation ends (3D information operation end).
  • the operator picks up “folder 5” with electronic device 600 and performs a virtual drag operation indicated by a dashed arrow, and the folder indicated by the dotted line indicated by the virtual drag is shown in FIG.
  • the electronic device 601 of the transmission destination device is dropped as shown on the right side of the inside (if the folder is released within the designated area of the electronic device 601 and a virtual drop operation of a broken line arrow is performed)
  • the drop operation is performed by the electronic device.
  • the control unit 900 of the electronic device 600 confirms and transfers the information of “Folder 5” to the electronic device 601.
  • control unit 900 of the electronic device 601 stores the transferred “Folder 5” information in the storage unit 513 and displays the icon on the touch panel (display unit 517) as shown in the figure.
  • the transfer and copying of the information of “Folder 5” from 600 to the electronic device 601 is completed.
  • the electronic device 600 and the electronic device 601 as a transmission destination terminal are in a network connection state as described above, and the operator performs a drop operation on the transmission destination device based on an image of a camera or the like.
  • the transfer can be executed if it can be determined that the communication has been made, or if there is a communication that conveys some transfer permission. Therefore, the terminal of the transmission destination is not necessarily provided with the configuration of this interface as long as the communication for transmitting the transfer permission is possible, and is not limited to the electronic device 601 described above.
  • the subsequent operation is not a file operation on the other terminal.
  • the processing operation shifts to an operation for developing the processing using another application (the determination result in step S24 is “NO” and the processing proceeds to step S29).
  • the determination of the drop operation based on the image of the camera of the transmission destination device (operator in step S26) If the operator cannot confirm the drop operation (determination result is “NO”), the 3D information indicates that the file transfer operation is completed without performing the file transfer. The operation ends (the process proceeds from step S26 to step S28, and the 3D information operation ends).
  • the short-range communication is distinguished from the other communication, as shown in FIG. 8, the transmission destination device (electronic device 601) and the other device at a short distance.
  • the transmission destination device electronic device 601
  • the other device at a short distance.
  • This is a method for distinguishing between the above and further limiting the communication range to be within the reach of the operator's hand, and specifying the destination device without performing authentication or other procedures. This is because information transfer such as a file can be executed.
  • the control unit 900 of the electronic device 600 determines whether or not the connection with the transmission destination device is permitted (information necessary for transfer and copying of files and the like). Whether or not transmission / reception is possible is determined (the determination result in step S25 is “NO” and the process proceeds to step S30). Then, if the connection with the destination device is permitted, remote file control for remotely performing the file control of the destination device from the electronic device 600 is started (the determination result in step S30 is “YES”). Proceed to step S31).
  • the electronic device 600 determines whether or not the operator has performed a drop operation (step S32), and the drop destination is a remote destination device (a destination device that displays screen information of the destination device). Whether or not to transfer the file is determined based on the two determinations (checks) of the determination (step S33) of whether or not it is a drop to property. That is, the control unit 900 of the electronic device 600 that is the operator's own device determines whether or not the operator has performed a drop operation based on input image information from the camera of the image capturing unit 502.
  • the control unit 900 of the electronic device 600 displays the information in the window of the transmission destination remote screen where the position where the information is dropped in the drop operation opens the properties of the transmission destination device (information held by the transmission destination device). In the window for remote control).
  • the control unit 900 of the electronic device 600 transfers the information dropped by the operator to the transmission destination device (the determination results in step S32 and step S33 are When both are “YES”, the process proceeds to step S27).
  • the 3D information operation ends (3D information operation end).
  • the operator picks up “folder 5” with electronic device 600, performs a virtual drag operation indicated by an upward broken arrow, and displays the folder indicated by the dotted virtual line as a destination remote screen.
  • the control unit 900 of the electronic device 600 transfers the information of “Folder 5” to the transmission destination device which is another electronic device according to the drop operation.
  • the destination device stores the transferred information of “Folder 5” in the storage unit and displays the icon of “Folder 5” on the display unit as shown in the figure.
  • the transmission destination device here may be any device that is permitted to be connected to the electronic device 600, and does not necessarily have the same configuration as the electronic device 600 or the electronic device 601.
  • the communication with the destination device is not near field communication
  • the image taken by the camera of the destination device is the same as in the case of near field communication. It is also possible to recognize the operator's drop operation and perform the same 3D operation (operation to transfer and copy upon receiving a notification from the destination device).
  • 3D operation can be performed by performing an operation using the remote screen of the destination device as described above. However, it is a precondition that authentication with a transmission destination device on the network is achieved.
  • step S30 the determination result in step S30 is “NO”. Then, the process proceeds to step S28 to end 3D information operation.
  • remote file control if the operator does not perform the drop operation, the process is suspended until the drop operation is performed (the determination result in step S32 is “NO”, and the same determination is made by returning to “B”). repetition). Then, when the operator drops information at a position that is not within the window of the destination remote screen, the control unit 900 shifts to an operation for expanding the processing operation to processing using another application according to the position (step) The determination result in S33 is “NO”, and the process proceeds to step S29 after “A”.)
  • the 3D information operation for transmitting / receiving information between the electronic device 600 and the other electronic device 601 and transferring and copying information such as files is performed as described above, and information is exchanged between a plurality of electronic devices.
  • an operation system for an electronic device that performs 3D operation can be configured using this interface.
  • the electronic device other than the electronic device 600 that is the transmission source does not necessarily have all the configuration of the interface as described above, and receives and stores or displays information from the electronic device 600. Can be used as appropriate.
  • the operator may arbitrarily set the communicable distance.
  • a range that can be reached by the user or a range in which there is an electronic device that is appropriately used around the user may be set as necessary.
  • the distance that can be communicated with other devices using the I / F 514 may be set to be within 1 m (the distance that can be communicated using the antenna 511 and the transmission / reception unit 512) It is good.)
  • this interface it becomes possible to extend the interface using the touch panel that has been operated two-dimensionally three-dimensionally as described above.
  • FIG. 10 is a table listing hand information detected (recognized) from the input image information 550 and operation examples corresponding to the respective hand information and function examples realized by the operation in this interface. As shown in this figure, for example, ⁇ According to hand information of “Detect hand shape”, “Pick” shape is dragged, “Free” shape is dropped, “Twist” shape is locked, “Twist” shape is accepted as 3D operation such as compression or selection be able to.
  • the hand information can correspond to various operations by combining information on the position and movement of the three-dimensional hand and the shape of the hand.
  • 3D information operation using the compressed file decompression application is an example of information operation in the electronic device of the operator himself.
  • 3D information operation using a file compression application for compressing information such as a file as shown in FIG.
  • a 3D information operation using a file compression application when an operator selects information such as a file to be compressed and performs an operation of twisting (or twisting) a hand at a portion where an icon of the selected information is displayed, The control unit 900 compresses the information indicated by the icon into a compressed file.
  • Icon Shadow Display In this interface, when the displayed icon is virtually picked up and dragged, the subsequent three-dimensional position information of the operator's hand is detected as hand information. It is assumed that the icon is virtually moving in the three-dimensional space according to the position of the hand information. Therefore, when the electronic device 600 provides a shadow on an icon displayed on the screen of the touch panel and moves the icon three-dimensionally based on hand information, the electronic device 600 displays the icon in the screen for movement in the plane of the touch panel. May follow and move, and the distance between the shadow of the icon and the icon may be changed for display in the height direction of the touch panel.
  • FIG. 12A and FIG. 12B are diagrams showing examples of such icon shadow display forms.
  • a shadow is displayed on the screen of the touch panel with respect to the dotted folder virtually dragged by the operator.
  • FIG. 12B when an operator moves a hand up and down, the distance between an icon and its shadow is changed.
  • this interface as a device to make 3D operation look more natural, when the icon is virtually picked up, the distance between the icon displayed on the screen and its shadow is changed, and the icon is displayed. It is also possible to cause the electronic device 600 to produce an effect that lifts up the screen, and a more realistic operational feeling can be reproduced.
  • the basic method of moving the shadow is to move away from the icon as the operator moves his hand up (the icon is lifted higher), but the brightness distribution of the input image indicates the direction in which the light shines more. From the above, it may be adjusted as appropriate by changing the size and shape of the shadow.
  • the transmission source electronic device 600 performs remote file control of the transmission destination device.
  • an authentication technique for such remote file control as shown in FIG. 13, an identification mark is transmitted in advance to a transmission destination terminal (transmission destination device), and the identification mark is displayed by the operator.
  • an imaging device not shown
  • an external camera provided appropriately in the terminal (electronic device 600)
  • knocking a target transmission folder etc.
  • the identification mark is image information displayed on the display unit of the transmission destination terminal as shown in the figure, and this is detected by imaging with an imaging device of the operator's terminal. Authentication is performed according to a mode in which identification information common to both terminals of the operator is acquired and information is mutually exchanged. Therefore, although a two-dimensional code is shown as an example of an identification mark in FIG. 13, the present invention is not limited to this, and an image that can be used as identification information for performing authentication that enables remote control of other devices according to such a form. Any information may be used.
  • the imaging device that constitutes the image capturing unit 502 is not limited to a camera, and is not limited as long as it can capture image information, and an operation at the time of operation using the operation unit 501 (touch panel thereof). It may be any one that is arranged at an angle at which a region where a person's hand enters can be seen (see FIGS. 4 and 6A) and can acquire image information of the predetermined region.
  • the imaging apparatus may be configured using a plurality of cameras, and the angle of view of a range in which the image is captured is adjusted to an angle at which an area where the operator's hand enters during the operation is captured. It may be what is done. In the angle-of-view adjustment control, the angle of view may be adjusted to an angle at which the designated area appears based on the designated area set by the hand detection area designating unit 300.
  • the target electronic device is a mobile phone
  • a camera mounted on the opposite side of the display screen that captures an object other than the user etc.
  • An imaging device that captures a plurality of angles of view with a plurality of cameras is generally installed. Therefore, at least one of the plurality of cameras is arranged at an angle at which an area where the operator's hand enters can be captured, or at least one of the angles of view of the camera at the angle at which the area is captured.
  • the image capturing unit 502 may be configured by performing control to adjust the image, or by arranging each camera so that the region is captured by a plurality of cameras or performing angle-of-view adjustment control.
  • the image capturing unit 502 described above includes the coordinates of the height direction in which the image captured at the angle of view is directed upward from the touch panel surface. However, this is because the input image includes a height of the operator's hand. This is because position information in the vertical direction is included. The position information in the height direction is not included in the input image when the center line from the imaging device to the image capture area is perpendicular to the touch panel surface. However, even if the center line is perpendicular to the touch panel surface and the position information in the input image does not include position information in the height direction, the size of the extracted hand portion that appears in the input image is The height of the operator's hand can be specified based on the size. Therefore, as a form of the image capturing unit 502, it is not essential that the captured image includes coordinates in the height direction from the touch panel surface upward.
  • This interface can be implemented as a form in which part or all of the interface is configured as hardware separate from the target electronic device and added to the configuration of the target electronic device.
  • all electronic devices have a functional operation control unit and an information storage unit in order to control their functions. Therefore, if the processing operation executed by the control unit to perform the operation of the electronic device using this interface is defined in the operation program and stored in the storage unit, the hardware of the existing electronic device is used.
  • Part or all of the interface can also be realized as software.
  • the operation unit 501 and the image capturing unit 502 need to be provided as appropriate in an electronic device that does not have a corresponding hardware configuration. However, if it is an electronic device having an imaging device such as a touch panel and a camera, they can be controlled by software to be the operation unit 501 and the image capturing unit 502, and if necessary, their arrangement can be adjusted appropriately. That's fine.
  • control unit 900 shown in FIG. 1 does not necessarily have the hand information detection unit 100, the touch detection unit 200, and the hand detection region designation unit 300 inside.
  • the hand information detection unit 100, the touch detection unit 200, and the hand detection region designation unit 300 are provided outside the control unit 900 and relate to functions other than the hand information detection unit 100, the touch detection unit 200, and the hand detection region designation unit 300.
  • the control unit 900 may be configured by a part, and the control unit 900 may control the hand information detection unit 100, the touch detection unit 200, and the hand detection region designation unit 300.
  • the present invention can be used for all electronic devices that exchange information such as mobile phones, PDAs (Personal Digital Assistants), and notebook PCs (Personal Computers). Furthermore, the present invention is applicable to any electronic device that can use a touch panel as an input device.
  • Hand information detection unit (hand information detection means) 200 Touch detection unit (touch detection means) 300 Hand detection area designation part (hand detection area designation means) 101 Extraction unit (extraction means) 102 Template 103 Comparison unit (comparison means) 104 shape specifying part (shape specifying means) 105 Position specifying unit (position specifying means) 106 Motion identifying unit (motion identifying means) 107 3D position specifying unit (3D position specifying means) 108 3D calibration unit (3D calibration means) 501 Operation unit (operation means) 502 Image capture unit (image capture means) 511 Antenna (communication means) 512 Transmission / reception unit (communication means) 513 Storage unit 514 I / F (communication means) with other devices 517 Display unit 600, 601 Electronic device 900 Control unit (control unit)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 タッチパネルでの二次元的な操作形態を三次元的なものに拡張して三次元操作を実現する。電子機器のインターフェースは、タッチパネルを有する電子機器の操作手段と、タッチパネル上方の空間の画像を取り込む画像取り込み手段と、画像取り込み手段が取り込んだ画像から特定される電子機器の操作者の手の状態を示す手情報を検出する手情報検出手段と、タッチパネルでの操作者のタッチパネル入力を検出するタッチ検出手段と、手情報検出手段が検出した手情報とタッチ検出手段が検出したタッチパネル入力に基づいて電子機器の機能を制御する制御手段とを有する。

Description

電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
 本発明は、タッチパネルを利用する電子機器の操作技術に関する。
 タッチパネルは、電子機器の機能を制御するために操作者が手で示す操作を受け付ける代表的な入力装置であり、電子機器の形態等に応じて出力装置としての機能も兼ね備え、タッチスクリーンとも呼ばれることがある。特許文献1は、かかるタッチパネルを利用して被制御装置を操作するタッチパネルリモコンを開示している。このタッチパネルリモコンでは、操作者の指がタッチパネルに接触し、タッチパネル上でスライドし、あるいは、タッチパネルから離れることを検出して、対応する制御信号を生成して被制御装置を制御し、被制御装置における機能の起動と終了、パラメーター値の調整、文字・数字の入力等の操作を行うものとしている。このようにタッチパネルのパネル面内で操作者の手が示した操作を検出し、それに応じて操作対象の電子機器を制御する技術は、タッチパネルに予定された通常の機能を利用する一般的な電子機器の操作技術であり、様々な電子機器において広く実用に供されている。
 一方、特許文献2や特許文献3は、タッチパネルを利用しない形態で操作者の手が示す操作を受け付ける技術を開示している。特許文献2の車載機器用インターフェースは、車内乗員を撮像した画像から手の形状等を特定し、それに対応付けられた車載機器の動作状態を切り替えている。また、特許文献3の空間操作入力装置は、操作者の手に持たれて空中で動かされた時の検出加速度から動作パターンを特定し、それに対応する送信パターン・コードに応じて家電機器に予め決められた動作を行わせている。なお、特許文献2にあるような人物の画像から手の状態を特定する技術は、左右2台のテレビカメラで撮影した立体画像データから手話動作を認識する特許文献4の手話認識装置でも採用している。
日本特開2008-042481号公報 日本特開2005-178473号公報 日本特開2006-323599号公報 日本特開平11-174948号公報
 ところで、タッチパネル(ないしタッチスクリーン)は、操作者の指先が触れることに起因して生じる抵抗膜式接点や静電容量の検出、表面弾性波(SAW(Surface Acoustic Wave))の変化の検出などの方式を操作原理として使用している。すなわち、タッチパネルは、操作を受け付ける原理そのものがタッチすること(操作者の手がパネル面に接触すること)を前提にしている。
 したがって、タッチパネルにおいて操作者が手で示す操作は、パネル面内を指先で指し示し、その二次元平面内の位置を指定する二次元的な操作に限られ、操作時の操作者の手の位置と移動もパネル面に平行な二次元平面内に制限される。このため、タッチパネルを利用した電子機器の操作では、操作者が空中で自身の手を三次元の各方向に動かして所望の操作を示すような三次元的な操作をすることはできない。
 上述した特許文献2や特許文献3の技術では、操作者の手の動きが特定の二次元平面内には制限されないが、タッチパネルを利用して電子機器を操作する技術ではなく、操作者が自身の置かれた状況下の三次元空間中で視覚的な情報は何も捉えずに手を動かすため、タッチパネルを利用した操作と連動するような操作形態を採用する余地がない。タッチパネルは、その表示に伴う視覚的な情報との相互作用に基づいて電子機器の直感的な操作ができる操作手段であるから、その操作形態を三次元的なものに拡張できれば、より操作性の優れた電子機器のインターフェースを実現することができる。
 本発明は、このような事情に鑑みてなされたものであり、タッチパネルを利用する電子機器の操作において、特定の二次元平面内には制限されない三次元空間中で操作者の手が示す操作を受け付けることを可能にし、タッチパネルでの二次元的な操作形態を三次元的なものに拡張して三次元操作を実現することができる電子機器の操作技術を提供することを目的としている。
 かかる目的を達成するため、本発明に係る電子機器のインターフェースは、タッチパネルを有する電子機器の操作手段と、前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、前記画像取り込み手段が取り込んだ前記画像から特定される前記電子機器の操作者の手の状態を示す手情報を検出する手情報検出手段と、前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する制御手段とを有している。
 本発明に係る電子機器は、タッチパネルを有する操作手段と、前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、前記画像取り込み手段が取り込んだ前記画像から特定される操作者の手の状態を示す手情報を検出する手情報検出手段と、前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて電子機器自身の機能を制御する制御手段とを有している。
 本発明に係る電子機器の操作方法では、タッチパネルを利用して電子機器の操作者の入力を受け付け、前記タッチパネル上方の空間の画像を取り込み、取り込んだ前記画像から特定される前記操作者の手の状態を示す手情報を検出し、前記タッチパネルでの前記操作者のタッチパネル入力を検出し、検出した前記手情報と検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する。
 本発明に係る電子機器の操作プログラムは、タッチパネルを利用して電子機器の操作者の入力を受け付ける入力機能と、前記タッチパネル上方の空間の画像を取り込む画像取り込み機能と、前記画像取り込み機能を利用して取り込んだ前記画像から特定される前記操作者の手の状態を示す手情報を検出する手情報検出機能と、前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出機能と、前記手情報検出機能を利用して検出した前記手情報と前記タッチ検出機能を利用して検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する制御機能とをコンピュータに実現させるための電子機器の操作プログラムである。
 本発明に係る電子機器の操作システムは、通信可能に接続された第1の電子機器と第2の電子機器を有し、前記第1の電子機器は、タッチパネルを有する操作手段と、前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、前記画像取り込み手段が取り込んだ前記画像から特定される操作者の手の状態を示す手情報を検出する手情報検出手段と、前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて前記第1の電子機器の通信機能を制御する制御手段とを有し、前記第1の電子機器が前記第2の電子機器と情報の送受信をする。
 本発明によれば、タッチパネル上方の空間の画像から特定された操作者の手の状態を示す手情報と操作者のタッチパネル入力に基づいて電子機器の機能が制御される。このため、タッチパネル面の二次元平面における操作者の入力のみならず、タッチパネル上方の空間で捉えられた操作者の手の状態に応じた電子機器の制御が行われ、操作者の手が三次元の空間の中で示した状態が電子機器を制御するための操作として受け付けられる。したがって、タッチパネルを利用する電子機器の操作において、特定の二次元平面内には制限されない三次元空間中で操作者の手が示す操作を受け付けることが可能となり、タッチパネルでの二次元的な操作形態を三次元的なものに拡張して三次元操作を実現することができる。
本発明の一実施形態に係る電子機器のインターフェースの要部構成を示したブロック図である。 同インターフェースにおける手情報検出部100の具体的な構成を示した機能ブロック図である。 同インターフェースを適用した電子機器600の全体構成を示した図である。 操作者の手で電子機器600を操作するときの一形態を示した外観図である。 同インターフェースが圧縮ファイル解凍アプリケーションを利用した3D(Dimensional)情報操作を受け付けて電子機器600を制御する処理の手順を示したフローチャートである。 図5の3D情報操作時の操作者の手の状態と電子機器600の動作形態の例を模式的に示した外観図である。 図5の3D情報操作時の操作者の手の状態と電子機器600の動作形態の例を模式的に示した外観図である。 電子機器600と他の電子機器601等との間で情報を転送してコピーする場合の3D情報操作の処理の手順を示したフローチャートである。 図7の3D情報操作時の操作者の手の状態と電子機器600及び電子機器601の動作形態の例を模式的に示した外観図である。 図7の3D情報操作時の操作者の手の状態と電子機器600及びその他の電子機器の動作形態の例を模式的に示した外観図である。 図7の3D情報操作時の操作者の手の状態と電子機器600及びその他の電子機器の動作形態の例を模式的に示した外観図である。 同インターフェースにおける手情報とそれぞれの手情報に対応させた操作例ないし操作が実現する機能例を列挙した図である。 ファイル圧縮アプリケーションを利用した3D情報操作の形態の例を示した図である。 タッチパネルの画面内に表示されるアイコンに影を設ける形態の例を示した図である。 タッチパネルの画面内に表示されるアイコンに影を設ける形態の例を示した図である。 電子機器600が送信先機器のリモートファイル制御をする場合の認証形態とノック動作を利用した送信フォルダの転送形態の例を示した図である。
<構成>
(1)要部構成
 以下、図面を参照しつつ本発明の実施形態について説明する。図1は、本発明の一実施形態に係る電子機器のインターフェースの要部構成を示したブロック図である。本インターフェースは、その適用対象である電子機器(以下「対象電子機器」という。)において、操作者の手でした操作を受け付けて当該対象電子機器の機能を制御する部分の構成に係る。したがって、図1の構成は、対象電子機器の構成の一部に相当し、当該一部である図示の操作部501、画像取り込み部502及び制御部900を備えて本インターフェースの要部が構成されている。
 操作部501は、タッチパネル等の入力装置で構成された対象電子機器の操作入力装置であり、必須の入力装置としてタッチパネルを有し、対象電子機器の形態に応じて押しボタン式のキースイッチ等の他の入力装置を適宜備える。操作部501は、制御部900に接続されており、操作者が手でしたタッチパネル等の操作に応じた入力情報を制御部900に供給する。なお、タッチパネルは、タッチスクリーンと呼ばれることもあるが、ここでは両者を総称してタッチパネルという(したがって、ここにいう「タッチパネル」は、タッチスクリーンと呼ばれるものも含む。)。
 画像取り込み部502は、操作者が操作部501を利用する操作をするときに、当該操作者の手が写り込む所定領域の画像を取り込むカメラ等の撮像(ないし撮影)装置である。特に、画像取り込み部502は、操作部501のタッチパネルを利用する操作時に操作者の手が位置するタッチパネル上方の三次元空間領域を前記所定領域として、画像を取り込む範囲の画角が当該三次元空間領域を写す角度となっており、かつ、その画角に対応して取り込まれる画像がタッチパネル面から上方へ向かう高さ方向の座標を含むものとなるように配置されている。画像取り込み部502は、制御部900に接続されており、前記所定領域の画像を時系列に順次取り込み、それらの画像情報を制御部900への入力画像情報として順次供給する。
 制御部900は、対象電子機器本体の制御部である。制御部900は、対象電子機器の内部での情報処理に係る演算処理を実行するCPU(Central Processing Unit)等の演算装置、対象電子機器の起動から各種動作遂行に必要なシステム情報等が記憶されたROM(Read Only Memory)等の不揮発性メモリと、演算装置の作業用記憶領域として更新可能に情報を記憶するRAM(Random Access Memory)やキャッシュ・メモリ等の半導体メモリとで構成された記憶装置、及び対象電子機器の各部の動作制御や外部との情報授受を司る制御装置等を有しており、本インターフェースを含む対象電子機器全体の機能を制御する。
 本インターフェースは、上述の制御部900に操作部501と画像取り込み部502とが接続された構成を要部とし、操作部501を利用して操作者がした操作と、画像取り込み部502を利用して取り込まれた画像中の操作者の手の状態(手の形状、位置、動き等)から把握される操作との双方を操作者の手でした操作として受け付け、対象電子機器の機能を制御する。したがって、制御部900において本インターフェースの要部を構成するのは、操作部501からの入力情報と画像取り込み部502からの入力画像情報に基づいて操作者の手でした操作を受け付ける情報処理機能に係る部分と、その情報処理機能を利用して受け付けた操作に従い、対象電子機器の形態に応じて設けられる他の構成要素の動作を制御する動作制御機能に係る部分である。これらの部分のうちの情報処理機能に係る部分の構成として、制御部900は、前述の演算装置や記憶装置等を利用して実現される図示の手情報検出部100、タッチ検出部200及び手検出領域指定部300を内部に有している。
 手情報検出部100は、画像取り込み部502から供給される入力画像情報から操作者の手の形状、位置、動き等の手の状態を識別ないし認識し、操作者の手の状態を示す手情報を検出する(この手情報検出部100の具体的な構成は後述する。)。
 タッチ検出部200は、操作部501から供給される入力情報から操作者のタッチパネル入力を識別ないし認識し、操作者が手で示した(指先で触れた)タッチパネル面内の位置情報を検出する。タッチ検出部200は、検出した位置情報を示すタッチ検出情報を手情報検出部100に供給する。
 手検出領域指定部300は、手情報検出部100が手情報の検出をする領域を指定する。手検出領域指定部300は、手情報の検出をする予め設定された指定領域と画像取り込み部502からの入力画像情報に基づき、操作者の手が指定領域内にある場合に検出実行の指示を手情報検出部100に発して手情報の検出を有効とし、検出される手情報に基づいて他の構成要素の動作を制御部900で制御することができるようにする。
 画像取り込み部502は、上述のように操作部501のタッチパネルを利用する操作時に操作者の手が位置する所定領域の画像を取り込むように配置されている。したがって、手情報の検出をする指定領域としては、前記所定領域を予め設定しておくことにしてもよい(ただし、前記所定領域は三次元空間の領域であり、指定領域も現実の世界では三次元空間の領域である。それらの領域は、取り込まれる画像においては共に二次元平面に投影された領域となるため、画像中の領域としてはそれぞれの二次元平面への投影領域で取り扱われるが、その二次元平面の座標系には、タッチパネル面から上方へ向かう高さ方向の座標軸が含まれる。)。この場合の画像取り込み部502は、手情報検出部100が手情報の検出をする指定領域だけを撮像する撮像装置ということになり、前記所定領域が指定領域と一致するので、手検出領域指定部300は必須の構成ではなくなる。
 しかし、カメラ等の撮像装置の画角には、その撮像装置の性能等に応じた広がりがあるため、タッチパネル上方の三次元空間領域を前記所定領域としても、タッチパネルを利用する操作をしていない操作者の手(あるいは、対象電子機器の操作とは関係のない他人の手や手のような外観の他の物体等)が写り込むこともあり得る。そこで、手検出領域指定部300では、入力画像情報が示す入力画像の全領域内(前記所定領域の二次元平面への投影領域内)において、タッチパネルを利用して操作をしている操作者の手であると認識すべき手の画像の位置の範囲を予め指定領域として設定し、操作者の手の位置(入力画像中の手の位置)が予め設定された指定領域内に存在する場合に、手情報検出部100を利用した手情報の検出を有効とし、又は制御部900での動作制御機能の発動を許可する。このように取り込み画像中で操作時の操作者の手と認めるべき位置の範囲を指定することで、操作者の手情報の誤認識を避けることができる。また、電子機器に搭載される既存のカメラを撮像装置として利用する場合には、このように手情報の検出をする指定領域を前記所定領域とは別に設定し、前記所定領域が指定領域を含むようにして、画像取り込み部502が所定領域を撮像するように配置されたものとする方が実用的な構成となる。
 ここで、指定領域の設定は、制御部900に画像取り込み部502からの入力画像情報を参照させつつ操作者が操作部501から適宜設定指示入力を与えて予め行うものとしてもよい。もっとも、本インターフェースでは、受け付ける操作に対応する手の状態を予め特定しておくので(この特定の詳細は後述する。)、その特定した操作に対応する手の状態として許容する手の動作範囲を指定領域として予め設定することにしてもよい。かかる指定領域は、操作に対応する手の状態、撮像装置の画角、撮像装置とタッチパネルとの相対的な位置関係等に基づいて幾何学的に決定することができる。設定した指定領域は、制御部900の記憶装置ないし対象電子機器内の他の記憶装置(例えば、図3に示した記憶部513)に記憶しておき、手検出領域指定部300が設定した指定領域を参照して入力画像中の手の位置が指定領域内に存在するか否かを判断する。
 なお、手の位置が指定領域内に存在するか否かの判断をするには、入力画像情報が示す指定領域内の画像に人間の手であると識別ないし認識できるものが含まれているか否かを判断すればよい。したがって、手検出領域指定部300では、入力画像情報に基づく所定の閾値演算や加減演算等の情報処理(例えば、人間の手に相当する一定の範囲内の輝度や色を有する画素が指定領域内に所定数以上含まれているか否か、指定領域内の画像に含まれる画素の輝度ないし色がほぼ一定の領域が人間の手の色か否か、かかる領域の面積が指定領域内にある人間の手の大きさに相当するか否か、かかる領域に指のような棒状ないし指先のような弧状のエッジがあるか否か、そのようなエッジが5つあるか否か等)を実行して手の位置が指定領域内に存在するか否かを判断すればよく、手情報検出部100での手情報の検出のように具体的な手の形状等の状態を特定することまではしない。
 制御部900は、上述のような手情報検出部100、タッチ検出部200及び手検出領域指定部300を有し、手情報検出部100とタッチ検出部200との検出結果に基づいて対象電子機器の機能を制御する。すなわち、本インターフェースでは、操作者が操作部501のタッチパネルを利用した操作入力をすると、そのタッチパネル入力をタッチ検出部200が検出する。また、操作者がタッチパネルの面上ないしその上方の三次元空間内で手を動かし、自身の手を予め特定された操作に対応する状態にすると、その手の状態の手情報を画像取り込み部502からの入力画像情報に基づいて手情報検出部100が検出する。さらに、それらのタッチパネル入力と手情報とに基づき、操作者の手が示した操作に対応する対象電子機器の機能制御を制御部900が実行し、上述の動作制御機能に係る部分を実現する。そして、手情報の検出と対象電子機器の機能制御は、操作者の手の位置が予め設定された指定領域内に存在すると手検出領域指定部300が判断した場合に可能となるように規制され、手情報の誤検出と対象電子機器の誤動作が回避される(つまり、誤操作が防止される。)。なお、制御部900の動作制御機能に係る部分については、制御対象の構成要素が対象電子機器の形態に応じて異なるため、図1中には具体的な明示をしていないが、後で制御対象の具体例を挙げて説明する。
(2)手情報検出部100の構成
 次に、上記要部構成における手情報検出部100の具体的な構成について説明する。図2は、手情報検出部100の具体的な構成を示した機能ブロック図である。この図に示すように、手情報検出部100に対しては、画像取り込み部502からの入力画像情報550が送られると共に、タッチ検出部200からのタッチ検出情報551が供給される。手情報検出部100は、それらの入力画像情報550とタッチ検出情報551から手情報を検出するための構成として、抽出部101、テンプレート102、比較部103、形状特定部104、位置特定部105、動き特定部106及び3次元位置特定部107を内部に有している。3次元位置特定部107の中には、さらに3次元校正部108がある。
 抽出部101は、画像取り込み部502からの入力画像情報550を受け、それが示す入力画像において手が撮像された領域である手部分を抽出する。抽出部101は、入力画像を構成する各画素の輝度及び色の情報のうち、いずれか一方又は双方の情報を手部分の抽出用情報とし、入力画像情報550において抽出用情報が予め設定された許容範囲内(人間の手と認め得る範囲内)にある領域を手部分と判断して、入力画像に基づく手部分を抽出する。抽出する手部分は、手のみの部分の領域の画像であって、それ自体の画像情報が手の形状、大きさ、色等の情報を含んでいる。抽出部101は、かかる抽出手部分の形状情報を比較部103に供給すると共に、抽出手部分の画像情報とその抽出位置の情報(入力画像内での手部分の領域の位置情報)を位置特定部105及び3次元位置特定部107に供給する。
 テンプレート102は、受け付ける操作に対応する手の形状を示す形状パターンの情報を予め記憶装置に記憶して登録した手の形状パターンの辞書ないしデータベースである。例えば、制御部900の記憶装置ないし対象電子機器内の他の記憶装置に手の形状パターンの辞書ないしデータベースを予め構築し、それを制御部900が参照して手情報検出部100内のテンプレート102として実現する。
 本インターフェースは、指定領域の三次元空間内で操作者が自身の手の状態を利用して示した操作を対象電子機器の機能制御のための操作として受け付ける。そこで、本インターフェースでは、その受け付ける各操作に対応する手の状態を予め特定し、それらの手の状態を示す手情報を制御部900が保持する(あるいは、他の記憶装置に保持させて制御部900が参照する。)。テンプレート102は、かかる手の状態のうち、手の形状を示す手情報を保持しており、その手情報として手の形状パターンの情報を保持している。例えば、単純な手の形状としては、“摘む”形状、“放す”形状、“指す”形状等が挙げられる。それらの手の形状をそれぞれ所定の操作に対応する手の状態として予め特定し、それぞれの手の形状を示す形状パターンの情報を予め記憶装置に登録しておくことで、操作に対応する手の形状を参照するための辞書ないしデータベースとなるテンプレート102が予め用意される。
 比較部103は、抽出部101からの手部分の形状情報とテンプレート102にある形状パターンの情報に基づき、入力画像から抽出された抽出手部分の形状と予め用意されたテンプレート102の各形状パターンとを比較し、比較結果を形状特定部104に供給する。比較部103での比較は、抽出手部分の形状とテンプレート102の各登録形状パターンの形状とが類似しているか否かの類否判定をするための比較である。比較部103は、抽出手部分の形状に対するそれぞれの登録形状パターンの類似度を示す情報(誤差ないし差分、相関値等)を比較結果として形状特定部104に供給する。
 形状特定部104は、比較部103からの比較結果に基づき、抽出手部分の形状と最も類似しているテンプレート102の形状パターンを判定する。すなわち、形状特定部104は、予め登録されている手の形状のうちで抽出手部分の形状と最も類似している形状を操作者の手の形状として特定(識別)し、その特定した手の形状を操作者の手情報とする。これにより、操作者の手の状態を示す手情報として操作者の手の形状を示す手情報が検出される。なお、類似度に閾値を設定して登録形状パターン中に類似する形状がないと判定したりすることは必要に応じて適宜行うものとしてよい。
 位置特定部105は、抽出部101からの抽出手部分の画像情報と抽出位置の情報に基づき、抽出手部分の重心等を操作者の手の位置として特定し、その特定した手の位置を操作者の手情報とする。これによって特定される操作者の手の位置は、入力画像内での位置であり、タッチパネル上方の三次元空間領域を画像取り込み部502の取り込み画像に投影した二次元平面における位置である。したがって、その位置情報は、タッチパネル面から上方へ向かう高さ方向の位置情報を含んでいる。さらに、画像取り込み部502の撮像装置がタッチパネルの周縁部からタッチパネル面より上の指定領域(三次元)を見渡すように配置され、入力画像中の水平方向が撮像装置側に対するタッチパネル面の水平方向と一致し、かつ、入力画像中の高さ方向がタッチパネル面から垂直に上方へ向かう高さ方向と一致する場合には、その位置情報は、指定領域(二次元)における水平方向と高さ方向の位置を示すものとなる。位置特定部105は、かかる操作者の手の位置の位置情報を動き特定部106と3次元位置特定部107に供給する。なお、位置特定部105での手の位置特定については、抽出画像から画像の重心位置を割り出し、重心を解析対象物の位置とする一般的な画像処理技術を利用して行うこともできる。
 動き特定部106は、位置特定部105からの位置情報に基づき、位置特定部105が特定した手の位置の時系列的な変化を操作者の手の動きとして特定し、その特定した手の動きを操作者の手情報とする。画像取り込み部502は、時系列に順次画像を取り込んで入力画像情報550を供給するので、それに伴って抽出部101が抽出手部分の画像情報等を位置特定部105に順次供給し、動き特定部106には位置特定部105からの位置情報が順次供給されてくる。動き特定部106は、それらの順次供給されてくる位置情報に基づいて操作者の手の位置の時系列的な変化を操作者の手の動きとして特定する。位置の時系列的な変化は速度に相当するので、動き特定部106は、操作者の手の速度(動いた軌跡とその速さ)を操作者の手の動きとして特定し、手の速度を操作者の手情報としてもよい。
 3次元位置特定部107は、抽出部101からの抽出手部分の画像情報と抽出位置の情報、位置特定部105からの位置情報、及びタッチ検出部200からのタッチ検出情報551に基づき、操作者の手の三次元空間内における位置を特定し、その特定した位置を操作者の手情報とする。これによって特定される操作者の手情報は三次元位置情報である。タッチパネル入力があったときには、その時点でタッチ検出部200の検出した位置情報がタッチパネル面に平行な二次元平面内における操作者の手の位置を表しており、かつ、その時点での位置特定部105からの位置情報が上述のようにタッチパネル面から上方へ向かう高さ方向の位置情報を含んでいる。したがって、3次元位置特定部107では、それらの位置情報に基づいて操作者の手の三次元空間内における位置を特定することができる。
 ここで、画像取り込み部502の撮像装置がタッチパネルの周縁部からタッチパネル面より上の三次元空間領域を見渡すように配置され、入力画像中の水平方向が撮像装置側に対するタッチパネル面の水平方向と一致し、入力画像中の高さ方向がタッチパネル面から垂直に上方へ向かう高さ方向と一致する場合には、それらの各方向における操作者の手の位置は、位置特定部105からの位置情報に基づいて特定される。そして、タッチ検出情報551は、操作者が指先で触れたタッチパネル面内の位置情報を示しているので、その位置に基づいて撮像装置から操作者の手の位置までの奥行き量を検出することができ、その奥行き量から撮像装置側に対するタッチパネル面の奥行き方向における操作者の手の位置を特定することができる。
 このように撮像装置を配置する場合には、指定領域における水平方向と高さ方向の位置が位置特定部105からの位置情報として示される。したがって、タッチ検出部200は、タッチ検出情報551としてタッチパネル面内の位置情報自体を供給するのではなく、そのタッチパネル面内の位置情報に基づいて撮像装置から操作者の手の位置までの奥行き量を検出し、その検出した奥行き量をタッチ検出情報551として3次元位置特定部107に供給するものとしてもよい。この場合の3次元位置特定部107は、位置特定部105が特定した水平方向及び高さ方向の位置と、タッチ検出部200が検出した奥行き量とに基づいて、三次元で操作者の手の位置を特定し、その特定した手の三次元位置情報を操作者の手情報とする。
 3次元位置特定部107は、上述のように操作者の手の三次元空間内における位置を特定するが、操作者の手は、その位置までの撮像装置からの奥行き量に応じて入力画像中で捉えられる大きさや移動量が変わる。このため、抽出手部分の重心等から特定した操作者の手の位置には奥行き量に応じた誤差が含まれる。また、奥行き量は、撮像装置が一定の位置に固定されていれば(撮像装置の配置形態に拘わらず、撮像装置と正対しない斜め方向の奥行き量であっても)タッチ検出部200で検出されたタッチパネル面内の位置情報に基づいて検出できる。一方、操作者のタッチパネル入力がないときには奥行き量を検出できず、操作者の手の三次元位置情報は得られない。
 3次元校正部108は、かかる誤差や奥行き量不検出の問題を解消する。タッチパネル入力があったときには、その時点で供給されるタッチ検出情報551に基づいて奥行き量が検出できる。また、その奥行き量を検出したのと同時に画像取り込み部502で取り込まれた入力画像から抽出された抽出手部分は、撮像装置から当該奥行き量の距離の位置にある操作者の手の画像である。すなわち、当該抽出手部分は、撮像装置に対して当該奥行き量の距離だけ離れたタッチパネル上の位置において撮像装置から見えた操作者の手のサイズを示している。したがって、撮像装置が一定の位置に固定されていて撮像装置とタッチパネルとの位置関係が予め特定されていれば、そのタッチパネル上の位置にある操作者の手のサイズは、当該抽出手部分の領域の大きさと当該奥行き量から幾何学的に把握することができる。そこで、3次元校正部108は、タッチパネル入力があった時の抽出部101からの抽出手部分の画像情報及び抽出位置の情報とタッチ検出部200からのタッチ検出情報551とに基づき、タッチ検出情報551が示すタッチパネル面上の位置に対応した操作者の手のサイズ(つまり、この時の抽出手部分のサイズ)を校正(キャリブレーション)する。
 校正は、その対象である抽出手部分のサイズと、特徴となる画像のサイズとの関係に基づいて行う。特徴となる画像のサイズとは、入力画像において基準とする操作者の手の画像のサイズである。特徴となる画像のサイズは、予め基準とする手の画像を特定し、その画像情報(少なくとも画像サイズを含む情報)を記憶装置に設定登録しておいてもよい。あるいは、例えば、操作者の手がタッチパネル上の中央部、指定領域内の中心部、指定領域内の撮像装置直近位置等の所定の基準位置にあるときに入力画像中に現れる操作者の手の画像のサイズを求め、それを特徴となる画像のサイズとして用いることができる。以下、このような特徴となる画像のサイズを「特徴画像サイズ」という。基準位置の特徴画像サイズは、タッチ検出情報551及び抽出位置の情報が示す抽出手部分の手があった位置と基準位置との相対的な位置関係から、抽出手部分の手の位置を基準位置とした場合の入力画像中でのサイズの倍率を特定することで求めることができる。
 3次元校正部108は、かかる特徴画像サイズを求め、求めた特徴画像サイズ等に抽出手部分のサイズを校正する(奥行き量に応じた誤差を解消した操作者の手の実際の大きさに対応する基準サイズに校正する。特徴画像サイズ自体をかかる基準サイズとして抽出手部分のサイズを特徴画像サイズに校正するのがよい。しかし、基準位置の選定如何に応じてそうでない場合には、かかる基準サイズに対する特徴画像サイズの倍率に基づいて抽出手部分のサイズを基準サイズに校正する。)。そして、水平方向と高さ方向における抽出手部分の重心等に変動が生じる場合には、その変動に合わせて3次元位置特定部107における操作者の手の特定位置を校正し、校正後の特定位置の三次元位置情報を操作者の手情報とする。3次元校正部108は、このようにしてタッチパネル入力の検出時に入力画像と奥行き量との校正を行う。
 さらに、3次元校正部108は、タッチパネル入力の検出時以後、抽出部101から順次供給される抽出手部分の画像情報に基づき、タッチパネルにタッチしていない状態での操作者の手の奥行き方向の位置を推定ないし推測し、三次元位置特定部107における操作者の手の三次元位置特定を続行する。
 一旦タッチパネル入力が検出されると、3次元校正部108は、上述のように特徴画像サイズを求めて校正を行うので、操作者の手が基準位置にある時の画像サイズとタッチパネル入力の検出位置にある時の画像サイズとの対応関係を把握する。この対応関係は、操作者の手が各位置(特に、奥行き方向の各位置)にあるときに入力画像中にどのような大きさで現れるかの規準を示しており、抽出手部分が与えられれば当該抽出手部分の手がどこに位置しているかを画像サイズの比較演算や三次元空間領域内での補間演算等を利用して求めることができる。したがって、3次元校正部108では、その把握した対応関係を利用し、入力画像中の操作者の手のサイズが抽出部101から順次供給されるそれぞれの抽出手部分のサイズであるときに、それぞれの入力画像が取り込まれた時点での操作者の手の位置(特に、奥行き方向についての位置)を推定ないし推測することができる。
 これにより、操作者のタッチパネル入力がないときにも、3次元校正部108が入力画像に基づいて三次元空間内の空中にある操作者の手の対象電子機器に対する位置を推定し続ける。また、3次元位置特定部107は、その3次元校正部108での推定に基づいて操作者の手の三次元空間内における位置を引き続き順次特定し、その順次特定した三次元位置情報を操作者の手情報としていく。
 上述した手情報検出部100の構成は、操作者の手の形状、位置及び動きの状態を示す手情報を検出する例である。手情報検出部100は、本インターフェースで受け付ける操作の内容や対象電子機器の形態等に応じて適宜他の手の状態の手情報を検出するものとしてよい。
 また、手の位置や動きについても、受け付ける操作に対応する手の位置や動きを予め適宜特定して記憶装置に登録し、手の形状についての上述したテンプレート102のような辞書ないしデータベースを予め用意して特定の操作に対応する手情報を検出することができる。これについては、後述の動作説明で具体的な例を挙げて説明する。
 さらに、手情報検出部100における各部間での情報交換は、上述した形態に限られるものではない。例えば、3次元校正部108で校正した3次元位置情報を位置特定部105や動き特定部106へ供給したり、サイズを校正した抽出手部分の画像情報を比較部103へ供給したりしてもよい。3次元位置情報(校正した3次元位置情報、あるいは、校正した3次元位置情報中の奥行き位置と位置特定部105が特定した位置に対応する3次元位置情報)を動き特定部106に供給すれば、その3次元位置情報が示す手の位置の時系列的な変化に基づいて動き特定部106が三次元での操作者の手の動きを特定し、三次元での手の動きを示す手情報が検出される。なお、撮像装置の画角等次第では抽出手部分の位置に応じた現れ方が非線形になり、形状や位置も校正した方がよい場合もあるであろう。かかる場合には、入力画像において基準とする操作者の手の画像と複数回のタッチパネル入力に対応した複数の抽出手部分サンプルとのサイズ、形状及び位置等の対応関係を適宜把握して補間してもよい。
(3)電子機器の全体構成
 次に、本インターフェースを適用した電子機器の構成について説明する。図3は、携帯電話機を始めとする通信端末機としての機能を有する電子機器を対象電子機器として、本インターフェースを適用した電子機器600の全体構成を示した図である。つまり、図3は、本インターフェースを搭載した対象電子機器の一例の制御に関する全体の構成を示している。電子機器600は、本インターフェースの上述した要部構成に相当する操作部501、画像取り込み部502及び制御部900を備える。また、電子機器600は、制御部900の制御対象となり得る他の構成要素として、アンテナ511、送受信部512、記憶部513、他の機器とのI/F(インターフェース)514、その他のセンサ515、スピーカ516、表示部517、発光部518、振動発生部519及び音声取り込み部520を有している。こうして、電子機器600は本発明に係る電子機器の一実施形態に相当するものとなっている。なお、図3では、制御部900が他の構成要素と必要に応じて様々な情報授受を行うため、その内部での信号ないし情報の流れの図示は省略した。
 アンテナ511と送受信部512は、無線通信を利用して他の機器との情報通信をするために、無線信号の送受信機能を担う構成要素である。電子機器600本体の制御部である制御部900に他の機器と情報をやり取りする送受信部512が接続され、送受信部512にアンテナ511が接続されている(したがって、電子機器600は、無線接続を利用した通信機能を有する無線通信機器への適用例であるが、対象電子機器は、有線の通信機器や他の機器との通信機能を有しない機器でもよく、無線通信機器に限られるわけではない。)。制御部900は、アンテナ511及び送受信部512が担う機能を制御して他の機器との無線通信を実施する。さらに、制御部900には、操作部501、画像取り込み部502、記憶部513、他の機器とのI/F514、その他のセンサ515、スピーカ516、表示部517、発光部518、振動発生部519及び音声取り込み部520が接続されている。操作部501は電子機器600の操作入力装置、画像取り込み部502は電子機器600に搭載されたカメラを利用して構成された撮像装置であり、それぞれ、上記「(1)要部構成」で説明した構成を備えている。
 記憶部513は、電子機器600にインストールされたプログラムのファイルやそのプログラムが取り扱う種々のデータ・ファイル等が格納されている不揮発性メモリを利用して構成された記憶装置(例えば、電子機器600を構成しているコンピュータが読み取り可能な記憶媒体)であり、電子機器600における情報の記憶機能を担う。記憶部513には、OS(Operating System)等の基本的なソフトウェアのプログラム・ファイルに加え、本インターフェースを利用した電子機器の操作を実施するための処理動作を規定した電子機器の操作プログラムのプログラム・ファイルが格納されている。その操作プログラムを制御部900が実行して上記「(1)要部構成」及び「(2)手情報検出部100の構成」で説明した構成の機能が実現され、電子機器600において本インターフェースを利用した電子機器の操作方法が実施される。なお、上述したテンプレート102の形状パターンの情報のように予め登録しておく手情報や予め設定しておく指定領域の情報等は、その操作プログラムが取り扱うデータ・ファイルとして記憶部513に格納してもよい情報の例である。
 他の機器とのI/F514は、他の機器と接続して情報を授受する機能のためのインターフェースであり、例えば、USB(Universal Serial Bus)、IEEE1394(Institute of Electrical and Electronic Engineers 1394)、カードメモリスロット、IrDA(Infrared Data Association)、Bluetooth(登録商標)等のインターフェースを適宜備える。その他のセンサ515は、電子機器600の機能動作上必要な物理量等の検出機能ないし検知機能を担うセンサであり、例えば、加速度センサ、磁気センサ、力センサ、温度センサ、湿度センサ等が適宜設けられる。スピーカ516は音声出力機能を担う。表示部517は、情報表示機能を担う表示装置である。操作部501のタッチパネルは、情報表示機能も有するという側面からいえば、この表示部517の一部を構成している。発光部518、振動発生部519は、それぞれ所定の報知動作等のための発光機能、振動機能を担う。音声取り込み部520は、マイク等を利用して構成され、音声検出機能ないし集音機能を担う。
 以上の電子機器600の各構成要素は、ハードウェアとしての実装構造については既存の通信端末機等を構成する技術を利用して実施することができる。電子機器600の特異な構成は、上述の操作プログラムに規定された処理動作を実行して本インターフェース特有の電子機器の操作を実施する構成にある。それによって操作部501、画像取り込み部502及び制御部900は本インターフェース特有の要部を構成し、他の構成要素もすべて制御部900が行う動作制御機能の制御対象の具体例として特異な構成要素となる。制御部900が上述の操作プログラムを実行し、電子機器600が本インターフェース特有の電子機器の操作を実現する具体的な形態は、以下の動作説明で述べる通りである。
<動作>
(1)手情報の検出
 次に、上記構成に基づく動作について説明する。図4は、操作者の手で電子機器600を操作するときの一形態を示した外観図であり、その外観と併せて電子機器600の画像取り込み領域を点線と破線を利用して模式的に示してある。図4中の電子機器600は、上述した図3の構成を有する電子機器600を具体的な外観構成例に沿って示したものであり、図示のように上面側に操作部501のタッチパネルと画像取り込み部502のカメラ(撮像装置)が設けられている。アンテナ511、送受信部512、記憶部513、他の機器とのI/F514等の他の構成要素と制御部900は内蔵されており、外観中には現れていない。
 操作部501のタッチパネルは、表示部517としての機能も兼ね備えており、記憶部513に格納されているフォルダを図示のようにアイコン(“フォルダ1”~“フォルダ5”。なお、“フォルダ4”は操作者の手で隠されている)で表示し、最上段に操作バー(最小化、サイズ変更及び閉じるの記号)を示し、その下にメニューバー(“編集(E) 表示(V) お気に入り(A) ツール(T)”)を示したウィンドウを表示している。画像取り込み部502のカメラは、タッチパネルの周縁部からタッチパネル面より上の三次元空間領域を見渡すように配置されており、図示のように撮像範囲がレンズ中心から点線で示した方向に向けられ、破線で示した画角仮想線によって取り囲まれた指定領域を含むタッチパネル上方の三次元空間領域の画像を入力画像として時系列的に順次取り込んでいる。この画像取り込み部502のカメラでは、入力画像中の水平方向がタッチパネル面の水平方向(図4中の左右方向)と一致し、入力画像中の高さ方向がタッチパネル面から上方へ向かう高さ方向と一致するものとなっている。
 操作者が電子機器600の操作部501のタッチパネルを利用して操作を開始すると、その操作者の手を含む三次元空間領域を撮像して得られた入力画像は同時に画像取り込み部502(のカメラ)を利用して取り込まれる。この操作部501からの入力情報と画像取り込み部502からの入力画像情報550は制御部900の内部で処理される。画像取り込み部502で取り込まれた入力画像情報550に対して、制御部900内の手検出領域指定部300は、操作者の手が指定領域内か否かの判断を行い、指定領域内ならば手情報の検出が有効とされる。これは、上述したようにタッチパネルを利用して操作をしている操作者の手であると認識すべき手の画像の位置の範囲を予め指定して、操作者の手情報の誤認識を避けるためである。
 例えば、操作者の手が図4中の一点鎖線で示した位置にあるときは、画角仮想線が示す指定領域外に操作者の手があるので、手情報の検出は行われない。一点鎖線で示した位置の操作者の手は、ウィンドウ内でも上端に極めて近くて、その操作は誤操作である可能性が高く、誤操作でないとすれば、その操作は、タッチパネルが検出する操作バーかメニューバーの操作以外にないからである(図4中に白抜きの小円盤で示した操作者のタッチパネル入力は誤操作である。)。このような位置の操作者の手は、タッチパネルを利用して操作をしている操作者の手ではないか、あるいは、かかる操作者の手であっても、本インターフェースがそう認識すべき手ではないので、手情報の検出は有効としない(誤操作でない可能性があっても、タッチパネルを利用した検出のみで足りて完結する操作は、本インターフェースで重複して検出してもよいが、通常は検出しなくてよい。)。
 これに対し、操作者の手が図4中の実線で示した位置にあるときは、画角仮想線が示す指定領域内に操作者の手がある。したがって、手検出領域指定部300から検出実行の指示が手情報検出部100に発せられ、手情報検出部100での手情報の検出が有効とされる(図4中に黒小円盤で示した操作者のタッチパネル入力は、操作者がタッチパネルを利用する何らかの操作を開始しようとしている可能性があるので、手情報の検出を開始する。)。
 手情報の検出が有効とされると、操作者の手を撮像した入力画像情報550から、手情報検出部100にある抽出部101が手のみの画像の手部分を抽出する。比較部103は、抽出された手部分の形状情報と予め登録されている手の形状パターンを示すテンプレート102とを比較する。形状特定部104は、最も類似したテンプレート102の形状パターンの形状を操作者の手の形状として特定する。例えば、テンプレート102には、上述したように手の“摘む”形状、“放す”形状、“指す”形状等の形状パターンが予め登録されており、それらのうちで抽出手部分と最も類似した形状が特定され、その特定された形状が操作者の手情報として検出される。
 また、入力画像情報550は、タッチパネル入力のような二次元の位置情報とは違い、タッチパネル面から上方へ向かう高さ方向の座標の位置情報を含んでいるので、操作者の手のタッチパネル上の高さを位置特定部105が得ることができる。位置特定部105における手の位置特定では、抽出手部分から割り出した手の画像の重心位置等が手の位置として特定され(高さ方向の位置を含む手の位置が特定され)、その特定された位置が操作者の手情報として検出される。
 さらに、入力画像情報550は、時系列に順次取得される情報となっているので、タッチパネルの通常の入力検出のようにタッチの瞬間のみではなく、その前後の操作者の手の状態(操作者のタッチパネル入力前後の手の動作)を動き特定部106が特定する。
 例えば、手の“掃う”動作、“ねじる”動作、“投げる”動作等を本インターフェースで受け付ける操作に対応する手の状態として予め特定し、それらの手の動作を示す手情報を予め登録して制御部900で保持しておき(あるいは、他の記憶装置に保持させて制御部900が参照し)、登録されている動作のうちで操作者の手の動作に最も類似する動作を特定して操作者の手情報とする。手の位置の移動のみに基づいて識別できる動作については、手の形状についてのテンプレート102と同様に、その位置の移動パターンの情報を記憶装置に登録したテンプレートを予め用意して動き特定部106が参照し、操作者の手の動きと最も類似する登録移動パターンを特定して操作者の手情報とすればよい。“掃う”動作、“ねじる”動作、“投げる”動作等の手の動作(位置の移動と形状の変化を伴う手の動作)については、手がそれらの動作をするときの手の位置の移動パターンの情報を記憶装置に登録して動き特定部106が参照するテンプレートを予め用意すると共に、手がそれらの動作をするときの手の形状パターンの情報をテンプレート102の登録形状パターンとして予め用意する(手の動きと手の形状の双方のパターンに応じて特定される手情報として予め登録する)。そして、動き特定部106が操作者の手の動きと最も類似する移動パターンを特定すると共に、そのときの操作者の手の形状と最も類似する形状パターンを形状特定部104が特定し、それらの動き特定部106が特定した手の位置の移動と形状特定部104が特定した手の形状とに対応する手の動作を特定して操作者の手情報とする。
 このように動き特定部106が行う手の動きの特定と形状特定部104が行う手の形状の特定とを組み合わせると、“掃う”動作、“ねじる”動作、“投げる”動作等の移動と変形を伴う手の動作も操作に対応する手の状態として予め登録しておくことが可能となり、その操作者の手の動作を手情報として検出することができる。ただし、移動と変形を伴う手の動作であっても、そのうちのいずれかに他の動作との識別が可能な特徴があるときは、手の動きか形状のいずれかを特定して手情報とすることにしてもよい。例えば、“ねじる”動作は主に手の形状に特徴が現れるので、形状特定部104での形状特定から手情報として検出するものとしてもよい。また、入力画像情報550は時系列的に順次供給され、それに伴って抽出部101からは抽出手部分の形状情報が順次比較部103に供給される。したがって、その比較結果に基づく形状特定部104での形状特定は、単一の抽出手部分の形状からする特定に限られるわけではなく、特定対象の手の状態に応じて適宜複数の抽出手部分の形状(手の形状の変化)を特定して手情報を検出することにしてもよい。
 さらに、手情報は、形状や二次元的な位置、動きだけではなく、三次元の情報として検出することができる。指定領域内で操作者がタッチパネル上で表示されている情報を選択したとき(手で直接アイコンにタッチしたとき)、タッチ検出部200は、操作部501からの入力情報に基づいてタッチパネル上のどの位置がタッチされたのかを検出(認識)する。このとき同時に操作者の手の画像情報は画像取り込み部502のカメラにて取り込まれる。これらの2つの情報(入力情報と入力画像情報)から、指定領域内にて抽出部101が抽出した操作者の抽出手部分と操作部501のタッチパネル上の検出位置とでタッチパネル入力があった位置に対応した操作者の手のサイズや、特徴画像サイズとの対応関係が判り、上述したように3次元校正部108が校正を行う。そして、その対応関係を使い、上述したようにタッチパネルにタッチしていない状態での操作者の手の奥行き方向の位置が推測され、3次元位置特定部107が空中にある操作者の手の三次元位置を特定し、その三次元位置情報を手情報として検出する。
 電子機器600は、本インターフェースを利用し、以上のようにして操作者の手情報の検出(識別)を行い、検出された手情報が示す手の状態に対応する操作を制御部900が受け付け、その受け付けた操作に従って他の構成要素の動作を制御部900が制御する。これにより、本インターフェースないし電子機器600では、三次元空間である指定領域の中で操作者の手が示す操作が受け付けられ、タッチパネルでの二次元的な操作形態を三次元的な操作形態に拡張した三次元操作が実現され、指定された操作領域内で三次元的に対象電子機器の操作を行うことが可能となる。
 例えば、形状特定部104での形状特定に基づいて手で“摘む”、手から“放す”、手で“指す”等の三次元的な操作が可能となり、動き特定部106での動き特定に基づいて手の動作(動き)を使った三次元的な操作が可能となり、それらを組み合わせて手で“掃う”、手で“ねじる”、手から“投げる”等の動作を伴う三次元的な操作が可能となる。そして、3次元位置特定部107での三次元位置特定に基づいて、操作者の手の三次元位置情報の検出とその校正をすることができる。さらに、タッチパネル入力がなくても操作者の手の三次元位置情報を検出し続けることができるので、タッチパネルには触れずに操作者が三次元空間中で示していく手の形状、位置、動き等を利用した操作も可能となる(以下においては、このような本インターフェースを利用した三次元的な操作を「3D操作」といい、タッチパネル(操作部501ないし表示部517)に表示された情報を取り扱う3D操作に関する一連の操作を「3D情報操作」という。)。例えば、操作者のタッチに関する情報とカメラ等の撮像装置の情報とから、電子機器に保持された情報をタッチパネル上で操作するだけでなく、手でつまむ、移動させる、落とし込むなどの三次元の操作に従って制御することが可能になる。
(2)圧縮ファイル等を解凍する3D情報操作
 次に、本インターフェースを利用した3D情報操作の一例として、予め設定した速度で圧縮ファイル等(圧縮ファイルないし圧縮フォルダ等の圧縮された情報)をタッチパネル上に投げつけて解凍するアプリケーションを利用した3D情報操作について説明する。図5は、その圧縮ファイル解凍アプリケーションが3D情報操作を受け付けて電子機器600を制御する処理の手順を示した三次元操作フローチャートである。また、図6Aおよび図6Bは、その3D情報操作時の操作者の手の状態と電子機器600の動作形態の例を模式的に示した外観図である。ここにいう圧縮ファイル解凍アプリケーションのプログラムは、電子機器600にインストールされた操作プログラムに含まれており、それを制御部900が実行して以下の処理動作が行われる。圧縮ファイルを予め設定した速度で投げつける、ということの意味は以下の説明で明らかになるが、その速度は、指定領域の情報等と同様に予め設定して記憶装置に格納しておく情報(所定の速度値ないし速度範囲)である。
 最初に、操作者がタッチパネルに触れると、操作部501からの入力情報をタッチ検出部200が検出(認識)し、3D情報操作が開始される(図5中の3D情報操作のstart)。なお、3D情報操作は、操作者の3D情報操作をしようとする意図として捉え得る任意の操作の検出に応答して開始するものとしてもよく、タッチパネルに触れたタッチパネル入力の検出に限らず、操作部501での他の操作等の検出に応答して開始してもよい。
 次いで、操作者のタッチに応じて、タッチパネルに表示されている情報中から解凍する情報(ファイル、フォルダ又は他の表示されている何らかの情報)の選択がなされる(ステップS1)。また、その際の操作者の手の画像を画像取り込み部502が取り込むと共に、タッチパネル入力をタッチ検出部200が検出し、上記「(1)手情報の検出」で述べた手情報の検出動作が開始される(ステップS2)。なお、情報の選択は、操作者が3D情報操作を開始する最初のタッチパネル入力で行うものとしてもよい。
 ここで、手検出領域指定部300は、画像取り込み部502からの入力画像情報が示す手部分の有効範囲を指定領域(ある特定の範囲)に設定している。これにより、操作以外の手と操作のための操作者の手とが区別される。今、操作者は、タッチパネルへのタッチを利用して解凍する情報を選択したので、その手は指定領域内にある。したがって、手情報の検出が有効とされると共に、情報の選択時の入力画像情報550が手情報検出部100に送られ、抽出部101が手部分を抽出する。そして、比較部103は、抽出手部分の形状情報とテンプレート102にある手の形状パターンとを比較し、形状特定部104が手の形状を特定して手情報の検出を行う(ステップS2)。
 ファイルを解凍したり他の機器に転送したりするためにウィンドウ内にあるファイルを取り出す場合の一般的な情報操作形態は、ポインティング・デバイスを利用したドラッグ操作であり、かかるファイルを取り出すドラッグ操作に対応する手の状態として好適な例は、手の“摘む”形状である。そこで、本インターフェースでは、ドラッグ操作に対応する手の状態を手の“摘む”形状と予め特定し、その形状パターンの情報をテンプレート102に登録しておく。そして、圧縮ファイル解凍アプリケーションは、情報の選択時から検出されている手情報の形状が“摘む”形状か否かを判断して、その手情報がドラッグ操作に対応する手の状態を示すものか否か(情報選択時から操作者がドラッグ操作をしているか否か)を判断する(ステップS3)。
 これにより、操作者がドラッグ操作をしているときには、3D操作を有効とし(ステップS3での判断結果が“YES”となってステップS4へ進み)、そのドラッグ操作をしている(“摘む”形状のままの)操作者の手の動きを動き特定部106が特定する。すなわち、制御部900は、操作者の手が選択された情報をドラッグしているものとして、以後の操作者の手の動きを追跡する。
 そして、制御部900は、動き特定部106が特定した手情報(ここでは操作者の手の速度)に基づき、操作者がドラッグした情報を予め設定した速度以上でタッチパネル上に投げつけたか否かを判断する(ステップS5)。操作者がドラッグした(タッチパネル面に触れつつ摘んだ)圧縮ファイルないし圧縮フォルダ等の圧縮された情報を予め設定した速度以上でタッチパネル上に投げつける動作をすると(ステップS5での判断結果が“YES”となり)、制御部900は、その圧縮ファイル等を解凍する処理を実行して(ステップS6)、圧縮ファイル解凍アプリケーションを利用した3D情報操作を終了する(3D情報操作のend)。なお、情報選択時に操作者がドラッグ操作をしていなければ(上記ステップS3での判断結果が“NO”となり)、圧縮ファイル解凍アプリケーションでは何らの処理も行わずに3D情報操作は終了する(3D情報操作のend)。
 例えば、図6Aに示すように、圧縮フォルダを示す冷蔵庫ないし冷凍庫のアイコンで表示された“フォルダ3”を操作者が手で摘み上げると、制御部900は、破線矢印と操作者の手にあるアイコンが示すような仮想的なドラッグ操作がされているものとして、操作者の仮想ドラッグ操作を受け付ける。そして、図6Bに示すように、操作者がドラッグした“フォルダ3”をタッチパネル上の画面に向かって投げつける動作をすると、圧縮フォルダの“フォルダ3”を解凍する処理を実行する(上述のステップS1~S6)。なお、図6Bでは、制御部900が圧縮フォルダの解凍処理動作と共に制御する他の動作の例として、圧縮フォルダの解凍演出を表示させること(圧縮フォルダが開いて圧縮されていた情報が展開されたことを視覚的に認識できる表示をタッチパネルないし表示部517に行わせること)を示してある。
 一方、操作者が上述のような投げつける動作をしないときには、操作者がドラッグした情報をドロップしたか否かを判断する(ステップS5での判断結果が“NO”となり、ステップS7での判断に移行する。)。ドラッグ中の情報をドロップする操作に対応する手の状態として好適な例は、手の“放す”形状である。そこで、本インターフェースでは、ドロップ操作に対応する手の状態を手の“放す”形状と予め特定し、その形状パターンの情報をテンプレート102に登録しておき、操作者が上述のような投げつける動作をしないときに検出された手情報の形状が“放す”形状か否かを判断して、操作者がドロップ操作をしたか否かを判断する(ステップS7)。
 操作者がドラッグした情報を“放す”こともしないときには、処理の流れは再び上述の投げつける動作をしたか否かの判断に戻り、上記同様の処理を繰り返す(ステップS7での判断結果が“NO”となってステップS5へ戻る。なお、図5中の“A”は、処理の流れの合流箇所を示す記号であり、そこに何らかの処理ステップがあるというわけではない。後述の図7中にある“A”及び“B”の記号も同様である。)。操作者がドラッグした情報を“放す”と、制御部900は、検出された手情報の形状に基づいて操作者がドロップ操作をしたと判断し、そのドロップ操作において操作者が情報をドロップした位置(場所)が別のアプリケーションの起動位置か否かを判断する(ステップS7での判断結果が“YES”となってステップS8へ進む。)。
 ここで、操作者が情報をドロップした位置は、位置特定部105ないし3次元位置特定部107が検出した位置の手情報から特定されるタッチパネル面内の位置である。制御部900は、そのタッチパネル面内の位置が別のアプリケーションの起動位置であれば、当該アプリケーションのプログラムに従って処理動作を他のアプリケーションを利用した処理へと展開する動作に移行する(ステップS8での判断結果が“YES”となってステップS9へ進み)。一方、そのタッチパネル面内の位置が別のアプリケーションの起動位置でなければ(ステップS8での判断結果は“NO”となり)、制御部900は、何らの処理も行わずに圧縮ファイル解凍アプリケーションを利用した3D情報操作を終了する(3D情報操作のend)。
 圧縮ファイル解凍アプリケーションを利用した3D情報操作は上述のようにして行われるが、操作者がドラッグした情報を投げつける動作については、動き特定部106が特定する動きの手情報(操作者の手の速度)に加え、その動作で操作者の手が最も下方向に下がった時点で形状特定部104が特定する形状の手情報も参照するとよい。すなわち、当該時点での操作者の手が“放す”形状のドロップ操作をしているときに限り、操作者がドラッグした情報を投げつけた(手放した)と判断する。この方が操作者の手の動作に対してより忠実に対応する3D操作を行うことができる。図6B中の操作者の手は、そのような投げつける動作をするものとして示してある。なお、操作者の“摘む”動作に対応したドラッグ操作は、タッチパネル面に直には触れていないアイコン等の表示の近傍でも有効となるようにしてもよい。
(3)電子機器間で情報を送受信する3D情報操作
 次に、本インターフェースを利用した3D情報操作の他の例として、電子機器600と他の電子機器601等との間で情報を送受信し、3D操作を利用して電子機器600から他の電子機器601等にファイル等の情報を転送してコピーする場合の3D情報操作について説明する。図7は、かかる電子機器間で情報を送受信してファイル等を転送する場合の3D情報操作の処理の手順を示した三次元操作フローチャートである。また、図8、図9A及び図9Bは、その3D情報操作時の操作者の手の状態と電子機器600、電子機器601及びその他の電子機器の動作形態の例を模式的に示した外観図である。ここでの電子機器600は、操作者が自身の端末として使用する転送情報送信元の機器(自機器)である。一方、電子機器601とその他の電子機器は、転送情報送信先の端末として使用される機器(送信先機器ないし情報転送の対象端末)である。電子機器601は、電子機器600と同様に本インターフェースを適用した電子機器であって、電子機器600の上述した構成と同様の構成を備えている。また、ここで説明する3D情報操作を実施するプログラムは、電子機器600及び電子機器601にインストールされた操作プログラムに含まれており、それを電子機器600及び電子機器601のそれぞれの制御部900が実行して以下の処理動作が行われる。
 最初に、操作者がタッチパネルに触れること等に応答して3D情報操作が開始される(図7中の3D情報操作のstart)。次いで、操作者のタッチに応じてタッチパネルに表示されている情報中から情報の選択がなされ(ステップS20)、上記「(1)手情報の検出」で述べた手情報の検出動作が開始される(ステップS21)。ここまでの処理動作は、上記「(2)圧縮ファイル等を解凍する3D情報操作」で説明した処理動作(上記図5中の3D情報操作のstartからステップS2まで)と同様である。ただし、これらの処理動作が行われるのは電子機器600の方であって、操作者が選択する情報は電子機器601に転送してコピーしようとする情報である。
 ファイル等の情報を他の機器に転送するので、情報の選択時から検出されている手情報が示す操作(手情報が示す手の状態に対応する予め特定された操作)がドラッグ操作か否かに応じて、電子機器600の制御部900は、操作者がドラッグ操作をしているか否かを判断する(図7中のステップS22)。操作者がドラッグ操作をしていなければ3D情報操作は終了する(ステップS22での判断結果が“NO”となって3D情報操作のendへ移行する。)。操作者がドラッグ操作をしているときには、3D操作が有効となる(ステップS22での判断結果が“YES”となり、3D操作が有効と判断されてステップS23へ進む。)。
 次に、電子機器600の制御部900は、これから行われる操作が他の端末に対するファイルの操作(他の端末との間のファイル操作)であるか否かを判断する(ステップS24)。この判断は、換言すれば、電子機器600から情報を転送し得る他の機器がその時点で存在しているか否かの判断であり、上述のように3D操作が有効となったときに、電子機器600とネットワーク接続されている状態にある他の端末があるか否か、その端末が電子機器600との間での情報送受信の適格を有する端末であるか否か等の判断基準に従って行う。電子機器600は、他の機器との通信装置として、アンテナ511及び送受信部512と、他の機器とのI/F514を有しているので、3D操作が有効となった時点において、それらの構成要素を利用して、通信可能な情報の送信先機器となり得る他の対象端末があるか否かを制御部900が判断する。かかる他の対象端末があれば、電子機器600の制御部900は、その対象端末との間の通信が近距離通信であるか否かを判断する(ステップS24での判断結果が“YES”となってステップS25へ進む。)。
 このとき、電子機器601が電子機器600に対して互いの他の機器とのI/F514を介して近距離通信可能に接続されていたとすると、電子機器600の制御部900は、対象端末との間の通信が近距離通信であると判断し(ステップS25での判断結果が“YES”となり)、その対象端末である電子機器601を送信先機器として、操作者が送信先機器においてドロップ操作をしたか否かを判断する(ステップS26)。すなわち、電子機器601において、画像取り込み部502のカメラが撮像した入力画像から制御部900が手情報の検出を行う。そして、電子機器601の制御部900は、操作者のドロップ操作を受け付けたときには、他の機器とのI/F514を介した近距離通信を通じて、操作者のドロップ操作があったことを電子機器600の制御部900に通知する。この電子機器601からの通知の有無に応じて、電子機器600は、送信先機器の画像取り込み部502を構成しているカメラが操作者のドロップ操作を捉えたかどうかを判断する(ステップS26)。
 これにより、電子機器600は、電子機器601からの通知を受けて送信先機器での操作者のドロップ操作を確認すると(ステップS26での判断結果が“YES”となり)、他の機器とのI/F514を介した近距離通信を通じて、操作者が電子機器600でドラッグしたファイル等(記憶部513にある情報)を制御部900が電子機器601へと転送する(ステップS27)。そして、このファイル転送作業が終了すると(ステップS28)、3D情報操作は終了する(3D情報操作のend)。
 例えば、図8中の左側に示すように、操作者が電子機器600で“フォルダ5”を摘み上げて破線矢印で示す仮想的なドラッグ操作を行い、その仮想ドラッグした点線で示すフォルダを同図中の右側に示すように送信先機器の電子機器601でドロップすれば(電子機器601の指定領域内でフォルダを放して破線矢印の仮想的なドロップ動作をすれば)、そのドロップ操作を電子機器601からの通知に基づいて電子機器600の制御部900が確認し、“フォルダ5”の情報を電子機器601へ転送する。これにより、電子機器601の制御部900は、転送されてきた“フォルダ5”の情報を記憶部513に格納すると共に、そのアイコンをタッチパネル(表示部517)に図示のように表示させ、電子機器600から電子機器601への“フォルダ5”の情報の転送及びコピーが完了する。
 このとき、電子機器600と送信先の端末である電子機器601とは上述のようにネットワーク接続状態にあることが前提であり、送信先機器でカメラ等の画像に基づいて操作者がドロップ操作をしたことが判断できるか、あるいは、何らかの転送許可を伝える通信がなされれば転送を実行することができる。したがって、送信先の端末は、かかる転送許可を伝える通信が可能であれば、本インターフェースの構成を備えている必要はなく、上述の電子機器601に限られるわけではない。また、電子機器600とネットワーク接続状態にある他の端末がないときには、3D操作が有効となっても以後の操作は他の端末に対するファイルの操作ではないので、電子機器600の制御部900は、処理動作を他のアプリケーションを利用した処理へと展開する動作に移行する(上記ステップS24での判断結果が“NO”となってステップS29へ進む。)。その一方で、他の端末に対するファイル操作と判断されて近距離通信可能な送信先機器があっても、その送信先機器のカメラ等の画像に基づいたドロップ操作の判断(ステップS26での操作者がドロップ操作をしたか否かの判断)で操作者のドロップ操作が確認できなければ(その判断結果が“NO”となり)、ファイル転送は行わずにそのままファイル転送作業は終了したものとして3D情報操作は終了する(ステップS26からステップS28へ進んで3D情報操作のendになる。)。
 ここで、他の端末に対するファイル操作である場合に近距離通信を他の通信と区別しているのは、図8に示したように近距離にある送信先機器(電子機器601)と他の機器とを区別する一つの方法であって、通信可能な距離を操作者の手の届く範囲内とするように更に限定を加えて、認証等の手続きをしなくても送信先機器を特定してファイル等の情報転送が実行できるからである。もちろん、ネットワーク上で送信先機器を特定(認証)してファイル等の情報転送をすることも可能であり、その場合には近距離通信と長距離通信等の他の通信との区別なく、他の機器に情報をコピーする3D操作をすることが可能となる。
 送信先機器との通信が近距離通信でない場合には、電子機器600の制御部900は、その送信先機器との接続が許可されているか否か(ファイル等の転送及びコピーに必要な情報の送受信が可能な状態か否か)を判断する(上記ステップS25での判断結果が“NO”となってステップS30へと進む。)。そして、送信先機器との接続が許可されていれば、その送信先機器のファイル制御を電子機器600から遠隔実施するリモートファイル制御を開始する(ステップS30での判断結果が“YES”となってステップS31へと進む。)。
 リモートファイル制御では、電子機器600は、操作者がドロップ操作をしたか否かの判断(ステップS32)と、そのドロップがリモートな送信先機器(送信先機器の画面情報を表示する送信先機器のプロパティ)へのドロップであるか否かの判断(ステップS33)の2つの判断(チェック)に基づいてファイル転送をするか否かを決定する。すなわち、操作者の自機器である電子機器600の制御部900は、画像取り込み部502のカメラからの入力画像情報に基づいて操作者がドロップ操作をしたか否かを判断する。操作者がドロップ操作をしたときには、電子機器600の制御部900は、ドロップ操作において情報をドロップした位置が送信先機器のプロパティを開いた送信先リモート画面のウィンドウ内(送信先機器が保持する情報を遠隔制御するウィンドウ内)であるか否かを判断する。ドロップした位置が送信先リモート画面のウィンドウ内であったときに、電子機器600の制御部900は、操作者がドロップした情報を送信先機器に転送する(ステップS32とステップS33での判断結果が双方とも“YES”となったときにステップS27に進む。)。そして、このファイル転送作業が終了すると(ステップS28)、3D情報操作は終了する(3D情報操作のend)。
 例えば、図9Aに示すように、操作者が電子機器600で“フォルダ5”を摘み上げて上向き破線矢印で示す仮想的なドラッグ操作を行い、その仮想ドラッグした点線で示すフォルダを送信先リモート画面の上方で放して下向き破線矢印の仮想的なドロップ操作をすると、そのドロップ操作に従って、電子機器600の制御部900が“フォルダ5”の情報を他の電子機器である送信先機器へ転送する。これにより、図9Bに示すように、送信先機器は、転送されてきた“フォルダ5”の情報をその記憶部に格納すると共に、“フォルダ5”のアイコンをその表示部に図示のように表示させ、電子機器600から送信先機器への“フォルダ5”の情報の転送及びコピーが完了する。ここでの送信先機器は、電子機器600との接続が許可される機器であればよく、電子機器600や電子機器601と同様の構成を備える必要は必ずしもない。
 送信先機器との通信が近距離通信でない場合には、送信先機器が操作者の手の届く範囲にあれば、近距離通信である場合と同様に、送信先機器のカメラが撮影した画像で操作者のドロップ操作を認識して上記同様の3D操作(送信先機器からの通知を受けて転送及びコピーをする操作)をすることも可能である。一方、送信先機器が操作者の手の届く範囲にないときには、上述のように送信先機器のリモート画面を利用して操作を行うことで3D操作が可能となる。ただし、ネットワーク上での送信先機器との認証が取られていることが前提条件である。
 なお、送信先機器との接続が許可されない場合には、ファイル転送は行わずにそのままファイル転送作業は終了したものとして3D情報操作は終了する(上記ステップS30での判断結果が“NO”となってステップS28へ進み、3D情報操作のendになる。)。また、リモートファイル制御では、操作者がドロップ操作をしなければドロップ操作をするまで処理が保留状態となる(ステップS32での判断結果が“NO”となり、“B”に戻って同様の判断を繰り返し)。そして、操作者が送信先リモート画面のウィンドウ内でない位置に情報をドロップしたときには、その位置に応じて制御部900が処理動作を他のアプリケーションを利用した処理へと展開する動作に移行する(ステップS33での判断結果が“NO”となり、“A”以下のステップS29へ進む。)。
 電子機器600と他の電子機器601等との間で情報を送受信し、ファイル等の情報の転送及びコピーをする3D情報操作は上述のようにして行われ、複数の電子機器間で情報を授受して3D操作を実施する電子機器の操作システムを本インターフェースを利用して構成することができる。その操作システムにおいては、送信元である電子機器600以外の電子機器は、上述のように必ずしも本インターフェースの構成をすべて備えている必要はなく、電子機器600からの情報を受信して記憶ないし表示できる電子機器を適宜利用することができる。また、他の機器との通信装置であるアンテナ511及び送受信部512と他の機器とのI/F514については、通信可能な距離を操作者が任意に設定することにしてよく、操作者が自身の手が届く範囲や自身の周辺で適宜利用する電子機器がある範囲等を必要に応じて設定することにしてよい。例えば、他の機器とのI/F514を利用して通信可能な距離については、1m以内と設定することにしてもよい(アンテナ511及び送受信部512を利用して通信可能な距離をそうしてもよい。)。
 本インターフェースに従えば、これまで2次元的に操作されてきたタッチパネルを利用したインターフェースを上述したように三次元的に拡張することが可能となり、タッチパネル上の操作で操作者本人の手で、バーチャルにデータをつまむ、移動する、落とし込むなどの物理的な人の自然な動作を使った操作が実現でき、より使い易いインターフェースが実現できるという効果がある。
<応用ないし変形の例>
(1)手情報と操作の対応例
 上述した3D操作は主としてファイル操作に関する例であるが、本インターフェースでは、上述したもの以外にも様々な3D操作を受け付けることができる。図10は、本インターフェースにおいて、入力画像情報550から検出(認識)する手情報と、それぞれの手情報に対応させた操作例ないし操作が実現する機能例を列挙した図である。この図に示すように、例えば、
・“手の形状検出”の手情報に応じて、“摘む”形状はドラッグ、“放す”形状はドロップ、“ひねる”形状はロック、“ねじる”形状は圧縮や選択等、の3D操作として受け付けることができる。
・“手の移動検出”の手情報に応じて、
“操作面内上へ”の移動は、フォルダ/ファイルの移動、スクロールUp
“操作面内下へ”の移動は、フォルダ/ファイルの移動、スクロールDown
“操作面内右へ”の移動は、フォルダ/ファイルの移動、左スクロール
“操作面内左へ”の移動は、フォルダ/ファイルの移動、右スクロール
“操作面上の上へ”の移動は、表示のズームUp、“摘んで放す”でコピーないし移動、“アイコン上へ移動してドロップ”でアプリケーションの起動
“操作面上の下へ”の移動は、表示のズームDown、規定速度(予め設定した速度)の場合は圧縮の解凍
等の3D操作として受け付けることができる。ただし、ここでは、上述した図4等の外観のように操作者と対向する位置に撮像装置を設ける場合を想定し、手の左右移動とスクロールの左右移動は逆にした(したがって、手の左右移動に対応したフォルダやファイルの移動も左右逆である。)。
 この場合、手情報は、三次元の手の位置や動き、手の形状の情報を組み合わせることで、色々な操作を対応させることが可能となる。
(2)自機器内部での3D情報操作の他の例
 上述した圧縮ファイル解凍アプリケーションを利用した3D情報操作は、操作者自身の電子機器内部での情報操作例であるが、かかる自機器内部での3D情報操作の他の例としては、例えば、図11に示したようにファイル等の情報を圧縮するファイル圧縮アプリケーションを利用した3D情報操作が挙げられる。ファイル圧縮アプリケーションを利用した3D情報操作では、操作者が圧縮しようとするファイル等の情報を選び、選んだ情報のアイコンが表示されている部分で手をねじる動作(又はひねる動作)をすると、それらのアイコンが示す情報を制御部900が圧縮して圧縮ファイルにする。図11では、一点鎖線の楕円内にある“フォルダ2”と“フォルダ5”を操作者が選んで同楕円部分で破線白抜き矢印で示すように手をねじる動作をしており、それによって“フォルダ2”と“フォルダ5”の圧縮ファイルが生成される3D情報操作の形態を模式的に示してある。
(3)アイコンの影の表示
 本インターフェースでは、表示されたアイコンを仮想的に摘み上げてドラッグすると、以後の操作者の手の三次元位置情報が手情報として検出され、制御部900は、そのアイコンが三次元空間内を手情報の位置に従って仮想的に移動しているものとみなす。そこで、電子機器600は、タッチパネルの画面内に表示されるアイコンに影を設け、そのアイコンを手情報に基づいて三次元的に移動させるとき、タッチパネルの平面内移動に対しては画面内をアイコンが追従して移動し、タッチパネルの高さ方向の移動に対してはアイコンの影とアイコンとの間の距離を変化させて表示してもよい。
 図12A及び図12Bは、かかるアイコンの影の表示形態の例を示した図である。図12Aに示したように、操作者が仮想ドラッグした点線のフォルダに対し、タッチパネルの画面内で影を表示する。そして、図12Bに示したように、操作者が手を上下に移動させたときには、アイコンとその影との間の距離を変化させる。本インターフェースに従えば、3D操作をより自然に見せる工夫として、アイコンを仮想的に摘み上げたときに、このように画面に表示されるアイコンとその影との間の距離を変化させて、アイコンを持ち上げたような演出を電子機器600にさせることも可能であり、よりリアルな操作感を再現できる。なお、影の移動は、操作者が手を上に移動させるほど(アイコンを高く持ち上げるほど)アイコンから離れていくのが基本的な形態であるが、より光が射す方向を入力画像の輝度分布から判断したり影の大きさや形も変えたりして適宜調整してもよい。
(4)リモートファイル制御のための認証
 上記<動作>の「(3)電子機器間で情報を送受信する3D情報操作」においては、送信元の電子機器600が送信先機器のリモートファイル制御をする場合がある。その場合、かかるリモートファイル制御のための認証技術としては、図13に示すように、送信先の端末(送信先機器)に予め識別用のマークを送信しておき、その識別マークを操作者の端末(電子機器600)に適宜設けられる外撮りカメラ等の撮像装置(図示せず)を利用して検出(認識ないし識別)して認証を行い、その上で目的の送信フォルダをノックする動作等に応答して当該送信フォルダを転送するなどのアプリケーションが挙げられる。
 ここで、識別マークは、図示のように送信先の端末の表示部に表示させた画像情報となっており、それを操作者の端末の撮像装置で撮像して検出し、送信先の端末と操作者の端末とが共に共通する識別情報を取得して互いに情報交換をする形態に従って認証を行うものである。したがって、図13では識別マークの一例として二次元コードを示したが、これに限られるわけではなく、かかる形態に従って他の機器のリモート制御を可能にする認証をするための識別情報として利用できる画像情報であればよい。
(5)画像取り込み部の形態
 画像取り込み部502を構成する撮像装置は、カメラに限らず、画像情報が取り込めるものであれば制限は無く、操作部501(のタッチパネル)を利用する操作時の操作者の手が入る領域が写る角度に配置されていて(図4や図6A参照)、前記所定領域の画像情報を取得できるものであればよい。また、この撮像装置は、複数のカメラを利用して構成するものとしても構わないし、その画像を取り込む範囲の画角が、前記操作時に操作者の手が入る領域が写る角度に調整される制御がされるものであってもよい。なお、その画角調整制御では、手検出領域指定部300が設定した指定領域に基づき、当該指定領域が写る角度に画角を調整するようにしてもよい。
 例えば、対象電子機器が携帯電話機である場合には、ユーザ自身を写す表示画面側に搭載されるカメラの他に、ユーザ以外の対象物を撮像する表示画面の反対側に搭載されるカメラ等、複数のカメラで複数の画角を写す撮像装置が一般的に搭載されている。そこで、それらの複数のカメラのうち、少なくとも1つのカメラを前記操作時の操作者の手が入る領域が写る角度に配置し、あるいは、その領域を写す角度に少なくともいずれか1つのカメラの画角を調整する制御をし、あるいは、その領域を複数のカメラで写すように各カメラを配置しまたは画角調整制御を行って、画像取り込み部502を構成することにしてもよい。
 上述した画像取り込み部502は、その画角で取り込まれる画像がタッチパネル面から上方へ向かう高さ方向の座標を含むものとしたが、このようにしたのは、入力画像に操作者の手の高さ方向の位置情報が含まれるようにするためである。高さ方向の位置情報が入力画像に含まれなくなるのは、撮像装置から画像取り込み領域に向かう中心線がタッチパネル面と垂直な場合である。しかし、その中心線がタッチパネル面と垂直で入力画像中の位置情報に高さ方向の位置情報が含まれない場合であっても、入力画像中に現れる抽出手部分のサイズは、操作者の手の高さに応じたサイズになるので、そのサイズに基づいて操作者の手の高さは特定することができる。したがって、画像取り込み部502の形態として、取り込み画像がタッチパネル面から上方へ向かう高さ方向の座標を含むことは必須ではない。
(6)その他
 本インターフェースは、その一部又は全部を対象電子機器とは別体のハードウェアとして構成し、それを対象電子機器の構成に追加する形態としても実施することはできる。しかし、すべての電子機器は、その機能を制御するために機能動作の制御部と情報の記憶部を有している。したがって、本インターフェースを利用して電子機器の操作を実施するために制御部が実行する処理動作を操作プログラムに規定して記憶部に格納すれば、既存の電子機器のハードウェアを利用して本インターフェースの一部又は全部をソフトウェアとして実現することもできる。操作部501と画像取り込み部502については、相当するハードウェア構成がない電子機器では適宜設ける必要がある。しかし、タッチパネルとカメラ等の撮像装置を有する電子機器であれば、それらをソフトウェア上で制御して操作部501と画像取り込み部502にすることができ、必要であればそれらの配置を適宜調整すればよい。
 以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解し得る様々な変更を加えることができる。
 例えば、図1に示した制御部900は、必ずしも手情報検出部100、タッチ検出部200及び手検出領域指定部300を内部に有している必要はない。例えば、手情報検出部100、タッチ検出部200及び手検出領域指定部300を制御部900の外部に設け、手情報検出部100、タッチ検出部200及び手検出領域指定部300以外の機能に係る部分で制御部900を構成するとともに、制御部900が手情報検出部100、タッチ検出部200及び手検出領域指定部300を制御するようにしても良い。
 この出願は、2009年2月25日に出願された日本出願特願2009-042310号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明の活用例として、携帯電話機やPDA(Personal Digital Assistant)、ノートPC(Personal Computer)等の情報をやり取りする電子機器全般に利用できる。さらに、本発明は、タッチパネルを入力装置として用いることができる電子機器であれば、適用可能である。
100 手情報検出部(手情報検出手段)
200 タッチ検出部(タッチ検出手段)
300 手検出領域指定部(手検出領域指定手段)
101 抽出部(抽出手段)
102 テンプレート
103 比較部(比較手段)
104 形状特定部(形状特定手段)
105 位置特定部(位置特定手段)
106 動き特定部(動き特定手段)
107 3次元位置特定部(3次元位置特定手段)
108 3次元校正部(3次元校正手段)
501 操作部(操作手段)
502 画像取り込み部(画像取り込み手段)
511 アンテナ(通信手段)
512 送受信部(通信手段)
513 記憶部
514 他の機器とのI/F(通信手段)
517 表示部
600、601 電子機器
900 制御部(制御手段)

Claims (24)

  1.  タッチパネルを有する電子機器の操作手段と、
     前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、
     前記画像取り込み手段が取り込んだ前記画像から特定される前記電子機器の操作者の手の状態を示す手情報を検出する手情報検出手段と、
     前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、
     前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する制御手段と
     を有する電子機器のインターフェース。
  2.  前記操作手段と前記画像取り込み手段は前記制御手段に接続され、
     前記制御手段は前記手情報検出手段と前記タッチ検出手段を有する
     請求項1記載の電子機器のインターフェース。
  3.  前記手の状態が手の形状、位置及び動きを含む請求項1又は2記載の電子機器のインターフェース。
  4.  前記手情報を検出する指定領域を設定する手検出領域指定手段を有し、
     前記制御手段は、前記操作者の前記手の位置が前記手検出領域指定手段において予め設定された前記指定領域内に存在する場合に、前記手情報検出手段に前記手情報の検出を行わせ、又は前記機能の制御を行う
     請求項1~3のいずれかの項記載の電子機器のインターフェース。
  5.  前記画像取り込み手段は、前記指定領域を撮像するように配置された少なくとも1つ以上のカメラである請求項4記載の電子機器のインターフェース。
  6.  前記画像取り込み手段は、前記操作者の前記手がある前記空間の前記画像を撮像して取り込み、
     前記手情報検出手段は、前記画像取り込み手段が撮像した前記画像を入力画像として、前記入力画像において前記手が撮像された領域である手部分を抽出する抽出手段と、前記抽出手段が抽出した前記手部分の形状と予め用意されたテンプレートの形状とを比較する比較手段と、比較結果に基づいて前記手部分の前記形状に最も類似したテンプレートの形状を手の形状として特定する形状特定手段とを備え、前記形状特定手段が特定した前記手の形状を前記手情報とする
     請求項1~5のいずれかの項記載の電子機器のインターフェース。
  7.  前記画像取り込み手段は、前記操作者の前記手がある前記空間の前記画像を撮像して取り込み、
     前記手情報検出手段は、前記画像取り込み手段が撮像した前記画像を入力画像として、前記入力画像において前記手が撮像された領域である手部分を抽出する抽出手段と、前記抽出手段が抽出した前記手部分の重心を手の位置として特定する位置特定手段とを備え、前記位置特定手段が特定した前記手の位置を前記手情報とする
     請求項1~6のいずれかの項記載の電子機器のインターフェース。
  8.  前記画像取り込み手段は、前記操作者の手がある前記空間の画像を撮像して取り込み、
     前記手情報検出手段は、前記画像取り込み手段が撮像した前記画像を入力画像として、前記入力画像において前記手が撮像された領域である手部分を抽出する抽出手段と、前記抽出手段が抽出した前記手部分の重心を手の位置として特定する位置特定手段と、前記位置特定手段が特定した前記手の位置の時系列的な変化を、手の動きとして特定する動き特定手段とを備え、前記動き特定手段が特定した前記手の動きを前記手情報とする
     請求項1~7のいずれかの項記載の電子機器のインターフェース。
  9.  前記動き特定手段は、前記手の位置の時系列的な変化に相当する前記手の速度を前記手の動きとして特定する請求項8記載の電子機器のインターフェース。
  10.  前記抽出手段は、前記入力画像を構成する各画素の輝度及び色の情報のうち少なくとも一方を抽出用情報とし、前記入力画像において前記抽出用情報が予め設定された許容範囲内にある領域を前記手部分とする
     請求項6~9のいずれかの項記載の電子機器のインターフェース。
  11.  前記画像取り込み手段は、前記操作者の前記手がある前記空間の前記画像を撮像して取り込み、
     前記タッチ検出手段は、前記タッチパネル入力の位置に基づいて前記画像取り込み手段から前記操作者の前記手までの奥行き量を検出し、
     前記手情報検出手段は、前記画像取り込み手段が撮像した前記画像を入力画像として、前記入力画像において前記手が撮像された領域である手部分を抽出する抽出手段と、前記抽出手段が抽出した前記手部分の重心を手の位置として特定する位置特定手段と、前記タッチパネル入力があった時の前記入力画像から前記抽出手段及び前記位置特定手段を利用して特定された前記手の位置と、当該タッチパネル入力の前記位置に基づいて前記タッチ検出手段が検出した前記奥行き量とをもとに前記手の三次元位置を特定する3次元位置特定手段とを備え、前記3次元位置特定手段が特定した前記手の三次元位置情報を前記手情報とする
     請求項1~10のいずれかの項記載の電子機器のインターフェース。
  12.  前記3次元位置特定手段は、前記タッチパネル入力の前記位置にをもとに前記タッチ検出手段が検出した前記奥行き量に基づき、前記タッチパネル入力があった時の前記入力画像から前記抽出手段が抽出した前記手部分を基準とする手部分に校正する3次元校正手段を備え、校正した手部分、前記基準とする手部分、及び前記タッチパネル入力以後の前記入力画像から前記抽出手段が抽出した手部分に基づき、前記操作者の空中にある手の位置を推定して前記手の三次元位置を特定する
     請求項11記載の電子機器のインターフェース。
  13.  前記3次元校正手段は、前記抽出手段が抽出した前記手部分の重心に変動が生じたときに、前記変動に合わせて前記手の三次元位置を校正する請求項12に記載の電子機器のインターフェース。
  14.  前記制御手段は、前記電子機器が、前記タッチパネルに表示するアイコンに影を設け、前記アイコンを前記手情報に基づいて三次元的に移動させるとき、前記タッチパネルの平面内移動に対しては前記タッチパネルの画面内を追従して移動させ、前記タッチパネルの高さ方向の移動に対しては前記影と前記アイコンとの間の距離を変化させて表示させるように、前記電子機器の前記機能を制御する
     請求項1~13のいずれかの項記載の電子機器のインターフェース。
  15.  前記制御手段は、前記電子機器が、前記電子機器に設けられた通信手段を利用して情報の送受信をするように、前記電子機器の前記機能を制御する請求項1~14のいずれかの項記載の電子機器のインターフェース。
  16.  前記制御手段は、前記電子機器が、前記通信手段を使って、他の電子機器の画面情報を表示し、前記他の電子機器の機能をリモートに制御するように、前記電子機器の前記機能を制御する請求項15記載の電子機器のインターフェース。
  17.  前記制御手段は、前記電子機器が、前記他の電子機器のリモート制御を可能にするための識別情報を検出し、前記リモート制御を可能にするように、前記電子機器の前記機能を制御する請求項16記載の電子機器のインターフェース。
  18.  前記識別情報が画像情報である請求項17記載の電子機器のインターフェース。
  19.  前記通信手段の通信可能な距離が1m以内で設定される請求項15~18のいずれかの項記載の電子機器のインターフェース。
  20.  前記通信手段の通信可能な距離を前記操作者が任意に設定できる請求項15~18のいずれかの項記載の電子機器のインターフェース。
  21.  タッチパネルを有する操作手段と、
     前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、
     前記画像取り込み手段が取り込んだ前記画像から特定される操作者の手の状態を示す手情報を検出する手情報検出手段と、
     前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、
     前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて電子機器自身の機能を制御する制御手段と
     を有する電子機器。
  22.  タッチパネルを利用して電子機器の操作者の入力を受け付け、
     前記タッチパネル上方の空間の画像を取り込み、
     取り込んだ前記画像から特定される前記操作者の手の状態を示す手情報を検出し、
     前記タッチパネルでの前記操作者のタッチパネル入力を検出し、
     検出した前記手情報と検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する電子機器の操作方法。
  23.  タッチパネルを利用して電子機器の操作者の入力を受け付ける入力機能と、
     前記タッチパネル上方の空間の画像を取り込む画像取り込み機能と、
     前記画像取り込み機能を利用して取り込んだ前記画像から特定される前記操作者の手の状態を示す手情報を検出する手情報検出機能と、
     前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出機能と、
     前記手情報検出機能を利用して検出した前記手情報と前記タッチ検出機能を利用して検出した前記タッチパネル入力に基づいて前記電子機器の機能を制御する制御機能と
     をコンピュータに実現させるための電子機器の操作プログラム。
  24.  通信可能に接続された第1の電子機器と第2の電子機器を有し、
     前記第1の電子機器は、
     タッチパネルを有する操作手段と、
     前記タッチパネル上方の空間の画像を取り込む画像取り込み手段と、
     前記画像取り込み手段が取り込んだ前記画像から特定される操作者の手の状態を示す手情報を検出する手情報検出手段と、
     前記タッチパネルでの前記操作者のタッチパネル入力を検出するタッチ検出手段と、
     前記手情報検出手段が検出した前記手情報と前記タッチ検出手段が検出した前記タッチパネル入力に基づいて前記第1の電子機器の通信機能を制御する制御手段と
     を有し、
     前記第1の電子機器が前記第2の電子機器と情報の送受信をする電子機器の操作システム。
PCT/JP2010/001090 2009-02-25 2010-02-19 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム WO2010098050A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-042310 2009-02-25
JP2009042310 2009-02-25

Publications (1)

Publication Number Publication Date
WO2010098050A1 true WO2010098050A1 (ja) 2010-09-02

Family

ID=42665268

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/001090 WO2010098050A1 (ja) 2009-02-25 2010-02-19 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム

Country Status (1)

Country Link
WO (1) WO2010098050A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128809A (ja) * 2009-12-16 2011-06-30 Rohm Co Ltd 情報入力装置および情報出力装置
US20120133605A1 (en) * 2009-08-18 2012-05-31 Rohm Co., Ltd. Input/output device, mobile device, and information displaying device
JP2012113389A (ja) * 2010-11-22 2012-06-14 Internatl Business Mach Corp <Ibm> タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
JP2012143963A (ja) * 2011-01-12 2012-08-02 Konica Minolta Business Technologies Inc 画像形成装置、端末装置、画像形成システム、および制御プログラム
WO2012117232A1 (en) * 2011-02-28 2012-09-07 Stmicroelectronics (Research & Development) Limited Improvements in or relating to optical navigation devices
EP2530571A1 (en) * 2011-05-31 2012-12-05 Sony Ericsson Mobile Communications AB User equipment and method therein for moving an item on an interactive display
JP2013011983A (ja) * 2011-06-28 2013-01-17 Kyocera Corp 電子機器、制御方法および制御プログラム
JP2013016018A (ja) * 2011-07-04 2013-01-24 Canon Inc 表示制御装置、制御方法及びプログラム
CN103067782A (zh) * 2012-12-21 2013-04-24 康佳集团股份有限公司 一种基于智能电视的双手手势交互操作处理方法及系统
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
CN104049737A (zh) * 2013-03-14 2014-09-17 三星电子株式会社 用户设备的对象控制方法和装置
WO2014162762A1 (ja) * 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2015114762A (ja) * 2013-12-10 2015-06-22 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
CN104956292A (zh) * 2013-03-05 2015-09-30 英特尔公司 多个感知感测输入的交互
JP2016143139A (ja) * 2015-01-30 2016-08-08 アルパイン株式会社 情報処理装置、操作制御システムおよび操作制御方法
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
CN108303062A (zh) * 2016-12-27 2018-07-20 株式会社和冠 图像信息处理装置及图像信息处理方法
CN110120102A (zh) * 2018-02-06 2019-08-13 富士施乐株式会社 信息处理装置以及非暂时性的计算机可读介质
JP2021043629A (ja) * 2019-09-10 2021-03-18 株式会社ロゼッタ 端末制御プログラム、端末装置、端末制御方法および情報通信方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120133605A1 (en) * 2009-08-18 2012-05-31 Rohm Co., Ltd. Input/output device, mobile device, and information displaying device
US9571208B2 (en) 2009-08-18 2017-02-14 Rohm Co., Ltd. Input/output device, mobile device, and information displaying device
JP2011128809A (ja) * 2009-12-16 2011-06-30 Rohm Co Ltd 情報入力装置および情報出力装置
JP2012113389A (ja) * 2010-11-22 2012-06-14 Internatl Business Mach Corp <Ibm> タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
US9041664B2 (en) 2010-11-22 2015-05-26 International Business Machines Corporation Moving an object by drag operation on a touch panel
US9898181B2 (en) 2010-11-22 2018-02-20 International Business Machines Corporation Moving an object by drag operation on a touch panel
US10140010B2 (en) 2010-11-22 2018-11-27 International Business Machines Corporation Moving an object by drag operation on a touch panel
US10379727B2 (en) 2010-11-22 2019-08-13 International Business Machines Corporation Moving an object by drag operation on a touch panel
US9298359B2 (en) 2010-11-22 2016-03-29 International Business Machines Corporation Moving an object by drag operation on a touch panel
US9875011B2 (en) 2010-11-22 2018-01-23 International Business Machines Corporation Moving an object by drag operation on a touch panel
US10656821B2 (en) 2010-11-22 2020-05-19 International Business Machines Corporation Moving an object by drag operation on a touch panel
JP2012143963A (ja) * 2011-01-12 2012-08-02 Konica Minolta Business Technologies Inc 画像形成装置、端末装置、画像形成システム、および制御プログラム
WO2012117232A1 (en) * 2011-02-28 2012-09-07 Stmicroelectronics (Research & Development) Limited Improvements in or relating to optical navigation devices
US9354719B2 (en) 2011-02-28 2016-05-31 Stmicroelectronics (Research & Development) Limited Optical navigation devices
EP2530571A1 (en) * 2011-05-31 2012-12-05 Sony Ericsson Mobile Communications AB User equipment and method therein for moving an item on an interactive display
JP2013011983A (ja) * 2011-06-28 2013-01-17 Kyocera Corp 電子機器、制御方法および制御プログラム
JP2013016018A (ja) * 2011-07-04 2013-01-24 Canon Inc 表示制御装置、制御方法及びプログラム
JP2013541110A (ja) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド ジェスチャベースの入力のスケーリング
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
US20150015521A1 (en) * 2012-03-15 2015-01-15 Panasonic Corporation Gesture input operation processing device
CN104169839A (zh) * 2012-03-15 2014-11-26 松下电器产业株式会社 手势输入操作处理装置
JPWO2013136776A1 (ja) * 2012-03-15 2015-08-03 パナソニックIpマネジメント株式会社 ジェスチャ入力操作処理装置
WO2013136776A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 ジェスチャ入力操作処理装置
EP2827223A4 (en) * 2012-03-15 2017-03-08 Panasonic Intellectual Property Management Co., Ltd. Gesture input operation processing device
CN103067782A (zh) * 2012-12-21 2013-04-24 康佳集团股份有限公司 一种基于智能电视的双手手势交互操作处理方法及系统
CN103067782B (zh) * 2012-12-21 2017-12-22 康佳集团股份有限公司 一种基于智能电视的双手手势交互操作处理方法及系统
CN104956292B (zh) * 2013-03-05 2018-10-19 英特尔公司 多个感知感测输入的交互
CN104956292A (zh) * 2013-03-05 2015-09-30 英特尔公司 多个感知感测输入的交互
EP2965174A4 (en) * 2013-03-05 2016-10-19 Intel Corp INTERACTION OF MULTIPLE PERCEPTIVE DETECTION INPUTS
KR20140112920A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
CN104049737A (zh) * 2013-03-14 2014-09-17 三星电子株式会社 用户设备的对象控制方法和装置
US9372617B2 (en) 2013-03-14 2016-06-21 Samsung Electronics Co., Ltd. Object control method and apparatus of user device
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
RU2662690C2 (ru) * 2013-03-14 2018-07-26 Самсунг Электроникс Ко., Лтд. Устройство и способ управления объектом пользовательского прибора
TWI633460B (zh) * 2013-03-14 2018-08-21 三星電子股份有限公司 使用者裝置之物件控制方法及其設備
EP2778853A3 (en) * 2013-03-14 2015-01-21 Samsung Electronics Co., Ltd. Object control method and apparatus of user device
AU2014201588B2 (en) * 2013-03-14 2019-03-21 Samsung Electronics Co., Ltd. Object control method and apparatus of user device
JP2014179099A (ja) * 2013-03-14 2014-09-25 Samsung Electronics Co Ltd ユーザ機器のオブジェクト運用方法及び装置
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
CN105074625A (zh) * 2013-04-02 2015-11-18 索尼公司 信息处理设备、信息处理方法及程序
JPWO2014162762A1 (ja) * 2013-04-02 2017-02-16 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2014162762A1 (ja) * 2013-04-02 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2015114762A (ja) * 2013-12-10 2015-06-22 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
JP2016143139A (ja) * 2015-01-30 2016-08-08 アルパイン株式会社 情報処理装置、操作制御システムおよび操作制御方法
CN108303062A (zh) * 2016-12-27 2018-07-20 株式会社和冠 图像信息处理装置及图像信息处理方法
CN110120102A (zh) * 2018-02-06 2019-08-13 富士施乐株式会社 信息处理装置以及非暂时性的计算机可读介质
CN110120102B (zh) * 2018-02-06 2024-05-28 富士胶片商业创新有限公司 信息处理装置以及非暂时性的计算机可读介质
JP2021043629A (ja) * 2019-09-10 2021-03-18 株式会社ロゼッタ 端末制御プログラム、端末装置、端末制御方法および情報通信方法

Similar Documents

Publication Publication Date Title
WO2010098050A1 (ja) 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
EP1573498B1 (en) User interface system based on pointing device
US10642372B2 (en) Apparatus and method for remote control using camera-based virtual touch
KR101872426B1 (ko) 깊이 기반 사용자 인터페이스 제스처 제어
US9367138B2 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
KR102165818B1 (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
CN107407959B (zh) 基于姿势的三维图像的操纵
JP2009134718A5 (ja)
CN104081307A (zh) 图像处理装置、图像处理方法和程序
JP2012027515A (ja) 入力方法及び入力装置
KR101888681B1 (ko) 모바일기기 및 그 제어방법
US11886643B2 (en) Information processing apparatus and information processing method
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
JP4871226B2 (ja) 認識装置および認識方法
WO2015081485A1 (zh) 一种终端设备识别用户手势的方法和设备
CN110213205B (zh) 验证方法、装置及设备
KR20120016379A (ko) 객체 제어 장치 및 방법
KR101491648B1 (ko) 촬영부를 이용한 원격 제어 시스템 및 방법
KR20200121261A (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10745937

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10745937

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP