WO2014080829A1 - データ入力装置 - Google Patents

データ入力装置 Download PDF

Info

Publication number
WO2014080829A1
WO2014080829A1 PCT/JP2013/080783 JP2013080783W WO2014080829A1 WO 2014080829 A1 WO2014080829 A1 WO 2014080829A1 JP 2013080783 W JP2013080783 W JP 2013080783W WO 2014080829 A1 WO2014080829 A1 WO 2014080829A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
hand
image
information
unit
Prior art date
Application number
PCT/JP2013/080783
Other languages
English (en)
French (fr)
Inventor
紫村 智哉
栄 齋藤
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2014548539A priority Critical patent/JP5896578B2/ja
Priority to US14/646,652 priority patent/US10186057B2/en
Priority to CN201380061150.7A priority patent/CN104813258B/zh
Publication of WO2014080829A1 publication Critical patent/WO2014080829A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves

Definitions

  • the present invention relates to a data input device.
  • This application claims priority based on Japanese Patent Application No. 2012-256552 filed in Japan on November 22, 2012, the contents of which are incorporated herein by reference.
  • the information input device described in Patent Literature 1 is configured to simultaneously transmit infrared rays from an infrared ray transmission unit of a pointer and ultrasonic waves from an ultrasonic wave transmission unit, and the time when the ultrasonic waves are received with reference to the time when the infrared rays are received. Depending on the difference, enter the position where the bar is pointing on the display. Further, the information processing apparatus described in Patent Document 2 captures an image of an information input surface irradiated with light, and is on the information input surface of the input device detected based on the luminance distribution on the information input surface of the captured image. Process information according to location.
  • a dedicated input device such as a insertion rod is used as an input device used for inputting position information, so that the use may be limited.
  • input devices for the number of participants are required.
  • an electronic advertising device digital signage
  • the input device tends to be damaged or lost.
  • information is transmitted between the input device and the apparatus main body using infrared rays whose propagation characteristics are affected by the weather, it may not be suitable for outdoor use.
  • the information processing apparatus described in Patent Document 2 requires equipment having a physical plane such as a desk or table as an information input surface used for inputting handwritten characters and the like.
  • application may be restricted in situations where such equipment cannot be installed.
  • a space provided with such equipment may not be secured.
  • the present invention has been made in view of such problems, and it is an object of the present invention to provide a data input device that smoothly performs drawing input without using a dedicated device.
  • a data input device is a position of a part of a user's body represented in an image captured by the imaging device.
  • a first position based on the position and a part of the body based on the position detected by the second position based on the position of the other part, the first position detected by the position detector, and the second position
  • a drawing input detection unit that detects drawing input
  • a target position detection unit that detects a target position on the image display surface corresponding to the second position detected by the position detection unit
  • the drawing input detection unit that performs drawing input
  • An image forming unit that forms an image indicating the target position detected by the target position detection unit.
  • the image forming unit determines information related to the processing of the image according to a coordinate value in the depth direction of the second position. May be configured.
  • the data input device described above may include a first shape detection unit that detects the shape of another part of the body.
  • the image forming unit may be configured to determine information relating to the processing of the image based on the shape detected by the first shape detecting unit.
  • the position detection unit is based on a position of still another part of the user's body represented in an image captured by the imaging device. It may be configured to detect the third position.
  • the drawing input detection unit may be configured to determine one of the boundaries of the input detection area based on the third position detected by the position detection unit.
  • the data input device described above may include a second shape detection unit that detects a shape of still another part of the body.
  • the image forming unit may be configured to determine information related to the processing of the image based on the shape detected by the second shape detecting unit.
  • a part of the user's body may be a face, and the other part of the body is one of left and right hands. There may be.
  • a part of the user's body may be a face, and the other part of the body may be one of left and right hands.
  • the other hand of the user's body may be the other hand.
  • a part of the user's body may be an eye, and the other part of the body is a left or right hand. There may be.
  • a part of the user's body may be an eye, and the other part of the body is a left or right hand.
  • the other hand of the user's body may be the other hand.
  • a data input method in a data input device includes: a first position based on a position of a part of a user's body represented by an image captured by an imaging device; Is a position detection step of detecting a second position based on another part of the position, a drawing input detection step of detecting a drawing input based on the first position and the second position detected in the position detection step, A target position detection step for detecting a target position on the image display surface corresponding to the second position detected in the position detection step; and a drawing input detected in the drawing input detection step; And an image forming step of forming an image showing the attention position.
  • the first position based on the position of the part of the user's body represented by the image captured by the imaging device is different from the part of the body.
  • a target position detection step for detecting a target position on the image display surface corresponding to the second position detected in step (b), and when a drawing input is detected in the drawing input detection step, the target position detected in the target position detection step is And causing the computer of the data input device to execute an image forming process for forming an image to be shown.
  • a schematic diagram showing composition of control part 22 concerning this embodiment is shown.
  • FIG. 1 is a conceptual diagram illustrating an external configuration of a display device 10 according to the present embodiment.
  • a display device 10 is a device that displays video, such as a television receiver, a digital signage (electronic signage) device, or a video conference device.
  • the display device 10 includes an imaging device 11 in the center of the lower front side, and includes a display unit 12 so as to cover most of the front surface.
  • the imaging device 11 is, for example, a stereo camera that captures an image in the front direction.
  • the imaging device 11 includes, for example, imaging units 110a and 110b that are located apart from each other in the left-right direction and image the front.
  • the imaging units 110a and 110b are each a camera unit.
  • the display unit 12 is a display that displays an image based on an image signal input from the built-in control unit 22 (FIG. 3).
  • the display device 10 may include a speaker (not shown) that outputs sound.
  • the operator 13 is a user who operates the display device 10.
  • the operator 13 faces the front of the display device 10 and conveys user information (intention) by a predetermined posture, for example, body gesture or gesture.
  • the user information analysis unit 201 (FIG. 3) built in the display device 10 acquires user information representing the posture taken by a part of the body of the operator 13 represented in the image captured by the imaging device 11.
  • the user information includes, for example, a hand shape such as a pointing hand, a fist, and information indicating how to move the hand.
  • the display device 10 executes processing corresponding to the user information acquired via the imaging device 11. Thereby, the operator 13 can operate the processing of the display device 10 by the shape of the hand such as a pointing hand, the fist, and how to move it.
  • the display device 10 is preset with an operable area that is set in advance based on its own position and that accepts an operation by the operator 13.
  • an operable region for example, an upper limit (for example, 3 m) of an operable distance that is a distance in the forward direction from the center of the display device 10 to the position of the hand of the operator 13 is set.
  • the left-right direction of the operable region can be set within the range of the viewing angle of the imaging device 11, for example. In this case, setting in the left-right direction is not necessary.
  • the display device 10 does not accept an operation by the operation disabled person 14 who is a user far away from the upper limit of the operable distance. The process for determining the user who receives the operation will be described in detail later.
  • the imaging device 11 is installed on the lower front side of the display device 10, but is not limited thereto.
  • the imaging device 11 may be installed on the upper front side of the display device 10 or may be installed at a position away from the display device 10.
  • the imaging device 11 may be installed at a position higher than the height of the face of the operator 13, in particular, the height of the eyes.
  • the height of the imaging device 11 is determined in advance in consideration of the height of the floor on which the operator 13 is located and the average height of a person.
  • the imaging device 11 may be installed at a position higher than the display unit 12.
  • the imaging device 11 can capture an image representing the body of the operator 13 from a position higher than the face of the operator 13, and the operator 13 can change the shape of the hand such as a pointing hand, a fist, and how to move it. Can be prevented from being masked. Therefore, the control unit 22 can stably execute processing such as operator identification, face position detection, and operation detection performed using the face image of the operator 13. These processes will be described later.
  • FIG. 2 is a plan view showing the positional relationship between the display device 10 according to the present embodiment and the user.
  • the top and bottom represent the back and front directions of the display device 10, respectively.
  • the positional relationship among the operator 13, the operation disabled person 14, and the display device 10 shown in FIG. 2 is the same.
  • the operator 13 is located on the front face of the display device 10 at a position where the distance from the display device 10 is shorter (closer) than the upper limit of the operable distance.
  • the operation disabled person 14 is located in front of the display device 10 at a position where the distance from the display device 10 is longer (distant) than the upper limit of the operable distance.
  • the control unit 22 (FIG. 3) has an opportunity for a plurality of users to perform an operation at the same time and an operation mistaken as an operation (for example, near a digital signage device).
  • the opportunity to input an image representing a hand gesture by a passerby that passes through is limited. For example, even when the display device 10 is used by a plurality of users at the same time, such as a digital signage device installed in a public place, processing that is not intended by the user who views the video is avoided.
  • FIG. 3 is a block diagram illustrating the configuration of the display device 10 according to the present embodiment.
  • the display device 10 includes an imaging device 11, an image processing device 20, an information DB (Database) 21, a control unit 22, and a display unit 12.
  • the display device 10 may be separate from the imaging device 11 and the display unit 12 as long as the display device 10 includes the image processing device 20, the information DB 21, and the control unit 22 as a data input device.
  • the imaging device 11 generates a video signal representing the captured video and outputs the generated video signal to the image processing device 20.
  • the image processing device 20 obtains operator information representing the operator determined based on the video signal input from the imaging device 11, obtains first spatial information representing a position where a part of the operator's body is located, and operates.
  • the user information representing the shape taken by a part of the person's body is acquired.
  • the image processing apparatus 20 outputs the acquired operator information, first spatial information, and user information to the control unit 22 as detection information.
  • the information DB 21 stores display information to be displayed in response to an operation input based on a video signal representing the video of the operator 13.
  • the display information is, for example, a video signal representing video content, text information representing news, content information representing content received from the network, and a guide image signal representing a guide image (operation guide). Details of the guide image will be described later.
  • the control unit 22 extracts first spatial information and user information from the detection information input from the image processing device 20. When the position of the operator 13 represented by the extracted first spatial information is within the predetermined operable region, the control unit 22 performs processing corresponding to the extracted user information.
  • the control unit 22 determines whether or not the distance of the operator 13 represented by the first spatial information is smaller than a predetermined upper limit of the operable distance.
  • Processing corresponding to user information includes, for example, display of guidance images, display of video content, information retrieval from the network, storage of video content and news related to the searched information, display of stored information, etc. This is processing related to various video displays.
  • the control unit 22 stores information instructed to be saved in the information DB 21 as display information.
  • the control unit 22 reads display information instructed to be displayed from the information DB 21 and outputs a video signal representing the read display information to the display unit 12.
  • the control unit 22 stops outputting the display information instructed to stop.
  • the display unit 12 displays the video signal input from the control unit 22 as a video.
  • the video content related to the news and news selected by the operator 13 and the operation, and the guidance image are displayed.
  • the information DB 21 and the control unit 22 constitute a display control device (not shown). Execute the process to be displayed.
  • the imaging device 11 includes imaging units 110a and 110b.
  • the imaging units 110 a and 110 b generate a video signal representing the captured video, and output the generated video signal to the image processing device 20.
  • the imaging unit 110a outputs the generated video signal to the user information analysis unit 201.
  • the imaging units 110a and 110b are, for example, cameras that include an optical system that includes a lens that focuses light incident from a subject on a focal point, and an imaging element that converts the collected light into an electrical signal.
  • the imaging devices included in the imaging units 110a and 110b are, for example, CCD (Charge Coupled Device) elements and CMOS (Complementary Metal Oxide Semiconductor) elements.
  • the image processing apparatus 20 includes a distance calculation unit 200 and a user information analysis unit 201.
  • the distance calculation unit 200 receives video signals from the imaging units 110a and 110b.
  • the distance calculation unit 200 calculates distance information representing the distance from the imaging device 11 to the subject (for example, the operator 13) based on each input video signal using, for example, a stereo matching method.
  • the parallax value of the video imaged by the imaging units 110a and 110b is calculated as the distance value.
  • an image included in a video captured by the imaging unit 110a and an image at a certain time point is referred to as a left image.
  • An image included in the video imaged by the imaging unit 110b and the image at that time is called a right image.
  • FIG. 4 is a conceptual diagram illustrating an example of the left image and the right image.
  • FIG. 4 shows a left image 400 on the left side and a right image 410 on the right side.
  • the distance calculation unit 200 sets a left image block (window) 401 centered on the target pixel in the left image 400.
  • the horizontal distance from the right end of the left image 400 to the right end of the left image block 401 in FIG. 4 is L pixels (distance of L pixels). L is 1 or an integer greater than 1.
  • the distance calculation unit 200 sets, as an initial value, a right image block 411 having the same vertical coordinate as the left image block 401 and having a right end at L + d2 from the right end of the right image 410.
  • . d2 is an integer value set in advance and represents the maximum parallax value.
  • the size and shape of the right image block 411 are the same as those of the left image block 401.
  • the distance calculation unit 200 calculates an index value between the left image block 401 and the right image block 411.
  • the distance calculation unit 200 shifts the position of the right image block 411 from the initial value position until the distance from the right end of the right image block 411 to the right end of the right image 410 becomes L pixels, and calculates an index value at each shifted position.
  • the distance calculation unit 200 determines a right image block 411 at a position corresponding to the left image block 401 based on the calculated index value. For example, when an SAD (Sum of Absolute Difference) value is used as the index value, the right image block 411 at the position where the SAD value is minimized is determined. This position is an attention point corresponding to the attention pixel in the left image 400.
  • the absolute value for the horizontal coordinate difference between the target point and the target pixel is parallax.
  • the distance calculation unit 200 executes the respective pixels included in the left image 400 and uses disparity information (also referred to as a disparity map or disparity map) representing disparity values for each pixel included in the image captured by the image capturing unit 110a as distance information. Generate as The parallax has a relationship that increases as the distance from the imaging device 11 to the subject decreases, and decreases as the distance increases.
  • the distance calculation unit 200 outputs the generated distance information to the user information analysis unit 201.
  • the disparity map is a grayscale bitmap image having a disparity value represented by an integer value represented by a predetermined number of bits (for example, in the case of 8 bits, a minimum value 0 to a maximum value 255) for each pixel. It is.
  • the distance calculation unit 200 converts the parallax into a distance in the subject space from the imaging device 11 to the subject based on a camera parameter such as a baseline length that is an interval between the imaging unit 110a and the imaging unit 110b. Distance information representing the distance may be generated. Therefore, the distance calculation unit 200 may generate a bitmap image (depth map) obtained by converting the converted distance into a gray scale instead of the distance information indicating the parallax value for each pixel as the distance information.
  • the imaging units 110a and 110b may be arranged at different coordinate values in the vertical direction, and calculate parallax using captured images that represent images captured by each.
  • the distance calculation unit 200 may search the corresponding image block by shifting the image block in the image captured by the other image sensor in the vertical direction with reference to the image block in the image captured by either of the imaging units 110a and 110b. Good.
  • the distance calculation unit 200 uses, for example, Equation (1) when calculating the SAD value.
  • x i is a pixel value for each pixel included in the left image block 401, for example, green (G: Green). 8 is an example of the number of pixels included in one image block.
  • the arrangement of the pixels corresponding to the pixel values x 0 to x 8 is the order from the left end to the right end for each row as shown on the left side of FIG. 5, and from the top row to the bottom row between rows.
  • x ai is a pixel value for each pixel included in the right image block 411.
  • the arrangement of the pixels corresponding to the pixel values x a0 to x a8 is the order from the left end to the right end for each row as shown on the right side of FIG. 5, and from the top row to the bottom row between the rows.
  • the index value is not limited to the SAD value. Any other index value such as an SSD (Sum of Squared Difference) value or DP (Dynamic Programming) may be used as long as it represents the correlation between the pixel value included in the left image block 401 and the pixel value included in the right image block 411. It may be a value.
  • the window size which is the size of the left image block 401 and the right image block 411 is not limited to 3 pixels in the horizontal direction ⁇ 3 pixels in the vertical direction as described above.
  • the position may be shifted from the position.
  • the direction in which the right image block 411 is shifted is not limited from the left side to the right side as described above, and may be from the right side to the left side.
  • the pixels included in the left image block 401 and the right image block 411 are not limited to signal values of green (G) pixels, but may be signal values of other colors, for example, red (R: Red) pixels.
  • the pixel signal value based on another color system or any combination thereof may be used.
  • the coordinates of the left image 400 and the corresponding coordinates of the right image 410 are shifted in the left-right direction, not shifted in the vertical direction, and the epipolar lines of the left image 400 and the right image 410 match.
  • the reason why the optical axes of the imaging units 110a and 110b are arranged in parallel as described above is to match epipolar lines (also called auxiliary lines).
  • epipolar lines also called auxiliary lines.
  • the image signals captured so that the optical axes of the left image 400 and the right image 410 are parallel are coordinated. You may perform the process to convert.
  • the process of performing the coordinate transformation is called rectification or shift correction.
  • the distance calculation unit 200 generates distance information after performing this process.
  • the epipolar lines are lines 456 and 457 where the epipolar plane 453 and the imaging planes 454 and 455 provided in each of the two imaging units 110 a and 110 b intersect.
  • the epipolar plane 453 is a plane that passes through the three focal points 450 and 451 of the lens provided in each of the two imaging units 110a and 110b and the feature point 452 in the subject space.
  • the epipolar lines 456 and 457 are horizontal lines having the same vertical coordinate in the left image 400 and the right image 410, respectively.
  • FIG. 7 is a schematic diagram illustrating the configuration of the user information analysis unit 201 according to the present embodiment.
  • the user information analysis unit 201 includes a face detection unit 30, an eye position detection unit 31, a hand position detection unit 32, a hand shape / fingertip position detection unit 33, a target position detection unit 35, an operator determination unit 39, and a drawing input detection unit 40. And a detection information output unit 41.
  • the face detection unit 30 detects an area representing an image of the operator's face represented by the video signal input from the imaging unit 110a.
  • the face detection unit 30 generates two-dimensional face area information representing the two-dimensional coordinates of the representative points (for example, the center of gravity) in the detected face area and the two-dimensional coordinates of the upper end, the lower end, the left end, and the right end of the area. .
  • the face detection unit 30 extracts the distance value related to the pixel of the two-dimensional coordinate represented by the two-dimensional face area information from the distance information input from the distance calculation unit 200.
  • the face detection unit 30 converts the distance value corresponding to the above-described two-dimensional coordinates into three-dimensional coordinates in the object space, and generates three-dimensional face position information.
  • the face detection unit 30 extracts, for example, pixels in a range of color signal values representing a preset face color (for example, skin color) from the input image signal.
  • the face detection unit 30 may include a storage unit that previously stores a grayscale (monochrome) image signal representing a human face. Therefore, the face detection unit 30 calculates a correlation value between the grayscale image signal read from the storage unit and the input image signal for each image block including a plurality of pixels, and the calculated correlation value is greater than a predetermined threshold value. A large image block is detected as a facial region.
  • the face detection unit 30 calculates a feature amount (for example, Haar-Like feature amount) based on the input image signal, and performs a predetermined process (for example, an Adaboost algorithm) based on the calculated feature amount.
  • the face area may be detected.
  • the method by which the face detection unit 30 detects the facial region is not limited to the above-described method, and any method may be used as long as the facial region is detected from the input image signal.
  • the face detection unit 30 outputs a face image signal representing the detected face image to the eye position detection unit 31.
  • the face detection unit 30 outputs the generated 3D face position information and 2D face area information to the operator determination unit 39.
  • the face detection unit 30 outputs the generated three-dimensional face position information to the detection information output unit 41 as part of the detection information.
  • the eye position detection unit 31 detects an eye region from the facial image represented by the facial image signal input from the face detection unit 30.
  • the eye position detection unit 31 calculates two-dimensional eye position coordinates that are representative points (for example, centroid points) of the detected eye region.
  • the eye position detection unit 31 extracts the distance value at the pixel located at the detected eye position coordinates from the distance information input from the distance calculation unit 200.
  • the eye position detection unit 31 converts the set of the calculated two-dimensional eye position coordinates and the extracted distance value into three-dimensional eye position coordinates in the object space, and generates three-dimensional eye position information.
  • the eye position detection unit 31 outputs the three-dimensional eye position information representing the calculated three-dimensional eye position coordinates to the attention position detection unit 35 and the operator determination unit 39.
  • the eye position detection unit 31 outputs an eye region signal representing an image of the detected eye region and two-dimensional eye position information representing the calculated two-dimensional eye position coordinates to the operator determination unit 39.
  • the eye position detection unit 31 In order for the eye position detection unit 31 to detect an eye region, for example, a storage unit that stores a template image of an eye that has been captured in advance is provided.
  • the eye position detection unit 31 may use a template matching method that reads an eye template image from the storage unit and collates the read template image with the input facial image signal.
  • the eye position detection unit 31 calculates the positional relationship of eyes on a predetermined face (for example, the pre-measured face area and the positions of both eyes) among the facial areas represented by the input facial image signal.
  • the eye region may be detected using the eye position information that is represented.
  • the eye position detection unit 31 calculates a feature amount (for example, Haar-Like feature amount) based on the input face image signal, and performs a predetermined discrimination process (for example, an Adaboost algorithm) based on the calculated feature amount ) To detect the eye region.
  • a feature amount for example, Haar-Like feature amount
  • a predetermined discrimination process for example, an Adaboost algorithm
  • the method of detecting the eye region by the eye position detection unit 31 is not limited to the above-described method, and any method may be used as long as the method detects the eye region from the face image signal.
  • the eye position detection unit 31 may output an eye area signal representing the positions of the left eye and the right eye, or all of them, regardless of the center of gravity of both eyes as the eye area to be detected.
  • the hand position detection unit 32 detects a region representing the image of the operator's hand represented by the video signal input from the imaging unit 110a, and calculates the position of the detected hand. In order to detect a region representing a hand image, the hand position detection unit 32 inputs, for example, a pixel within a color signal value range representing a color (for example, skin color) of a hand surface set in advance to an input video signal. Extract from The hand position detection unit 32 calculates a two-dimensional coordinate value of a representative point (for example, a center of gravity point) of an area representing the hand image detected as the hand position.
  • a representative point for example, a center of gravity point
  • the hand position detection unit 32 extracts a distance value corresponding to the calculated coordinate value from the distance information input from the distance calculation unit 200, and sets a set of distance values corresponding to the calculated two-dimensional coordinate value in the subject space. Three-dimensional hand position information is generated by converting into three-dimensional coordinates.
  • the hand position detection unit 32 outputs a hand image signal representing the detected image of the hand region and hand position information representing the calculated two-dimensional coordinate value of the representative point to the hand shape / fingertip position detection unit 33.
  • the hand position detection unit 32 outputs the three-dimensional hand position information to the operator determination unit 39.
  • the hand position detection unit 32 may generate and output a hand image signal and hand position information without distinguishing the left hand or the right hand, or generate a hand image signal and hand position information by distinguishing the left hand or the right hand. Output.
  • the hand position detection unit 32 represents the three-dimensional face position information input from the face detection unit 30 based on the distance information input from the distance calculation unit 200.
  • An image within a distance range represented by a start point and an end point in a depth direction based on the three-dimensional face position is extracted as a region representing a hand image from the video signal input from the imaging unit 110a.
  • the predetermined distance range is, for example, a range in front of the three-dimensional face position (on the display unit 12 side). Thereby, it can prevent recognizing the hand of another person who is ahead or behind the operator as the hand of the operator.
  • the hand shape / fingertip position detection unit 33 detects the shape of the hand based on the hand image signal input from the hand position detection unit 32 and the hand position information. In order to detect the shape of the hand, the hand shape / fingertip position detection unit 33 performs edge extraction processing, for example, from the hand image signal to detect the contour portion of the hand. The hand shape / fingertip position detection unit 33 searches the detected contour portion for a projection portion having a predetermined range of curvature radius (for example, 6-12 mm) as an image of the finger region.
  • a predetermined range of curvature radius for example, 6-12 mm
  • the hand shape / fingertip position detection unit 33 determines the presence or absence of the above-described protrusion in the search area having a predetermined radius from the representative point represented by the hand position information in the search, and changes the radius sequentially to make the search area concentric. Update to The hand shape / fingertip position detection unit 33 counts the number of fingers based on the detected finger area. The hand shape / fingertip position detection unit 33 detects the apex of the detected protrusion as two-dimensional coordinates representing the fingertip position of each finger. The hand shape / fingertip position detection unit 33 extracts the distance value of the pixel located at the two-dimensional coordinates of the determined fingertip from the distance information input from the distance calculation unit 200.
  • the hand shape / fingertip position detection unit 33 generates a three-dimensional fingertip position information representing a three-dimensional coordinate in the subject space from the set of the extracted distance value and the two-dimensional coordinate at the fingertip.
  • the hand shape / fingertip position detection unit 33 outputs the generated three-dimensional fingertip position information to the attention position detection unit 35.
  • the hand shape / fingertip position detection unit 33 detects the finger image signal representing the detected finger region, the number information representing the number of fingers, and the two-dimensional fingertip position information representing the two-dimensional coordinates on the fingertip as detection information. Output to the output unit 41.
  • any one or a combination of the finger image signal, the number information, and the two-dimensional fingertip position information is information indicating the shape of the hand, and is therefore collectively referred to as hand shape information.
  • the method of detecting the hand shape information by the hand shape / fingertip position detection unit 33 is not limited to the above-described method, and any method can be used as long as it detects hand shape information such as a finger image signal and fingertip position information from the hand image signal. Any method may be used.
  • the attention position is a position where the operator is paying attention or a position estimated to be paying attention.
  • the attention position detection unit 35 detects the attention position based on the three-dimensional eye position information input from the eye position detection unit 31 and the three-dimensional fingertip position information input from the hand shape / fingertip position detection unit 33.
  • the attention position detection unit 35 determines the reference position based on the eye position represented by the three-dimensional position information, for example.
  • the attention position detection unit 35 may determine the position of one of the eyes as the reference position, or may determine the center of gravity of the position of both eyes as the reference position. Further, as one of the eyes, a pre-set operator's dominant eye may be set in advance. In the following description, a case where the center of gravity of the position of both eyes is determined as the reference position will be described as an example, but the present embodiment is not limited to this.
  • the attention position detection unit 35 calculates an intersection point between a straight line extending from the reference position to the position indicated by the three-dimensional fingertip position information and the display surface of the display unit 12 as the attention position. That is, the attention position detection unit 35 detects a position on the display surface corresponding to the position of the fingertip as the attention position. This attention position is a position where the fingertip of the operator points on the display surface of the display unit 12. The position indicated by the three-dimensional fingertip position information is called a designated position.
  • the attention position detection unit 35 converts the calculated attention position into a two-dimensional image coordinate system on the display surface of the display unit 12, and generates attention position information indicating the converted attention position.
  • the attention position detection unit 35 outputs the generated attention position information to the detection information output unit 41 as a part of the detection information.
  • the operator designates an attention position on the extension line of the operator's hand (specified position for attention position detection) around the operator's eye position (reference position for attention position detection). It is possible to easily perform drawing.
  • the shape of the hand indicating the position of interest by the operator is any shape that can acquire 3D fingertip position information, such as a shape in which the hand is opened, a shape in which the index finger is raised, or a shape in which the hand is closed. The shape may also be
  • the operator determination unit 39 determines a user who is located in a predetermined operable distance area among users who have detected a face area as an operator. (See FIGS. 1 and 2).
  • the operator discriminating unit 39 discriminates, as an operator, a user whose face is located at a position where the distance represented by the three-dimensional face position information is shorter than the predetermined upper limit of the operable distance, for example. . Thereby, an operator is discriminated from the users whose face detection unit 30 has detected the face.
  • the operator discriminating unit 39 discriminates a user who is located outside a predetermined operable area as an inoperable person.
  • the operator determination unit 39 determines whether or not another part (for example, a hand) of the user's body located in the operable area is located in the operation detection area.
  • the operator determination unit 39 determines whether or not the position indicated by the three-dimensional hand position information input from the hand position detection unit 32 is included in the operation detection area.
  • the operation detection area is an area included in the operable area, and is based on a reference position (for example, the position of one eye, the midpoint of both eyes, etc.) based on the position of a part of the user's body (for example, the eye). This is an area in a predetermined range.
  • the operator determination unit 39 determines a reference position based on the three-dimensional face position information input from the face detection unit 30 or the three-dimensional eye position information input from the eye position detection unit 31, and sets the reference position to the determined reference position. Based on this, an operation detection area is determined.
  • the position indicated by the three-dimensional hand position information may be referred to as a designated position.
  • the operator discriminating unit 39 selects three-dimensional hand position information indicating a position determined to be included in the operable region from the three-dimensional hand position information input from the hand position detecting unit 32.
  • the operator determination unit 39 may limit the number of areas included in the operable area to one (exclusive control).
  • the operator determination unit 39 determines that the designated position is within the range of the operation detection region, the operator 13 designates a user who has another part of the body (for example, a hand) at the designated position.
  • the operator discriminating unit 39 outputs an operation start signal indicating that the operation has started based on the detection information relating to the operator to the detection information output unit 41.
  • the operator discriminating unit 39 determines the operation detection area as described above, and determines that the user who has moved another part of the body to the area (for example, the front surface of the face) is the operator.
  • the operator discriminating unit 39 determines that the operator has finished the operation when the designated position represented by the three-dimensional hand position information input from the hand position detecting unit 32 is outside the range of the operation detection area. In that case, the operator discriminating unit 39 outputs an operation end signal indicating that the operation has ended based on the detection information relating to the operator to the detection information output unit 41. That is, the display device 10 is determined to be an operator from when the operator determination unit 39 outputs an operation start signal for a certain operator to the detection information output unit 41 until an operation end signal is output. An operation input based on the shape of the user's hand is received. Even if the representative point represented by the hand position information for another user is within the range of the operation start detection area, the display device 10 does not accept an operation from another user during that time.
  • the operator determination unit 39 determines that the designated position represented by the hand position information is the operation detection region.
  • One user closest to the center may be determined as the operator 13.
  • the display apparatus 10 can accept an operation input from only one new operator 13 and can not accept an operation input from two users at the same time. As a result, it is possible to avoid receiving operations from a plurality of people at the same time, and accepting operations from only one operator.
  • the operator determination unit 39 outputs the operation detection area information indicating the operation detection area related to the user determined as the operator and the selected three-dimensional hand position information to the drawing input detection unit (manual input detection unit) 40.
  • the drawing input detection unit 40 determines an input detection region based on the operation detection region information input from the operator determination unit 39.
  • the input detection area is an area included in the operation detection area indicated by the operation detection area information, and is an area for detecting a position where a drawing input is performed.
  • the drawing input detection unit 40 determines, as an input detection region, a region that is deeper than a depth value that is predetermined in advance from another part (for example, eyes) of the operator's body in the operation detection region.
  • the drawing input detection unit 40 detects whether or not drawing input has been performed based on the specified input detection area and the designated position indicated by the three-dimensional hand position information input from the operator determination unit 39.
  • the drawing input detection unit 40 detects that a drawing input has been performed when the designated position indicated by the three-dimensional hand position information is included in the input detection area.
  • the drawing input detection unit 40 determines that drawing input is not performed when the designated position is not included in the determined input detection area. Thereby, the drawing input by the operator is detected.
  • the drawing input detection unit 40 generates a drawing detection signal indicating whether or not a drawing input has been detected, and outputs the generated drawing detection signal to the detection information output unit 41.
  • Detection information is input to the detection information output unit 41 from the face detection unit 30, the operator determination unit 39, the drawing input detection unit 40, the attention position detection unit 35, and the hand shape / fingertip position detection unit 33, respectively.
  • the detection information output unit 41 outputs the attention position information input from the attention position detection unit 35 and the drawing detection signal input from the drawing input detection unit 40 to the control unit 22.
  • the detection information output unit 41 outputs detection information of the operator related to the input operation start signal to the control unit 22.
  • the detection information output unit 41 ends the output of the operator detection information related to the input operation end signal.
  • the user information analysis unit 201 is not limited to the above-described method and feature amount, and may detect information related to the user's feature and the operation instructed by the user based on the input video signal.
  • FIG. 8 is a conceptual diagram illustrating an example of the input detection area according to the present embodiment.
  • FIG. 8A shows the front of the operator 13.
  • the input detection region r11 is a region including a line segment 134 that represents the height of both eyes connecting the left eye 131-1 and the right eye 131-2 of the operator 13, for example.
  • the vertical range h of the input detection region r11 is, for example, a line segment 135 that is parallel to the line segment 134 and touches the upper end of the face 132, and a line segment 136 that is parallel to the line segment 134 and touches the lower end of the face 132. It is the range between.
  • the vertical range of the input detection region r1 is also equal to the vertical range of the operation detection region r1.
  • FIG. 8B shows the left side of the operator 13.
  • the range in the depth direction of the operation detection region r1 is a range from the forefront of the face 132 to the reference position P10 and from the front by a predetermined distance d1 (back) to the front by a predetermined distance d11 + d12. .
  • a position ahead by a predetermined distance d1 from the forefront of the face 132 is referred to as an operation detection start position q1.
  • the range in the depth direction of the input detection region r1 is a range from the front surface of the face 132 from the front by a predetermined distance d1 + d12 to the front by a predetermined distance d11.
  • an area in a range from the front surface of the face 132 from the front by a predetermined distance d1 to the front by a predetermined distance d12 is the input non-detection area r12. That is, the input non-detection area is an area that belongs to the operation detection area r1 but does not detect the position where the drawing input is performed.
  • the boundary surface b1 is a boundary surface that divides between the input detection region r11 and the input non-detection region r12.
  • FIG. 9 is a conceptual diagram illustrating an example of the operation detection area according to the present embodiment.
  • FIG. 9 shows an example in which the operator 13 is lying on the bottom surface 137.
  • the angle ⁇ formed by the line segment 134 connecting the left eye 131-1 and the right eye 131-2 and the bottom surface 137 is an angle closer to 90 ° than 0 ° (for example, 70 °).
  • the operator determination unit 39 determines a line segment 134 connecting the left eye 131-1 and the right eye 131-2 based on the three-dimensional eye position information input from the eye position detection unit 31.
  • the operator determination unit 39 touches the upper end of the face and is parallel to the line segment 134, and touches the lower end of the face and is parallel to the line segment 134. Minute 136 is defined.
  • the operator discriminating unit 39 determines the width h of the operation detection region r1 in the region sandwiched between the line segment 135 and the line segment 136. This operation detection area r1 is only different in direction from that shown in FIG.
  • the operator determination unit 39 can determine the direction perpendicular to the face 132 as the depth direction in the depth direction range of the operation detection region r1 in the same manner as described above.
  • the operator determination unit 39 can determine the operation detection region r1 based on the position of the face that is a part of the body of the operator 13. Thereby, the operator who receives the operation is determined based on the positional relationship with the hand which is the other part of the body related to the drawing input, and the input detection area is determined.
  • FIG. 10 is a conceptual diagram illustrating another example of the input detection area according to the present embodiment.
  • FIG. 10A shows the left side of the operator 13. The vertical direction and the horizontal direction with respect to the paper surface of FIG.
  • the input detection area r11 is indicated by a filled portion.
  • the input detection region r11 is a region (depth direction operation range) in which the distance from the reference position P10 is equal to or longer than a predetermined distance d1 + d12 in the depth direction, and is equal to or closer than the distance d1 + d11 + d12.
  • the operation detection area r1 is an area obtained by combining a predetermined input detection area r11 and an input non-detection area r12 when viewed in the depth direction from the reference position P10.
  • the input non-detection region r12 is indicated by a shaded portion.
  • the input non-detection region r12 is a region in which the distance from the reference position P10 is equal to or longer than the predetermined distance d1 in the depth direction and equal to or closer to the distance d1 + d12.
  • FIG. 10B shows the upper surface of the operator 13.
  • the vertical direction and the horizontal direction with respect to the paper surface indicate the front-rear direction and the horizontal direction with respect to the operator 13, respectively.
  • Figure in 10 (b) the range r phi azimuthal direction of the input detection area r11, the reference position P10 as the vertex, and the line segment to the left end of the display unit 12 from its apex, the right end of the display unit 12 from the vertex it is an angle formed between the line segment in the (lateral direction operating range r phi).
  • Input range r phi of azimuthal non-detection region r12 is similar to the range r phi azimuthal direction of the input detection region r11.
  • the input detection area is determined in accordance with the viewing angle (view angle) that matches the display area where the display unit 12 is visually recognized by the operator.
  • the input detection area to be determined is not a cube, and a plane parallel to the display surface of the display unit 12 gradually increases as the operator 13 approaches the display unit 12 (away from the operator in the depth direction).
  • FIG. 11 is a conceptual diagram illustrating an example of a target position.
  • FIG. 11A shows the left side of the operator 13.
  • the left side and the lower side with respect to the paper surface indicate the Z direction (back) and the Y direction (lower) in the three-dimensional space coordinate system, respectively, and the upper right direction indicates the X direction (right side).
  • the upper right direction and the lower side indicate the x direction (right) and the y direction (lower) in the two-dimensional image coordinate system, respectively.
  • the attention position P12 is calculated as an intersection where a straight line connecting the reference position P10 and the designated position P11 is projected onto the surface of the display unit 12.
  • the reference position P10, the designated position P11, and the target position P12 are represented by coordinate values in a three-dimensional space coordinate system.
  • the attention position detection unit 35 converts the attention position P12 represented by the coordinate values in the three-dimensional space coordinate system into coordinate values in the two-dimensional image coordinate system on the display surface of the display unit 12.
  • the reference position P10 is located in front of the midpoint between the position of the left eye 131-1 and the position of the right eye 131-2, and the midpoint and the reference position P10 are the median plane 138 of the operator 13. Indicates that it is inside. Both the position of the left eye 131-1 and the position of the right eye 131-2 are given in the three-dimensional space image coordinate system.
  • the control unit 22 detects, from the detection information input from the detection information output unit 41, three-dimensional face position information, hand shape information (finger image signal, number information, two-dimensional fingertip position information), feature information, attention position information, and drawing. A detection signal is extracted. The control unit 22 performs processing based on the extracted information.
  • hand shape information representing the shape of the hand includes finger image signals, number information, and a two-dimensional fingertip position.
  • the hand shape information may be information representing a temporary or stationary hand shape, that is, a posture, or may be information representing a hand shape that changes over time, that is, an action.
  • FIG. 12 is a schematic diagram illustrating the configuration of the control unit 22 according to the present embodiment.
  • the control unit 22 includes a display control unit (image forming unit) 221 and a guide image display unit 222.
  • the display control unit 221 forms a trajectory image while moving the target position indicated by the target position information, and displays an image signal indicating the formed image. Generate.
  • the trajectory image is formed by additionally writing a point image for each time as the position of interest moves with time.
  • the display control unit 221 detects start information or stop information based on the extracted hand shape information.
  • the start information is information that instructs to start image formation.
  • the stop information is stop information that instructs to stop image formation.
  • hand shape information indicating different hand shapes is stored in advance in association with the formation start information and the formation stop information.
  • the formation start information is associated with hand shape information indicating a shape in which an index finger is raised and another finger is gripped.
  • the formation end information is associated with hand shape information indicating a shape in which five fingers are extended while bringing adjacent fingers into contact with each other.
  • the display control unit 221 determines that the formation start information has been detected when the start information corresponding to the hand shape information input from the information DB 21 has been successfully read, and has successfully read the formation stop information. It is determined that formation stop information has been detected.
  • the display control unit 221 forms an image indicating the locus of the target position after the formation start information is detected and until the formation stop information is detected, and generates an image signal indicating the formed image.
  • the formation start information and the formation stop information are information for distinguishing one (frame) image, and a drawing detection signal indicating whether or not the above-described drawing input is detected, or an operation indicating the start of an operation by an operator. This is separate information from the start signal or the operation end signal indicating the end of the operation.
  • the display control unit 221 outputs the generated image signal to the display unit 12.
  • the image formed by the display control unit 221 is, for example, an image in which the target position is displayed in units of pixels.
  • the present invention is not limited to this as long as it indicates the position of the target position.
  • the display control unit 221 may generate an image signal indicating an image in which an input detection image (cursor) is superimposed on the locus of the target position.
  • the position where the input detection image is superimposed may be the current (latest) attention position.
  • the shape of the input detection image is not limited to a geometric shape such as a quadrangle or a circle, but may be a hand shape, a face image (may be an operator's own face image), or an avatar (another) image. Therefore, an input detection image signal indicating an input detection image is stored in the information DB 21 in advance, and the display control unit 221 reads the input detection image signal from the information DB 21.
  • the display control unit 221 does not change the image at the time of the last addition since the locus of the target position is not added. Even in such a case, the display control unit 221 may superimpose the input detection image on the target position on the image of the target position that has already been formed.
  • the superimposed position is not limited to the position of interest, and may be a predetermined position.
  • the display control unit 221 may use different types of input detection images depending on whether the drawing detection signal indicates that a drawing input is detected or not.
  • the input detection image used when attention position information is input has a mode (active display) that draws more attention than the input detection image used when attention position information is not input. Examples of the mode of drawing attention include brighter brightness, blinking (brightness changes at a constant time interval), and a color different from other images.
  • a face image is used as the input detection image, it may be an image under a situation where drawing or writing is being performed. Thereby, the operator can visually recognize the attention position currently input as an image, whether or not the input of the attention position has been detected.
  • the information DB 21 stores a guide image signal in advance.
  • the guide image signal is a signal indicating a guide image indicating a figure or characters for guiding an operation method for inputting an attention position to the operator.
  • the guide image display unit 222 reads the guide image signal from the information DB 21 and outputs the read guide image signal to the display unit 12.
  • control part 22 may be provided with the memory
  • the control unit 22 reads the hand shape information from the storage unit, and collates the read hand shape information with the input hand shape information.
  • the control unit 22 executes processing corresponding to the hand shape information that has been successfully verified.
  • the shape of the hand may be specified as an instruction for the type of processing in the display device 10.
  • the shape may be such that the number of fingers being stretched, the direction of the hand, the tip of the thumb and the tip of the index finger are in contact with each other.
  • it is not restricted to the shape of a hand as another part of an operator's body, You may use parts other than the hand of a body, for example, the shape of a leg
  • FIG. 13 is a conceptual diagram illustrating an operation example of the display device 10 according to the present embodiment.
  • the right side and the lower side with respect to the paper surface indicate the X direction (right) and the Y direction (lower) in the three-dimensional space coordinate system, respectively, and the upper right direction indicates the Z direction (depth).
  • the right side and the lower side respectively indicate the x direction (right) and the y direction (down) in the two-dimensional image coordinate system.
  • the reference position P10 is immediately in front of the center of gravity of the position of each eye of the operator 13.
  • the designated position P11 is the position of the tip of the operator's right hand.
  • a triangular frustum indicated by a broken line indicates the input detection region r11. Since the designated position P11 is included in the input detection area r11, it is detected as a drawing input.
  • the attention position P12 is calculated as an intersection of a straight line from the reference position P10 to the designated position P11 and the display surface of the display unit 12.
  • the calculated attention position P12 is subjected to coordinate conversion from the three-dimensional space coordinate system to the two-dimensional image coordinate system on the display surface.
  • the display unit 12 additionally displays a stipple at the target position P12 that has undergone coordinate transformation. Accordingly, the display unit 12 displays an image of the locus of the target position P11 as time passes as long as the designated position P11 is included in the input detection region r11.
  • FIG. 14 is a conceptual diagram showing a display example of an image in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that in FIG. 8B.
  • the designated position P11 is included in the input detection area r11.
  • the positional relationship between the input detection region r11 and the display unit 12 divided by the boundary surface b1 is the same as that in FIG.
  • the designated position P11 is behind the boundary surface b1.
  • a stroke corresponds to a section of a line that is spatially continuous, that is, “picture”. That is, the stroke s1 is a locus indicating that the target position P12 has moved from left to right.
  • FIG. 15 is a conceptual diagram showing another display example of an image in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that in FIG.
  • the designated position P11 is not included in the input detection area r11, but is included in the input non-detection area r11.
  • FIG. 15B the positional relationship between the input detection region r11 divided by the boundary surface b1 and the display unit 12 is the same as in FIG. 14B.
  • the designated position P11 is in front of the boundary surface b1.
  • the display unit 12 Since the designated position P11 moves from the upper right to the lower left in the input non-detection region r12, the display unit 12 indicates that no stroke is newly displayed in addition to the stroke s1. That is, the operator 13 has only to move his / her finger within a region where the designated position P11 is outside the range of the input detection region r11 after the display of the previous stroke is completed and before the next stroke is started. Is shown.
  • FIG. 16 is a conceptual diagram showing still another display example of an image in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that in FIG. In this example, it is indicated that the designated position P11 is included in the input detection area r11.
  • the positional relationship between the input detection region r11 divided by the boundary surface b1 and the display unit 12 is the same as that in FIG. In this example, the designated position P11 is behind the boundary surface b1. Since the designated position P11 moves from left to right in the input detection area r11, it indicates that the stroke s2 is newly displayed on the display unit 12. That is, when inputting the next stroke, the operator 13 may move his / her finger again within an area where the designated position P11 is within the input detection area r11.
  • the operator 13 can classify and input each stroke depending on whether the designated position P11 is moved within the input detection area r11 or outside the area.
  • the appropriate use of the area can be realized by changing the position of the hand, which is another part of the body.
  • the operator 13 can input characters having a plurality of strokes and other images having a complicated shape by a simple operation.
  • FIGS. 14-16 show an example of inputting the Chinese character “2”, but in this embodiment, line drawings constituting other characters, figures, symbols, etc. can be easily input.
  • FIG. 17 is a conceptual diagram illustrating a display example of the input detection image in the present embodiment.
  • the positional relationship between the display unit 12 and the operator 13 is the same as the positional relationship in FIG.
  • the input detection area r11 is indicated by a solid line
  • the input non-detection area r12 is indicated by a broken line.
  • the designated position P11-1 is the position of the fingertip that is another part of the body of the operator 13, and is located in the input detection area r11.
  • the attention position R11-1 is an intersection of a straight line passing from the reference position P10 to the designated position P11-1 and the display surface of the display unit 12.
  • the display unit 12 displays a stroke s3 that reaches the target position R11-1.
  • the input detection image C-1 is displayed so that the tip thereof is positioned at the attention position R11-1.
  • the input detection image C-1 is an image having an outline similar to that of a pencil as a writing instrument, for example, and the representative point is an image having the tip of the pencil.
  • the input detection image C-1 is displayed in a brighter and more conspicuous manner than the input detection image C-2 described later. As a result, the operator is in a state where the display device 10 is actually detecting a drawing input, and a trajectory terminated at the attention position R11-1 corresponding to the designated position P11-1 based on the accepted drawing input. It can be visually recognized that it is displayed (drawn).
  • the designated position P11-2 is the position of the fingertip that is another part of the body of the operator 13, and is located in the input non-detection area r12 that is a part of the operation detection area.
  • the attention position R11-2 is an intersection of a straight line passing from the reference position P10 to the designated position P11-2 and the display surface of the display unit 12.
  • the display unit 12 displays a stroke s3 that reaches the target position R11-1.
  • the input detection image C-2 is displayed so that the center of gravity is located at the attention position R11-2.
  • the input detection image C-2 is an image having a square outline as an example, and is shown in a darker and less conspicuous manner than the input detection image C-1.
  • an example is shown in which an image having a square outline is displayed.
  • the present invention is not limited to this, and the input detection image C-1 is not displayed (the designated position P11-2 is included in the input non-detection region r12).
  • the input detection image may not be displayed.
  • the operator 13 starts input, an input detection image is displayed, and it can be known that input has started.
  • the stroke s3 is not terminated at the attention position R11-2.
  • the operator can display (draw) the locus of the attention position R11-2 corresponding to the designated position P11-2 in the received operation input, although the display device 10 is in a state where the operation input is accepted. It can be visually recognized that the state is not performed.
  • FIG. 18 is a flowchart showing data input processing according to the present embodiment.
  • the imaging units 110 a and 110 b each capture a front video and output the captured video signal to the distance calculation unit 200.
  • the imaging unit 110a outputs the video signal to the face detection unit 30 and the hand position detection unit 32 of the user information analysis unit 201.
  • the process proceeds to step S102.
  • the distance calculation unit 200 calculates the distance from the imaging device 11 to the operator based on the video signals input from the imaging units 110a and 110b, for example, using a stereo matching method, and calculates the calculated distance information. Is generated.
  • the distance calculation unit 200 outputs the generated distance information to the face detection unit 30, the eye position detection unit 31, the hand position detection unit 32, and the hand shape / fingertip position detection unit 33 of the user information analysis unit 201. Then, it outputs to step S103.
  • the face detection unit 30 detects an area representing an image of the face of the operator represented by the video signal input from the imaging unit 110a.
  • the face detection unit 30 generates two-dimensional face area information based on the detected face area.
  • the face detection unit 30 extracts the distance value related to the pixel of the two-dimensional coordinate represented by the two-dimensional face area information from the distance information input from the distance calculation unit 200.
  • the face detection unit 30 converts the distance value corresponding to the above-described two-dimensional coordinates into three-dimensional coordinates in the object space, and generates three-dimensional face position information.
  • the face detection unit 30 outputs a face image signal representing the detected face image to the eye position detection unit 31.
  • the face detection unit 30 outputs the generated three-dimensional face position information to the operator determination unit 39.
  • the face detection unit 30 outputs the generated three-dimensional face position information to the detection information output unit 41 as part of the detection information.
  • the eye position detection unit 31 detects an eye region from the facial image represented by the facial image signal input from the face detection unit 30.
  • the eye position detection unit 31 calculates eye position coordinates based on the detected eye region.
  • the eye position detection unit 31 extracts the distance value at the pixel located at the detected eye position coordinates from the distance information input from the distance calculation unit 200.
  • the eye position detection unit 31 converts the set of the calculated two-dimensional eye position coordinates and the extracted distance value into three-dimensional eye position coordinates in the object space, and generates three-dimensional eye position information.
  • the eye position detection unit 31 outputs the three-dimensional eye position information representing the calculated three-dimensional eye position coordinates to the attention position detection unit 35 and the operator determination unit 39.
  • the eye position detection unit 31 outputs an eye area signal representing an image of the detected eye area to the operator determination unit 39. Thereafter, the process proceeds to step S104.
  • the hand position detection unit 32 detects an area representing the image of the operator's hand represented by the video signal input from the imaging unit 110a, and calculates a two-dimensional coordinate value representing the detected hand position.
  • the hand position detection unit 32 extracts a distance value corresponding to the calculated coordinate value from the distance information input from the distance calculation unit 200, and sets a set of distance values corresponding to the calculated two-dimensional coordinate value in the subject space.
  • Three-dimensional hand position information is generated by converting into three-dimensional coordinates.
  • the hand position detection unit 32 outputs a hand image signal representing the detected image of the hand region and hand position information representing the calculated two-dimensional coordinate value of the representative point to the hand shape / fingertip position detection unit 33.
  • the hand position detection unit 32 outputs the three-dimensional hand position information to the operator determination unit 39.
  • the hand shape / fingertip position detection unit 33 detects the shape of the hand based on the hand image signal and the hand position information input from the hand position detection unit 32.
  • the hand shape / fingertip position detection unit 33 searches for an image of the finger area based on the detected hand shape, and counts the number of fingers.
  • the hand shape / fingertip position detection unit 33 detects the fingertip position of each finger as a two-dimensional coordinate, and extracts the distance value of the pixel located at the detected two-dimensional coordinate from the distance information input from the distance calculation unit 200. .
  • the hand shape / fingertip position detection unit 33 generates a three-dimensional fingertip position information representing a three-dimensional coordinate in the subject space from the set of the extracted distance value and the two-dimensional coordinate at the fingertip.
  • the hand shape / fingertip position detection unit 33 outputs the generated three-dimensional fingertip position information to the attention position detection unit 35.
  • the hand shape / fingertip position detection unit 33 detects the finger image signal representing the detected finger region, the number information representing the number of fingers, and the two-dimensional fingertip position information representing the two-dimensional coordinates on the fingertip as detection information. Output to the output unit 41. Thereafter, the process proceeds to step S105.
  • Step S105 Based on the three-dimensional face position information input from the face detection unit 30, the operator determination unit 39 selects a user who is located in a predetermined operable region from among users who have detected a facial region. It is determined as The operator determination unit 39 determines an operation detection region based on the three-dimensional face region information input from the face detection unit 30 and the three-dimensional eye position information input from the eye position detection unit 31. The operator determination unit 39 determines whether or not the operator's hand located in the operable area is located in the operation detection area. Thereby, it is detected that the operation from the operator is started. If it is determined that the operation has been started (YES in step S105), the process proceeds to step S106. When it is determined that the operation has not been started (NO in step S105), the process proceeds to step S101.
  • Step S106 The operator discriminating unit 39 tracks the position of the operator's face and the position of the hand in the operable region, and specifies an operator who receives an operation input at the same time. Thereafter, the process proceeds to step S107.
  • Step S ⁇ b> 107) The attention position detection unit 35 determines a reference position based on the three-dimensional eye position information input from the eye position detection unit 31. The attention position detection unit 35 detects, as the attention position, the intersection of the straight line connecting the determined reference position and the designated position indicated by the three-dimensional fingertip position information input from the hand shape / fingertip position detection unit 33 and the display surface of the display unit 12. To do. The attention position detection unit 35 outputs the generated attention position information to the detection information output unit 41 as a part of the detection information. Thereafter, the process proceeds to step S108.
  • Step S108 The operator determination unit 39 determines whether or not the operator's hand located in the operable region is located in the operation detection region, and whether or not the operator continues the operation (during operation). To detect. If the operator determination unit 39 determines that the position of the operator's hand is included in the operation detection area (YES in step S108), the operation proceeds to step S109. If the operator determination unit 39 determines that the operator's hand is not included in the operation detection area (NO in step S108), the operation proceeds to step S111.
  • Step S ⁇ b> 109 The drawing input detection unit 40 determines an input detection region based on the operation detection region information input from the operator determination unit 39.
  • the drawing input detection unit 40 determines whether or not the designated input detection area includes the designated position indicated by the three-dimensional hand position information input from the operator determination unit 39, and whether the operator is performing the drawing input. Detect whether or not.
  • the drawing input detection unit 40 generates a drawing detection signal indicating whether or not a drawing input has been detected, and outputs the generated drawing detection signal to the detection information output unit 41. If the drawing input detection unit 40 determines that the specified position is included in the input detection area (YES in step S109), the process proceeds to step S110. When the drawing input detection unit 40 determines that the designated position is not included in the input detection area (NO in step S109), the process proceeds to step S107.
  • Step S ⁇ b> 110 A drawing detection signal and attention position information are input to the display control unit 221 from the detection information output unit 41.
  • the display control unit 221 When the drawing detection signal indicates that a drawing input has been detected, the display control unit 221 generates an image signal indicating an image of a locus along which the target position indicated by the target position information moves.
  • the display control unit 221 outputs the generated image signal to the display unit 12.
  • the display unit 12 displays an input image (stroke) indicated by the image signal input from the display control unit 221. Thereafter, the process proceeds to step S107.
  • Step S111 The control unit 22 determines whether or not the operation by the operator is finished. For example, the control unit 22 determines that the operation is completed when an operation input indicating power-off is input. If it is determined that the operation has not been completed (step S111: NO), the process proceeds to step S101. If it is determined that the operation has been completed (YES in step S111), the data input process is terminated.
  • the first position which is the position of a part of the user's body
  • the part of the body that are represented in the image captured by the imaging device are the positions of the other part.
  • Two positions are detected, and a drawing input is detected based on the first position and the second position.
  • the position of interest on the image display surface corresponding to the second position is detected. Accordingly, the user can smoothly input image data that is the locus of the target position by operating another part of the body without using a dedicated device.
  • a display device 10a (not shown) according to the present embodiment includes a drawing input detection unit 40a (not shown) instead of the drawing input detection unit 40 (FIG. 7) in the user information analysis unit 201 of the display device 10 (FIG. 3). Prepared).
  • the drawing input detection unit 40a performs the same processing as the drawing input detection unit 40 (FIG. 7). However, the drawing input detection unit 40 a determines the input detection region based on the operation detection region information input from the operator determination unit 39 and the three-dimensional hand position information input from the operator determination unit 39.
  • the three-dimensional hand position information used for determining the input detection area is three-dimensional hand position information about a hand (for example, the left hand) opposite to one hand (for example, the right hand) related to the drawing input.
  • the drawing input detection unit 40a determines the coordinate value in the depth direction on the boundary surface b1 between the input detection area and the input non-detection area as the coordinate value in the depth direction indicated by the three-dimensional hand position information on the opposite hand. . Then, the drawing input detection unit 40a determines whether or not the designated position indicated by the three-dimensional hand position information related to “one hand” is included in the above-described input detection area.
  • the hand position detection unit 32 generates and outputs a hand image signal and three-dimensional hand position information while distinguishing between the left hand and the right hand. Therefore, three-dimensional hand position information for the left and right hands is input from the operator determination unit 39 to the drawing input detection unit 40a.
  • the operator discriminating unit 39 associates a facial image signal indicating an image of the operator's face with drawing input site information and stores them in advance in a storage unit included in the own unit. It may be left.
  • the drawing input part information is information for identifying whether another part of the body related to the drawing input, for example, “one hand” is the right hand or the left hand.
  • the “one hand” is, for example, a dominant hand.
  • the operator discriminating unit 39 reads the drawing input part information corresponding to the face image signal that can be collated with the face image signal input from the face detecting unit 30 from the storage unit, and the read drawing input part information indicates “ Judge one hand ".
  • the operator discriminating unit 39 determines the hand introduced first in the operation detection area as “one hand”, and the hand introduced later is the other hand of the other side, that is, “ It may be defined as “the other hand”.
  • the hand whose position indicated by the information is first included in the operation detection area is determined as “one hand”.
  • the “one hand” is not limited to the right hand and may be the left hand. When “one hand” is the left hand, “the other hand” is the right hand.
  • FIG. 19 is a conceptual diagram illustrating an example of the input detection area according to the present embodiment.
  • the positional relationship between the operator 13 and the operation detection area r1 is the same as the positional relationship shown in FIG.
  • FIG. 19A shows the front of the operator 13.
  • FIG. 19B shows the left side of the operator 13.
  • the coordinate value in the depth direction of the boundary surface b ⁇ b> 1 is defined as the coordinate value in the depth direction of the left hand hl as the hand on the opposite side of the operator 13.
  • the operator 13 can change the position of the depth direction of the boundary surface b1 flexibly according to the intention.
  • the drawing input detection unit 40a determines the coordinate value in the depth direction of the boundary surface b1 in advance from the coordinate value in the depth direction of the other hand based on whether or not drawing input by one hand is detected. You may set to the value shifted
  • one hand is always positioned behind the other hand during drawing input, and one hand does not always need to be positioned before the other hand when drawing input is not performed. . Therefore, the operator can perform a natural input operation without maintaining an unnatural posture during drawing input.
  • the drawing input detection unit 40a may detect whether or not an erasure input has been performed based on a designated position indicated by the three-dimensional hand position information related to the other hand.
  • the erasing input is an operation input for instructing to erase an image within a predetermined range from the position of interest among images formed by drawing input.
  • the drawing input detection unit 40a determines whether or not the time change of the designated position indicated by the three-dimensional hand position information related to the other hand is collated with a predetermined time change pattern.
  • This time change pattern shows an operation pattern such as an operation of shaking the left and right or up and down at a constant cycle, for example, as the hand movement (operation) of the other hand.
  • the drawing input detection unit 40a stores a time change pattern in advance, and collates it based on an index value indicating the similarity between the time change of the designated position indicated by the three-dimensional hand position information and the stored time change pattern. Determine whether or not. If the drawing input detection unit 40a determines to collate, the drawing input detection unit 40a stops the process of determining the coordinate value in the depth direction on the boundary surface b1 based on the three-dimensional hand position information regarding the other hand. The drawing input detection unit 40a detects that the erasure input has been performed when it is determined to collate and the designated position indicated by the three-dimensional hand position information on the other hand is included in the input detection area.
  • the drawing input detection unit 40a determines that the erasure input is not performed when the designated position is not included in the determined input detection area.
  • the drawing input detection unit 40 a generates an erasure detection signal indicating whether or not an erasure input is detected, and outputs the generated erasure detection signal to the detection information output unit 41.
  • the drawing input detection unit 40a calculates the intersection of the straight line connecting the specified position from the reference position and the display surface of the display unit 12 as the attention position related to the other hand, and the attention position indicating the calculated attention position related to the other hand Information is output to the detection information output unit 41.
  • the display control unit 221 When the erasure detection signal input from the detection information output unit 41 indicates that the erasure input has been detected, the display control unit 221 indicates, from the formed locus image, the attention position indicated by the attention position information regarding the other hand. A portion within a predetermined range with reference to is deleted. The area where the image is erased moves as the position of interest changes with time. Based on the erasure detection signal, the display control unit 221 generates an image signal indicating a trajectory image that is partially or entirely erased, and outputs the generated image signal to the display unit 12. The display unit 12 displays an image of a locus in which part or all of the image signal indicated by the image signal input from the display control unit 221 is deleted.
  • the other hand is operated in a predetermined pattern (for example, shaking up and down, left and right, etc.), so that the target position corresponding to the designated position can be obtained.
  • the image formed in the vicinity is erased.
  • Such an operation pattern is similar to an operation pattern when an editing tool such as an eraser is brought into contact with a writing surface such as paper. Therefore, even a user who is not familiar with the operation can easily erase part or all of the image formed by the drawing input.
  • FIG. 20 is a flowchart showing data input processing according to this embodiment. Steps S101 to S108, S110, and S111 shown in FIG. 20 are the same as those shown in FIG. If the operator determination unit 39 determines in step S108 that the position of the operator's hand is included in the operation detection area (YES in step S108), the process proceeds to step S208.
  • the hand position detection unit 32 applies a hand image based on the video signal input from the imaging unit 110 a to the region representing the image of the other hand, for example, the left hand, in addition to one hand of the operator. Generate a signal.
  • the hand position detection unit 32 generates two-dimensional hand position information and three-dimensional hand position information based on the input video signal and the distance information input from the distance calculation unit 200.
  • the hand position detection unit 32 outputs the generated hand image signal and the two-dimensional hand position information to the hand shape / fingertip position detection unit 33.
  • the hand position detection unit 32 outputs the three-dimensional hand position information to the operator determination unit 39.
  • the hand shape / fingertip position detection unit 33 detects the shape of the other hand based on the hand image signal and the hand position information input from the hand position detection unit 32.
  • the hand shape / fingertip position detection unit 33 searches the finger region image based on the detected hand shape, and detects the number information indicating the number of fingers and the two-dimensional fingertip position information indicating the two-dimensional coordinates at the fingertip. Is output to the detection information output unit 41 as a part thereof.
  • the hand shape / fingertip position detection unit 33 generates three-dimensional fingertip position information based on the two-dimensional coordinates at the fingertip of each finger and the distance information input from the distance calculation unit 200.
  • the hand shape / fingertip position detection unit 33 outputs the generated three-dimensional fingertip position information to the attention position detection unit 35. Thereafter, the process proceeds to step S209.
  • the drawing input detection unit 40a is based on the operation detection region information input from the operator determination unit 39 and the three-dimensional hand position information related to the other hand input from the operator determination unit 39. Determine.
  • the drawing input detection unit 40a determines whether or not the designated input detection area includes the designated position indicated by the three-dimensional hand position information related to one hand input from the operator determination unit 39, and the operator draws the drawing. It is detected whether input is being performed (input is being performed).
  • the drawing input detection unit 40 a generates a drawing detection signal indicating whether or not a drawing input has been detected, and outputs the generated drawing detection signal to the detection information output unit 41.
  • step S209 When the drawing input detection unit 40a determines that the designated position is included in the input detection area (YES in step S209), the process proceeds to step S110. When the drawing input detection unit 40a determines that the designated position is not included in the input detection area (NO in step S209), the process proceeds to step S107.
  • the input detection region for detecting the drawing input is determined based on the first position which is the position of the part of the user's body, and the position of the other part of the body is determined.
  • a drawing input is detected based on whether or not two positions are included in the input detection area.
  • a third position indicating the position of still another part of the user's body represented by the image captured by the imaging device is detected, and the input detection region passes through the detected third position. Defines one of the boundaries.
  • the user can flexibly change the input detection area according to the position of another part of the body, and can recognize the area where the drawing input is detected based on the position. For this reason, it is possible to easily perform an operation input by another part of the body.
  • the display device 10b (not shown) according to the present embodiment includes a display control unit 221b (not shown) instead of the display control unit 221 (FIG. 12) in the control unit 22 of the display device 10 (FIG. 3). .
  • the display control unit 221b performs the same processing as the display control unit 221 (FIG. 1).
  • the display control unit 221b receives the three-dimensional hand position information as part of the detection information input from the detection information output unit 41, and uses the input three-dimensional hand position information as information related to image processing.
  • drawing style information is determined.
  • the drawing style information is information indicating a style (drawing style) of a trajectory image (line drawing) formed by drawing input.
  • the drawing style includes, for example, a line thickness (width).
  • FIG. 21 is a conceptual diagram showing the relationship between the line thickness and the designated position P11 in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that shown in FIG.
  • the display control unit 221b determines the thickness of the line so that the depth coordinate of the designated position P11 indicated by the three-dimensional hand position information is thicker as it is located in the back, and the depth coordinate is thinner as it is located in front.
  • the thickness w1 of the line is the minimum value w min .
  • the thickness w1 of the line is the maximum value wmax .
  • FIG. 22 is a diagram illustrating a setting example of the line thickness according to the present embodiment.
  • the horizontal axis indicates the depth coordinate
  • the vertical axis indicates the thickness of the line.
  • the line thickness is the minimum value w min at the closest point (depth coordinates d1 + d12)
  • the line thickness is the maximum value w max at the farthest point (depth coordinates d1 + d12 + d11).
  • the thickness of the line is defined linearly with respect to the depth coordinate.
  • FIG. 22A the thickness of the line is defined linearly with respect to the depth coordinate.
  • the thickness of the line is linear with respect to the depth coordinate from the closest point to a predetermined position d1 + d12 + d11 ⁇ , but when the depth coordinate exceeds d1 + d12 + d11 ⁇ , the maximum value w max .
  • the depth coordinate value d1 + d12 + d11 ⁇ is closer to the depth coordinate value at the farthest point than the closest point. Even if the designated coordinate P11 moves deeper than the depth coordinate d1 + d12 + d11 ⁇ , the line thickness is saturated and does not change at the maximum value w max , so if the designated coordinate P11 is further moved deeper, the input operation area
  • the drawing input is interrupted beyond the range. Therefore, the operator can notice that the drawing input is interrupted by moving the designated coordinate P11 further back by visually recognizing that the thickness of the line does not change. That is, it is possible to avoid the division of the stroke by interrupting the drawing input unintentionally.
  • FIG. 23 is a conceptual diagram showing a display example of an image in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that in FIG.
  • the designated position P11 is included in the input detection area r11, it indicates that it is closer to the nearest point than the farthest point.
  • the positional relationship between the input detection region r11 and the display unit 12 divided by the boundary surface b1 is the same as in FIG. 14 (b).
  • the thickness of the stroke s4 displayed on the display unit 12 by moving the designated position P11 from left to right is given by the depth coordinate z1 from the boundary surface b1 of the designated position P11, and the maximum value w max The thickness is closer to the minimum value w min .
  • FIG. 24 is a conceptual diagram showing another display example of an image in the present embodiment.
  • the positional relationship between the operator 13 and the input detection area r11 is the same as that in FIG.
  • the designated position P11 is included in the input detection area r11, it indicates that it is closer to the nearest point than the nearest point.
  • the positional relationship between the input detection region r11 divided by the boundary surface b1 and the display unit 12 is the same as that in FIG.
  • the stroke thickness s5 displayed on the display unit 12 by moving the specified position P11 from left to right a thickness which is close to the maximum value w max than the minimum value w min. That is, the thickness of the stroke s5 is given by the depth coordinate z2 from the boundary surface b1 of the designated position P11 and is thicker than the stroke s4 (FIG. 23).
  • an operation input such as displaying a selection menu for selecting a drawing style and selecting a line thickness from the displayed selection menu. Therefore, convenience in drawing input is improved.
  • an operation input such as displaying a selection menu for selecting a drawing style and selecting a line thickness from the displayed selection menu. Therefore, convenience in drawing input is improved.
  • a character on a writing surface such as paper using a writing instrument such as a brush
  • the thickness of the line will increase and the hand will be pulled forward.
  • the pen pressure is weakened, there is an action to reduce the thickness of the line.
  • Such an operation is similar to the operation of selecting the thickness of the line by the depth coordinates of the designated position as in this embodiment. Therefore, the operator can intuitively change the thickness of the line by performing an operation similar to the operation familiar to him / her.
  • the display control unit 221b has been described by taking an example in which the thickness of the line is determined based on the depth coordinates of the designated position indicated by the three-dimensional hand position information, but the present invention is not limited to this.
  • the display control unit 221b may determine the color of the line based on color space information indicating a predetermined relationship between the depth coordinate and the color based on the depth coordinate of the designated position.
  • color space information for example, red is associated with the farthest depth coordinate, blue is associated with the nearest point, and intermediate colors between red and blue are respectively associated with the depth coordinates between the farthest point and the nearest point. They are sequentially associated.
  • the display control unit 221b selects a color corresponding to the depth coordinate of the designated position indicated by the three-dimensional hand position information from the color space information. Then, the display control unit 221b determines the color selected based on the detection information input from the detection information output unit 41, and forms an image based on the attention position information input thereafter with the determined color. For example, the display control unit 221b determines that the designated position indicated by the three-dimensional hand position coordinates as part of the detection information is within a predetermined range from the initial position for a predetermined time (for example, 1 second). Confirm the selected color. That is, the color selected when the operator stops his / her hand for a predetermined time is determined.
  • the display control unit 221b determines the selected color when it is determined that the hand shape information indicates a predetermined shape (for example, a fist) as part of the detection information. That is, the color selected when the operator deforms the hand into a predetermined shape is determined.
  • the depth coordinates are not limited to the thickness and color of the line, and the depth coordinates may be associated with the shading or the enlargement ratio.
  • FIG. 8B the case where the positional relationship between the operator 13 and the input detection region r11 is the same as that in FIG. 8B has been described. However, the present embodiment is not limited to this, and for example, FIG. A similar positional relationship may be used. Even when the input detection area r11 is determined by designating the boundary surface b1 by “the other hand”, the thickness or color of the line is changed depending on the depth position of the “one hand”. May be.
  • the display control unit 221b may input hand shape information as part of the detection information input from the detection information output unit 41, and may determine the drawing style information based on the input hand shape information.
  • the drawing style is a line type
  • Line types mainly refer to line shapes, such as solid lines, broken lines, single-point broken lines, etc., whether line segments constituting a series of lines are rounded or rounded, and a simple one. There is a distinction between book lines and double lines.
  • hand shape information and drawing style information are stored in advance in association with each other, and a line type indicated by the drawing style information corresponding to the input hand shape information is selected.
  • Examples of the hand shape indicated by the hand shape information associated with the drawing style information include, for example, a shape in which the index finger is extended and another finger is gripped (shape 1), a shape in which all five fingers are gripped (shape 2), and the index finger There is a shape (shape 3) in which the middle finger is stretched and the other fingers are gripped.
  • FIG. 25 is a conceptual diagram showing an example of selection of the line type in the present embodiment.
  • the positional relationship between the boundary surface b1 and the display unit 12 is the same as that shown in FIG.
  • FIG. 25A shows that the designated position P11 is moved from left to right by the operator 13 moving the right hand hr1 deformed into the shape 1 from left to right.
  • the stroke s5 is displayed on the display unit 12.
  • the line type of the stroke s5 is a line type corresponding to the shape 1, that is, a line in which one vertex is angular.
  • FIG. 25B shows that the designated position P11 is moved from the left to the right by moving the right hand hr2 deformed into the shape 2 by the operator 13 from the left to the right.
  • the stroke s6 is displayed on the display unit 12.
  • the line type of the stroke s6 is a line type corresponding to the shape 2, that is, a line in which one vertex is rounded.
  • FIG. 25C shows that the designated position P11 is moved from left to right by the operator 13 moving the right hand hr3 deformed into the shape 3 from left to right.
  • the stroke s7 is displayed on the display unit 12.
  • the line type of the stroke s7 is a line type corresponding to the shape 3, that is, a double line.
  • a line with a rounded vertex is associated with a shape 2 (a shape in which all five fingers are grasped), and a double line and a shape 3 (with two fingers)
  • the shape of the hand and the shape of the line type are associated with each other. Therefore, the operator can specify the line type intuitively using the hand shape.
  • the hand shape indicated by the hand shape information may be associated with the thickness of the line indicated by the drawing style information.
  • the thickness of the line may be thinner as the shape of each finger being held is higher, and the thickness of the line may be thicker as the shape of each finger is higher. Further, as the number of standing fingers increases, the thickness of the line may be increased.
  • one of color, shading, magnification, and line erasure is associated, and the drawing style is selected according to the hand shape indicated by the hand shape information. You may make it do. Further, the case where the positional relationship between the operator 13 and the input detection region r11 is the same as that in FIG. 24B has been described above.
  • the present embodiment is not limited to this, and for example, the same as in FIG. It may be in the case of various positional relationships. Even when the input detection area r11 is determined by designating the boundary surface b1 with “the other hand”, the thickness or color of the line is changed by the hand shape of “the other hand”. Also good. Furthermore, processing related to drawing by combining the above-mentioned multiple types of input methods, such as changing the line type to the hand shape of “one hand” and changing the thickness of the line at the depth position of “one hand” May be performed. For a user who is familiar with the operation input according to the present embodiment to some extent, the input method is much simpler than the method of displaying guide images one by one.
  • the present embodiment is not limited to this, and whether or not the input is being performed is determined based on the shape of the hand. You may be made to do. For example, when the position of the hand is included in the operation detection region r1, it is determined that the input is being performed in the same manner as when the designated position P11 is included in the input detection region r11 when the shape with which the index finger is raised is detected. May be. Further, when the shape of grasping the hand is detected, it may be determined that the input is interrupted, as in the case where the designated position P11 is included in the input non-detection region r12.
  • the hand shape is detected to determine whether or not the input is being performed.
  • the target hand may be either “one hand” or “the other hand”.
  • the line type is specified by the hand shape of “one hand”
  • a process related to drawing may be performed by combining a plurality of the above-described input methods, such as specifying the thickness of the line at the depth position.
  • FIG. 26 is a diagram illustrating an example of a guidance image according to the present embodiment.
  • FIG. 26A is an example of a guide image indicating that the thickness of the line can be selected according to the depth coordinates of the designated position. This guide image shows that the thickness of the displayed line can be increased by extending the hand related to the drawing input, and that the thickness of the line is reduced by pulling toward the front. ing.
  • FIG. 26B is an example of a guide image indicating that a line type (style) can be selected according to the shape of the hand. This guide image indicates that when the shape of a hand related to drawing input is transformed into shapes 1, 2, and 3, a line with a rounded vertex, a line with a rounded vertex, and a double line are selected, respectively.
  • FIG. 27 is a flowchart showing data input processing according to this embodiment. Steps S101 to S109, S110, and S111 shown in FIG. 27 are the same as those shown in FIG. In step S109, when the drawing input detection unit 40 determines that the designated position is included in the input detection area (YES in step S109), the process proceeds to step S310.
  • Step S310 The display control unit 221b determines the thickness of the line according to the depth coordinates (depth value) of the designated position indicated by the three-dimensional hand position information input from the detection information output unit 41.
  • the display control unit 221b selects a line type (line type) corresponding to the hand shape information input from the detection information output unit 41. Then, it progresses to step S110.
  • step S110 an image signal indicating an image of the locus of the target position is generated using the line thickness determined in step S310 and the selected line type.
  • the display format of the image is determined based on the coordinate value in the depth direction of the second position or the shape of another part of the body.
  • the display style of the image concerning drawing input can be designated by simple operations, such as depth coordinates and shape of other part of a user's body.
  • the display device 10c (not shown) according to the present embodiment includes a drawing input detection unit 40c (not shown) instead of the drawing input detection unit 40 (FIG. 7) in the user information analysis unit 201 of the display device 10 (FIG. 3). (Not shown). That is, the drawing input detection unit 40c performs the same processing as the drawing input detection unit 40 (FIG. 7), and in addition to the operation detection area information input from the operator determination unit 39, the drawing input detection unit 40c is input from the operator determination unit 39.
  • An input detection area is determined based on the three-dimensional hand position information.
  • the three-dimensional hand position information used to determine the input detection area is three-dimensional hand position information related to the hand on the opposite side (the other side) to the drawing input.
  • the display device 10c includes a display control unit 221c (not shown) instead of the display control unit 221 (FIG. 12) in the control unit 22 of the display device 10 (FIG. 3).
  • the display control unit 221c performs the same processing as the display control unit 221b (not shown).
  • the display control unit 221c displays detection information related to a hand (eg, left hand) opposite to one hand (eg, right hand) related to drawing input, such as hand shape information. Based on the drawing style information.
  • the input detection area is determined based on the position of the hand on the opposite side to one hand related to the drawing input, and the drawing style is determined according to the shape of the hand on the opposite side.
  • the display control unit 221c stores in advance hand shape information and drawing style information on the opposite hand, and reads drawing style information corresponding to the hand shape information on the opposite hand.
  • the display control unit 221c generates an image signal indicating an image of the locus of the target position corresponding to the designated position related to one hand in the drawing style indicated by the read drawing style information.
  • drawing input is performed with one hand, and the input detection area is controlled and the drawing style is selected with the other hand.
  • the control of the input detection area and the selection of the drawing style correspond to inputting or controlling information accompanying the drawing input. Therefore, in this embodiment, since the operator can perform drawing input and input or control of information accompanying it in parallel by separate hands, it is possible to efficiently perform drawing input.
  • FIG. 28 is a conceptual diagram showing an example of selection of the line type in the present embodiment.
  • the positional relationship between the boundary surface b1 and the operator is the same as that shown in FIG. 19 (b), and the relationship between the boundary surface b1 and the display unit 12 is shown in FIG.
  • the display unit 12 that displays the stroke in accordance with the drawing input is omitted.
  • the shape of the left hand shape of the left hand (shapes 4 to 6) is associated with a solid line, a broken line, and a one-dot broken line, respectively.
  • Shape 4 is a shape in which all five fingers are extended.
  • Shape 5 is a shape in which the index finger is extended and the other fingers are closed.
  • the shape 6 is a shape in which the index finger and the middle finger are stretched and the other fingers are closed.
  • the left hands taking shapes 4 to 6 are called left hands hl4 to hl6, respectively.
  • FIG. 28A shows that the stroke s8 is displayed when the operator moves the right hand hr4 from the left to the right while extending far behind the left hand hl4.
  • the type of line constituting the stroke s8 is a solid line corresponding to the shape of the left hand hr4.
  • the depth coordinate of the boundary surface b1 is equal to the depth coordinate of the left hand hl4.
  • FIG. 28B shows that the stroke s9 is displayed when the operator moves the right hand hr4 from the left to the right while extending farther than the left hand hl4.
  • the type of line constituting the stroke s9 is a broken line corresponding to the shape of the left hand hr5.
  • the type of line constituting the stroke s10 is a one-dot broken line corresponding to the shape of the left hand hr6.
  • the operator can indicate the depth coordinate of the boundary surface b1 that defines the area where drawing input by the right hand is accepted with the depth of the left hand. Further, the operator can intuitively specify the line type according to the shape of the left hand.
  • the drawing style to be changed according to the shape of the left hand is not limited to the type of line, and may be, for example, the thickness or color of a line, shading or enlargement ratio, line erasure, or the like.
  • the present embodiment is not limited to this, and the operation is performed based on the hand shape. It may be determined whether or not the person 13 is inputting. For example, when a shape with the index finger of the right hand is detected, it may be determined that the designated position P11 is being input as in the case where the designated position P11 is included in the input detection region r11.
  • the hand shape for determining whether or not the input is being performed is “one side”. It may be specified by “hand” or “other hand”. For example, whether or not an input is being performed is determined based on “the other hand (left hand)”, and the line type is specified based on the hand shape of “one hand (right hand)”.
  • a process related to drawing may be performed by combining a plurality of input methods described above, such as specifying the thickness of the line based on the depth position of (right hand).
  • FIG. 29 is a diagram illustrating an example of a guide image according to the present embodiment.
  • FIG. 29 is an example of a guide image indicating that a line type (style) can be selected according to the shape of the hand.
  • This guide image indicates that a solid line, a broken line, and a one-dot broken line are selected when the shape of a hand related to drawing input is transformed into shapes 4, 5, and 6.
  • the shape of the other hand indicated by the hand shape information may be associated with the color indicated by the drawing style information.
  • the shapes 4 to 6 may be associated with black, red, and blue colors.
  • the shape of the other hand indicated by the hand shape information may be associated with the thickness of the line indicated by the drawing style information.
  • the thickness of the line may be thinner as the shape of each finger is gripped, and the thickness of the line may be thicker as the shape of each finger is open. Further, as the number of standing fingers increases, the thickness of the line may be increased.
  • any one of shading, magnification, or any combination thereof is associated with the other hand shape indicated by the hand shape information.
  • the drawing style may be selected accordingly. That is, in the present embodiment, the shape of the other hand may be any shape as long as it can be represented by a hand, and each shape may be associated with any drawing style. .
  • the display control unit 221c determines information related to the shape or color of a line as one drawing style information based on the hand shape information related to the opposite hand, and based on the three-dimensional hand position information related to one hand.
  • information relating to the thickness of the line may be determined as other drawing style information.
  • the operator can designate the shape and color of the line according to the shape of the left hand, for example, and can designate the thickness of the line according to the depth coordinate of the right hand. Therefore, the operator must perform drawing input with one hand, specify a drawing style with a simple operation that does not interfere with drawing input with one hand, and specify a more detailed drawing style with the other hand. Can do. Thereby, drawing input in various drawing styles becomes possible.
  • FIG. 30 is a flowchart showing data input processing according to this embodiment. Steps S101 to S108, S110, and S111 shown in FIG. 30 are the same as those shown in FIG. If the operator determination unit 39 determines in step S108 that the position of the operator's hand is included in the operation detection area (YES in step S108), the process proceeds to step S408. (Step S ⁇ b> 408) The hand position detection unit 32 applies a hand image based on the video signal input from the imaging unit 110 a to the region representing the image of the other hand, for example, the left hand, in addition to one hand of the operator. Generate a signal.
  • the hand position detection unit 32 generates two-dimensional hand position information and three-dimensional hand position information based on the input video signal and the distance information input from the distance calculation unit 200.
  • the hand position detection unit 32 outputs the generated hand image signal and the two-dimensional hand position information to the hand shape / fingertip position detection unit 33.
  • the hand position detection unit 32 outputs the three-dimensional hand position information to the operator determination unit 39.
  • the hand shape / fingertip position detection unit 33 detects the shape of the other hand based on the hand image signal and the hand position information input from the hand position detection unit 32.
  • the hand shape / fingertip position detection unit 33 searches the finger region image based on the detected hand shape, and detects the number information indicating the number of fingers and the two-dimensional fingertip position information indicating the two-dimensional coordinates at the fingertip. Is output to the detection information output unit 41 as a part thereof.
  • the hand shape / fingertip position detection unit 33 generates three-dimensional fingertip position information based on the two-dimensional coordinates at the fingertip of each finger and the distance information input from the distance calculation unit 200.
  • the hand shape / fingertip position detection unit 33 outputs the generated three-dimensional fingertip position information to the attention position detection unit 35. Thereafter, the process proceeds to step S409.
  • Step S409 The drawing input detection unit 40c is based on the operation detection region information input from the operator determination unit 39 and the three-dimensional hand position information on the other hand input from the operator determination unit 39. Determine.
  • the drawing input detection unit 40c determines whether or not the designated input detection area includes the designated position indicated by the three-dimensional hand position information related to one hand input from the operator determination unit 39, and the operator draws the drawing. Detect whether input is being performed.
  • the drawing input detection unit 40 c generates a drawing detection signal indicating whether or not a drawing input has been detected, and outputs the generated drawing detection signal to the detection information output unit 41.
  • the drawing input detection unit 40c determines that the designated position is included in the input detection area (YES in step S409)
  • the process proceeds to step S410.
  • the drawing input detection unit 40c determines that the designated position is not included in the input detection area (NO in step S409), the process proceeds to step S107.
  • Step S410 The display control unit 221c selects a line type (line type) corresponding to the hand shape information related to the other hand input from the detection information output unit 41. Thereafter, the process proceeds to step S411.
  • Step S411 The display control unit 221c determines the thickness of the line according to the depth coordinate (depth value) of the designated position indicated by the three-dimensional hand position information related to one hand input from the detection information output unit 41. Then, it progresses to step S110.
  • step S110 an image signal indicating an image of the locus of interest is generated using the line type selected in step S410, the line thickness determined in step S411, and the selected line type.
  • the display control unit 221c may store hand shape information and drawing style information on the opposite hand in advance, and read drawing style information corresponding to the hand shape information on the opposite hand.
  • the display control unit 221c generates an image signal indicating an image of the locus of the target position corresponding to the designated position related to one hand in the drawing style indicated by the read drawing style information.
  • drawing input is performed with one hand, and the input detection area is controlled and the drawing style is selected with the other hand.
  • the control of the input detection area and the selection of the drawing style correspond to inputting or controlling information accompanying the drawing input. Therefore, in this embodiment, since the operator can perform drawing input and input or control of information accompanying it in parallel by separate hands, it is possible to efficiently perform drawing input.
  • the shape of still another part of the user's body is detected, and the display mode of the image by drawing input is determined based on the detected shape.
  • the display mode can be instructed by changing the shape of a part different from the part of the body on which the drawing input is performed, so that it is possible to avoid reducing the efficiency of the drawing input.
  • the drawing input detection units 40, 40a, and 40c described above determine the input detection area using the operation detection area information, and determine whether or not the specified input detection area includes the designated position indicated by the three-dimensional hand position information. It was.
  • the drawing input detection units 40, 40a, and 40c detect whether or not the operator is performing drawing input based on this determination.
  • the present invention is not limited to this.
  • the drawing input detection units 40, 40 a, and 40 c may detect whether or not the operator is performing drawing input based on the hand shape information input from the hand shape / fingertip position detection unit 33.
  • the drawing input detection units 40, 40a, and 40c store the drawing detection hand shape information indicating a predetermined hand shape and the drawing detection signal in association with the storage unit included in the drawing input detection unit 40, 40a, and 40c.
  • the drawing detection signal is a signal indicating whether or not a drawing input is detected as described above.
  • the drawing input detection units 40, 40a, and 40c collate the input hand shape information with the drawing detection hand shape information stored in the storage unit, and draw detection associated with the drawing detection hand shape information that has been successfully verified. Read the signal.
  • the hand shape information used for determining whether or not a drawing input is detected may be hand shape information related to one hand or hand shape information related to the other hand.
  • the drawing input detection units 40, 40a, and 40c determine that drawing input has been detected when the hand shape information relating to one hand indicates a shape (fist) with all five fingers closed. In addition, the drawing input detection units 40, 40a, and 40c determine that drawing input is not detected when the hand shape information related to one hand indicates a shape in which the index finger is extended and all other fingers are closed. Accordingly, the operator can control whether or not to perform drawing input according to the shape of the hand related to drawing input. In addition, the drawing input detection units 40, 40a, and 40c determine that drawing input has been detected when the hand shape information relating to the opposite hand indicates a shape (fist) in which all five fingers are closed.
  • the drawing input detection units 40, 40a, and 40c determine that no drawing input is detected when the hand shape information related to the other hand indicates a shape in which the index finger is extended and all other fingers are closed. Thus, the operator can control whether or not to perform drawing input according to the shape of the hand on the opposite side to the hand related to drawing input. Therefore, the operator can decide whether or not to perform drawing input easily according to his / her intention without being aware of the input detection area.
  • the drawing style information is defined as the information related to the image processing has been described as an example.
  • information related to image processing for example, information indicating presence / absence of operator identification information for identifying an operator related to the drawing input, and whether to display all or part of the formed image on the display unit 12
  • Information indicating whether or not all or part of the information and the image is stored in a storage unit such as the information DB 21 may be used.
  • Position detection for detecting a first position based on a position of a part of a user's body represented by an image captured by the imaging device and a second position based on the position of the other part of the body.
  • a drawing input detection unit that detects a drawing input based on the first position and the second position detected by the position detection unit, and an image display surface corresponding to the second position detected by the position detection unit
  • An attention position detection unit that detects an upper attention position; and an image forming unit that forms an image indicating the attention position detected by the attention position detection unit when the drawing input detection unit detects a drawing input.
  • a data input device characterized by the above. As a result, the operator can smoothly perform drawing input without using a dedicated device.
  • the drawing input detection unit determines an input detection area for detecting the drawing input based on the first position, and the drawing input based on whether the second position is included in the input detection area.
  • the data input device characterized by detecting.
  • the drawing input area can be set in an area that is convenient for the operator to draw using the other part of the body.
  • the position detection unit detects a third position indicating a position of still another part of the user's body represented in the image captured by the imaging device, and the drawing input detection unit is the position detection unit.
  • the data input device according to (2) wherein one of the boundaries of the input detection area is defined so as to pass through the third position detected by. Thereby, the operator can easily grasp whether or not drawing input is detected based on the position of the other part of the body based on the position of the other part of the body.
  • a shape detection unit that detects a shape of another part of the body is provided, and the image forming unit determines information related to display of the image based on the shape detected by the shape detection unit.
  • the data input device according to (3). Thereby, the operator can decide the handling of the drawn image according to the shape of the other part of the body.
  • a shape detection unit that detects a shape of still another part of the body is provided, and the image forming unit determines information related to display of the image based on the shape detected by the shape detection unit.
  • the data input device according to (3) which is characterized. Thereby, the operator can determine the handling of the image drawn according to the shape of still another part of the body.
  • a data input system including a data input device and a display unit that displays an image indicated by input data input by the data input device, wherein the data input device is represented by an image captured by the imaging device.
  • a first position based on the position of a part of the user's body, a position detector for detecting a second position based on the position of the other part of the body, and the first position detected by the position detector
  • a drawing input detector for detecting a drawing input based on one position and the second position
  • a target position detector for detecting a target position on the image display surface corresponding to the second position detected by the position detector
  • a data input system comprising: an image forming unit that forms an image indicating a target position detected by the target position detection unit when the drawing input detection unit detects a drawing input.
  • a data input method in a data input device wherein the data input device includes a first position based on a position of a part of a user's body represented in an image captured by the imaging device, and a part of the body.
  • a position detection process for detecting a second position based on another part of the position a drawing input detection process for detecting a drawing input based on the first position and the second position detected in the position detection process,
  • the detection is performed in the attention position detection process.
  • An image forming process for forming an image showing a position of interest.
  • a first position based on a position of a part of a user's body represented by an image captured by an image capturing apparatus and a part of the body based on a position of the other part A position detection procedure for detecting two positions, a drawing input detection procedure for detecting a drawing input based on the first position and the second position detected by the position detection procedure, and a second position detected by the position detection procedure.
  • a data input program By (9), (10) and (11), the operator can smoothly perform drawing input without using a dedicated device.
  • the distance calculation unit 200 for example, the distance calculation unit 200, the face detection unit 30, the eye position detection unit 31, the hand position detection unit 32, and the hand shape / fingertip position detection.
  • the unit 33, the attention position detection unit 35, the operator determination unit 39, the drawing input detection units 40, 40a, 40c, the detection information output unit 41, and the control unit 22 may be realized by a computer.
  • the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
  • the “computer system” is a computer system built in the display devices 10, 10 a, 10 b, and 10 c and includes an OS and hardware such as peripheral devices.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line,
  • a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
  • LSI Large Scale Integration
  • Each functional block of the display devices 10, 10a, 10b, and 10c may be individually made into a processor, or a part or all of them may be integrated into a processor.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • an integrated circuit based on the technology may be used.
  • the present invention can be applied to a user interface for operating devices such as a computer, a game machine, and a videophone conference system.

Abstract

 本願発明の一態様に係るデータ入力装置において、位置検出部は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する。描画入力検出部は、前記位置検出部が検出した前記第1位置に基づいて描画入力を検出する入力検出領域を定め、前記第2位置が前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する。注目位置検出部は、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する。画像形成部は、描画入力検出部が描画入力を検出したとき、注目位置検出部が検出した注目位置を示す画像を形成する。

Description

データ入力装置
 本発明は、データ入力装置に関する。
 本願は、2012年11月22日に、日本に出願された特願2012-256552号に基づき優先権を主張し、その内容をここに援用する。
 コンピュータ、ゲーム機、テレビ電話会議システム等の機器を操作するためのユーザインタフェースとして様々な機器や手法が提案されている。
 例えば、特許文献1に記載の情報入力装置は、指し棒の赤外線発信部から赤外線、超音波発信部から超音波を同時に発信させ、赤外線を受信した時間を基準として超音波を受信した時間との差によって、差し棒がディスプレイ上の指している位置を入力する。
 また、特許文献2に記載の情報処理装置は、光が照射された情報入力面の画像を撮像し、撮像画像の情報入力面における輝度分布に基づいて検出された入力装置の情報入力面上の位置に応じて情報を処理する。
特開平9-212299号公報 特開2011-113191号公報
 しかしながら、特許文献1に記載の情報入力装置では、位置情報の入力に用いる入力デバイスとして差し棒等の専用の入力デバイスを用いるので用途が制約されることがある。例えば、複数人が参加するテレビ電話会議に応用される場合には、参加人数分の入力デバイスが必要になる。また、電子広告装置(デジタルサイネージ)等、一般公衆に公開される場面では、入力デバイスの破損や紛失等が発生しがちである。さらに、入力デバイスと装置本体との間では、伝搬特性が天候に影響される赤外線を用いて情報を伝達するため屋外での利用には適さないことがある。
 また、特許文献2に記載の情報処理装置では、手書き文字等を入力するために用いられる情報入力面として、机やテーブル等のように物理的な平面を有する備品が必要となる。つまり、かかる備品を設置することができない状況では、応用が制約されることがある。例えば、街頭に設置される電子広告装置に応用される場合には、かかる備品を備える空間を確保できないことがある。確保できたとしても、ユーザが画像を表示する表示装置と近接できないことや、情報入力面と表示装置の表示面とがユーザから同一の方向に配置できない等の障害があった。そのため、適用できる場面が限定され、有効に活用されないことがあった。
 本発明は、このような問題を鑑みてなされたもので、専用のデバイスを用いずに円滑に描画入力を行うデータ入力装置を提供することにある。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様に係るデータ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、を備える。
(2)本発明のその他の態様によれば、上述のデータ入力装置において、前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記画像の処理に係る情報を定めるように構成されてもよい。
(3)本発明のその他の態様によれば、上述のデータ入力装置は、前記身体の他の一部の形状を検出する第一形状検出部を備えてもよい。また、前記画像形成部は、前記第一形状検出部が検出した形状に基づいて前記画像の処理に係る情報を定めるように構成されてもよい。
(4)本発明のその他の態様によれば、上述のデータ入力装置において、前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置に基づく第3位置を検出するように構成されてもよい。また、前記描画入力検出部は、前記位置検出部が検出した第3位置を基準に前記入力検出領域の境界の1つを定めるように構成されてもよい。
(5)本発明のその他の態様によれば、上述のデータ入力装置は、前記身体のさらに他の一部の形状を検出する第二形状検出部を備えてもよい。また、前記画像形成部は、前記第二形状検出部が検出した形状に基づいて前記画像の処理に係る情報を定めるように構成されてもよい。
(6)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は顔であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよい。
(7)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は顔であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよく、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であってもよい。
(8)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は目であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよい。
(9)本発明のその他の態様によれば、上述のデータ入力装置において、前記ユーザの身体の一部は目であってもよく、前記身体の他の一部は左右いずれか一方の手であってもよく、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であってもよい。
(10)本発明のその他の態様に係るデータ入力装置におけるデータ入力方法は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、前記位置検出工程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出工程と、前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、前記描画入力検出工程で描画入力を検出したとき、前記注目位置検出工程で検出した注目位置を示す画像を形成する画像形成工程と、を含む。
(11)本発明のその他の態様に係るデータ入力プログラムは、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、前記位置検出工程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出工程と、前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、前記描画入力検出工程で描画入力を検出したとき、前記注目位置検出工程で検出した注目位置を示す画像を形成する画像形成工程と、をデータ入力装置のコンピュータに実行させる。
 本発明の態様によれば、専用のデバイスを用いずに円滑にデータ入力を行うことができる。
本発明の第1の実施形態に係る表示装置の外観構成を表す概念図である。 本実施形態に係る表示装置とユーザとの位置関係を表す平面図である。 本実施形態に係る表示装置の構成を表すブロック図である。 左画像及び右画像の一例を表す概念図である。 画像ブロックの例を表す概念図である。 撮像面の位置関係を表す概念図である。 本実施形態に係るユーザ情報解析部の構成を表す概略図である。 本実施形態に係る入力検出領域の一例を表す概念図である。 本実施形態に係る操作検出領域の例を表す概念図である。 本実施形態に係る入力検出領域の他の例を表す概念図である。 注目位置の例を示す概念図である。 本実施形態に係る制御部22の構成を示す概略図を示す。 本実施形態に係る表示装置の一動作例を示す概念図である。 本実施形態における画像の一表示例を示す概念図である。 本実施形態における画像の他の表示例を示す概念図である。 本実施形態における画像のさらに他の表示例を示す概念図である。 本実施形態における入力検出画像の一表示例を示す概念図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第2の実施形態に係る入力検出領域の一例を表す概念図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第3の実施形態における線の太さと指定位置との関連を示す概念図である。 本実施形態に係る線の太さの設定例を示す図である。 本実施形態における画像の一表示例を示す概念図である。 本実施形態における画像の他の表示例を示す概念図である。 本実施形態における線の種類の選択例を示す概念図である。 本実施形態に係る案内画像の例を示す図である。 本実施形態に係るデータ入力処理を表すフローチャートである。 本発明の第4の実施形態における線の種類の選択例を示す概念図である。 本実施形態に係る案内画像の例を示す図である。 本実施形態に係るデータ入力処理を表すフローチャートである。
(第1の実施形態)
 以下、図面を参照しながら本発明の実施形態について詳しく説明する。
 図1は、本実施形態に係る表示装置10の外観構成を表す概念図である。
 図1において、表示装置10は、映像を表示する装置、例えばテレビジョン受信機、ディジタルサイネージ(電子看板)装置、映像会議装置である。表示装置10は、正面下辺の中央部に撮像装置11を備え、正面の大部分を覆うように表示部12を備える。
 撮像装置11は、手前方向の映像を撮像する、例えばステレオカメラである。撮像装置11は、例えば、左右方向に互いに離れて位置して前方を撮像する撮像部110a、110bを備える。撮像部110a、110bは、それぞれカメラユニットである。
 表示部12は、その内蔵する制御部22(図3)から入力された画像信号に基づく画像を表示するディスプレイである。なお、表示装置10は、音声を出力するスピーカ(図示せず)を備えていてもよい。
 操作者13は、表示装置10を操作するユーザである。操作者13は、表示装置10の正面に対面し、所定の姿勢、例えば身体の手振り、身振り(ジェスチャ)でユーザ情報(意思)を伝える。表示装置10に内蔵されたユーザ情報解析部201(図3)は、撮像装置11が撮像した画像に表された操作者13の身体の一部がとる姿勢を表すユーザ情報を取得する。ユーザ情報には、例えば、指差しなどの手の形状・握り拳、その動かし方を表す情報が含まれる。表示装置10は、撮像装置11を介して取得したユーザ情報に対応した処理を実行する。これにより、操作者13は、指差しなどの手の形状・握り拳、その動かし方により、表示装置10の処理を操作することができる。
 表示装置10には、自己の位置を基準とする予め設定された領域であって、操作者13による操作を受け付ける操作可能領域が予め設定されている。表示装置10には、操作可能領域として、例えば、表示装置10の中心部から操作者13の手の位置までの手前方向の距離である操作可能距離の上限(例えば、3m)が設定されている。但し、操作可能領域の左右方向は、例えば、撮像装置11の視野角の範囲内に設定されることができる。この場合には、左右方向の設定は不要である。表示装置10には、操作可能距離の上限よりも遠くに離れたユーザである操作不可者14による操作を受け付けない。操作を受け付けるユーザを判別する処理については、後で詳述する。
 図1に示す例では、撮像装置11が表示装置10の正面下辺に設置されているが、これに限定されない。例えば、撮像装置11は、表示装置10の正面上辺に設置されていてもよいし、表示装置10から離れた位置に設置されていてもよい。
 撮像装置11は、操作者13の顔面の高さ、特に、目の高さよりも高い位置に設置されていてもよい。そのために、撮像装置11の高さを、操作者13が所在する床面の高さと人間の平均身長を考慮して予め定めておく。その他、表示装置10が、例えば床面など比較的低い位置に設置される場合には、撮像装置11は、表示部12よりも高い位置に設置されていてもよい。
 これにより、撮像装置11は、操作者13の顔面よりも高い位置から操作者13の身体を表す映像を撮像することができ、指差しなどの手の形状・握り拳、その動かし方によって操作者13の顔面が遮蔽されることを防止することができる。そのため、制御部22が、操作者13の顔面の画像を用いて行われる操作者の識別、顔面の位置の検出、操作の検出などの処理を安定して実行できる。これらの処理については後述する。
 図2は、本実施形態に係る表示装置10とユーザとの位置関係を表す平面図である。
 図2において、上下は、それぞれ表示装置10の奥、手前の方向を表す。図2が示す操作者13、操作不可者14及び表示装置10の位置関係は同様である。ここで、図2では、操作者13は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも短い(近い)位置に所在している。これに対し、操作不可者14は、表示装置10の正面であって、表示装置10からの距離が操作可能距離の上限よりも長い(遠い)位置に所在している。
 上述のように操作可能距離の上限が設定されることにより、制御部22(図3)が、複数のユーザが同時に操作を行う機会や、操作と誤認される動作(例えば、ディジタルサイネージ装置の近くを通過する通行人による手振り)を表す画像が入力される機会を制限する。例えば公共の場に設置されたディジタルサイネージ装置のように、表示装置10が同時に複数のユーザに利用される場合でも映像を視聴するユーザが意図しない処理が回避される。
〔表示装置の構成〕
 次に本実施形態に係る表示装置10の構成について説明する。
 図3は、本実施形態に係る表示装置10の構成を表すブロック図である。
 表示装置10は、撮像装置11、画像処理装置20、情報DB(Database、データベース)21、制御部22及び表示部12を含んで構成される。なお、表示装置10は、データ入力装置として画像処理装置20、情報DB21及び制御部22を含んで構成されていれば、撮像装置11及び表示部12とは別体であってもよい。
 撮像装置11は、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。画像処理装置20は、撮像装置11から入力された映像信号に基づき判別した操作者を表す操作者情報の取得、操作者の身体の一部が所在する位置を表す第1空間情報の取得、操作者の身体の一部がとる形状を表すユーザ情報の取得を行う。画像処理装置20は、取得した操作者情報、第1空間情報及びユーザ情報を検出情報として制御部22に出力する。
 情報DB21には、操作者13の映像を表す映像信号に基づく操作入力に応じて表示する表示情報が記憶されている。表示情報は、例えば、映像コンテンツ等を表す映像信号、ニュース等を表すテキスト情報、ネットワークから受信したコンテンツを表すコンテンツ情報、案内画像(操作ガイド)を表す案内画像信号である。案内画像の詳細については後述する。
 制御部22は、画像処理装置20から入力された検出情報から第1空間情報とユーザ情報を抽出する。制御部22は、抽出した第1空間情報が表す操作者13の位置が予め定められた操作可能領域の範囲内である場合、抽出したユーザ情報に対応する処理を行う。ここで、制御部22は、例えば、第1空間情報が表す操作者13の距離が予め設定された操作可能距離の上限よりも小さいか否かを判断する。ユーザ情報に対応する処理とは、例えば、案内画像の表示、映像コンテンツの表示、ネットワークからの情報検索、検索された情報に係る映像コンテンツ等やニュース等の保存、保存された情報の表示等、各種の映像表示に係る処理である。
 制御部22は、保存することが指示された情報を表示情報として情報DB21に記憶する。制御部22は、表示することが指示された表示情報を情報DB21から読み出し、読み出した表示情報を表す映像信号を表示部12に出力する。制御部22は、停止することが指示された表示情報の出力を停止する。
 表示部12は、制御部22から入力された映像信号を映像として表示する。これにより、操作者13が行って操作によって選択された映像コンテンツやニュースに係る映像や、案内画像を表示する。
 これにより、情報DB21と制御部22は表示制御装置(図示せず)を構成し、画像処理装置20から入力された検出情報に含まれるユーザ情報が表すコンテンツを選択する処理や、選択したコンテンツを表示する処理を実行する。
 撮像装置11は、撮像部110a、110bを含んで構成される。撮像部110a、110bは、撮像した映像を表す映像信号を生成し、生成した映像信号を画像処理装置20に出力する。撮像部110aは、生成した映像信号をユーザ情報解析部201に出力する。撮像部110a、110bは、例えば、被写体から入射された光を焦点に集光するレンズを備えた光学系と、集光された光を電気信号に変換する撮像素子を備えるカメラである。撮像部110a、110bが備える撮像素子は、例えば、CCD(Charge Coupled Device)素子、CMOS(Complementary Metal Oxide Semiconductor)素子である。
 画像処理装置20は、距離算出部200、ユーザ情報解析部201を含んで構成される。
 距離算出部200は、撮像部110a、110bから各々映像信号が入力される。距離算出部200は、各々入力された映像信号に基づいて撮像装置11から被写体(例えば、操作者13)までの距離を表す距離情報を、例えばステレオマッチング方式を用いて算出する。
〔距離情報の算出〕
 ここで、ステレオマッチング方式の一種であるブロックマッチング方式を用いた距離情報の算出方法について説明する。ステレオマッチング方式では、撮像部110a、110bが撮像した映像の視差値を距離値として算出する。以下の説明では、撮像部110aが撮像した映像に含まれる画像であって、ある時点における画像を左画像と呼ぶ。撮像部110bが撮像した映像に含まれる画像であって、その時点における画像を右画像と呼ぶ。
 ステレオマッチング方式では、左画像の一部の領域である左画像ブロックと対応する領域である右画像ブロックを探索する。ここで左画像及び同時に撮像された右画像を例にとって説明する。
 図4は、左画像及び右画像の一例を表す概念図である。
 図4は、左側に左画像400を表し、右側に右画像410を表す。
 距離算出部200は、左画像400において、注目画素を中心とする左画像ブロック(ウィンドウ)401を設定する。左画像ブロック401に含まれる左右方向に3個、上下方向に3個、計9個の四角形は、それぞれ画素を表す。図4における左画像400の右端から左画像ブロック401の右端までの水平方向の距離がL画素(L個の画素分の距離)である。Lは、1又は1よりも大きい整数である。
 距離算出部200は、右画像410において、左画像ブロック401と上下方向の座標が同一であって、右画像410の右端からの距離がL+d2に右端をもつ右画像ブロック411を初期値として設定する。d2は、予め設定された整数値であり、視差値の最大値を表す。右画像ブロック411の大きさ及び形状は、左画像ブロック401と同一である。
 距離算出部200は、左画像ブロック401と右画像ブロック411との間の指標値を算出する。距離算出部200は、右画像ブロック411の右端が右画像410の右端からの距離がL画素になるまで右画像ブロック411の位置を初期値の位置からずらし、それぞれずれた位置で指標値を算出する。距離算出部200は算出した指標値に基づいて左画像ブロック401と対応する位置にある右画像ブロック411を定める。指標値として、例えばSAD(Sum of Absolute Difference)値を用いる場合、SAD値が最小となる位置にある右画像ブロック411を定める。この位置が左画像400における注目画素に対応する注目点である。注目点と注目画素の間の水平方向の座標の差分に対する絶対値が視差である。距離算出部200は、左画像400に含まれる各画素について実行し、撮像部110aが撮像した映像に含まれる画素毎の視差値を表す視差情報(視差マップ、ディスパリティマップともいう)を距離情報として生成する。視差は、撮像装置11から被写体までの距離が短いほど大きく、距離が長いほど小さくなる関係がある。距離算出部200は、生成した距離情報をユーザ情報解析部201に出力する。
 視差マップは、予め定めたビット数で表される整数値(例えば、8ビットの場合、最小値0-最大値255)で表された視差値を画素毎に有する、グレースケール化したビットマップ画像である。なお、距離算出部200は、視差は、撮像部110aと撮像部110bの間隔である基線長等のカメラパラメータに基づいて、撮像装置11から被写体までの被写空間における距離に変換し、変換した距離を表す距離情報を生成してもよい。従って、距離算出部200は、画素毎の視差値を表す距離情報の代わりに変換した距離をグレースケール化したビットマップ画像(デプスマップ)を距離情報として生成してもよい。
 なお、撮像部110a、110bは、上下方向に異なる座標値に配置され、各々が撮像した画像を表す撮像画像を用いて視差を算出してもよい。その場合、距離算出部200は、撮像部110a、110bのいずれかが撮影した画像における画像ブロックを基準として、他方が撮影した画像における画像ブロックを上下方向にずらして対応する画像ブロックを探索すればよい。
 距離算出部200は、SAD値を算出する際、例えば、式(1)を用いる。
Figure JPOXMLDOC01-appb-M000001
 
 式(1)において、xは、左画像ブロック401に含まれる、例えば緑色(G:Green)の画素毎の画素値である。8は、1個の画像ブロックに含まれる画素数の一例である。画素値x~xにそれぞれ対応する画素の配置は、図5の左側に示すように各行毎に左端から右端に向かい、行間では最上行から最下行に向かう順序である。xaiは、右画像ブロック411に含まれる画素毎の画素値である。画素値xa0~xa8にそれぞれ対応する画素の配置は、図5の右側に示すように各行毎に左端から右端に向かい、行間では最上行から最下行に向かう順序である。
 指標値は、SAD値に限られない。左画像ブロック401に含まれる画素値と右画像ブロック411に含まれる画素値との相関を表すものであれば、他の指標値、例えばSSD(Sum of Squared Difference)値や、DP(Dynamic Programming)値であってもよい。
 左画像ブロック401、右画像ブロック411の大きさであるウィンドウサイズは、上述のように水平方向3画素×上下方向3画素に限られない。例えば、水平方向5画素×上下方向5画素、水平方向9画素×上下方向9画素のように上述よりも大きくてもよいし、水平方向4画素×上下方向4画素のように中心座標が注目点からずれた位置になってもよい。また、右画像ブロック411をずらす方向は、上述のように左側から右側に限られず、右側から左側であってもよい。左画像ブロック401、右画像ブロック411に含まれる画素は、緑色(G)の画素の信号値に限られず、他の色、例えば赤色(R:Red)の画素の信号値であってもよいし、他の表色系に基づく画素の信号値や、それらの任意の組み合わせであってもよい。
 上述のブロックマッチング方式では、左画像400のある座標と右画像410の対応する座標が左右方向にずれており、上下方向にずれておらず、左画像400と右画像410のエピポーラ線が一致していると仮定していた。上述のように撮像部110a、110bの光軸が平行になるように配置していたのはエピポーラ(epipolar)線(補助線とも呼ばれる)を一致させるためである。エピポーラ線を一致させるために、距離算出部200が予め取得した撮像部110a、110bのカメラパラメータに基づいて、左画像400と右画像410の光軸が平行になるように撮像した画像信号を座標変換する処理を行ってもよい。この座標変換を行う処理は、レクティフィケーション(rectification)、又は偏移修正と呼ばれる。距離算出部200は、この処理を行った後で距離情報を生成する。
 エピポーラ線とは、図6に示されるようにエピポーラ平面453と、2つの撮像部110a、110b各々が備える撮像面454、455との各々が交わる線456、457である。エピポーラ平面453は、2つの撮像部110a、110b各々が備えるレンズの焦点450、451と、被写空間における特徴点452の3点を通る平面である。
 撮像部110a、110bが、各々の光軸が平行になるように配置されている場合、エピポーラ線456、457は、左画像400、右画像410各々において上下方向の座標が同一の水平線になる。
〔ユーザ情報の解析〕
 次に、ユーザ情報解析部201の構成について説明する。
 図7は、本実施形態に係るユーザ情報解析部201の構成を表す概略図である。
 ユーザ情報解析部201は、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、注目位置検出部35、操作者判別部39、描画入力検出部40及び検出情報出力部41を備える。
〔ユーザの顔の検出〕
 顔検出部30は、撮像部110aから入力された映像信号が表す操作者の顔面の画像を表す領域を検出する。顔検出部30は、検出した顔面の領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔位置情報を生成する。
 顔面の領域を検出するために、顔検出部30は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された画像信号から抽出する。
 なお、顔検出部30は、予め人間の顔面を表す濃淡(モノクロ)画像信号を記憶した記憶部を備えるようにしてもよい。そこで、顔検出部30は、記憶部から読み出した濃淡画像信号と入力された画像信号との相関値を複数の画素を含む画像ブロック毎に算出し、算出した相関値が予め定めた閾値よりも大きい画像ブロックを顔面の領域と検出する。
 その他、顔検出部30は、入力された画像信号に基づいて特徴量(例えば、Haar-Like特徴量)を算出し、算出した特徴量に基づいて予め定めた処理(例えば、Adaboostアルゴリズム)を行って顔面の領域を検出してもよい。顔検出部30が顔面の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。
 顔検出部30は、検出した顔面の画像を表す顔面画像信号を目位置検出部31に出力する。顔検出部30は、生成した3次元顔位置情報及び2次元顔面領域情報を操作者判別部39に出力する。顔検出部30は、生成した3次元顔位置情報を検出情報の一部として検出情報出力部41に出力する。
〔目の位置の検出〕
 目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域の代表点(例えば、重心点)である2次元の目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部35および操作者判別部39に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号、算出した2次元の目位置座標を表す2次元目位置情報を操作者判別部39に出力する。
 目位置検出部31が目の領域を検出するために、例えば、予め撮影された目のテンプレート画像を記憶させた記憶部を備えておく。目位置検出部31は、記憶部から目のテンプレート画像を読み出し、読み出したテンプレート画像と入力された顔面画像信号を照合するテンプレートマッチング法を用いてもよい。また、目位置検出部31は、入力された顔面画像信号が表す顔面の領域のうち、予め設定された顔面における目の位置関係(例えば、予め計測された顔面の領域と両眼の位置)を表す目位置情報を用いて目の領域を検出してもよい。また、目位置検出部31は、入力された顔面画像信号に基づいて特徴量(例えば、Haar-Like特徴量)を算出し、算出した特徴量に基づいて予め定めた判別処理(例えば、Adaboostアルゴリズム)を行って目の領域を検出してもよい。
 目位置検出部31が目の領域を検出する方法は、上述の方法に限られず、顔面画像信号から目の領域を検出する方法であれば、いかなる方法を用いてもよい。
 目位置検出部31は、検出する目の領域として、両目の重心点にかかわらず、左目や右目の位置や、これら全てを表す目領域信号を出力するようにしてもよい。
〔手の位置の検出〕
 手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を算出する。
 手の画像を表す領域を検出するために、手位置検出部32は、例えば予め設定した手の表面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された映像信号から抽出する。手位置検出部32は、手の位置として検出した手の画像を表す領域の代表点(例えば、重心点)の2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
 なお、手位置検出部32は、左手又は右手を区別せずに手画像信号、手位置情報を生成し、出力してもよいし、左手又は右手を区別して手画像信号、手位置情報を生成し、出力をしてもよい。
 また、手の画像を表す領域を検出するために、手位置検出部32は、距離算出部200から入力された距離情報に基づいて、顔検出部30から入力された3次元顔位置情報が表す3次元顔位置を基準とした予め定めた奥行方向の開始点と終了点で表される距離範囲内にある画像を撮像部110aから入力された映像信号から手の画像を表す領域として抽出してもよい。予め定めた距離範囲は、例えば3次元顔位置より前方(表示部12側)にある範囲である。これにより、操作者の前方または後方にいる別人の手を、操作者の手と認識することを防ぐことができる。
〔手の形状と指先位置の検出〕
 手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。
 手の形状を検出するために、手形状・指先位置検出部33は、手画像信号から、例えばエッジ抽出処理を行って手の輪郭部分を検出する。手形状・指先位置検出部33は、検出した輪郭部分のうち予め定めた範囲の曲率半径(例えば、6-12mm)をもつ突起部分を指の領域の画像として探索する。手形状・指先位置検出部33は、探索において手位置情報が表す代表点からの所定の半径の探索領域に前述の突起部分の有無を判断し、順次半径を変更することで探索領域を同心円状に更新する。手形状・指先位置検出部33は、検出した指の領域に基づいて指の本数を計数する。手形状・指先位置検出部33は、検出した突起部分の頂点を各指の指先位置を表す2次元座標として検出する。手形状・指先位置検出部33は、定めた指先における2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。指画像信号、本数情報及び2次元指先位置情報のいずれか又はその組み合わせは、手の形状を示す情報であるため手形状情報と総称する。
 また、手形状・指先位置検出部33が手形状情報を検出する方法は、上述の方法に限られず、手画像信号から指画像信号や指先位置情報などの手形状情報を検出する方法であれば、いかなる方法を用いてもよい。
〔注目位置の検出〕
 次に、注目位置を検出する処理について説明する。注目位置とは、操作者が注目している位置、もしくは注目していると推定される位置である。
 注目位置検出部35は、目位置検出部31から入力された3次元目位置情報と、手形状・指先位置検出部33から入力された3次元指先位置情報に基づいて注目位置を検出する。
 注目位置検出部35は、例えば、3次元目位置情報が表す目の位置に基づいて基準位置を定める。注目位置検出部35は、いずれか一方の目の位置を基準位置と定めてもよいし、両眼の位置の重心点を基準位置と定めてもよい。また、いずれか一方の目として、予め設定した操作者の利き目を予め設定しておいてもよい。以下の説明では、両眼の位置の重心点を基準位置と定めておく場合を例にとって説明するが、本実施形態ではこれには限られない。
 そして、注目位置検出部35は、基準位置から3次元指先位置情報が示す位置に延びる直線と表示部12の表示面との交点を注目位置と算出する。即ち、注目位置検出部35は、指先の位置に対応する表示面上の位置を注目位置として検出する。この注目位置は、操作者の指先が表示部12の表示面上を指示する位置である。なお、3次元指先位置情報が示す位置を指定位置と呼ぶ。
 注目位置検出部35は、算出した注目位置を表示部12の表示面上の2次元画像座標系に変換し、変換した注目位置を示す注目位置情報を生成する。注目位置検出部35は、生成した注目位置情報を検出情報の一部として検出情報出力部41に出力する。
 これにより、操作者は、操作者の目の位置(注目位置検出の基準位置)を中心に、操作者の手(注目位置検出の指定位置)の延長線上である注目位置を指示し、その位置における描画を容易に行うことが可能となる。
 また、操作者が注目位置を示す手の形状は、手を開いた形状や、人差し指を立てた形状、手を閉じた形状など、3次元指先位置情報が取得できる形状であればどのような手の形状であってもよい。
〔操作者の判別〕
 次に、操作者の判別処理について説明する。
 操作者判別部39は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能距離の領域に所在するユーザを操作者として判別する(図1、2参照)。操作者判別部39は、例えば、3次元顔位置情報が表す距離が予め定めた操作可能距離の上限よりも、撮像装置11からの距離が短い位置に顔面が所在するユーザを操作者として判別する。これにより、顔検出部30が顔面を検出したユーザの中から操作者が判別される。他方、操作者判別部39は、予め定めた操作可能領域外に所在するユーザを操作不可者として判別する。
 操作者判別部39は、操作可能領域に所在するユーザの身体の他の一部(例えば、手)が、操作検出領域に所在するか否か判断する。ここで、操作者判別部39は、手位置検出部32から入力された3次元手位置情報が示す位置が操作検出領域に含まれるか否かを判断する。操作検出領域は、操作可能領域に含まれる領域であって、ユーザの身体の一部(例えば、目)の位置に基づく基準位置(例えば、一方の目の位置、両目の中点、等)から予め定めた範囲にある領域である。操作者判別部39は、例えば、顔検出部30から入力された3次元顔位置情報や目位置検出部31から入力された3次元目位置情報に基づいて基準位置を定め、定めた基準位置に基づいて操作検出領域を定める。以下の説明では、この3次元手位置情報が示す位置を指定位置と呼ぶことがある。操作者判別部39は、手位置検出部32から入力された3次元手位置情報から、操作可能領域に含まれると判断された位置を示す3次元手位置情報を選択する。
 また、操作者判別部39は、操作可能領域に含まれる領域の個数を1個に制限してもよい(排他制御)。ここで、操作者判別部39は、指定位置が操作検出領域の範囲内にあると判断した場合、その指定位置に身体の他の一部(例えば、手)を所在させたユーザを操作者13と判断する。その場合、操作者判別部39は、その操作者に係る検出情報に基づいて操作が開始されたことを表す操作開始信号を検出情報出力部41に出力する。例えば、操作者判別部39は、このように操作検出領域を定めることにより、その領域(例えば、顔面の前面)に身体の他の一部を移動させたユーザを操作者と判断する。
 操作者判別部39は、手位置検出部32から入力された3次元手位置情報が表わす指定位置が、操作検出領域の範囲外に離れた場合、操作者は操作を終了したと判断する。その場合、操作者判別部39は、その操作者に係る検出情報に基づいて操作が終了されたことを表す操作終了信号を検出情報出力部41に出力する。即ち、操作者判別部39が、ある操作者について操作開始信号を検出情報出力部41に出力してから、操作終了信号を出力されるまでの間は、表示装置10は、操作者と判断されたユーザの手の形状に基づく操作入力を受け付ける。他のユーザについて手位置情報が表す代表点が操作開始検出領域の範囲内にあったとしても、その間、表示装置10は、他のユーザからの操作を受け付けない。
 操作者判別部39は、操作可能領域に身体の一部が所在している他のユーザが複数名いる場合には、操作者判別部39は、手位置情報が表わす指定位置が操作検出領域の中心に最も近接する1名のユーザを操作者13として定めるようにしてもよい。これにより、表示装置10は、新たな1名の操作者13からのみの操作入力を受け付け、同時に2名のユーザからの操作入力を受け付けないことができる。これにより、同時に複数名からの操作が受け付けられることを回避し、操作者1名のみの操作が受け付けられるようにする。
 操作者判別部39は、操作者として判断されたユーザに係る操作検出領域を示す操作検出領域情報と選択した3次元手位置情報を描画入力検出部(手入力検出部)40に出力する。
〔描画入力の検出〕
 次に、操作者による描画入力を検出する処理について説明する。
 描画入力検出部40は、操作者判別部39から入力された操作検出領域情報に基づいて入力検出領域を定める。入力検出領域は、操作検出領域情報が示す操作検出領域に含まれる領域であって、描画入力が行われている位置を検出する領域である。描画入力検出部40は、例えば、操作検出領域のうち、操作者の身体の他の一部(例えば、目)よりも予め定めた奥行値よりも奥の領域を入力検出領域と定める。
 描画入力検出部40は、定めた入力検出領域と操作者判別部39から入力された3次元手位置情報が示す指定位置に基づいて描画入力が行われたか否かを検出する。描画入力検出部40は、3次元手位置情報が示す指定位置が入力検出領域に含まれる場合、描画入力が行われたと検出する。描画入力検出部40は、指定位置が定めた入力検出領域に含まれない場合には、描画入力が行われていないと判断する。これにより、操作者による描画入力が検出される。描画入力検出部40は、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
 検出情報出力部41には、顔検出部30、操作者判別部39、描画入力検出部40、注目位置検出部35および手形状・指先位置検出部33から、それぞれ検出情報が入力される。ここで、検出情報出力部41は、注目位置検出部35から入力された注目位置情報を、描画入力検出部40から入力された描画検出信号を制御部22へ出力する。
 検出情報出力部41は、操作者判別部39から操作開始信号が入力された場合、入力された操作開始信号に係る操作者の検出情報を制御部22に出力する。検出情報出力部41は、検出情報出力部41は、操作者判別部39から操作終了信号が入力された場合、入力された操作終了信号に係る操作者の検出情報の出力を終了する。なお、ユーザ情報解析部201は、上述した方法や特徴量に限られず、入力された映像信号に基づいてユーザの特徴やユーザが指示する操作に係る情報を検出してもよい。
〔入力検出領域の例〕
 次に、入力検出領域の例について説明する。次に示す例では、操作者13の両眼の位置と顔面の位置に基づいて定められた入力検出領域の例である。
 図8は、本実施形態に係る入力検出領域の一例を表す概念図である。
 図8(a)は、操作者13の正面を表す。
入力検出領域r11は、例えば、操作者13の左眼131-1及び右眼131-2を結ぶ両眼の高さを表す線分134を含む領域である。入力検出領域r11の上下方向の範囲hは、例えば、線分134と平行であって顔面132の上端に接する線分135と、線分134と平行であって顔面132の下端に接する線分136に挟まれる範囲である。この例では、入力検出領域r1の上下方向の範囲も、操作検出領域r1の上下方向の範囲と等しい。
 図8(b)は、操作者13の左側面を表す。
 操作検出領域r1の奥行方向の範囲は、顔面132の最前面を基準位置P10として、その位置から予め定めた距離d1だけ前方(奥)から、さらに予め定めた距離d11+d12だけ前方に至る範囲である。ここでは、顔面132の最前面から予め定めた距離d1だけ前方の位置を、操作検出開始位置q1と呼ぶ。入力検出領域r1の奥行方向の範囲は、顔面132の最前面から予め定めた距離d1+d12だけ前方から、さらに予め定めた距離d11だけ前方に至る範囲である。即ち、顔面132の最前面から予め定めた距離d1だけ前方から、さらに予め定めた距離d12だけ前方に至る範囲の領域は、入力非検出領域r12である。つまり、入力非検出領域は、操作検出領域r1に属するが、描画入力が行われている位置を検出しない領域である。境界面b1は、入力検出領域r11と入力非検出領域r12との間を区分する境界面である。
〔操作者が横たわっている場合の操作検出〕
 図8に示した例では、操作者の身体の一部である両眼を結ぶ線が、底面に対して水平である姿勢(例えば、起立)を取っていることを前提としている。しかし、操作者は、このような姿勢を取るとは限らず、例えば、操作者は底面上に横たわることがある。このような場合にも、操作者判別部39は、上述のように操作検出領域を定めて操作者13を判断することによって、操作者の姿勢によらず安定した判断が可能であり、誤検出を回避することができる。このことを次に説明する。
 図9は、本実施形態に係る操作検出領域の例を表す概念図である。
図9は、操作者13が底面137の上を横たわっている例を示す。このとき、左眼131-1及び右眼131-2を結ぶ線分134と底面137となす角度θは、0°よりも90°に近い角度(例えば、70°)である。
 この場合、操作者判別部39は、目位置検出部31から入力された3次元目位置情報に基づいて左眼131-1及び右眼131-2を結ぶ線分134を定める。操作者判別部39は、顔検出部30から入力された3次元顔面領域情報に基づいて顔面の上端に接し線分134に平行な線分135と顔面の下端に接し線分134に平行な線分136を定める。操作者判別部39は、線分135と線分136に挟まれる領域を操作検出領域r1の幅hを定める。この操作検出領域r1は、図8に示すものと方向が異なるに過ぎない。また、操作者判別部39は、操作検出領域r1の奥行方向の範囲も上述と同様にして、顔面132に垂直な方向を奥行方向として定めることができる。
 このように操作者判別部39は、操作者13の身体の一部である顔面の位置に基づいて操作検出領域r1を定めることができる。これにより、描画入力に係る身体の他部である手との位置関係に基づいて操作を受け付ける操作者が判別され、ひいては入力検出領域が定められる。
 次に、入力検出領域の他の例について説明する。次に示す例では、操作者13の両眼の位置と表示部12の表示領域に基づいて定められた入力検出領域の例である。
 図10は、本実施形態に係る入力検出領域の他の例を表す概念図である。
 図10(a)は、操作者13の左側面を表す。図10(a)の紙面に対する上下方向、左右方向は、それぞれ操作者13に対する上下方向、左右方向を示す。
 図10(a)において、入力検出領域r11は、塗りつぶされた部分で示されている。入力検出領域r11は、基準位置P10からの距離が予め定めた奥行方向の距離d1+d12と等しいかd1+d12よりも遠く、距離d1+d11+d12と等しいか、それよりも近い領域(奥行方向操作範囲)である。また、入力検出領域r11の仰角の範囲rθは、基準位置P10を頂点として、その頂点から表示部12の上端への線分と、その頂点から表示部12の下端への線分とのなす範囲(上下方向操作範囲rθ)である。
 なお、操作検出領域r1は、基準位置P10から奥行方向に見て予め定めた入力検出領域r11と入力非検出領域r12を合わせた領域である。入力非検出領域r12は、斜線で塗りつぶされた部分で示されている。入力非検出領域r12は、基準位置P10からの距離が予め定めた奥行方向の距離d1と等しいかd1よりも遠く、距離d1+d12と等しいか、それよりも近い領域である。
 図10(b)は、操作者13の上表面を表す。図10(b)の紙面に対する上下方向、左右方向は、それぞれ操作者13に対する前後方向、左右方向を示す。
 図10(b)において、入力検出領域r11の方位角方向の範囲rφは、基準位置P10を頂点として、その頂点から表示部12の左端への線分と、その頂点から表示部12の右端への線分とのなす角度(左右方向操作範囲rφ)である。入力非検出領域r12の方位角方向の範囲rφは、入力検出領域r11の方位角方向の範囲rφと同様である。
 これにより操作者から表示部12が視認される表示領域に合わせた視野角(画角)に合わせて入力検出領域が定められる。定められる入力検出領域は立方体ではなく、表示部12の表示面と平行な平面が、操作者13から表示部12に近づく(操作者から奥行方向に遠ざかる)にしたがって徐々に大きくなる形状となる。操作者の視野に応じて注目位置を指示することで、操作者は、その注目位置への描画を直感的に行うことができる。
〔注目位置の例〕
 次に、注目位置の例について説明する。次に示す例では、操作者13の両眼の位置と顔面の位置に基づいて定められた注目位置の例である。
 図11は、注目位置の例を示す概念図である。
 図11(a)は、操作者13の左側面を表す。
 図11(a)において、紙面に対して左方、下方はそれぞれ3次元空間座標系におけるZ方向(奥)、Y方向(下)を示し、右斜め上の方向はX方向(右方)を示す。表示部12の表示面上において、右斜め上の方向、下方は、それぞれ2次元画像座標系におけるx方向(右)、y方向(下)を示す。注目位置P12は、基準位置P10と指定位置P11を結ぶ直線が、表示部12の表面に射影された交点として算出される。基準位置P10、指定位置P11及び注目位置P12は、3次元空間座標系における座標値で表されている。注目位置検出部35は、3次元空間座標系における座標値で表されている注目位置P12を、表示部12の表示面上の2次元画像座標系における座標値に変換する。
 図11(b)は、左眼131-1の位置と右眼131-2の位置との中点の前方に基準位置P10があり、その中点と基準位置P10が操作者13の正中面138内にあることを示す。左眼131-1の位置と右眼131-2の位置は、ともに3次元空間画像座標系で与えられている。
〔動作の制御〕
 次に、制御部22の構成について説明する。
 制御部22は、検出情報出力部41から入力された検出情報から、3次元顔位置情報、手形状情報(指画像信号、本数情報、2次元指先位置情報)、特徴情報、注目位置情報及び描画検出信号を抽出する。制御部22は、抽出した情報に基づく処理を行う。抽出された情報のうち、手の形状を表す手形状情報は、指画像信号、本数情報、2次元指先位置を含んで構成される。手形状情報は、一時的又は静止した手の形状、即ち姿勢を表す情報であってもよいし、時間経過によって変化する手の形状、即ち動作を表す情報であってもよい。
 図12は、本実施形態に係る制御部22の構成を示す概略図を示す。
 制御部22は、表示制御部(画像形成部)221及び案内画像表示部222を備える。
〔描画表示制御〕
 表示制御部221は、抽出した描画検出信号が、描画入力が検出されたことを示す場合、注目位置情報が示す注目位置が移動しながら軌跡の画像を形成し、形成した画像を示す画像信号を生成する。軌跡の画像は、時間経過に伴って注目位置が移動することに応じて時刻毎の点画を追記することによって形成される。
 ここで、表示制御部221は、抽出した手形状情報に基づいて開始情報又は停止情報を検知する。開始情報とは、画像の形成を開始することを指示する情報である。停止情報とは、画像の形成を停止することを指示する停止情報である。情報DB21には、予め形成開始情報及び形成停止情報と対応付けてそれぞれ異なる手の形状を示す手形状情報を記憶しておく。例えば、形成開始情報とは、人差し指を立て、その他の指を握った形状を示す手形状情報とを対応付けておく。形成終了情報とは、互いに隣接する指を接触させながら5本の指を伸ばした形状を示す手形状情報とを対応付けておく。ここで、表示制御部221は、情報DB21から入力された手形状情報に対応する開始情報の読み出しに成功した場合、形成開始情報が検知されたと判断し、形成停止情報の読み出しに成功した場合、形成停止情報が検知されたと判断する。表示制御部221は、形成開始情報が検知された後、形成停止情報が検知されるまでの間の注目位置の軌跡を示す画像を形成し、形成した画像を示す画像信号を生成する。形成開始情報と形成停止情報は、1枚(フレーム)の画像を区分する情報であり、上述の描画入力が検出されたか否かを示す描画検出信号や、ある操作者による操作の開始を示す操作開始信号もしくは操作の終了を示す操作終了信号とは別個の情報である。表示制御部221は、生成した画像信号を表示部12に出力する。
 表示制御部221が形成する画像は、例えば、注目位置を画素単位で表示した画像である。注目位置の位置を示すものであれば、これには限られない。また、表示制御部221は、注目位置の軌跡に入力検出画像(カーソル)を重畳した画像を示す画像信号を生成してもよい。入力検出画像が重畳される位置は、現在(最新)の注目位置であってもよい。入力検出画像の形状は、四角形、円、等の幾何学的な形状に限らず、手の形状、顔面画像(操作者自身の顔面画像でもよい)、アバター(分身)画像であってもよい。そこで、情報DB21には、入力検出画像を示す入力検出画像信号を予め記憶しておき、表示制御部221は情報DB21から入力検出画像信号を読み出す。
 また、表示制御部221は、抽出した描画検出信号が、描画入力が検出されないことを示す場合、注目位置の軌跡が追記されないため、最後に追記された時点の画像のまま変化しない。そのような場合においても、表示制御部221は、既に形成された注目位置の画像に入力検出画像を注目位置に重畳してもよい。重畳される位置は注目位置に限らず、予め定めた位置であってもよい。
 表示制御部221は、描画検出信号が、描画入力が検出されたことを示す場合とされない場合とで、異なる態様の入力検出画像を用いてもよい。注目位置情報が入力されるときに用いられる入力検出画像は、注目位置情報が入力されないときに用いられる入力検出画像よりも注意を引く態様(アクティブ表示)とする。注意を引く態様とは、例えば、輝度がより明るい、点滅(輝度が一定時間間隔で変化)する、他の画像とは異なる色で示される、等がある。入力検出画像として顔面画像を用いる場合には、描画もしくは筆記を行なっている状況下の画像であってもよい。
 これにより、操作者は、注目位置の入力が検出されているか否か、画像として現に入力されている注目位置を視認することができる。
〔案内画像表示〕
 情報DB21には、案内画像信号を予め記憶させておく。案内画像信号は、操作者に注目位置を入力するための操作方法を案内する図や文字を示す案内画像を示す信号である。案内画像表示部222は、情報DB21から案内画像信号を読み出し、読み出した案内画像信号を表示部12に出力する。
 なお、制御部22は、予め操作対象となる処理の種別毎に手形状情報を対応付けられて記憶された記憶部を備えていてもよい。制御部22は、記憶部から手形状情報を読み出し、読み出した手形状情報と入力された手形状情報を照合する。制御部22は、照合に成功した手形状情報に対応した処理を実行する。
 手の形状は、表示装置10における処理の種類に対する指示として特定できればよい。例えば、伸ばしている指の本数、手の方向、親指の先端と人差し指の先端を接触させた形状であってもよい。また、本実施形態では、操作者の身体の他の一部として手の形状に限られず、身体の手以外の他の部分、例えば足の形状を用いてもよい。
〔注目位置情報の入力〕
 次に、注目位置情報を入力するときの表示装置10の動作例について説明する。
 図13は、本実施形態に係る表示装置10の一動作例を示す概念図である。
 図13において、紙面に対して右方、下方はそれぞれ3次元空間座標系におけるX方向(右)、Y方向(下)を示し、右斜め上の方向はZ方向(奥行)を示す。表示部12の表示面上において、右方、下方は、それぞれ2次元画像座標系におけるx方向(右)、y方向(下)を示す。
 この例において、基準位置P10は、操作者13の両眼それぞれの位置の重心点の前方の直近にある。指定位置P11は、操作者の右手の先端の位置である。破線で示されている三角錐台は、入力検出領域r11を示す。指定位置P11は、入力検出領域r11に含まれるため、描画入力として検出される。注目位置P12は、基準位置P10から指定位置P11への直線と表示部12の表示面との交点として算出される。算出された注目位置P12は、3次元空間座標系から当該表示面上の2次元画像座標系に座標変換が行われる。この瞬間において、表示部12は、座標変換を行った注目位置P12に点画を追加的に表示する。従って、表示部12は、指定位置P11が入力検出領域r11に含まれる限り時間経過に応じて注目位置P11の軌跡の画像を表示する。
〔画像の表示例〕
 次に、表示部12に表示される画像の表示例について説明する。この画像は、操作者による描画入力(手書き入力)による筆跡ともいえる画像である。
 図14は、本実施形態における画像の一表示例を示す概念図である。
 図14(a)において、操作者13と入力検出領域r11との位置関係は図8(b)と同様である。この例では、指定位置P11が入力検出領域r11に含まれていることを示す。図14(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図13と同様である。この例では、指定位置P11は、境界面b1よりも奥にある。指定位置P11が入力検出領域r11内において左から右に移動することに応じて、表示部12にストロークs1が表示されることを示す。ストロークとは、空間的に連続する線の一区分、即ち「画(かく)」に相当する。つまり、ストロークs1は、注目位置P12が左から右に移動したことを示す軌跡である。
 図15は、本実施形態における画像の他の表示例を示す概念図である。
 図15(a)において、操作者13と入力検出領域r11との位置関係は図14(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれず、入力非検出領域r11に含まれることを示す。図15(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図14(b)と同様である。この例では、指定位置P11は、境界面b1よりも手前にある。指定位置P11は入力非検出領域r12内において右上から左下に移動するため、表示部12にはストロークs1の他に、ストロークが新たに表示されないことを示す。つまり、操作者13は、前回のストロークの表示を完了した後、次のストロークに移るまでの間、指定位置P11が入力検出領域r11の範囲外となる領域内で自己の指を動かせばよいことが示される。
 図16は、本実施形態における画像のさらに他の表示例を示す概念図である。
 図16(a)において、操作者13と入力検出領域r11との位置関係は図15(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれることを示す。図16(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図15(b)と同様である。この例では、指定位置P11は、境界面b1よりも奥にある。指定位置P11が入力検出領域r11内において左から右に移動するため、表示部12に新たにストロークs2が表示されたことを示す。つまり、操作者13は、次のストロークを入力する際には、再度、指定位置P11が入力検出領域r11の範囲内となる領域内で自己の指を動かせばよいことが示される。
 つまり、操作者13は、指定位置P11を入力検出領域r11内で移動させるか、その領域外で移動させるかによって各ストロークを区分して、入力することができる。その領域の使い分けは、身体の他の一部である手の位置を変えることで実現できる。これにより、操作者13は、複数のストロークを有する文字、その他、複雑な形状を有する画像を簡単な動作によって入力することができる。なお、図14-16は、漢字の「二」の文字を入力する例を示したが、本実施形態では、その他の文字、図形、記号等を構成する線画を容易に入力することができる。
〔入力検出画像の表示例〕
 次に、入力検出画像の表示例について説明する。
 図17は、本実施形態における入力検出画像の一表示例を示す概念図である。
 図17において、表示部12と操作者13との位置関係は、図13における当該位置関係と同様である。但し、入力検出領域r11は実線で示されており、入力非検出領域r12は破線で示されている。
 指定位置P11-1は、操作者13の身体の他の一部である指先の位置であって、入力検出領域r11に含まれる位置にある。注目位置R11-1は、基準位置P10から指定位置P11-1を通る直線と表示部12の表示面との交点である。表示部12には、注目位置R11-1に至るストロークs3が表示されている。注目位置R11-1に、その先端が位置するように入力検出画像C-1が表示されている。入力検出画像C-1は、一例として筆記具としての鉛筆と同様な輪郭を有する画像であって、その代表点が鉛筆の先端である画像である。入力検出画像C-1は、後述する入力検出画像C-2よりも明るく目立つ態様で表示されている。これにより、操作者は、表示装置10が現に描画入力を検出している状態であること、受け付けた描画入力に基づいて指定位置P11-1に対応する注目位置R11-1で終端される軌跡が表示(描画)されることを視認することができる。
 他方、指定位置P11-2は、操作者13の身体の他の一部である指先の位置であって、操作検出領域の一部である入力非検出領域r12に含まれる位置にある。注目位置R11-2は、基準位置P10から指定位置P11-2を通る直線と表示部12の表示面との交点である。表示部12には、注目位置R11-1に至るストロークs3が表示されている。注目位置R11-2に、その重心点が位置するように入力検出画像C-2が表示されている。入力検出画像C-2は、一例として正方形の輪郭を有する画像であって、入力検出画像C-1よりも暗く目立たない態様で示されている。ここでは、正方形の輪郭を有する画像を表示する例を示したが、これに限定されるものではなく、入力検出画像C-1を表示しない(指定位置P11-2が入力非検出領域r12に含まれる場合には、入力検出画像を表示しない)こととしても良い。これにより、操作者13が入力を開始すると、入力検出画像が表示され、入力が開始されたことを知ることできる。また、注目位置R11-2にはストロークs3は終端されていない。
 これにより、操作者は、表示装置10が、操作入力が受け付けられている状態ではあるが、受け付けられた操作入力では指定位置P11-2に対応する注目位置R11-2の軌跡が表示(描画)されない状態であることを視認することができる。
〔処理フロー〕
 次に、本実施形態に係るデータ入力処理について説明する。
 図18は、本実施形態に係るデータ入力処理を表すフローチャートである。
(ステップS101)撮像部110a、110bは、それぞれ前方の映像を撮像し、撮像した映像信号を距離算出部200に出力する。撮像部110aは、映像信号をユーザ情報解析部201の顔検出部30、手位置検出部32に出力する。その後、ステップS102に進む。
(ステップS102)距離算出部200は、撮像部110a、110bから各々入力された映像信号に基づいて撮像装置11から操作者までの距離を、例えばステレオマッチング方式を用いて算出し、算出した距離情報を生成する。距離算出部200は、生成した距離情報をユーザ情報解析部201の顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33に出力する。その後、ステップS103に出力する。
(ステップS103)顔検出部30は、撮像部110aから入力された映像信号が表す操作者の顔面の画像を表す領域を検出する。顔検出部30は、検出した顔面の領域に基づいて2次元顔面領域情報を生成する。顔検出部30は、距離算出部200から入力された距離情報から、2次元顔領域情報が表す2次元座標の画素に係る距離値を抽出する。顔検出部30は、前述の2次元座標と対応する距離値を、被写空間における3次元座標に変換して、3次元顔位置情報を生成する。顔検出部30は、検出した顔面の画像を表す顔面画像信号を目位置検出部31に出力する。顔検出部30は、生成した3次元顔位置情報を操作者判別部39に出力する。顔検出部30は、生成した3次元顔位置情報を検出情報の一部として検出情報出力部41に出力する。
 目位置検出部31は、顔検出部30から入力された顔面画像信号が表す顔面の画像から目の領域を検出する。目位置検出部31は、検出した目の領域に基づいて目位置座標を算出する。目位置検出部31は、検出した目位置座標に所在する画素における距離値を、距離算出部200から入力された距離情報から抽出する。目位置検出部31は、算出した2次元の目位置座標と抽出した距離値の組を、被写空間における3次元の目位置座標に変換して3次元目位置情報を生成する。目位置検出部31は、算出した3次元の目位置座標を表す3次元目位置情報を注目位置検出部35および操作者判別部39に出力する。目位置検出部31は、検出した目の領域の画像を表す目領域信号を操作者判別部39に出力する。その後、ステップS104に進む。
(ステップS104)手位置検出部32は、撮像部110aから入力された映像信号が表す操作者の手の画像を表す領域を検出し、検出した手の位置を表す2次元座標値を算出する。手位置検出部32は、算出した座標値に対応する距離値を、距離算出部200から入力された距離情報から抽出し、算出した2次元座標値と対応する距離値の組を被写空間における3次元座標に変換して3次元手位置情報を生成する。手位置検出部32は、検出した手の領域の画像を表す手画像信号と、算出した代表点の2次元座標値を表す手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
 手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を計数する。手形状・指先位置検出部33は、各指の指先位置を表す2次元座標として検出し、検出した2次元座標に所在する画素の距離値を距離算出部200から入力された距離情報から抽出する。手形状・指先位置検出部33は、抽出した距離値と指先における2次元座標の組を被写空間における3次元座標を表す3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。手形状・指先位置検出部33は、検出した指の領域を表す指画像信号、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。その後、ステップS105に進む。
(ステップS105)操作者判別部39は、顔検出部30から入力された3次元顔位置情報に基づいて、顔面の領域を検出したユーザのうち予め定めた操作可能領域に所在するユーザを操作者として判別する。操作者判別部39は、顔検出部30から入力された3次元顔領域情報や目位置検出部31から入力された3次元目位置情報に基づいて操作検出領域を定める。操作者判別部39は、操作可能領域に所在する操作者の手が、操作検出領域に所在するか否か判断する。これにより操作者からの操作が開始されたことを検知する。操作が開始されたと判断された場合(ステップS105 YES)、ステップS106に進む。操作が開始されていないと判断された場合(ステップS105 NO)、ステップS101に進む。
(ステップS106)操作者判別部39は、操作者の顔の位置、および操作可能領域の手の位置を追跡し、同時に操作入力を受け付ける操作者を特定する。その後、ステップS107に進む。
(ステップS107)注目位置検出部35は、目位置検出部31から入力された3次元目位置情報に基づいて基準位置を定める。注目位置検出部35は、定めた基準位置と手形状・指先位置検出部33から入力された3次元指先位置情報が示す指定位置を結ぶ直線と表示部12の表示面の交点を注目位置として検出する。注目位置検出部35は、生成した注目位置情報を検出情報の一部として検出情報出力部41に出力する。その後、ステップS108に進む。
(ステップS108)操作者判別部39は、操作可能領域に所在する操作者の手が、操作検出領域に所在するか否かを判断し、操作者が操作を継続しているか(操作中)否かを検出する。操作者判別部39は、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS109に進む。操作者判別部39は、操作者の手が、操作検出領域に含まれないと判断した場合(ステップS108 NO)、ステップS111に進む。
(ステップS109)描画入力検出部40は、操作者判別部39から入力された操作検出領域情報に基づいて入力検出領域を定める。描画入力検出部40は、定めた入力検出領域に操作者判別部39から入力された3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っているか否かを検出する。描画入力検出部40は、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
 描画入力検出部40が、指定位置が入力検出領域に含まれると判断した場合(ステップS109 YES)、ステップS110に進む。描画入力検出部40が、指定位置が入力検出領域に含まれないと判断した場合(ステップS109 NO)、ステップS107に進む。
(ステップS110)表示制御部221には、検出情報出力部41から描画検出信号と注目位置情報が入力される。表示制御部221は、描画検出信号が、描画入力が検出されたことを示す場合、注目位置情報が示す注目位置が移動する軌跡の画像を示す画像信号を生成する。表示制御部221は、生成した画像信号を表示部12に出力する。表示部12は表示制御部221から入力された画像信号が示す入力画像(ストローク)を表示する。その後、ステップS107に進む。
(ステップS111)制御部22は、操作者による操作が終了したか否かを判断する。制御部22は、例えば、電源断を表す操作入力が入力された場合に操作が終了したと判断する。操作が終了していないと判断された場合(ステップS111 NO)、ステップS101に進む。操作が終了したと判断された場合(ステップS111 YES)、データ入力処理を終了する。
 このように、本実施形態によれば、撮像装置が撮像した映像に表されたユーザの身体の一部の位置である第1位置と身体の一部とは他の一部の位置である第2位置を検出し、第1位置と第2位置に基づいて描画入力を検出する。また、本実施形態では、第2位置に対応する画像表示面上の注目位置を検出する。これにより、ユーザは専用のデバイスを用いずに身体の他の一部を動作させることによって注目位置の軌跡である画像データ入力を円滑に行うことができる。
(第2の実施形態)
 以下、図面を参照しながら本発明の第2の実施形態について説明する。
 本実施形態に係る表示装置10a(図示せず)は、表示装置10(図3)のユーザ情報解析部201において、描画入力検出部40(図7)の代わりに描画入力検出部40a(図示せず)を備える。
 描画入力検出部40aは、描画入力検出部40(図7)と同様な処理を行う。但し、描画入力検出部40aは、操作者判別部39から入力された操作検出領域情報の他、操作者判別部39から入力された3次元手位置情報に基づいて入力検出領域を定める。入力検出領域を定めるために用いる3次元手位置情報は、描画入力に係る一方の手(例えば、右手)とは反対側の手(例えば、左手)についての3次元手位置情報である。
 描画入力検出部40aは、例えば、入力検出領域と入力非検出領域の境界面b1における奥行方向の座標値を、その反対側の手に係る3次元手位置情報が示す奥行方向の座標値と定める。そして、描画入力検出部40aは、「一方の手」に係る3次元手位置情報が示す指定位置が、上述の入力検出領域に含まれるか否かを判断する。
 また、本実施形態では、手位置検出部32は、左手又は右手を区別して手画像信号、3次元手位置情報を生成し出力する。従って、描画入力検出部40aには、操作者判別部39から左右それぞれの手について3次元手位置情報が入力される。
 上述の「一方の手」として、例えば、操作者判別部39は、操作者の顔面の画像を示す顔面画像信号と描画入力部位情報とを対応付けて自部が備える記憶部に予め記憶させておいてもよい。描画入力部位情報は、描画入力に係る身体の他の一部、例えば「一方の手」が右手もしくは左手であるかを識別する情報である。その「一方の手」は、例えば、利き手である。ここで、操作者判別部39は、顔検出部30から入力された顔面画像信号と照合できた顔面画像信号に対応する描画入力部位情報を記憶部から読み出し、読み出した描画入力部位情報が示す「一方の手」を判断する。
 また、操作者判別部39は、操作検出領域に先に導入された手を「一方の手」と定め、後に導入された手を身体のさらに他の一部である反対側の手、つまり「他方の手」と定めてもよい。ここで、手位置検出部32から入力された3次元手位置情報のうち、その情報が示す位置が操作検出領域に初めて含まれる方の手を「一方の手」と判断する。
 なお、「一方の手」とは、右手に限らず、左手であってもよい。「一方の手」が左手である場合には、「他方の手」とは右手である。
 次に、本実施形態に係る入力検出領域の例について説明する。
 図19は、本実施形態に係る入力検出領域の一例を表す概念図である。
 図19において、操作者13と操作検出領域r1との位置関係は、図8に示す位置関係と同様である。
 図19(a)は、操作者13の正面を表す。
 図19(b)は、操作者13の左側面を表す。
 図19(b)において、境界面b1の奥行方向の座標値は、操作者13の反対側の手として左手hlの奥行方向の座標値と定められている。これにより、操作者13は、その意思に応じて境界面b1の奥行方向の位置を柔軟(フレキシブル)に変更することができる。
 そのため、操作者は、他方の手の奥行の位置を通る境界面b1よりも、一方の手が奥にあるか、手前にあるかによって描画入力が検知されるか否かを直ちに知ることができるため、誤入力を減らし、容易に描画入力を行うことができる。かかる操作は、ノートや黒板等の筆記面に他方の手を接触しながら、一方の手で鉛筆や白墨等の筆記具等を用いて筆記を行う動作と類似している。そのため、本実施形態では、初めて使用する利用者、電子機器に不慣れな利用者等、操作に習熟していない利用者であっても、描画入力及びこれに基づく画像の表示(描画)を実現することができる。
 なお、描画入力検出部40aは、一方の手による描画入力が検出されたか否かに基づいて、上述の境界面b1の奥行方向の座標値を、他方の手の奥行方向の座標値よりも予め定めた値だけずれた値に定めてもよい。例えば、描画入力検出部40aは、描画入力が検出された直後から次に描画入力が検出されなくなるまで、境界面b1の奥行方向の座標値を予め定めた値だけ小さい値(手前)に定めてもよい。また、描画入力検出部40aは、描画入力が検出されなくなった直後から次に描画入力が検出されるまで、境界面b1の奥行方向の座標値を予め定めた値だけ大きい値(奥)に定めてもよい。これにより、描画入力中に一方の手が常に他方の手よりも奥に位置させることや、描画入力がなされていないときに一方の手が常に他方の手よりも手前に位置させなくてもよい。そのため、操作者は、描画入力に際する不自然な姿勢を維持することなく、自然な入力操作が可能になる。
 また、描画入力検出部40aは、他方の手に係る3次元手位置情報が示す指定位置に基づいて消去入力が行われたか否かを検出してもよい。消去入力とは、描画入力によって形成された画像のうち注目位置から予め定めた範囲内の画像を消去することを指示する操作入力である。描画入力検出部40aは、他方の手に係る3次元手位置情報が示す指定位置の時間変化が、予め定めた時間変化パターンと照合するか否かを判断する。この時間変化パターンは、他方の手の手振り(動作)として、例えば、左右もしくは上下に一定周期で振る動作等の動作パターンを示す。描画入力検出部40aには、予め時間変化パターンを記憶しておき、3次元手位置情報が示す指定位置の時間変化と記憶した時間変化パターンとの類似性を示す指標値に基づいて、照合するか否かを判断する。描画入力検出部40aは、照合すると判断した場合には、他方の手に係る3次元手位置情報に基づいて境界面b1における奥行方向の座標値を定める処理を停止する。
 描画入力検出部40aは、照合すると判断され、かつ他方の手に係る3次元手位置情報が示す指定位置が入力検出領域に含まれる場合、消去入力が行われたと検出する。描画入力検出部40aは、指定位置が定めた入力検出領域に含まれない場合には、消去入力が行われていないと判断する。描画入力検出部40aは、消去入力が検出されたか否かを示す消去検出信号を生成し、生成した消去検出信号を検出情報出力部41に出力する。
 描画入力検出部40aは、基準位置から指定位置を結ぶ直線と表示部12の表示面との交点を他方の手に係る注目位置として算出し、算出した他方の手に係る注目位置を示す注目位置情報を検出情報出力部41に出力する。
 表示制御部221は、検出情報出力部41から入力された消去検出信号が、消去入力が検出されたことを示す場合、形成した軌跡の画像から、他方の手に係る注目位置情報が示す注目位置を基準として予め定めた範囲内の部分を消去する。画像が消去される領域は、注目位置が時間経過に伴って変化することによって移動する。表示制御部221は、消去検出信号に基づいて、その一部又は全部が消去された軌跡の画像を示す画像信号を生成し、生成した画像信号を表示部12に出力する。表示部12は、表示制御部221から入力された画像信号が示す、その一部又は全部が消去された軌跡の画像を表示する。
 よって、一方の手による操作入力によって形成された画像について、他方の手を予め定めたパターンの動作(例えば、上下もしくは左右に振る、等)をさせることで、その指定位置に対応する注目位置の近傍に形成された画像が消去される。かかる動作パターンは、紙等の筆記面に対して消しゴム等の編集具を接触させながら移動させる際の動作パターンに類似する。従って、操作に習熟していない利用者であっても、描画入力により形成した画像の一部又は全部を容易に消去することができる。
〔処理フロー〕
 次に、本実施形態に係るデータ入力処理について説明する。
 図20は、本実施形態に係るデータ入力処理を表すフローチャートである。
 図20に示されるステップS101~S108、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS108において、操作者判別部39が、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS208に進む。
(ステップS208)手位置検出部32は、操作者の一方の手の他、他方の手、例えば、左手についても、その画像を表す領域を撮像部110aから入力された映像信号に基づいて手画像信号を生成する。手位置検出部32は、入力された映像信号と距離算出部200から入力された距離情報に基づいて2次元手位置情報と3次元手位置情報を生成する。手位置検出部32は、生成した手画像信号と、2次元手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
 手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて他方の手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。また、手形状・指先位置検出部33は、各指の指先における2次元座標と距離算出部200から入力された距離情報に基づいて3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。その後、ステップS209に進む。
(ステップS209)描画入力検出部40aは、操作者判別部39から入力された操作検出領域情報と操作者判別部39から入力された他方の手に係る3次元手位置情報に基づいて入力検出領域を定める。描画入力検出部40aは、定めた入力検出領域に操作者判別部39から入力された一方の手に係る3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っている(入力中)か否かを検出する。描画入力検出部40aは、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
 描画入力検出部40aが、指定位置が入力検出領域に含まれると判断した場合(ステップS209 YES)、ステップS110に進む。描画入力検出部40aが、指定位置が入力検出領域に含まれないと判断した場合(ステップS209 NO)、ステップS107に進む。
 このように、本実施形態によれば、ユーザの身体の一部の位置である第1位置に基づいて描画入力を検出する入力検出領域を定め、その身体の他の一部の位置である第2位置が入力検出領域に含まれるか否かに基づいて描画入力を検出する。また、本実施形態では、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置を示す第3位置を検出し、検出した第3位置を通るように入力検出領域の境界の1つを定める。これにより、ユーザは身体のさらに他の一部の位置に応じて入力検出領域を柔軟に変更でき、その位置に基づいて描画入力が検出される領域を認識することができる。そのため身体の他の一部の位置による操作入力を容易に行うことができる。
(第3の実施形態)
 以下、図面を参照しながら本発明の第3の実施形態について説明する。
 本実施形態に係る表示装置10b(図示せず)は、表示装置10(図3)の制御部22において、表示制御部221(図12)の代わりに表示制御部221b(図示せず)を備える。
 表示制御部221bは、表示制御部221(図1)と同様な処理を行う。但し、表示制御部221bは、検出情報出力部41から入力された検出情報の一部として3次元手位置情報が入力され、入力された3次元手位置情報に基づいて画像の処理に係る情報として、例えば描画様式情報を定める。描画様式情報とは、描画入力によって形成される軌跡の画像(線画)の様式(描画様式)を示す情報である。描画様式には、例えば、線の太さ(幅)がある。
〔線の太さの選択〕
 図21は、本実施形態における線の太さと指定位置P11との関連を示す概念図である。
 図21において、操作者13と入力検出領域r11との位置関係は、図8(b)に示すものと同様である。
 入力検出領域r11の左右を横切る線分であって、操作者13に対して奥に位置するほど太く、手前に位置するほど細い図形は、線の太さw1を示す。表示制御部221bは、3次元手位置情報が示す指定位置P11の奥行座標が奥に位置するほど太く、その奥行座標が手前に位置するほど細くなるように線の太さを定める。奥行座標の値がd1+d12の場合、つまり入力検出領域r11のうち最も手前の位置(最近点)では、線の太さw1は、最小値wminとなる。奥行座標の値がd1+d12+d11の場合、つまり入力検出領域r11のうち最も奥の位置(最遠点)では、線の太さw1は、最大値wmaxとなる。
 図22は、本実施形態に係る線の太さの設定例を示す図である。
 図22(a)、(b)ともに、横軸は奥行座標を示し、縦軸は線の太さを示す。また、最近点(奥行座標d1+d12)において線の太さは最小値wminであり、最遠点(奥行座標d1+d12+d11)において線の太さは最大値wmaxである。
 図22(a)に示す例では、線の太さは、奥行座標に対して線形に定められている。図22(b)に示す例では、線の太さは、最近点から予め定めた位置d1+d12+d11-δまでは奥行座標に対して線形であるが、奥行座標がd1+d12+d11-δを越えると最大値wmaxである。奥行座標の値d1+d12+d11-δは、最近点よりも最遠点の奥行座標の値に近い値である。指定座標P11を奥行座標がd1+d12+d11-δよりも奥に移動しても線の太さが最大値wmaxのまま飽和して変化しないため、指定座標P11をさらに奥に移動させると、入力操作領域の範囲を超えて、描画入力が中断されてしまう。従って、操作者は、線の太さが変化しないことを視認することによって、指定座標P11をさらに奥に移動させると描画入力が中断されることに気づくことができる。つまり、意図せずに描画入力が中断されることによってストロークの分断を避けることができる。
 〔画像の表示例〕
 次に、画像の表示例について説明する。
 図23は、本実施形態における画像の一表示例を示す概念図である。
図23(a)において、操作者13と入力検出領域r11との位置関係は図14(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれているが、最遠点よりも最近点に近いことを示す。図23(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図14(b)と同様である。この例では、指定位置P11を左から右に移動させることによって表示部12に表示されるストロークs4の太さは、指定位置P11の境界面b1からの奥行座標z1で与えられ、最大値wmaxよりも最小値wminに近い太さである。
 図24は、本実施形態における画像の他の表示例を示す概念図である。
 図24(a)において、操作者13と入力検出領域r11との位置関係は図23(a)と同様である。この例では、指定位置P11が入力検出領域r11に含まれているが、再近点よりも最近点に近いことを示す。
 図24(b)において、境界面b1によって区分される入力検出領域r11と表示部12との位置関係は、図23(b)と同様である。この例では、指定位置P11を左から右に移動させることによって表示部12に表示されるストロークs5の太さは、最小値wminよりも最大値wmaxに近い太さである。つまり、ストロークs5の太さは、指定位置P11の境界面b1からの奥行座標z2で与えられ、ストロークs4(図23)よりも太い。
 これにより、操作者は、線の太さを選択するための操作入力を行う必要がなくなる。例えば、描画様式を選択するための選択メニューを表示させ、表示された選択メニューから線の太さを選択する、等の操作入力である。従って、描画入力における利便性が向上する。また、筆等の筆記具を用いて紙等の筆記面に文字を描く場合の動作には、手を奥行方向に移動させて筆圧を強くすると線の太さが太くなり、手を手前に引いて筆圧を弱くすると線の太さを細くするという動作がある。かかる動作は、本実施形態のように指定位置の奥行座標によって線の太さを選択する動作と類似している。そのため、操作者は、平素から慣れ親しんだ動作に類似した動作を行うことで直感的に線の太さを変更することができる。
 上述では、表示制御部221bは、3次元手位置情報が示す指定位置の奥行座標に基づいて線の太さを定める場合を例にとって説明したが、これには限られない。表示制御部221bは、指定位置の奥行座標に基づいて、予め定めた奥行座標と色との対応関係を示す色空間情報に基づいて線の色を定めてもよい。色空間情報においては、例えば、奥行座標最遠点について赤、最近点について青が対応付けられ、最遠点と最近点との間の奥行座標のそれぞれついて、それぞれ赤と青の間の中間色が順次対応付けられている。表示制御部221bは、3次元手位置情報が示す指定位置の奥行座標に対応する色を、その色空間情報から選択する。そして、表示制御部221bは、検出情報出力部41から入力された検出情報に基づいて選択した色を確定し、確定した色でそれ以降に入力された注目位置情報に基づいて画像を形成する。表示制御部221bは、例えば、検出情報の一部として3次元手位置座標が示す指定位置が、予め定めた時間(例えば、1秒)、その当初の位置から予め定めた範囲内にあると判断された場合に選択した色を確定する。つまり、操作者が手を予め定めた時間だけ静止させたときに選択した色を確定する。また、表示制御部221bは、検出情報の一部として手形状情報が予め定めた形状(例えば、拳)を示すと判断された場合に選択した色を確定する。つまり、操作者が手を予め定めた形状に変形させたときに選択した色を確定する。
 なお、本実施形態では、線の太さや色に限られず、奥行座標と濃淡もしくは拡大率が対応付けられていてもよい。
 また、上述では操作者13と入力検出領域r11との位置関係が、図8(b)と同様である場合について説明したが、本実施形態はこれに限定されず、例えば図19(b)と同様な位置関係の場合でも良い。「他方の手」により、境界面b1を指定することによって、入力検出領域r11が決定された場合においても、「一方の手」の奥行位置により、線の太さや色などが変更されるようにしても良い。
〔線の種類の選択〕
 表示制御部221bは、検出情報出力部41から入力された検出情報の一部として手形状情報が入力され、入力された手形状情報に基づいて描画様式情報を定めてもよい。次に説明する例では、描画様式が線の種類である場合を例にとって説明する。線の種類とは、主に線の形状、例えば、実線、破線、一点破線等の区別、一連の線を構成する線分の頂点が角ばっているか丸みを帯びているかの区別、単純な一本の線か二重線かの区別、等がある。
 表示制御部221bには、予め手形状情報と描画様式情報とを対応付けて記憶しておき、入力された手形状情報に対応する描画様式情報が示す線の種類を選択する。描画様式情報と対応付けられる手形状情報が示す手の形状として、例えば、人差し指を伸ばし、その他の指を握った形状(形状1)、5本の指を全て握った形状(形状2)、人差し指と中指を伸ばし、その他の指を握った形状(形状3)がある。
〔線の種類の選択例〕
 次に、線の種類の選択例について説明する。
 図25は、本実施形態における線の種類の選択例を示す概念図である。
 図25(a)-(c)において、境界面b1と表示部12との位置関係は、いずれも図24(b)に示すものと同様である。
 図25(a)は、操作者13が形状1に変形させた右手hr1を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs5が表示される。ストロークs5の線の種類は、形状1に対応する線の種類、つまり1本の頂点が角ばった線である。
 図25(b)は、操作者13が形状2に変形させた右手hr2を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs6が表示される。ストロークs6の線の種類は、形状2に対応する線の種類、つまり1本の頂点が丸みを帯びた線である。
 図25(c)は、操作者13が形状3に変形させた右手hr3を左から右に移動させることで、指定位置P11を左から右に移動させることを示す。このとき、表示部12にはストロークs7が表示される。ストロークs7の線の種類は、形状3に対応する線の種類、つまり二重線である。
 以上のように、図25に示す例では、頂点が丸みを帯びた線と形状2(5本の指を全て握った形状)が対応付けられ、二重線と形状3(2本の指を立てた形状)といったように、手の形状と線の種類における形状的な特徴が対応付けられている。そのため、操作者は手の形状を用いて直感的に線の種類を指定することができる。
 なお、本実施形態では、手形状情報が示す手の形状と描画様式情報が示す線の太さとが対応付けられていてもよい。例えば、各指が握られている度合いが高い形状ほど、線の太さが細く、各指が開いている度合いが高い形状ほど線の太さを太くてもよい。また、立てている指の本数が多いほど線の太さを太くしてもよい。その他、かかる手の形状と線の太さ以外に、色、濃淡、拡大率、線の消去のうちのいずれかが対応付けられ、手形状情報が示す手の形状に応じて描画様式が選択されるようにしてもよい。
 また、上述では操作者13と入力検出領域r11との位置関係を図24(b)と同様である場合について説明したが、本実施形態はこれに限定されず、例えば図19(b)と同様な位置関係の場合でも良い。「他方の手」により、境界面b1を指定することによって、入力検出領域r11を決定した場合においても、「一方の手」の手形状により、線の太さや色などが変更されるようにしても良い。さらに、「一方の手」の手形状に線の種類を変更し、「一方の手」の奥行位置で線の太さを変えるなど、上述の複数種類の入力方法を組合せて、描画に係る処理を行っても良い。ある程度、本実施形態に係る操作入力に習熟した利用者にとっては、案内画像を逐一表示させる方法などと比べ、より一層入力方法が簡便になる。
 また、上述では指定位置P11の奥行位置によって操作者13が入力中であるか否かを判別したが、本実施形態はこれに限定されず、手の形状により入力中であるか否かを判別されるようにしても良い。例えば、手の位置が操作検出領域r1に含まれる場合、人差し指を立てる形状が検出されたとき、指定位置P11が入力検出領域r11に含まれる場合と同様に入力中であると判別されるようにしてもよい。また、手を握る形状が検出された場合は指定位置P11が入力非検出領域r12に含まれる場合と同様に、入力が中断されたと判別されるようにしても良い。さらに、操作者13と入力検出領域r11との位置関係が、図19(b)と同様な位置関係の場合は、入力中であるか否かであるかの判別を行うために手形状の検出対象とする手は、「一方の手」あるいは「他方の手」のどちらでも良い。また、上述と同様に、例えば「他方の手」に基づいて入力中であるか否かの判別が行われ、「一方の手」の手形状で線の種類が指定され、「一方の手」の奥行位置で線の太さを指定されるようにするなど、上述の入力方法を複数種類組み合わせて描画に係る処理を行うようにしても良い。
〔案内画像の例〕
 次に、本実施形態において、案内画像表示部222が表示部12に出力する案内画像信号が示す案内画像の例について説明する。
 図26は、本実施形態に係る案内画像の例を示す図である。
 図26(a)は、指定位置の奥行座標に応じて線の太さを選択できることを示す案内画像の例である。この案内画像は、描画入力に係る手を奥に伸ばすことで表示される線の太さを太くすることができ、手前に引くことで線の太さを細くすることを、文章と図案で示している。
 図26(b)は、手の形状に応じて線の種類(スタイル)を選択できることを示す案内画像の例である。この案内画像では、描画入力に係る手の形状を形状1、2、3に変形したとき、それぞれ頂点が角ばった線、頂点が丸みを帯びた線、二重線が選択されることを示す。
〔処理フロー〕
 次に、本実施形態に係るデータ入力処理について説明する。
 図27は、本実施形態に係るデータ入力処理を表すフローチャートである。
 図27に示されるステップS101~S109、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS109において、描画入力検出部40が、指定位置が入力検出領域に含まれると判断した場合(ステップS109 YES)、ステップS310に進む。
(ステップS310)表示制御部221bは、検出情報出力部41から入力された3次元手位置情報が示す指定位置の奥行座標(奥行値)に応じて線の太さを定める。
 表示制御部221bは、検出情報出力部41から入力された手形状情報に対応する線の種類(線種)を選択する。その後、ステップS110に進む。
 なお、ステップS110では、ステップS310で定めた線の太さ、選択した線の種類を用いて、注目位置の軌跡の画像を示す画像信号を生成する。
 このように、本実施形態によれば、描画入力を検出したとき、ユーザの身体の他の一部の位置である第2位置に対応する画像表示面上の注目位置を示す画像を形成し、第2位置の奥行方向の座標値もしくは身体のさらに他の一部の形状に基づいて画像の表示様式を定める。これにより、ユーザの身体の他の一部の奥行座標や形状といった簡単な動作により描画入力に係る画像の表示様式を指定することができる。
(第4の実施形態)
 以下、図面を参照しながら本発明の第4の実施形態について説明する。
 本実施形態に係る表示装置10c(図示せず)は、表示装置10(図3)のユーザ情報解析部201において、描画入力検出部40(図7)の代わりに上述した描画入力検出部40c(図示せず)を備える。
 即ち、描画入力検出部40cは、描画入力検出部40(図7)と同様な処理を行い、操作者判別部39から入力された操作検出領域情報の他、操作者判別部39から入力された3次元手位置情報に基づいて入力検出領域を定める。入力検出領域を定めるために用いる3次元手位置情報は、描画入力に係る一方の手とは反対側(他方の)手に係る3次元手位置情報である。
 また、表示装置10cは、表示装置10(図3)の制御部22において、表示制御部221(図12)の代わりに表示制御部221c(図示せず)を備える。
 表示制御部221cは、表示制御部221b(図示せず)と同様な処理を行う。但し、表示制御部221cは、表示制御部221bとは異なり、描画入力に係る一方の手(例えば、右手)とは反対側の手(例えば、左手)に係る検出情報、例えば、手形状情報に基づいて描画様式情報を定める。つまり、本実施形態では、描画入力に係る一方の手とは反対側の手の位置に基づいて入力検出領域を定めるとともに、その反対側の手の形状に応じて描画様式を定める。
 例えば、表示制御部221cには、反対側の手の手形状情報と描画様式情報とを予め記憶しておき、反対側の手にかかる手形状情報に対応する描画様式情報を読み出す。表示制御部221cは、読み出した描画様式情報が示す描画様式で、一方の手に係る指定位置に対応した注目位置の軌跡の画像を示す画像信号を生成する。
 これにより、描画入力が一方の手で行われ、他方の手で入力検出領域の制御及び描画様式の選択が行われる。この入力検出領域の制御及び描画様式の選択は、描画入力に付随する情報を入力もしくは制御することに相当する。従って、本実施形態では、操作者は描画入力と、それに付随する情報の入力もしくは制御とを、それぞれ別個の手で並行して行うことができるため、描画入力を効率的に行うことができる。
〔線の種類の選択例〕
 次に、描画様式の一態様として線の種類の選択例について説明する。
 図28は、本実施形態における線の種類の選択例を示す概念図である。
 図28(a)-(c)において、境界面b1と操作者との位置関係は、いずれも図19(b)に示すものと同様であり、境界面b1と表示部12との関係は図25に示すものと同様である。但し、描画入力に伴ってストロークを表示する表示部12が省略されている。この例では、左手の形状(形状4~6)は、それぞれ、実線、破線、一点破線が対応付けられている。形状4は、5本の指をいずれも伸ばしている形状である。形状5は、人差し指を伸ばし、その他の指を閉じている形状である。形状6は、人差し指と中指を伸ばし、その他の指を閉じている形状である。形状4~6をとっている左手を、それぞれ左手hl4~hl6と呼ぶ。
 図28(a)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs8が表示されることを示す。ストロークs8を構成する線の種類は、左手hr4の形状に対応する実線である。境界面b1の奥行座標は、左手hl4の奥行座標と等しい。
 図28(b)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs9が表示されることを示す。ストロークs9を構成する線の種類は、左手hr5の形状に対応する破線である。
 図28(c)は、操作者が右手hr4を左手hl4よりも奥に伸ばしたまま左から右に移動させることで、ストロークs10が表示されることを示す。ストロークs10を構成する線の種類は、左手hr6の形状に対応する一点破線である。
 以上のように、図28に示す例では、操作者が左手の奥行をもって、右手による描画入力が受け付けられる領域を画定する境界面b1の奥行座標を指示することができる。また、操作者は、左手の形状に応じて直感的に線の種類を指定することができる。
 また、左手の形状に応じて変更対象となる描画様式は、線の種類に限定されず、例えば、線の太さや色、濃淡や拡大率、線の消去などであっても良い。
 さらに、上述では、左手と右手の奥行位置の関係に基づいて操作者13が入力中であるか否かが判別されたが、本実施形態ではこれに限定されず、手の形状に基づいて操作者13が入力中であるか否かが判別されるようにしても良い。例えば、右手の人差し指を立てる形状が検出されたとき、指定位置P11が入力検出領域r11に含まれる場合と同様に入力中であると判別されるようにしてもよい。また、手を握る形状が検出された場合、指定位置P11が入力非検出領域r12に含まれた場合と同様に、入力が中断されたと判別されるようにしても良い。さらに、操作者13と入力検出領域r11との位置関係が、図19(b)と同様な位置関係である場合は、入力中であるか否かであるかの判別を行う手形状を「一方の手」あるいは「他方の手」で指定しても良い。例えば「他方の手(左手)」に基づいて入力中であるか否かの判別が行われ、「一方の手(右手)」の手形状に基づいて線の種類が指定され、「一方の手(右手)」の奥行位置に基づいて線の太さが指定されるようにするなど、上述の入力方法を複数種類組み合わせて描画に係る処理が行われるようにしても良い。
〔案内画像の例〕
 次に、本実施形態において、案内画像表示部222が表示部12に出力する案内画像信号が示す案内画像の例について説明する。
 図29は、本実施形態に係る案内画像の例を示す図である。
 図29は、手の形状に応じて線の種類(スタイル)を選択できることを示す案内画像の例である。この案内画像では、描画入力に係る手の形状を形状4、5、6に変形したとき、実線、破線、一点破線が選択されることを示す。
 本実施形態では、手形状情報が示す他方の手の形状と描画様式情報が示す色とが対応付けられていてもよい。例えば、形状4~6は、黒、赤、青の各色と対応付けられていてもよい。また、手形状情報が示す他方の手の形状と描画様式情報が示す線の太さとが対応付けられていてもよい。例えば、各指が握られている形状ほど、線の太さが細く、各指が開いている形状ほど線の太さを太くてもよい。また、立てている指の本数が多いほど線の太さを太くしてもよい。その他、かかる手の形状と線の種類、太さもしくは色以外に、濃淡、拡大率のうちのいずれか、もしくはそれらの任意の組み合わせが対応付けられ、手形状情報が示す他方の手の形状に応じて描画様式が選択されるようにしてもよい。即ち、本実施形態では、他方の手の形状は手で表すことができる形状であれば、どのような形状であってもよく、それぞれの形状といかなる描画様式とが対応付けられていてもよい。
 なお、表示制御部221cは、反対側の手に係る手形状情報に基づいて一つの描画様式情報として線の形状もしくは色に係る情報を定める他、一方の手に係る3次元手位置情報に基づいて他の描画様式情報として線の太さに係る情報を定めてもよい。これにより、操作者は、例えば左手の形状に応じて線の形状や色を指定し、右手の奥行座標に応じて線の太さを指定することができる。従って、操作者は一方の手で描画入力を行いながら、その一方の手で描画入力に妨げにならない単純な動作態様によって描画様式を指定し、他方の手でより詳細な描画様式を指定することができる。これにより多様な描画様式での描画入力が可能となる。
〔処理フロー〕
 次に、本実施形態に係るデータ入力処理について説明する。
 図30は、本実施形態に係るデータ入力処理を表すフローチャートである。
 図30に示されるステップS101~S108、S110、及びステップS111は、図18に示したものとそれぞれと同様である。ステップS108において、操作者判別部39が、操作者の手の位置が、操作検出領域に含まれると判断した場合、(ステップS108 YES)、ステップS408に進む。
(ステップS408)手位置検出部32は、操作者の一方の手の他、他方の手、例えば、左手についても、その画像を表す領域を撮像部110aから入力された映像信号に基づいて手画像信号を生成する。手位置検出部32は、入力された映像信号と距離算出部200から入力された距離情報に基づいて2次元手位置情報と3次元手位置情報を生成する。手位置検出部32は、生成した手画像信号と、2次元手位置情報を手形状・指先位置検出部33に出力する。手位置検出部32は、3次元手位置情報を操作者判別部39に出力する。
 手形状・指先位置検出部33は、手位置検出部32から入力された手画像信号と手位置情報に基づいて他方の手の形状を検出する。手形状・指先位置検出部33は、検出した手の形状に基づいて指の領域の画像を探索し、指の本数を表す本数情報、指先における2次元座標を表す2次元指先位置情報を検出情報の一部として検出情報出力部41に出力する。また、手形状・指先位置検出部33は、各指の指先における2次元座標と距離算出部200から入力された距離情報に基づいて3次元指先位置情報を生成する。手形状・指先位置検出部33は、生成した3次元指先位置情報を注目位置検出部35に出力する。その後、ステップS409に進む。
(ステップS409)描画入力検出部40cは、操作者判別部39から入力された操作検出領域情報と操作者判別部39から入力された他方の手に係る3次元手位置情報に基づいて入力検出領域を定める。描画入力検出部40cは、定めた入力検出領域に操作者判別部39から入力された一方の手に係る3次元手位置情報が示す指定位置が含まれるか否かを判断し、操作者が描画入力を行っているか否かを検出する。描画入力検出部40cは、描画入力が検出されたか否かを示す描画検出信号を生成し、生成した描画検出信号を検出情報出力部41に出力する。
 描画入力検出部40cが、指定位置が入力検出領域に含まれると判断した場合(ステップS409 YES)、ステップS410に進む。描画入力検出部40cが、指定位置が入力検出領域に含まれないと判断した場合(ステップS409 NO)、ステップS107に進む。
(ステップS410)表示制御部221cは、検出情報出力部41から入力された他方の手に係る手形状情報に対応する線の種類(線種)を選択する。その後、ステップS411に進む。
(ステップS411)表示制御部221cは、検出情報出力部41から入力された一方の手に係る3次元手位置情報が示す指定位置の奥行座標(奥行値)に応じて線の太さを定める。その後、ステップS110に進む。
 なお、ステップS110では、ステップS410で選択した線の種類、ステップS411で定めた線の太さ、選択した線の種類を用いて、注目位置の軌跡の画像を示す画像信号を生成する。
 表示制御部221cには、反対側の手の手形状情報と描画様式情報とを予め記憶しておき、反対側の手にかかる手形状情報に対応する描画様式情報を読み出してもよい。表示制御部221cは、読み出した描画様式情報が示す描画様式で、一方の手に係る指定位置に対応した注目位置の軌跡の画像を示す画像信号を生成する。
 これにより、描画入力が一方の手で行われ、他方の手で入力検出領域の制御及び描画様式の選択が行われる。この入力検出領域の制御及び描画様式の選択は、描画入力に付随する情報を入力もしくは制御することに相当する。従って、本実施形態では、操作者は描画入力と、それに付随する情報の入力もしくは制御とを、それぞれ別個の手で並行して行うことができるため、描画入力を効率的に行うことができる。
 このように、本実施形態によれば、ユーザの身体のさらに他の一部の形状を検出し、検出した形状に基づいて描画入力による画像の表示様式を定める。これにより、描画入力を行う身体の部位とは異なる部位の形状を変化させて表示様式を指示することができるので、描画入力の効率を低下させることが回避される。
(変形例)
 上述した描画入力検出部40、40a、40cは、操作検出領域情報を用いて入力検出領域を定め、定めた入力検出領域に3次元手位置情報が示す指定位置が含まれるか否かを判断していた。そして、描画入力検出部40、40a、40cは、この判断に基づいて、操作者が描画入力を行っているか否かを検出していたが、これには限られない。
 描画入力検出部40、40a、40cは、手形状・指先位置検出部33から入力された手形状情報に基づいて操作者が描画入力を行っているか否かを検出してもよい。ここで、描画入力検出部40、40a、40cには、予め定めた手の形状を示す描画検出手形状情報と描画検出信号と対応付けて自部が備える記憶部に記憶させておく。描画検出信号は、上述したように描画入力が検出されたか否かを示す信号である。描画入力検出部40、40a、40cは、入力された手形状情報と記憶部に記憶させた描画検出手形状情報とを照合し、照合に成功した描画検出手形状情報と対応付けられた描画検出信号を読み出す。また、描画入力が検出されたか否かの判定に用いる手形状情報は、一方の手に係る手形状情報であってもよいし、他方の手に係る手形状情報であってもよい。
 例えば、描画入力検出部40、40a、40cは、一方の手に係る手形状情報が5本の指を全て閉じた形状(拳)を示す場合に、描画入力が検出されたと判定する。また、描画入力検出部40、40a、40cは、その一方の手に係る手形状情報が人差し指を伸ばし、他の指を全て閉じた形状を示す場合に、描画入力が検出されないと判定する。これにより、操作者は描画入力に係る手の形状に応じて描画入力を行うか否かを制御することができる。
 また、描画入力検出部40、40a、40cは、反対側の手に係る手形状情報が5本の指を全て閉じた形状(拳)を示す場合に、描画入力が検出されたと判定する。また、描画入力検出部40、40a、40cは、その他方の手に係る手形状情報が人差し指を伸ばし、他の指を全て閉じた形状を示す場合に、描画入力が検出されないと判定する。これにより、操作者は描画入力に係る手とは反対側手の形状に応じて描画入力を行うか否かを制御することができる。よって、操作者は入力検出領域を意識せずに、自身の意思に応じて簡便に描画入力を行うか否かを決することができる。
 また、上述では、身体の他の一部として「手」もしくは「一方の手」、身体のさらに他の一部として「他方の手」の代わりに、それぞれ「足」もしくは「一方の足」、「他方の足」を用いてよい。これにより、手の不自由な者であっても足の動作による描画入力を実現することができる。
 また、上述では、画像の処理に係る情報として描画様式情報を定める場合を例にとって説明したが、それには限られない。画像の処理に係る情報として、例えば、その描画入力に係る操作者を識別する操作者識別情報の有無を示す情報、形成した画像の全部又は一部を表示部12に表示するか否かを示す情報、その画像の全部又は一部を情報DB21等の記憶部に記憶するか否かを示す情報であってもよい。
 なお、本発明は次の態様で実施することができる。
(1)撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、を備えることを特徴とするデータ入力装置。これにより、操作者は専用のデバイスを用いずに円滑に描画入力を行うことができる。
(2)前記描画入力検出部は、前記第1位置に基づいて前記描画入力を検出する入力検出領域を定め、前記第2位置が前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出することを特徴とする(1)のデータ入力装置。これにより、操作者にとり身体の他の一部の位置による描画入力に好都合な領域に描画入力領域を設定することができる。
(3)前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置を示す第3位置を検出し、前記描画入力検出部は前記位置検出部が検出した第3位置を通るように前記入力検出領域の境界の1つを定めることを特徴とする(2)のデータ入力装置。これにより、操作者は身体のさらに他の一部の位置を基準とした身体の他の一部の位置に基づいて、描画入力が検出されるか否かを容易に把握することができる。
(4)前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記画像の処理に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は身体の他の一部の奥行方向の位置に応じて描画した画像の取り扱いを決することができる。
(5)前記身体の他の一部の形状を検出する形状検出部を備え、前記画像形成部は、前記形状検出部が検出した形状に基づいて前記画像の表示に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は、身体の他の一部の形状に応じて描画した画像の取り扱いを決することができる。
(6)前記身体のさらに他の一部の形状を検出する形状検出部を備え、前記画像形成部は、前記形状検出部が検出した形状に基づいて前記画像の表示に係る情報を定めることを特徴とする(3)に記載のデータ入力装置。これにより、操作者は、身体のさらに他の一部の形状に応じて描画した画像の取り扱いを決することができる。
(7)前記ユーザの身体の一部は目であり、前記身体の他の一部は左右いずれか一方の手であることを特徴とする(1)ないし(6)のいずれかに記載のデータ入力装置。これにより一方の手が目視される方向の注目位置に描画がなされるため、その一方の手の位置に基づいて所望の形状の画像を描画することが容易になる。
(8)前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手であることを特徴とする(7)に記載のデータ入力装置。これにより、操作者は他方の手の位置に基づいて、一方の手の位置による描画入力領域の把握、描画した画像の取り扱いの指示を容易に行なうことができる。
(9)データ入力装置と前記データ入力装置が入力した入力データが示す画像を表示する表示部とを備えたデータ入力システムであって、前記データ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、前記位置検出部が検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出部と、前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、を備えることを特徴とするデータ入力システム。
(10)データ入力装置におけるデータ入力方法であって、前記データ入力装置は、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出過程と、前記位置検出過程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出過程と、前記位置検出過程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出過程と前記描画入力検出過程で描画入力を検出したとき、前記注目位置検出過程で検出した注目位置を示す画像を形成する画像形成過程と、を有することを特徴とするデータ入力方法。
(11)データ入力装置のコンピュータに、撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出手順、前記位置検出手順で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出手順、前記位置検出手順で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出手順と前記描画入力検出手順で描画入力を検出したとき、前記注目位置検出手順で検出した注目位置を示す画像を形成する画像形成手順と、を有することを特徴とするデータ入力プログラム。(9)、(10)及び(11)により、操作者は専用のデバイスを用いずに円滑に描画入力を行うことができる。
 なお、上述した実施形態における表示装置10、10a、10b、10cの一部、例えば、距離算出部200、顔検出部30、目位置検出部31、手位置検出部32、手形状・指先位置検出部33、注目位置検出部35、操作者判別部39、描画入力検出部40、40a、40c、検出情報出力部41、及び制御部22をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、表示装置10、10a、10b、10cに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
 また、上述した実施形態における表示装置10、10a、10b、10cの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置10、10a、10b、10cの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
 本発明は、コンピュータ、ゲーム機、テレビ電話会議システム等の機器を操作するためのユーザインタフェースなどに適用できる。
 10、10a、10b、10c  表示装置
 11  撮像装置
 110(110a、110b)  撮像部
 12  表示部
 20  画像処理装置
 200  距離算出部
 201  ユーザ情報解析部
 30  顔検出部
 31  目位置検出部
 32  手位置検出部
 33  手形状・指先位置検出部
 35  注目位置検出部
 39  操作者判別部
 40、40a、40c  描画入力検出部
 41  検出情報出力部
 21  情報DB
 22  制御部
 221、221b、221c  表示制御部
 222  案内画像表示部

Claims (9)

  1.  撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出部と、
     前記位置検出部が検出した前記第1位置に基づいて描画入力を検出する入力検出領域を定め、前記第2位置が前記入力検出領域に含まれるか否かに基づいて前記描画入力を検出する描画入力検出部と、
     前記位置検出部が検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出部と、
     前記描画入力検出部が描画入力を検出したとき、前記注目位置検出部が検出した注目位置を示す画像を形成する画像形成部と、
     を備えるデータ入力装置。
  2.  前記画像形成部は、前記第2位置の奥行方向への座標値に応じて前記画像の処理に係る情報を定める請求項1に記載のデータ入力装置。
  3.  前記身体の他の一部の形状を検出する第一形状検出部を備え、
     前記画像形成部は、前記第一形状検出部が検出した形状に基づいて前記画像の処理に係る情報を定める請求項1または2に記載のデータ入力装置。
  4.  前記位置検出部は、前記撮像装置が撮像した映像に表されたユーザの身体のさらに他の一部の位置に基づく第3位置を検出し、
     前記描画入力検出部は前記位置検出部が検出した第3位置を基準に前記入力検出領域の境界の1つを定める請求項1ないし3のいずれかに記載のデータ入力装置。
  5.  前記身体のさらに他の一部の形状を検出する第二形状検出部を備え、
     前記画像形成部は、前記第二形状検出部が検出した形状に基づいて前記画像の処理に係る情報を定める請求項4に記載のデータ入力装置。
  6.  前記ユーザの身体の一部は顔であり、前記身体の他の一部は左右いずれか一方の手である請求項1ないし5のいずれかに記載のデータ入力装置。
  7.  前記ユーザの身体の一部は顔であり、前記身体の他の一部は左右いずれか一方の手であり、前記ユーザの身体のさらに他の一部は、前記一方の手とは他方の手である請求項4または5に記載のデータ入力装置。
  8.  撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、
     前記位置検出工程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出工程と、
     前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、
     前記描画入力検出工程で描画入力を検出したとき、前記注目位置検出工程で検出した注目位置を示す画像を形成する画像形成工程と、
     を含むデータ入力装置におけるデータ入力方法。
  9.  撮像装置が撮像した映像に表されたユーザの身体の一部の位置に基づく第1位置と前記身体の一部とは他の一部の位置に基づく第2位置を検出する位置検出工程と、
     前記位置検出工程で検出した前記第1位置と前記第2位置に基づいて描画入力を検出する描画入力検出工程と、
     前記位置検出工程で検出した前記第2位置に対応する画像表示面上の注目位置を検出する注目位置検出工程と、
     前記描画入力検出工程で描画入力を検出したとき、前記注目位置検出工程で検出した注目位置を示す画像を形成する画像形成工程と、
     をデータ入力装置のコンピュータに実行させるデータ入力プログラム。
PCT/JP2013/080783 2012-11-22 2013-11-14 データ入力装置 WO2014080829A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014548539A JP5896578B2 (ja) 2012-11-22 2013-11-14 データ入力装置
US14/646,652 US10186057B2 (en) 2012-11-22 2013-11-14 Data input device, data input method, and non-transitory computer readable recording medium storing data input program
CN201380061150.7A CN104813258B (zh) 2012-11-22 2013-11-14 数据输入装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012256552 2012-11-22
JP2012-256552 2012-11-22

Publications (1)

Publication Number Publication Date
WO2014080829A1 true WO2014080829A1 (ja) 2014-05-30

Family

ID=50776012

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080783 WO2014080829A1 (ja) 2012-11-22 2013-11-14 データ入力装置

Country Status (4)

Country Link
US (1) US10186057B2 (ja)
JP (1) JP5896578B2 (ja)
CN (1) CN104813258B (ja)
WO (1) WO2014080829A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110249A (ja) * 2014-12-03 2016-06-20 日本ユニシス株式会社 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム
JP2016139396A (ja) * 2014-08-25 2016-08-04 キヤノン株式会社 ユーザーインターフェイス装置、方法およびプログラム
WO2019054037A1 (ja) * 2017-09-12 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN109784130A (zh) * 2017-11-15 2019-05-21 株式会社日立制作所 行人重识别方法及其装置和设备
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
JP2020500356A (ja) * 2017-01-19 2020-01-09 グーグル エルエルシー 仮想コントローラのための機能割当て
JP2020098614A (ja) * 2015-06-10 2020-06-25 ブイタッチ・カンパニー・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
WO2020170851A1 (ja) * 2019-02-22 2020-08-27 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11137832B2 (en) * 2012-12-13 2021-10-05 Eyesight Mobile Technologies, LTD. Systems and methods to predict a user action within a vehicle
US9274608B2 (en) * 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
JP6349811B2 (ja) * 2014-03-17 2018-07-04 セイコーエプソン株式会社 映像信号出力装置、映像信号出力方法、及びプログラム
US20150302653A1 (en) * 2014-04-22 2015-10-22 Cherif Atia Algreatly Augmented Digital Data
US20150309681A1 (en) * 2014-04-23 2015-10-29 Google Inc. Depth-based mode switching for touchless gestural interfaces
US9952677B2 (en) 2014-09-08 2018-04-24 Atheer, Inc. Method and apparatus for distinguishing features in data
EP3101511A1 (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy Monitoring
JP6488961B2 (ja) * 2015-09-28 2019-03-27 富士通株式会社 生成方法、判別方法、プログラム及び情報処理装置
EP3422152A4 (en) * 2016-02-23 2020-03-11 Sony Corporation REMOTE CONTROL DEVICE, SYSTEM, METHOD, AND PROGRAM
WO2018083737A1 (ja) * 2016-11-01 2018-05-11 マクセル株式会社 表示装置及び遠隔操作制御装置
US20190073915A1 (en) * 2017-09-06 2019-03-07 International Business Machines Corporation Interactive and instructional interface for learning
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
JP2020140291A (ja) * 2019-02-27 2020-09-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282235A (ja) * 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08211979A (ja) 1995-02-02 1996-08-20 Canon Inc 手振り入力装置及び方法
JPH09212299A (ja) 1996-01-31 1997-08-15 Canon Inc 情報入力装置および情報入力方法
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
EP0991011B1 (en) * 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
JP2011113191A (ja) 2009-11-25 2011-06-09 Seiko Epson Corp 情報処理装置、情報処理システム
CN102812416B (zh) * 2010-06-17 2015-10-07 松下电器(美国)知识产权公司 指示输入装置、指示输入方法、程序、记录介质以及集成电路
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
JP2006154902A (ja) * 2004-11-25 2006-06-15 Olympus Corp 手書き画像表示システム及び空間手書き用携帯情報端末

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016139396A (ja) * 2014-08-25 2016-08-04 キヤノン株式会社 ユーザーインターフェイス装置、方法およびプログラム
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
JP2016110249A (ja) * 2014-12-03 2016-06-20 日本ユニシス株式会社 空間手書き入力システム、空間手書き入力方法およびコンピュータプログラム
JP2020098614A (ja) * 2015-06-10 2020-06-25 ブイタッチ・カンパニー・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
JP2020500356A (ja) * 2017-01-19 2020-01-09 グーグル エルエルシー 仮想コントローラのための機能割当て
WO2019054037A1 (ja) * 2017-09-12 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN109784130A (zh) * 2017-11-15 2019-05-21 株式会社日立制作所 行人重识别方法及其装置和设备
WO2020170851A1 (ja) * 2019-02-22 2020-08-27 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11789543B2 (en) 2019-02-22 2023-10-17 Sony Group Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
US20150302617A1 (en) 2015-10-22
JP5896578B2 (ja) 2016-03-30
CN104813258B (zh) 2017-11-10
US10186057B2 (en) 2019-01-22
JPWO2014080829A1 (ja) 2017-01-05
CN104813258A (zh) 2015-07-29

Similar Documents

Publication Publication Date Title
JP5896578B2 (ja) データ入力装置
WO2013180151A1 (ja) 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
JP5145444B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
KR101227610B1 (ko) 화상인식장치 및 조작판정방법과 이를 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
KR101083408B1 (ko) 인터렉티브 모드를 지원하는 증강현실 구현 장치 및 방법
EP2512141A1 (en) System and method of user interaction in augmented reality
EP2521097A1 (en) System and Method of Input Processing for Augmented Reality
JP5509227B2 (ja) 移動制御装置、移動制御装置の制御方法、及びプログラム
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
JP7026825B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
WO2011123845A2 (en) A computing device interface
JPH08315154A (ja) ジェスチャ認識システム
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP5964603B2 (ja) データ入力装置、及び表示装置
CN106909871A (zh) 手势指令识别方法
CN109947243B (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
JP6230666B2 (ja) データ入力装置、データ入力方法、及びデータ入力プログラム
JP2000172163A (ja) 手動作分節方法および装置
JPH0648458B2 (ja) 情報入力装置
CN109960406B (zh) 基于双手手指之间动作的智能电子设备手势捕获与识别技术
Vančo et al. Gesture identification for system navigation in 3D scene
CN109993059A (zh) 智能电子设备上基于单摄像头的双目视觉与物体识别技术
KR20200029120A (ko) 듀얼 카메라를 이용한 배경 제거 사진 촬영 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856400

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548539

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14646652

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856400

Country of ref document: EP

Kind code of ref document: A1