WO2014181876A1 - 入力支援装置、入力支援方法、および、プログラム - Google Patents

入力支援装置、入力支援方法、および、プログラム Download PDF

Info

Publication number
WO2014181876A1
WO2014181876A1 PCT/JP2014/062517 JP2014062517W WO2014181876A1 WO 2014181876 A1 WO2014181876 A1 WO 2014181876A1 JP 2014062517 W JP2014062517 W JP 2014062517W WO 2014181876 A1 WO2014181876 A1 WO 2014181876A1
Authority
WO
WIPO (PCT)
Prior art keywords
marker
input support
display
display control
space
Prior art date
Application number
PCT/JP2014/062517
Other languages
English (en)
French (fr)
Inventor
英人 宮城
和希 田中
Original Assignee
株式会社ゲッシュ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ゲッシュ filed Critical 株式会社ゲッシュ
Priority to CN201480026167.3A priority Critical patent/CN105190506A/zh
Priority to US14/890,124 priority patent/US20160092062A1/en
Priority to EP14795029.9A priority patent/EP2996022A4/en
Publication of WO2014181876A1 publication Critical patent/WO2014181876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Definitions

  • the present invention relates to an input support device, an input support method, and a program.
  • a hand tracked by a hand tracker in a computer device provided with a hand tracker that tracks the movement of a user's hand by detecting continuous features of a light pattern projected onto the hand.
  • a method of controlling a computer device by moving an image of a hand (first image) according to movement and moving the hand to interact between the second image such as a virtual keyboard on display and the first image. It is done.
  • Kinect for Windows (registered trademark) SDK 1.7 of Non-Patent Document 1 detects the space coordinates of the user's hand, moves the cursor on the display screen according to the detected plane coordinates, and detects A technique is disclosed in which the color of the cursor is continuously changed according to the depth when determining the pressing of the display button according to the performed depth, and the user is fed back the depth condition until the button is pressed. .
  • the conventional remote control technology that does not use a controller has a problem that it is difficult for the user to know at which point a selection decision such as a button press is made, resulting in a malfunction.
  • Non-Patent Document 1 Although the depth of the user's hand is fed back as the color of the cursor, the user operates the hand over the display, so the cursor is hidden by hand. And may still cause a malfunction.
  • the present invention has been made in view of the above problems, and an input support device and an input support method capable of appropriately performing feedback to a user when performing an operation without contacting using a controller. And, it aims to provide the program.
  • an input support apparatus includes space coordinate acquisition means for continuously acquiring space coordinates of a predetermined part of a user via a detection unit, and the above space coordinate acquisition means And a display control unit that performs display control to move the marker to a corresponding position on the display screen of the display unit based on the space coordinate updated by the control unit.
  • space coordinate acquisition means for continuously acquiring space coordinates of a predetermined part of a user via a detection unit, and the above space coordinate acquisition means
  • a display control unit that performs display control to move the marker to a corresponding position on the display screen of the display unit based on the space coordinate updated by the control unit.
  • a plurality of shapes obtained by dividing an arbitrary shape, wherein the display control means is configured to adjust the position corresponding to the display screen as the distance of the space coordinates is larger than a predetermined plane in the coordinate system of the space coordinates.
  • the plurality of shapes are separated from each other, and the plurality of shapes are brought closer to each other at corresponding positions of the display screen as the distance
  • the input support apparatus of the present invention is the input support apparatus described above, further comprising: a pressing determination unit that determines a pressing state in a state in which the space coordinate to be updated passes the predetermined plane;
  • the display control means is characterized in that the shape before division is displayed as the marker, in which the plurality of shapes are combined with each other while the space coordinate to be updated passes the predetermined plane.
  • the shape before the division of the marker is a ring, a donut shape, or any other shape that can easily imagine the shape at the time of bonding or It is characterized in that it can be realized by a shape that does not cover the corresponding position of the display screen of the display unit.
  • the predetermined surface is set to be several centimeters in front of the display screen, and the predetermined portion of the user is a finger.
  • the display control means displays the marker larger than the predetermined part, or displays the separation range of the marker in the initial shape larger than the predetermined part. It is characterized by
  • the distance of the space coordinate with respect to the predetermined surface is a distance of the space coordinate on the side where the user is located with respect to the predetermined surface. It is characterized by
  • the space coordinates may be two-dimensional coordinates in the predetermined plane parallel to the display screen, and depth coordinates perpendicular to the predetermined plane;
  • the display control means moves the center of the marker to a position corresponding to the display screen of the two-dimensional coordinates updated by the space coordinate acquisition means, and the space coordinates
  • the plurality of shapes separated from the center are made to approach each other and displayed as one continuous shape. I assume.
  • the input support method of the present invention is an input support method executed by a computer, and a space coordinate acquisition step of continuously acquiring space coordinates of a predetermined part of the user via the detection unit;
  • an initial shape of the marker Are a plurality of shapes obtained by dividing an arbitrary shape, and the display control step corresponds to the display screen as the distance of the space coordinates increases with respect to a predetermined plane in the space coordinate system.
  • the plurality of shapes are separated from each other, and the plurality of shapes are made to approach each other at corresponding positions of the display screen as the distance is smaller. .
  • a program according to the present invention is a program to be executed by a computer, and a space coordinate acquisition step of continuously acquiring space coordinates of a predetermined part of a user via a detection unit, and the above space coordinates And a display control step of performing display control of moving a marker to a corresponding position on the display screen of the display unit based on the space coordinates updated in the acquisition step.
  • the initial shape is a plurality of shapes obtained by dividing an arbitrary shape
  • the display control step is configured to increase the distance of the space coordinates with respect to a predetermined plane in the coordinate system of the space coordinates.
  • the plurality of shapes are separated from each other from the corresponding position, and the plurality of shapes are mutually separated at the corresponding position of the display screen as the distance is smaller. Characterized in that to close.
  • the present invention relates to a recording medium, and is characterized in that the program described above is recorded.
  • the space coordinates of the user's predetermined region are continuously obtained through the detection unit, and the marker is displayed at the corresponding position on the display screen of the display unit based on the updated space coordinates.
  • the initial shape of the marker is a plurality of shapes obtained by dividing an arbitrary shape, and the larger the distance of the space coordinate with respect to the predetermined plane in the space coordinate system, The plurality of shapes are separated from each other from the corresponding position of the display screen, and the smaller the distance is, the closer the plurality of shapes are to each other at the corresponding position of the display screen.
  • the space coordinate to be updated has passed the predetermined plane as the pressed state, and the plurality of shapes are coupled to each other in the state that the space coordinate to be updated passes the predetermined plane.
  • the displayed shape before division is displayed as a marker, which improves visibility so that the user can easily recognize the pressed state when performing various operations such as click, drag, pinch out / pinch in, swipe, or flick. The effect of being able to
  • the cursor is further displayed at the corresponding position on the display screen, and the position of the cursor is determined with the updated space coordinates passing through the predetermined plane. Since it is determined that the object is in the pressed state, even when the user operates at a position away from the display for about several meters, or when the operation object such as the GUI button is fine, etc., a crosshair near the center of the marker By inserting a cursor such as, etc., it is possible to improve the visibility so that the object to be pressed can be easily recognized.
  • the shape of the marker before division can be realized as an annular ring, a donut shape, or any other shape that does not cover the corresponding position on the display screen of the display unit. There is an effect that the operability can be improved without hiding the target to be pressed.
  • the predetermined surface is set to a few centimeters in front of the display screen, and the predetermined region of the user is a finger, a hand or a palm, and the marker is specified.
  • the user is required to display his / her finger even when operating by approaching a few centimeters on the display, etc., because the separation range in the initial shape of the marker is displayed larger than the predetermined part. There is an effect that the operability can be improved without concealing the operation object with a hand or the like.
  • the distance of the space coordinate with respect to the predetermined surface is the distance of the space coordinate on the side where the user is located with respect to the predetermined surface, so the closer to the predetermined surface from the user side, A plurality of shapes are made to approach each other at corresponding positions on the display screen, and when it exceeds a predetermined surface, it is possible to determine that it is a selected state such as a click.
  • the space coordinates are three-dimensional coordinates which are two-dimensional coordinates in a predetermined plane parallel to the display screen and depth coordinates perpendicular to the predetermined plane, and are updated
  • the center of the marker is moved to a position corresponding to the display screen of the coordinates, and a plurality of shapes separated from the center are brought closer to each other as the updated depth coordinate approaches 0 with respect to a predetermined plane. Display as one continuous shape. This can provide feedback of suitable input operations that can be used quickly and intuitively, even from near distances of a few centimeters to far distances of a few meters.
  • FIG. 1 is a view showing an example of a hover button immediate pressing method which is a conventional example.
  • FIG. 2 is a view showing an example of a pressing method after a lapse of a fixed period of time of a hover button as a conventional example.
  • FIG. 3 is a diagram showing an example of a conventional push button cursor coloring method.
  • FIG. 4 is a block diagram showing an example of the configuration of the input support apparatus 100 to which the present embodiment is applied.
  • FIG. 5 is a view showing the display of the display unit 114, the simulated aerial touch panel, and the positional relationship of the user when the present embodiment is applied to a short distance non-contact operation of about several centimeters.
  • FIG. 1 is a view showing an example of a hover button immediate pressing method which is a conventional example.
  • FIG. 2 is a view showing an example of a pressing method after a lapse of a fixed period of time of a hover button as a conventional example.
  • FIG. 3 is a diagram showing an example
  • FIG. 6 is a view showing the display of the display unit 114, the simulated aerial touch panel, and the positional relationship of the user when the present embodiment is applied to a long distance non-contact operation of about several meters.
  • FIG. 7 is a diagram showing the display of the display unit 114, the simulated aerial touch panel, and the positional relationship of the user when the present embodiment is applied to non-contact operation in the head mounted display.
  • FIG. 8 is a flowchart showing an example of the input support process of the input support apparatus 100 in the present embodiment.
  • FIG. 9 is a view schematically showing a push button marker system according to the present embodiment.
  • FIG. 10 is a view schematically showing the flick marker method of the present embodiment.
  • FIG. 11 is a view schematically showing the pinch marker method of the present embodiment.
  • FIG. 1 is a diagram showing an example of a hover button immediate pressing method which is a conventional example.
  • a rectangle in the figure is a display screen, and a button is displayed on the display screen as an example of an object to be pressed, the left side of the arrow indicates before transition, and the right side of the arrow indicates after transition (same below) .
  • FIG. 2 is a view showing an example of a pressing method after a lapse of a fixed period of time of the hover button which is a conventional example.
  • FIG. 2 is a view showing an example of a push button cursor coloring method which is a conventional example.
  • Embodiments of the present invention have the following features.
  • space coordinates of a predetermined part (a hand, a finger, a palm, a foot, or the like) of the user are continuously acquired through the detection unit.
  • the space coordinates are three-dimensional coordinates (x, x, x coordinates, x coordinates, y coordinates) in a predetermined plane parallel to the display screen, and depth coordinates (z coordinates) perpendicular to the predetermined plane. y, z).
  • this embodiment performs display control which moves a marker to the corresponding position of the display screen of a display part based on the space coordinate updated.
  • the marker may be displayed larger than the predetermined site, or the separation range in the initial shape of the marker may be displayed larger than the predetermined site.
  • control may be performed to further display the cursor at a corresponding position on the display screen based on the updated space coordinates separately from the marker.
  • the initial shape of the marker is a plurality of shapes obtained by dividing an arbitrary shape (for example, an annular ring, a donut shape, etc.).
  • an arbitrary shape for example, an annular ring, a donut shape, etc.
  • the display control is performed to make the plurality of shapes closer to each other at the corresponding position of the display screen as the distance is smaller, while the plurality of shapes are separated from each other.
  • the predetermined surface may be a surface parallel to the display screen, which has a shape (for example, a rectangular shape) corresponding to the display screen.
  • it plays a role as a virtual touch panel in the space coordinate system (hereinafter sometimes referred to as “in-the-air simulated touch panel”). That is, when the user operates as if there is a touch panel in the air, the present embodiment provides suitable input support to improve visual feedback.
  • the pressed state is obtained in a state where the space coordinates to be updated have passed through the predetermined surface (for example, when moving from the side where the user is located to the opposite side of the predetermined surface). It is also good.
  • the pressing target may be a target located at the center of the marker or a target at which the cursor is located.
  • the present embodiment in addition to being able to immediately press the pressing object, there is an advantage that erroneous operation can be suppressed since there is appropriate feedback to the user before the object is pressed.
  • markers are displayed around a finger or the like, so that there is an advantage that it is unlikely that the markers can not be seen and operated. Therefore, the problems in the conventional example can be overcome to contribute to a significant improvement in operability.
  • FIG. 4 is a block diagram showing an example of the configuration of the input support apparatus 100 to which the present embodiment is applied, and conceptually shows only the part related to the present embodiment in the configuration.
  • the input support apparatus 100 roughly includes a control unit 102 such as a CPU that generally controls the entire input support apparatus 100 and a communication apparatus (not shown) such as a router connected to a communication line or the like.
  • the communication control interface unit 104 connected, the input / output control interface unit 108 connected to the detection unit 112, the display unit 114, etc., and the storage unit 106 storing various databases, tables, etc. These units are communicably connected via any communication path.
  • Various databases and tables (display element file 106a etc.) stored in the storage unit 106 are storage means such as fixed disk devices, and store various programs, tables, files, databases, web pages etc. used for various processes. Do.
  • the display element file 106a is element data storage means for storing data that can be displayed as a display element of the display screen.
  • the display element file 106a may store data as GUI buttons such as icons, and objects such as characters, symbols, figures, and solid objects.
  • the data format of the data to be the display element is not limited to image data, character data, etc., and may be any data format.
  • the result of the action operation click, drag, pinch out / pinch in, swipe, flick, etc.
  • the input / output control interface unit 108 controls the detection unit 112 and the display unit 114.
  • the display unit 114 is a display unit such as a liquid crystal panel or an organic EL panel.
  • the display unit 114 may be a head mounted display or a 3D display.
  • the input support apparatus 100 may include an audio output unit such as a speaker (not shown), and the input / output control interface unit 108 may control the audio output unit.
  • the display unit 114 may be described as a monitor (including a home television), but the present invention is not limited to this.
  • the detection unit 112 is a sensor or the like for acquiring three-dimensional space coordinates of an arbitrary part of the user.
  • the detection unit 112 is not limited to directly obtaining three-dimensional coordinates, and may be, for example, two cameras that capture a two-dimensional image from different angles, and analysis by the space coordinate acquisition unit 102a described later
  • the three-dimensional coordinates may be analyzed from a plurality of two-dimensional images.
  • the detection unit 112 may be an imaging unit such as a camera.
  • the detection unit 112 may be a detection unit such as a CMOS sensor or a CCD sensor.
  • the detection unit 112 projects a light pattern such as an infrared stripe pattern toward the user, and performs clustering of the stripe segments of the light pattern to obtain a predetermined pattern such as a palm. The region determination of the part or the depth of the palm may be detected.
  • an ultrasonic or electromagnetic wave distance measuring device such as a depth detection unit
  • a proximity sensor such as a proximity sensor
  • the detection unit 112 may combine a depth detection unit (depth sensor or the like) and an imaging unit (RGB camera or the like).
  • a Kinect (R) sensor manufactured by Microsoft Corp.
  • a Leap sensor manufactured by Leap Motion Inc.
  • the detection unit 112 may detect space coordinates of a light source or the like held by the user or attached to an arm or the like as a position detection unit that detects the movement of a person instead of the imaging unit.
  • control unit 102 has a control program such as an operating system (OS), a program defining various processing procedures and the like, and an internal memory for storing required data. , Perform information processing to execute various processing.
  • the control unit 102 is conceptually configured to include a space coordinate acquisition unit 102 a, a display control unit 102 b, and a pressing determination unit 102 c.
  • the space coordinate acquisition unit 102 a is space coordinate acquisition means for continuously acquiring space coordinates of a predetermined part of the user via the detection unit 112. For example, while acquiring depth coordinates (z coordinates) from the depth sensor via the detection unit 112 including the depth sensor and the RGB camera, a predetermined region (hand, palm, etc.) is obtained from the two-dimensional image obtained from the RGB camera
  • the area of (1) may be determined, and plane coordinates (x-coordinate, y-coordinate) which are center coordinates of the area (for example, barycentric coordinates of the hand area subjected to the area recognition) may be acquired.
  • the space coordinate acquisition unit 102a acquires two sets of image data from the detection unit 112 including two cameras, and performs comparison analysis to obtain the depth of each point of the user including the predetermined part.
  • a three-dimensional map such as a position may be generated, and space coordinates (x, y, z) corresponding to a predetermined part may be acquired.
  • FIGS. 5 to 7 show the case where the present embodiment is applied to a short distance noncontact operation of about several cm, a long distance noncontact operation of about several meters, and a noncontact operation in a head mounted display. It is the figure which showed the display of the display part 114, the air pseudo
  • As a coordinate system an orthogonal coordinate system including an x-axis, a y-axis, and a z-axis is illustrated.
  • the coordinate space is such that a pseudo touch panel is present in the air in the vicinity of several centimeters from the display.
  • the predetermined plane may be set in In the short distance application, a predetermined part (a finger or the like) of the user itself plays a role as a cursor, and therefore the cursor may not be displayed. In order to perform detailed operations as a pointing device, it is necessary to display a cursor on the screen, but if rough operation is sufficient, cursor display is unnecessary.
  • a predetermined plane may be set in space.
  • a predetermined part such as a finger as a pointing device, it is desirable to display a cursor on the screen under the control of the display control unit 102b.
  • a predetermined surface in a coordinate space so that an aerial pseudo touch panel is present at an image forming position of an image. May be set.
  • the input support apparatus 100 may perform control to finely adjust the depth of the air pseudo touch panel (the same applies to a 3D display).
  • the imaged position may shift and it may feel like it is in front of the obstacle, so space coordinates
  • the acquisition unit 102a reads the shape of the obstacle via the detection unit 112, and the display control unit 102b controls not to display the image of the portion hidden by the obstacle when the display is displayed at the imaging position.
  • the imaging position may be made difficult to shift.
  • the xy plane in the coordinate system of the three-dimensional space coordinates acquired from the space coordinate acquisition unit 102a is parallel to the display of the display unit 114 and the aerial pseudo touch panel, for ease of description.
  • the z axis may be described as an axis perpendicular to the display of the display unit 114 and the air pseudo touch panel, the present embodiment is not limited to this.
  • the coordinate system acquired by the space coordinate acquisition unit 102a may be a coordinate system having no axis perpendicular or parallel to the display or the aerial pseudo touch panel.
  • the predetermined surface may be set by the distance from the display screen (display) of the display unit 114, or may be set by the distance from the user.
  • the display control unit 102b may automatically set the predetermined surface at a position separated by a predetermined distance (depth) from the initial position of the predetermined portion of the user.
  • the display control unit 102 b is a display control unit that performs display control of the display unit 114.
  • the display control unit 102b may display a GUI button such as an icon on the display of the display unit 114 based on the data stored in the display element file 106a.
  • the display control unit 102b acquires data such as a web page from an external device 600 such as a server via the network 300 such as the Internet, and displays the web page on the display unit 114 according to the acquired data. Control such as display may be performed.
  • the display control unit 102b may call a corresponding position on the display screen of the display unit 114 (hereinafter, “marker center position” based on the space coordinates updated by the space coordinate acquisition unit 102a. ), Perform display control to move the marker. More specifically, in the above-described orthogonal coordinate system, the display control unit 102b converts the corresponding pixel coordinates (x ', y) on the display of the two-dimensional coordinates (x, y) updated by the space coordinate acquisition unit 102a. ') May move the center of the marker.
  • the conversion from two-dimensional coordinates (x, y) in the three-dimensional space coordinate system to pixel coordinates (x ', y') in the screen coordinate system is calculated by a known method based on the relationship between the air touch panel and the display. be able to.
  • the display control unit 102b performs feedback processing to change the shape of the marker according to the distance of the space coordinates updated by the space coordinate acquisition unit 102a with respect to the predetermined surface (the air pseudo touch panel). For example, based on the space coordinates updated by the space coordinate acquisition unit 102a, the display control unit 102b determines the marker shape from the corresponding position on the display screen (the center position of the marker) as the distance to the air pseudo touch panel increases. The plurality of divided shapes are separated from each other, and the smaller the distance to the air pseudo touch panel is, the closer to the center position of the marker the plurality of shapes are closer to each other.
  • the display control unit 102b moves the center closer as the distance 0 approaches the predetermined plane based on the depth z coordinate updated by the space coordinate acquisition unit 102a.
  • a plurality of shapes separated from the position (x ', y') are made to approach each other and displayed as one continuous shape.
  • the display control unit 102b causes the marker to be displayed in a shape before division, in which a plurality of shapes are combined with each other in a state where the updated space coordinates pass through the air pseudo touch panel.
  • the press determining unit 102c described later determines that the pressed state.
  • the shape of the marker before division is an annular shape, a donut shape, or any other shape that can easily imagine the shape at the time of bonding (for example, a circular shape, a triangular shape, a square shape, a hexagonal shape, or a star shape) It may be a shape that does not cover the corresponding position (center position) of the display (e.g., a display of the circumference (outer contour) such as a circle, a triangle, a square, a hexagon, a star, etc.). Further, from the viewpoint of the user, the display control unit 102b preferably displays the marker larger than the predetermined part or displays the separation range in the initial shape of the marker larger than the predetermined part.
  • the display control unit 102b may further cause the cursor to be displayed at the corresponding center position of the display screen based on the space coordinates updated by the space coordinate acquisition unit 102a. More specifically, in the above-described orthogonal coordinate system, the display control unit 102b converts the corresponding pixel coordinates (x ', y) on the display of the two-dimensional coordinates (x, y) updated by the space coordinate acquisition unit 102a. In '), it may be displayed while moving the cursor. As described above, when the object to be pressed is fine or the like, the user can easily distinguish the object to be pressed by placing the cursor with a crosshair or the like at the center of the marker.
  • the pressing determination unit 102c is a pressing determination unit that determines that the pressed state is in a state where the space coordinates to be updated have passed a predetermined plane. For example, when the trajectory of the space coordinates to be updated reaches a predetermined plane from the user side, the pressing determination unit 102c may determine that the pressed state.
  • the pressed state is not limited to the button pressed in the click operation, and includes the pressed state in various operations such as drag, pinch out / pinch in, swipe, and flick.
  • the pressing determination unit 102 c may determine the center position (x ′, y ′) of the marker or the position (x ′, y ′) of the cursor as the pressing target.
  • the communication control interface unit 104 controls communication between the input support device 100 and the network 300 (or a communication device such as a router), and communication between the input support device 100 and a receiver (not shown). It is a device that controls. That is, the communication control interface unit 104 has a function of communicating data with another terminal or station via a communication line (wired or wireless).
  • the receiving device is a receiving unit that receives radio waves and the like from a broadcast station or the like, and is, for example, an antenna or the like.
  • the input support apparatus 100 may be configured to be communicably connected via the network 300 with an external device 600 that provides an external database related to image data, an external program such as a program according to the present invention, etc. Further, the input support apparatus 100 may be configured to be connected to a broadcast station or the like that transmits image data and the like so as to be capable of receiving via the receiving apparatus.
  • the input support apparatus 100 may be communicably connected to the network 300 via a communication apparatus such as a router and a wired or wireless communication line such as a dedicated line.
  • the network 300 has a function of mutually connecting the input support device 100 and the external device 600, and is, for example, the Internet or the like.
  • the external device 600 is mutually connected with the input support device 100 via the network 300, and allows the user to execute a website such as an external database related to image data and an external program such as a program. It has a function to provide.
  • the external device 600 may be configured as a WEB server, an ASP server, etc., and its hardware configuration is configured by an information processing apparatus such as a generally commercially available workstation, personal computer, etc. and its attached device. May be Also, each function of the external device 600 is realized by a CPU in the hardware configuration of the external device 600, a disk device, a memory device, an input device, an output device, a communication control device, etc. and a program for controlling them.
  • FIG. 8 is a flowchart showing an example of the input support process of the input support apparatus 100 in the present embodiment. Note that in order to start the following processing, it is assumed that the display unit 114 displays some display element under the control of the display control unit 102b.
  • the space coordinate acquisition unit 102a acquires space coordinates of a predetermined part of the user via the detection unit 112 (step SA-1). For example, while acquiring depth coordinates (z coordinates) from the depth sensor via the detection unit 112 including the depth sensor and the RGB camera, a predetermined region (hand, palm, etc.) is obtained from the two-dimensional image obtained from the RGB camera.
  • the three-dimensional space coordinates (x, x, y coordinates) are determined by determining the area of x) and acquiring plane coordinates (x coordinates, y coordinates) that are center coordinates of the area (for example, barycentric coordinates of the hand area subjected to area recognition) y, z) may be acquired.
  • the display control unit 102 b places markers at corresponding positions (x ′, y ′) on the display of the display unit 114.
  • Feedback processing for changing the shape of the marker in accordance with the depth while moving the center of the (1) step SA-22).
  • the display control unit 102b increases the distance to the simulated air touch panel in accordance with the z coordinate of the space coordinates (x, y, z), the marker center position (x ', y').
  • FIG. 9 is a view schematically showing the push button marker method according to the present embodiment.
  • the display control unit 102b separates and displays the distance between the markers in a wide state.
  • the display control unit 102b causes the markers to approach each other according to the approach distance (MD-2).
  • the press determining unit 102c determines to press the pressing target (MD-3).
  • the display control unit 102b may further display a cursor with a crosshair or the like at the marker center position (x ', y').
  • the control unit 102 of the input support apparatus 100 determines whether the input support processing is to be ended (step SA-3). When it is determined that the input support process is not ended (step SA-3, No), the control unit 102 of the input support apparatus 100 returns the process to step SA-1, and the space coordinate acquisition unit 102a determines the space coordinate (x, The y, z) are updated (step SA-1), and the above-described processes of steps SA-1 to SA-3 are repeated. On the other hand, for example, when the end of the input support process is instructed by the user, the input support apparatus 100 determines that the input support process is to be ended (Step SA-3, Yes), and ends the above process.
  • FIG. 9 shows an example of pressing the button in the click operation
  • the present invention is not limited to this, and may be used to determine pressing in various operations (such as gesture input) such as drag, pinch out / pinch in, swipe, or flick.
  • FIG. 10 is a view schematically showing the flick marker method of the present embodiment.
  • the display control unit 102b separates and displays the distance between the markers in a wide state.
  • the display control unit 102b causes the markers to approach each other according to the approach distance (ME-2).
  • the pressing determination unit 102c determines that the pressing target is in the pressed state.
  • FIG. 11 is a view schematically showing a pinch marker method of the present embodiment.
  • the space coordinate acquisition unit 102a can also recognize the space coordinates of two predetermined parts of the user, and the display control unit 102b is an aerial simulated touch panel In accordance with the distance between the and the finger, the distance between the two markers is displayed in a wide state.
  • the display control unit 102b causes the markers to approach each other according to the approach distance (MF-2).
  • the press determination unit 102c determines that the press target is a pressed state. In this state, when the user moves two fingers (MF-3 to 4), the control unit 102 of the input support apparatus 100 receives a gesture input of pinch in / pinch out (MF-4).
  • this pinch marker method As a feature of this pinch marker method, the distance for accepting the flick can be clearly understood, the erroneous operation is minimized, and the marker is displayed around the finger even when used at a distance of several cm, so the marker There is a merit that the possibility of not being able to operate without being visible is low. In addition, there is an advantage that it is easy to grasp how far away from the object the gesture input ends, and it is possible to reduce the movement amount of the hand at the time of input to the minimum.
  • the marker method according to the present embodiment and the method of the conventional hover button can not be used alone, but can be realized by combining the two.
  • the input support device 100 responds to a request from a client terminal (which is a separate case from the input support device 100). Processing may be performed, and the processing result may be returned to the client terminal.
  • the CPU Central Processing Unit
  • the CPU interpret and execute all or any part of processing functions provided in each device of the input support device 100, in particular, each processing function performed by the control unit 102. And may be realized as wired logic hardware.
  • the program is recorded in a non-temporary computer-readable recording medium that includes programmed instructions for causing a computer to execute the method according to the present invention, which will be described later.
  • Mechanically read to 100 that is, in the storage unit 106 such as the ROM or HDD (Hard Disk Drive), a computer program for giving instructions to the CPU in cooperation with the OS (Operating System) and performing various processes is recorded.
  • the computer program is executed by being loaded into the RAM, and cooperates with the CPU to configure the control unit.
  • the computer program may be stored in an application program server connected to the input support device 100 via any network 300, and all or part of the computer program may be downloaded as needed. It is.
  • the program according to the present invention may be stored in a computer readable recording medium, or may be configured as a program product.
  • the "recording medium” is a memory card, USB memory, SD card, flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD-ROM, MO, DVD, and Blu-ray (registered trademark). It includes any "portable physical media” such as Disc.
  • the “program” is a data processing method described in any language or description method, and may be in any format such as source code or binary code.
  • the “program” is not necessarily limited to a single program, but may be distributed as a plurality of modules or a library, or in cooperation with a separate program represented by an OS (Operating System). Also includes those that achieve the function.
  • OS Operating System
  • a reading procedure, an installation procedure after reading, and the like a known configuration and procedure can be used as a specific configuration for reading the recording medium in each device shown in the embodiment.
  • Various databases (display element file 106a etc.) stored in the storage unit 106 are memory devices such as RAM and ROM, fixed disk devices such as hard disk, flexible disks, storage means such as optical disks, etc. And stores various programs, tables, databases, files for web pages, etc. used to provide web sites.
  • the input support apparatus 100 may be configured as an information processing apparatus such as a known personal computer, a work station or the like, or any peripheral apparatus may be connected to the information processing apparatus.
  • the input support apparatus 100 may be realized by implementing software (including a program, data, etc.) that causes the information processing apparatus to realize the method of the present invention.
  • an input support device when performing non-contact operation without using a controller, an input support device, an input support method, and an input support method that can appropriately perform feedback to the user.
  • a program as well as a recording medium can be provided.
  • Reference Signs List 100 input support device 102 control unit 102 a space coordinate acquisition unit 102 b display control unit 102 c press determination unit 104 communication control interface unit 106 storage unit 106 a display element file 108 input / output control interface unit 112 detection unit 114 display unit 300 network 600 external device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 コントローラを用いずに非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラムを提供することを課題とする。本発明は、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得し、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う場合において、マーカーの初期形状は、任意の形状を分割した複数の形状として、空間座標の座標系における所定の面に対して、空間座標の距離が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる表示制御を行う。

Description

入力支援装置、入力支援方法、および、プログラム
 本発明は、入力支援装置、入力支援方法、および、プログラムに関する。
 従来、コントローラを用いずに、コンピュータを遠隔操作する方法が開発されている。
 例えば、特許文献1では、手に投射される光パターンの連続的特徴を検知することによりユーザの手の動きを追跡する手追跡器を備えたコンピュータ装置において、手追跡器により追跡された手の動きに従って手の画像(第1画像)を動かし、表示上の仮想キーボード等の第2画像と第1画像との間で相互作用させるように手を動かすことにより、コンピュータ装置を制御する方法が開示されている。
 また、非特許文献1のKinect for Windows(登録商標) SDK 1.7では、利用者の手の空間座標を検出し、検出した平面座標に応じて、表示画面上のカーソルを移動させるとともに、検出した深度に応じた表示ボタンの押下を判定する際に、カーソルの色を深度に応じて連続的に変化させて、利用者にボタン押下に至るまでの深度状況をフィードバックする技術が開示されている。
特表2013-505508号公報
マイクロソフト・コーポレーション、"New Features│Microsoft Kinect for Windows"、[online]、2013年、Microsoft Corporation、[平成25年5月7日検索]、インターネット<URL:http://www.microsoft.com/en-us/kinectforwindows/Develop/New.aspx>
 しかしながら、コントローラを使用しない従来の遠隔操作技術においては、どの時点でボタン押下等の選択決定がなされるかを利用者が把握するのが難しいため誤動作を招くという問題点を有していた。
 例えば、特許文献1に記載の遠隔制御方法では、ユーザの手を表示した画像が、表示上のキーボードの画像上で動き、ユーザが指をタイピング動作するように動かすと、キーボードキーを押下することができるものの、物理キーボードとは異なり、どの段階でキー押下操作と判定されるのかについて、利用者へのフィードバックに乏しいためタイプミスを招きやすいという問題点を有していた。
 また、非特許文献1に記載の遠隔制御方法では、利用者の手の深度がカーソルの色としてフィードバックされるものの、利用者がディスプレイに対して手をかざして操作するので、カーソルが手で隠れてしまうことがあり、依然として誤動作を招く可能性があるという問題点を有していた。
 本発明は、上記問題点に鑑みてなされたもので、コントローラを用いず接触せずに操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラムを提供することを目的とする。
 このような目的を達成するため、本発明の入力支援装置は、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段と、上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御手段と、を備えた入力支援装置において、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御手段は、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、更に、更新される上記空間座標が上記所定の面を通過した状態で、押下状態と判定する押下判定手段、を更に備え、上記表示制御手段は、更新される上記空間座標が上記所定の面を通過した状態で、上記複数の形状を互いに結合させた、分割前の上記形状を上記マーカーとして表示することを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、上記表示制御手段は、上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示画面の対応する位置に、カーソルを更に表示させ、上記押下判定手段は、更新される上記空間座標が上記所定の面を通過した状態で、上記カーソルの位置を対象として上記押下状態と判定することを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、上記マーカーの分割前の上記形状は、円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状、または、上記表示部の表示画面の対応する位置を覆うことのない形状でも実現できることを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、上記所定の面は、上記表示画面から数センチメートル程度手前側に設定されており、上記利用者の所定の部位は、指、手、ないしは、掌であって、上記表示制御手段は、上記マーカーを上記所定の部位よりも大きく表示、または、上記マーカーの上記初期形状における離隔範囲を上記所定の部位よりも大きく表示させることを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、上記所定の面に対する上記空間座標の距離は、上記所定の面に対して利用者が位置する側における上記空間座標の距離であることを特徴とする。
 また、本発明の入力支援装置は、上記記載の入力支援装置において、上記空間座標は、上記表示画面に平行な上記所定の面における2次元座標、および、上記所定の面に垂直な奥行き座標、からなる3次元座標であって、上記表示制御手段は、上記空間座標取得手段により更新される上記2次元座標の、上記表示画面に対応する位置に上記マーカーの中心を移動させるとともに、上記空間座標取得手段により更新される上記奥行き座標が上記所定の面に対して0に近づけば近づくほど、上記中心から離隔させた上記複数の形状を互いに接近させて一つの連続した形状として表示させることを特徴とする。
 また、本発明の入力支援方法は、コンピュータにおいて実行される入力支援方法であって、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、上記空間座標取得ステップにて更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、を含み、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御ステップは、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
 また、本発明のプログラムは、コンピュータに実行させるためのプログラムであって、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、上記空間座標取得ステップにて更新される上記空間座標に基づいて、上記表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、を実行させるためのプログラムにおいて、上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、上記表示制御ステップは、上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させることを特徴とする。
 また、本発明は記録媒体に関するものであり、上記記載のプログラムを記録したことを特徴とする。
 この記録媒体によれば、当該記録媒体に記録されたプログラムをコンピュータに読み取らせて実行させることによって、上記記載された方法を、コンピュータを利用して実現することができ、これら各方法と同様の効果を得ることができる。
 この発明によれば、検出部を介して、利用者の所定の部位についての空間座標を連続的に取得し、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う場合において、マーカーの初期形状は、任意の形状を分割した複数の形状であって、空間座標の座標系における所定の面に対して、空間座標の距離が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる。これにより、コントローラを用いずに非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができるという効果を奏する。
 また、本発明によれば、更新される空間座標が所定の面を通過した状態で、押下状態と判定し、更新される空間座標が所定の面を通過した状態で、複数の形状を互いに結合させた、分割前の形状をマーカーとして表示するので、利用者が、クリックやドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作を行うにあたって、押下状態を認識しやすいように視認性を向上させることができるという効果を奏する。
 また、本発明によれば、更新される空間座標に基づいて、表示画面の対応する位置に、カーソルを更に表示させ、更新される空間座標が所定の面を通過した状態で、カーソルの位置を対象として押下状態と判定するので、利用者が、数メートル程度ディスプレイから離れた位置で操作する場合や、GUIボタン等の操作対象物が細かい場合等であっても、マーカーの中心付近に十字線等のカーソルを入れる等により、押下対象が認識し易いように視認性を向上させることができる。
 また、本発明によれば、マーカーの分割前の形状は、円環、ドーナツ形状、その他、表示部の表示画面の対応する位置を覆うことのない形状でも実現できるので、利用者が、押下しようとする押下対象が隠れることなく、操作性を向上させることができるという効果を奏する。
 また、本発明によれば、所定の面は、表示画面から数センチメートル程度手前側に設定されており、利用者の所定の部位は、指、手、ないしは、掌であって、マーカーを所定の部位よりも大きく表示、または、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させるので、ディスプレイに数センチメートル程度に近づいて操作する場合等においても、利用者は、自身の指や手等で操作対象物を隠すことがなく、操作性を向上させることができるという効果を奏する。
 また、本発明によれば、所定の面に対する空間座標の距離は、所定の面に対して利用者が位置する側における空間座標の距離であるので、利用者側から所定の面に近づくほど、表示画面の対応する位置に複数の形状を互いに接近させ、所定の面を超えた場合に、クリック等の選択状態と判定することができるという効果を奏する。
 また、本発明によれば、空間座標は、表示画面に平行な所定の面における2次元座標、および、所定の面に垂直な奥行き座標、からなる3次元座標であって、更新される2次元座標の、表示画面に対応する位置にマーカーの中心を移動させるとともに、更新される奥行き座標が所定の面に対して0に近づけば近づくほど、中心から離隔させた複数の形状を互いに接近させて一つの連続した形状として表示させる。これにより、素早く、直感的に、数センチメートルの近距離から数メートルの遠距離でも使用できる、好適な入力操作のフィードバックを提供することができる。
図1は、従来例であるホバーボタン即時押下方式の一例を示す図である。 図2は、従来例であるホバーボタン一定時間経過後押下方式の一例を示す図である。 図3は、従来例であるプッシュボタンカーソル着色方式の一例を示す図である。 図4は、本実施の形態が適用される入力支援装置100の構成の一例を示すブロック図である。 図5は、本実施の形態を、数cm程度の近距離の非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図6は、本実施の形態を、数メートル程度の遠距離非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図7は、本実施の形態を、ヘッドマウントディスプレイにおける非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。 図8は、本実施の形態における入力支援装置100の入力支援処理の一例を示すフローチャートである。 図9は、本実施の形態によるプッシュボタンマーカー方式を模式的に示した図である。 図10は、本実施の形態のフリックマーカー方式を模式的に示した図である。 図11は、本実施の形態のピンチマーカー方式を模式的に示した図である。
 以下に、本発明にかかる入力支援装置、入力支援方法、および、プログラム、並びに、記録媒体の実施の形態を、図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
[本実施の形態の概要]
 以下、本発明にかかる本実施の形態の概要について従来方式と比較しながら説明し、その後、本実施の形態の構成および処理等について詳細に説明する。なお、本概要の説明によって、以降で説明する本実施の形態の構成および処理が限定されるものではない。
 従来、Kinect(R)センサ(マイクロソフト社製)やLeapセンサ(Leap Motion社製)等の検出手段を用いて、リモートコントローラを用いずに、手や指で非接触にコンピュータ等を遠隔操作可能となる技術開発と商品開発が進んでいる。
 これらの検出手段を用いれば、利用者の手や指の3次元空間座標を読取ることができるため、利用者の手や指をポインティングデバイスの代替として用いたユーザインターフェースを実現しようとする試みがある。ここで、従来の非接触でのボタン押下方式の例について、図1~図3を参照して以下に説明する。ここで、図1は、従来例であるホバーボタン即時押下方式の一例を示す図である。図中の矩形は、表示画面であり、表示画面中には押下対象の一例としてボタンが表示されており、矢印の左側は遷移前、矢印の右側は遷移後を示している(以下も同様)。
 図1に示すように、従来のホバーボタン即時押下方式では、利用者が押下したい対象の上に指(または指に連動するカーソル)を移動させる(ホバーさせる)と、即座にボタンが押下される方式である(MA-1~2)。ホバーボタン即時押下方式の特徴として、押下するまでの待ち時間がないというメリットがあるものの、誤操作する可能性が高いので誤操作すると危険な操作には向いておらず、画面にカーソルを表示しないと押下対象が分かり難いというデメリットを有していた。ここで、図2は、従来例であるホバーボタン一定時間経過後押下方式の一例を示す図である。
 図2に示すように、従来のホバーボタン一定時間経過後押下方式では、利用者が押下したい対象の上に指(または指に連動するカーソル)を移動させる(ホバーさせる)と(MB-1)、指(または指に連動するカーソル)を中心に一定時間をかけて、この例では時計回りに円が描かれ(MB-2)、一定時間が経過すると対象が押下される方式である(MB-3)。ホバーボタン一定時間経過後押下方式の特徴として、一定時間は押下されないため押下決定までに利用者が誤りに気付く可能性があり誤操作を抑止できるというメリットがあるものの、押下動作を行うために一定時間が必要であるというデメリットを有していた。ここで、図3は、従来例であるプッシュボタンカーソル着色方式の一例を示す図である。
 図3に示すように、従来のプッシュボタンカーソル着色方式では、押下対象と指との距離が離れている場合は、カーソルが白く表示され(MC-1)、利用者が指を押下対象に接近させると、その距離に応じてカーソルの色が変化し(MC-2~MC-4)、指が一定距離以内に達すると対象が押下される方式である(MC-5)。プッシュボタンカーソル着色方式の特徴として、対象を即座に押下でき、対象を押下するまでに利用者へのフィードバックがあるため誤操作を抑止できるというメリットがあるものの、数センチメートルの距離で使用した場合など、利用者の目とカーソルとの間に、利用者の手や指が位置するとカーソルが見え難くなるというデメリットを有していた。
 本願発明者らは、上記の問題点等に鑑み、鋭意検討を行った結果、本願発明を完成させるに至った。本願発明の実施の形態は、次の特徴を有する。
 すなわち、本実施の形態は、検出部を介して、利用者の所定の部位(手や指や掌や足等)についての空間座標を連続的に取得する。一例として、空間座標は、表示画面に平行な所定の面における2次元座標(x座標,y座標)、および、所定の面に垂直な奥行き座標(z座標)、からなる3次元座標(x,y,z)であってもよい。
 そして、本実施の形態は、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う。好適には、本実施形態は、マーカーを所定の部位よりも大きく表示させるか、または、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させてもよい。なお、本実施の形態は、表示制御において、マーカーとは別に、更新される空間座標に基づいて、表示画面の対応する位置に、カーソルを更に表示させる制御を行ってもよい。
 ここで、マーカーの初期形状は、任意の形状(例えば円環やドーナツ形状等)を分割した複数の形状である。本実施の形態は、上述の表示制御において、空間座標の座標系における所定の面に対する空間座標の距離(利用者が位置する側における所定の面までの距離等)が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、一方、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる表示制御を行う。
 なお、所定の面は、表示画面に対応した形状(例えば、矩形形状)の、表示画面に平行な面であってもよい。本実施の形態において、空間座標系における仮想のタッチパネル(以下、「空中擬似タッチパネル」と呼ぶ場合がある。)としての役割を果たす。すなわち、利用者は、あたかも空中にタッチパネルがあるかのように操作する場合に、本実施の形態は、視覚的フィードバックを改善する好適な入力支援を行う。
 つづいて、本実施の形態は、更新される空間座標が所定の面を通過した状態で(利用者が位置する側から所定の面の反対側に移動した場合など)、押下状態と判定してもよい。押下対象は、マーカーの中心に位置する対象でもよく、カーソルが位置する対象であってもよい。
 以上のように、本実施の形態によれば、押下対象を即座に押下できる上、対象を押下するまでに利用者へ適切なフィードバックがあるため誤操作を抑止できるというメリットがある。また、数センチメートルの距離で使用しても、指等の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットがある。したがって、従来例における問題点を克服して、大幅な操作性の向上に寄与することができる。
 以上で、本発明の本実施の形態の概要の説明を終える。つづいて、以下に、本実施の形態の構成および処理等について詳細を説明する。
[入力支援装置100の構成]
 まず、本実施の形態にかかる入力支援装置100の構成について説明する。図4は、本実施の形態が適用される入力支援装置100の構成の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。
 図4において入力支援装置100は、概略的に、入力支援装置100の全体を統括的に制御するCPU等の制御部102、通信回線等に接続されるルータ等の通信装置(図示せず)に接続される通信制御インターフェース部104、検出部112や表示部114等に接続される入出力制御インターフェース部108、および、各種のデータベースやテーブルなどを格納する記憶部106を備えて構成されており、これら各部は任意の通信路を介して通信可能に接続されている。
 記憶部106に格納される各種のデータベースやテーブル(表示要素ファイル106a等)は、固定ディスク装置等のストレージ手段であり、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
 これら記憶部106の各構成要素のうち、表示要素ファイル106aは、表示画面の表示要素として表示可能なデータを記憶する要素データ記憶手段である。例えば、表示要素ファイル106aは、アイコン等のGUIボタンや、文字、記号、図形、立体オブジェクトなどのオブジェクトとなるデータを記憶してもよい。なお、これら表示要素となるデータのデータ形式は、画像データや、文字データ等に限られず、任意のデータ形式であってもよい。また、後述する制御部102の処理による、表示要素に対するアクション操作(クリックやドラッグやピンチアウト/ピンチインやスワイプやフリック等)の結果は、表示要素ファイル106a上のデータに反映されてもよい。
 また、図4において、入出力制御インターフェース部108は、検出部112や表示部114の制御を行う。例えば、表示部114は、液晶パネルや有機ELパネル等の表示手段である。なお、表示部114は、ヘッドマウントディスプレイであってもよく、3D表示ディスプレイであってもよい。ここで、入力支援装置100は、図示しないスピーカ等の音声出力手段を備えてもよく、入出力制御インターフェース部108は、当該音声出力手段の制御を行ってもよい。以下の実施の形態においては、表示部114をモニタ(家庭用テレビ等を含む)として説明する場合があるが、本発明はこれに限定されるものではない。
 また、検出部112は、利用者の任意の部位の3次元空間座標を取得するためのセンサ等である。なお、検出部112は、直接3次元座標を取得することに限られず、例えば、2次元画像を別角度から撮影する2台のカメラであってもよく、後述する空間座標取得部102aの解析により、複数の2次元画像から3次元座標を解析してもよい。一例として、検出部112は、カメラ等の撮像手段であってもよく、例えば、検出部112は、CMOSセンサやCCDセンサ等の検出手段であってもよい。また、特許文献1に記載のように、検出部112は、赤外線の縞模様等の光パターンを利用者に向けて投射し、光パターンの縞セグメントのクラスタリングを行うことによって、掌等の所定の部位の領域判定や、掌の深度を検出してもよい。このほか、検出部112としては、超音波や電磁波式の距離測定器(奥行きの検出手段等)や、近接センサ等を用いることができる。また、検出部112は、奥行きの検出手段(深度センサ等)と撮像手段(RGBカメラ等)とを組み合わせてもよい。なお、検出部112としては、Kinect(R)センサ(マイクロソフト社製)やLeapセンサ(Leap Motion社製)等を用いてもよく、前者のように、センサに加えて、センサから検出された信号に基づいて三次元マップを算出する制御手段を備えてもよい。なお、この場合の制御手段は、後述する空間座標取得手段としての役割を果たす。また、検出部112は、撮像手段の代わりに人物の動きを検出する位置検出手段として、利用者が手に持ったり腕等に装着したりした光源等の空間座標を検出してもよい。
 また、図4において、制御部102は、OS(Operating System)等の制御プログラム、各種の処理手順等を規定したプログラム、および所要データを格納するための内部メモリを有し、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、空間座標取得部102a、表示制御部102b、および、押下判定部102cを備えて構成されている。
 このうち、空間座標取得部102aは、検出部112を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段である。例えば、深度センサとRGBカメラを備えた検出部112を介して、深度センサから奥行き座標(z座標)を取得するとともに、RGBカメラから得られた2次元画像から、所定の部位(手や掌等)の領域を判定し、当該領域の中心座標(例えば、領域認識を行った手領域の重心座標)である平面座標(x座標,y座標)をそれぞれ取得してもよい。また、空間座標取得部102aは、2台のカメラからなる検出部112から、それぞれ2枚の画像データを取得し、それぞれ比較解析を行うことにより、所定部位を含む利用者の各点の深さ位置等の三次元マップを生成し、所定の部位に対応する空間座標(x,y,z)を取得してもよい。ここで、図5~図7は、本実施の形態を、数cm程度の近距離の非接触操作、数メートル程度の遠距離非接触操作、ヘッドマウントディスプレイにおける非接触操作に適用する場合の、表示部114のディスプレイ、空中擬似タッチパネル、および、利用者の位置関係を示した図である。なお、座標系として、x軸,y軸,z軸からなる直交座標系を図示している。
 図5に示すように、本実施の形態を数cm程度の近距離の非接触操作に用いる場合、ディスプレイから数センチメートル程度の近傍の空中に、擬似的なタッチパネルが存在するように、座標空間において所定の面を設定してもよい。なお、近距離用途では、利用者の所定部位(指等)自体が、カーソルとしての役割を果たすので、カーソルを表示させなくともよい。ポインティングデバイスとして細かな操作を行うには、画面上にカーソルを表示する必要があるが、大まかな操作で良ければカーソル表示は不要である。
 図6に示すように、本実施の形態を数メートル程度の遠距離非接触操作に用いる場合、ディスプレイから数メートルまたはそれ以上離れた位置の空中に、擬似的なタッチパネルが存在するように、座標空間において所定の面を設定してもよい。タッチパネルとは異なり、指等の所定部位をポインティングデバイスとして使用するには、表示制御部102bの制御により、画面上にカーソルを表示させることが望ましい。
 図7に示すように、本実施の形態を、HMD(ヘッドマウントディスプレイ)における非接触操作に適用する場合、画像の結像位置に空中擬似タッチパネルが存在するように、座標空間上に所定の面を設定してもよい。この場合、利用者によっては結像位置が前後し得るので、入力支援装置100は、空中擬似タッチパネルの深度を微調整させるよう制御してもよい(3Dディスプレイの場合も同様)。なお、HMDと結像位置との間に障害物(利用者の手など)が入ると、結像された位置がずれ、障害物よりも手前にあるように感じる可能性があるため、空間座標取得部102aは、検出部112を介して障害物の形状を読み取り、表示制御部102bは、結像位置にディスプレイ表示があった場合に障害物で隠れる部分の画像を表示しないように制御することにより、結像位置をずれにくくしてもよい。
 なお、上記ならびに以下の実施の形態においては、説明の容易のため、空間座標取得部102aから取得される3次元空間座標の座標系におけるxy平面が、表示部114のディスプレイおよび空中擬似タッチパネルと平行な面であり、z軸が、表示部114のディスプレイおよび空中擬似タッチパネルに対して垂直な軸として説明する場合があるが、本実施の形態は、これに限られない。例えば、空間座標取得部102aにより取得される座標系は、ディスプレイまたは空中擬似タッチパネルと垂直または平行な軸をもたない座標系であってもよい。このような座標系を用いたとしても、ディスプレイと平行な所定の面(すなわち空中擬似タッチパネル)を座標空間に定義することは数学的に可能であるので当業者にとって実施可能である。また、本実施の形態においては、ディスプレイと空中擬似タッチパネルが平行であることを前提として説明することがあるが、必ずしも数学的な平行である必要はなく、利用者がディスプレイの上下左右の方向と指等の上下左右の動きを感覚的に対応付けられるならば、これらが平行である必要はない。また、所定の面(空中擬似タッチパネル)は、表示部114の表示画面(ディスプレイ)からの距離により設定してもよく、利用者からの距離により設定してもよい。後者の例として、表示制御部102bは、利用者の所定部位の初期位置から、所定の距離(深度)離れた位置に、所定の面を自動的に設定してもよい。
 再び図4に戻り、表示制御部102bは、表示部114の表示制御を行う表示制御手段である。例えば、表示制御部102bは、表示要素ファイル106aに記憶されたデータに基づいて、アイコン等のGUIボタンを、表示部114のディスプレイに表示させてもよい。これに限られず、表示制御部102bは、インターネット等のネットワーク300を介して、サーバ等の外部機器600から、ウェブページ等のデータを取得し、取得したデータに従って、表示部114上にウェブページを表示する等の制御を行ってもよい。
 本実施の形態において、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、表示部114の表示画面の対応する位置(以下、「マーカー中心位置」と呼ぶ場合がある。)に、マーカーを移動させる表示制御を行う。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される2次元座標(x,y)の、ディスプレイ上の対応するピクセル座標(x´,y´)にマーカーの中心を移動させてもよい。3次元空間座標系の2次元座標(x,y)から、スクリーン座標系のピクセル座標(x´,y´)への変換は、空中タッチパネルとディスプレイの関係に基づいて、公知の手法で計算することができる。
 また、表示制御部102bは、空間座標取得部102aにより更新される空間座標の、所定の面(空中擬似タッチパネル)に対する距離に応じて、マーカーの形状を変化させるフィードバック処理を行う。例えば、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、空中擬似タッチパネルまでの距離が大きいほど、表示画面の対応する位置(マーカーの中心位置)から、マーカー形状を分割した複数の形状を互いに離隔させ、一方、空中擬似タッチパネルまでの距離が小さいほど、マーカーの中心位置に複数の形状を互いに接近させる。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される奥行きz座標に基づいて、所定の面に対して距離0に近づけば近づくほど、中心位置(x´,y´)から離隔させた複数の形状を互いに接近させて一つの連続した形状として表示させる。そして、表示制御部102bは、更新される空間座標が空中擬似タッチパネルを通過した状態で、複数の形状を互いに結合させた、分割前の形状でマーカーを表示させる。なお、その際、同時に、後述する押下判定部102cは、押下状態と判定する。
 ここで、マーカーの分割前の形状は、円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状(例えば、円形、三角形、四角形、六角形、星型)や、表示部114のディスプレイの対応する位置(中心位置)を覆うことのない形状(例えば、円形、三角形、四角形、六角形、星型などの周囲(外郭)を表示したもの)であってもよい。また、利用者の視認上、表示制御部102bは、マーカーを所定の部位よりも大きく表示するか、マーカーの初期形状における離隔範囲を所定の部位よりも大きく表示させることが望ましい。
 ここで、表示制御部102bは、空間座標取得部102aにより更新される空間座標に基づいて、表示画面の対応する中心位置に、カーソルを更に表示させてもよい。より具体的には、上述した直交座標系において、表示制御部102bは、空間座標取得部102aにより更新される2次元座標(x,y)の、ディスプレイ上の対応するピクセル座標(x´,y´)に、カーソルを移動させながら表示してもよい。このように、押下対象物が細かな場合等において、マーカーの中心に十字線等でカーソルを入れることにより、押下される対象を利用者に判別しやすく表示することができる。
 また、押下判定部102cは、更新される空間座標が所定の面を通過した状態で、押下状態と判定する押下判定手段である。例えば、押下判定部102cは、更新される空間座標の軌跡が、利用者の側から所定の面に到達した場合に、押下状態と判定してもよい。押下状態としては、クリック操作におけるボタン押下に限られず、ドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作における押下状態をも含む。なお、押下判定部102cは、マーカーの中心位置(x´,y´)またはカーソルの位置(x´,y´)を押下対象として判定してもよい。
 また、図4において、通信制御インターフェース部104は、入力支援装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御や、入力支援装置100と図示しない受信装置との間における通信制御を行う装置である。すなわち、通信制御インターフェース部104は、他の端末または局と、通信回線(有線、無線を問わない)を介してデータを通信する機能を有する。また、ここで、受信装置は、放送局等から電波等を受信する受信手段であり、例えばアンテナ等である。
 すなわち、入力支援装置100は、画像データに関する外部データベースや本発明にかかるプログラム等の外部プログラム等を提供する外部機器600と、ネットワーク300を介して通信可能に接続して構成されていてもよく、また、入力支援装置100は、画像データ等を発信する放送局等と、受信装置を介して受信可能に接続して構成されていてもよい。また、この入力支援装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されていてもよい。
 ここで、図4において、ネットワーク300は、入力支援装置100と外部機器600とを相互に接続する機能を有し、例えば、インターネット等である。
 また、図4において、外部機器600は、ネットワーク300を介して、入力支援装置100と相互に接続され、利用者に対して画像データに関する外部データベースやプログラム等の外部プログラム等を実行するウェブサイトを提供する機能を有する。
 ここで、外部機器600は、WEBサーバやASPサーバ等として構成していてもよく、そのハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部機器600の各機能は、外部機器600のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。
[入力支援処理]
 次に、このように構成された本実施の形態における入力支援装置100の入力支援処理の一例について、以下に図8~図11を参照して詳細に説明する。図8は、本実施の形態における入力支援装置100の入力支援処理の一例を示すフローチャートである。なお、以下の処理を始めるにあたって、表示部114には、表示制御部102bの制御により、何らかの表示要素が表示されていることを前提とする。
 図8に示すように、まず、空間座標取得部102aは、検出部112を介して、利用者の所定の部位についての空間座標を取得する(ステップSA-1)。例えば、深度センサとRGBカメラを備えた検出部112を介して、深度センサから奥行き座標(z座標)を取得するとともに、RGBカメラから得られた2次元画像から、所定の部位(手や掌等)の領域を判定し、当該領域の中心座標(例えば、領域認識を行った手領域の重心座標)である平面座標(x座標,y座標)を取得することにより、3次元空間座標(x,y,z)を取得してもよい。
 そして、表示制御部102bは、空間座標取得部102aにより取得された空間座標(x,y,z)に基づいて、表示部114のディスプレイ上の対応する位置(x´,y´)に、マーカーの中心を移動させるとともに、深度に応じてマーカーの形状を変化させるフィードバック処理を行う(ステップSA-2)。例えば、上述した直交座標系において、表示制御部102bは、空間座標(x,y,z)のz座標に応じて、空中擬似タッチパネルまでの距離が大きいほど、マーカー中心位置(x´,y´)から、マーカー形状を分割した複数の形状を広く引き離して表示させ、一方、空中擬似タッチパネルまでの距離が小さいほど、マーカー中心位置(x´,y´)に複数の形状を互いに集合させて表示させる。更に、表示制御部102bは、空中擬似タッチパネルまでの距離が0になった場合に、分割前の形状でマーカーを表示させるとともに、同時に、押下判定部102cは、押下状態を判定する。なお、押下判定部102cは、マーカー中心位置(x´,y´)を押下対象とする。ここで、図9は、本実施の形態によるプッシュボタンマーカー方式を模式的に示した図である。
 図9の<MD-1>に示すように、表示制御部102bは、空中擬似タッチパネルと指との距離が離れていると、マーカー同士の距離を広い状態で分離して表示する。ここで、利用者が、指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(MD-2)。そして、指が一定距離以内に達し表示制御部102bによりマーカーが円状につながると、押下判定部102cは、押下対象を押下する判定を行う(MD-3)。なお、表示制御部102bは、マーカー中心位置(x´,y´)に十字線等でカーソルを更に表示させてもよい。
 再び図8に戻り、入力支援装置100の制御部102は、入力支援処理を終了するか否かを判定する(ステップSA-3)。入力支援処理を終了しないと判定された場合(ステップSA-3,No)、入力支援装置100の制御部102は、ステップSA-1に処理を戻し、空間座標取得部102aは空間座標(x,y,z)を更新して(ステップSA-1)、上述したステップSA-1~SA-3の処理を繰返す。一方、例えば、入力支援処理の終了を利用者により指示された場合に、入力支援装置100は、入力支援処理を終了すると判定して(ステップSA-3,Yes)、以上の処理を終了する。
 以上が、入力支援処理の一例である。なお、図9の例では、クリック操作におけるボタン押下の例を示したが、これに限られず、ドラッグやピンチアウト/ピンチインやスワイプやフリック等の各種操作(ジェスチャー入力等)における押下判定に用いることができる。ここで、図10は、本実施の形態のフリックマーカー方式を模式的に示した図である。
 図10の<ME-1>に示すように、表示制御部102bは、空中擬似タッチパネルと指との距離が離れていると、マーカー同士の距離を広い状態で分離して表示する。利用者が指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(ME-2)。そして、指が一定距離以内に達し、表示制御部102bによりマーカーが円状につながると(ME-3)、押下判定部102cは、押下対象を押下状態と判定する。その状態で、利用者がフリックしたい方向に指を動かす、すなわち、マーカーが円状になってから指を操作したい方向に動かすと(ME-4)、入力支援装置100の制御部102は、フリック操作を受け付ける。
 このフリックマーカー方式の特徴として、フリックを受け付ける距離が明確に分かるようになることや、誤操作を最低限に抑えられる等のメリットが挙げられる。また、数cmの距離で使用しても、指の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットもある。他のジェスチャー入力の例として、図11は、本実施の形態のピンチマーカー方式を模式的に示した図である。
 図11の<MF-1>に示すように、空間座標取得部102aは、利用者の所定の2箇所の部位の空間座標を認識することも可能であり、表示制御部102bは、空中擬似タッチパネルと指との距離に応じて、2つのマーカー同士の距離を広い状態で表示する。利用者が指を押下対象に接近させると、接近させた距離に応じて、表示制御部102bは、マーカー同士を接近させる(MF-2)。そして、指が一定距離以内に達し、表示制御部102bにより2つのマーカーとも円状につながると(MF-3)、押下判定部102cは、押下対象をいずれも押下状態と判定する。その状態で、利用者が二本の指を動かすと(MF-3~4)、入力支援装置100の制御部102は、ピンチイン/ピンチアウトのジェスチャー入力を受け付ける(MF-4)。
 このピンチマーカー方式の特徴として、フリックを受け付ける距離が明確に分かるようになり、誤操作を最低限に抑えられ、数cmの距離で使用しても、指の周りにマーカーが表示されるため、マーカーが見えずに操作できない可能性が低いというメリットがある。また、どこまで対象から離せばジェスチャー入力が終るのかを把握しやすく、入力時の手の移動量を最低限に減らすことができるというメリットもある。
 従来、非接触でジェスチャーを認識させる場合には、どこがジェスチャーを認識する箇所なのか、どの距離までジェスチャーを認識出来るのかが利用者が把握しにくい等の複数の問題点があった。本実施の形態の各マーカー方式によるジェスチャー入力では、マーカーが存在することにより、ジェスチャーの認識が始まっているのか否かを使用者が認識しやすく、非接触でもマルチタッチ等のジェスチャーを容易に使用できるという顕著な効果がある。
[他の実施の形態]
 さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
 特に、本実施の形態によるマーカー方式と、従来方式のホバーボタン(一定時間後に押下)の方式は、どちらか一方のみしか採用できない訳ではなく、両者を組み合せて実現することも可能である。また、タップと、本実施の形態によるマーカー方式でのジェスチャーの併用などで、全体の使用感を高めることもできる。
 また、入力支援装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、入力支援装置100は、クライアント端末(入力支援装置100とは別筐体である)からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。
 また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
 このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
 また、入力支援装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
 例えば、入力支援装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じて入力支援装置100に機械的に読み取られる。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
 また、このコンピュータプログラムは、入力支援装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
 また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。
 また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。
 記憶部106に格納される各種のデータベース等(表示要素ファイル106a等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。
 また、入力支援装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、入力支援装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
 更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
 以上詳述に説明したように、本発明によれば、コントローラを用いず非接触操作を行う場合に、利用者へのフィードバックを適切に行うことができる、入力支援装置、入力支援方法、および、プログラム、並びに、記録媒体を提供することができる。
 100 入力支援装置
 102 制御部
 102a 空間座標取得部
 102b 表示制御部
 102c 押下判定部
 104 通信制御インターフェース部
 106 記憶部
 106a 表示要素ファイル
 108 入出力制御インターフェース部
 112 検出部
 114 表示部
 300 ネットワーク
 600 外部機器

Claims (9)

  1.  検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得手段と、
     上記空間座標取得手段により更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御手段と、
     を備えた入力支援装置において、
     上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
     上記表示制御手段は、
     上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
     を特徴とする入力支援装置。
  2.  請求項1に記載の入力支援装置において、更に、
     更新される上記空間座標が上記所定の面を通過した状態で、押下状態と判定する押下判定手段、
     を更に備え、
     上記表示制御手段は、
     更新される上記空間座標が上記所定の面を通過した状態で、上記複数の形状を互いに結合させた、分割前の上記形状を上記マーカーとして表示すること
     を特徴とする入力支援装置。
  3.  請求項2に記載の入力支援装置において、
     上記表示制御手段は、
     上記空間座標取得手段により更新される上記空間座標に基づいて、上記表示画面の対応する位置に、カーソルを更に表示させ、
     上記押下判定手段は、
     更新される上記空間座標が上記所定の面を通過した状態で、上記カーソルの位置を対象として上記押下状態と判定すること
     を特徴とする入力支援装置。
  4.  請求項1乃至3に記載の入力支援装置において、
     上記マーカーの分割前の上記形状は、
     円環、ドーナツ形状、その他、結合時の形状を容易に想像できる形状であること
     を特徴とする入力支援装置。
  5.  請求項1乃至4のいずれか一つに記載の入力支援装置において、
     上記所定の面は、上記表示画面から数センチメートル程度手前側に設定されており、
     上記利用者の所定の部位は、指、手、ないしは、掌であって、
     上記表示制御手段は、
     上記マーカーを上記所定の部位よりも大きく表示、または、上記マーカーの上記初期形状における離隔範囲を上記所定の部位よりも大きく表示させること
     を特徴とする入力支援装置。
  6.  請求項1乃至5のいずれか一つに記載の入力支援装置において、
     上記所定の面に対する上記空間座標の距離は、
     上記所定の面に対して利用者が位置する側における上記空間座標の距離であること
     を特徴とする入力支援装置。
  7.  請求項1乃至6のいずれか一つに記載の入力支援装置において、
     上記空間座標は、上記表示画面に平行な上記所定の面における2次元座標、および、上記所定の面に垂直な奥行き座標、からなる3次元座標であって、
     上記表示制御手段は、
     上記空間座標取得手段により更新される上記2次元座標の、上記表示画面に対応する位置に上記マーカーの中心を移動させるとともに、
     上記空間座標取得手段により更新される上記奥行き座標が上記所定の面に対して0に近づけば近づくほど、上記中心から離隔させた上記複数の形状を互いに接近させて一つの連続した形状として表示させること
     を特徴とする入力支援装置。
  8.  コンピュータにおいて実行される入力支援方法であって、
     検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、
     上記空間座標取得ステップにて更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、
     を含み、
     上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
     上記表示制御ステップは、
     上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
     を特徴とする入力支援方法。
  9.  コンピュータに実行させるためのプログラムであって、
     検出部を介して、利用者の所定の部位についての空間座標を連続的に取得する空間座標取得ステップと、
     上記空間座標取得ステップにて更新される上記空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う表示制御ステップと、
     を実行させるためのプログラムにおいて、
     上記マーカーの初期形状は、任意の形状を分割した複数の形状であって、
     上記表示制御ステップは、
     上記空間座標の座標系における所定の面に対して、上記空間座標の距離が大きいほど、上記表示画面の対応する位置から上記複数の形状を互いに離隔させ、当該距離が小さいほど、上記表示画面の対応する位置に上記複数の形状を互いに接近させること
     を特徴とするプログラム。
PCT/JP2014/062517 2013-05-10 2014-05-09 入力支援装置、入力支援方法、および、プログラム WO2014181876A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201480026167.3A CN105190506A (zh) 2013-05-10 2014-05-09 输入支援装置、输入支援方法以及程序
US14/890,124 US20160092062A1 (en) 2013-05-10 2014-05-09 Input support apparatus, method of input support, and computer program
EP14795029.9A EP2996022A4 (en) 2013-05-10 2014-05-09 SEIZURE ASSISTING DEVICE, SEIZURE ASSISTING METHOD, AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013100590A JP2014219938A (ja) 2013-05-10 2013-05-10 入力支援装置、入力支援方法、および、プログラム
JP2013-100590 2013-05-10

Publications (1)

Publication Number Publication Date
WO2014181876A1 true WO2014181876A1 (ja) 2014-11-13

Family

ID=51867348

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/062517 WO2014181876A1 (ja) 2013-05-10 2014-05-09 入力支援装置、入力支援方法、および、プログラム

Country Status (5)

Country Link
US (1) US20160092062A1 (ja)
EP (1) EP2996022A4 (ja)
JP (1) JP2014219938A (ja)
CN (1) CN105190506A (ja)
WO (1) WO2014181876A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3063606A4 (en) * 2013-10-30 2017-08-09 Technology Against ALS Communication and control system and method
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
JP6934618B2 (ja) 2016-11-02 2021-09-15 パナソニックIpマネジメント株式会社 ジェスチャ入力システム及びジェスチャ入力方法
JP2018109871A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器
JP6346699B1 (ja) * 2017-08-08 2018-06-20 京セラ株式会社 電子機器
US10656780B2 (en) * 2018-01-12 2020-05-19 Mitutoyo Corporation Position specifying method and program
DE112019000858T5 (de) * 2018-02-19 2020-10-29 Murakami Corporation Bedienungsdetektionsvorrichtung und Bedienungsdetektionsverfahren
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
CN110045819B (zh) * 2019-03-01 2021-07-09 华为技术有限公司 一种手势处理方法及设备
CN110456957B (zh) * 2019-08-09 2022-05-03 北京字节跳动网络技术有限公司 显示交互方法、装置、设备、存储介质
USD987666S1 (en) 2019-09-11 2023-05-30 Ford Global Technologies, Llc Display screen or portion thereof with transitional graphical user interface
USD955404S1 (en) * 2019-09-11 2022-06-21 Ford Global Technologies, Llc Display screen with graphical user interface
USD987652S1 (en) * 2019-09-11 2023-05-30 Ford Global Technologies, Llc Display screen with graphical user interface
WO2021117446A1 (ja) * 2019-12-13 2021-06-17 アルプスアルパイン株式会社 入力装置
CN111259871A (zh) * 2020-03-26 2020-06-09 广州微盾科技股份有限公司 完全非接触式手部生物信息的采集设备、方法及存储介质
JP2022128932A (ja) * 2021-02-24 2022-09-05 有限会社 アドリブ 入力支援機構、入力システム
JP2023059050A (ja) * 2021-10-14 2023-04-26 アルプスアルパイン株式会社 入力装置
WO2023181237A1 (ja) * 2022-03-24 2023-09-28 三菱電機株式会社 非接触入力装置及び非接触入力方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303000A (ja) * 2003-03-31 2004-10-28 Fuji Xerox Co Ltd 3次元指示入力装置
JP2007052793A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Research Laboratories Inc ディスプレイ表面上にポインティングデバイスによって表示されるポインタの場所を制御するための方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
CN100437451C (zh) * 2004-06-29 2008-11-26 皇家飞利浦电子股份有限公司 用于防止弄脏显示设备的方法与设备
CN1977239A (zh) * 2004-06-29 2007-06-06 皇家飞利浦电子股份有限公司 3-d接触交互中的变焦
US20080288895A1 (en) * 2004-06-29 2008-11-20 Koninklijke Philips Electronics, N.V. Touch-Down Feed-Forward in 30D Touch Interaction
JP4134198B2 (ja) * 2006-05-24 2008-08-13 株式会社ソニー・コンピュータエンタテインメント ゲーム装置及びゲーム制御方法
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
EP2720120A4 (en) * 2011-06-10 2014-12-17 Nec Casio Mobile Comm Ltd INPUT DEVICE AND METHOD FOR CONTROLLING A TOUCH PANEL

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303000A (ja) * 2003-03-31 2004-10-28 Fuji Xerox Co Ltd 3次元指示入力装置
JP2007052793A (ja) * 2005-08-18 2007-03-01 Mitsubishi Electric Research Laboratories Inc ディスプレイ表面上にポインティングデバイスによって表示されるポインタの場所を制御するための方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NEW FEATURES: MICROSOFT KINECT FOR WINDOWS, 7 May 2013 (2013-05-07), Retrieved from the Internet <URL:http://www.microsoft.com/en-us/kinectforwindows/Develop/New.aspx>
See also references of EP2996022A4 *

Also Published As

Publication number Publication date
JP2014219938A (ja) 2014-11-20
US20160092062A1 (en) 2016-03-31
CN105190506A (zh) 2015-12-23
EP2996022A1 (en) 2016-03-16
EP2996022A4 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
WO2014181876A1 (ja) 入力支援装置、入力支援方法、および、プログラム
JP6207659B2 (ja) コンピュータ装置の遠隔制御
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
US20140125598A1 (en) User interface systems and methods for managing multiple regions
US9229534B2 (en) Asymmetric mapping for tactile and non-tactile user interfaces
JP5507773B1 (ja) 要素選択装置、要素選択方法、および、プログラム
TW201235884A (en) Electronic apparatus with touch screen and associated displaying control method
JP2012027515A (ja) 入力方法及び入力装置
JP2019023849A (ja) 入力制御方法、コンピュータ、および、プログラム
US20150009136A1 (en) Operation input device and input operation processing method
KR101233793B1 (ko) 손 동작 인식을 이용한 가상 마우스 구동 방법
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
WO2014181587A1 (ja) 携帯端末装置
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP6722239B2 (ja) 情報処理装置、入力方法及びプログラム
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2021177313A (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
JP5028676B2 (ja) グラフィカルユーザーインターフェースの操作/制御装置
KR101579649B1 (ko) 제스처를 이용한 인터페이스 장치
JP2013255810A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480026167.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14795029

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14890124

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2014795029

Country of ref document: EP