WO2015198688A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2015198688A1
WO2015198688A1 PCT/JP2015/061285 JP2015061285W WO2015198688A1 WO 2015198688 A1 WO2015198688 A1 WO 2015198688A1 JP 2015061285 W JP2015061285 W JP 2015061285W WO 2015198688 A1 WO2015198688 A1 WO 2015198688A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
information processing
rod
processing apparatus
input device
Prior art date
Application number
PCT/JP2015/061285
Other languages
English (en)
French (fr)
Inventor
周孝 高橋
淳一郎 三澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP15811350.6A priority Critical patent/EP3163415A4/en
Priority to US15/316,240 priority patent/US10191603B2/en
Priority to JP2016529127A priority patent/JP6658518B2/ja
Priority to CN201580033173.6A priority patent/CN106471450B/zh
Publication of WO2015198688A1 publication Critical patent/WO2015198688A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0442Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for transmitting changes in electrical potential to be received by the digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • a touch panel is provided on a display screen of an information processing apparatus such as a computer or a portable information terminal, and the information processing apparatus can be operated by operating the touch panel with a human body or a stylus pen. It has become possible.
  • Patent Document 1 discloses a display device provided with a touch panel and a touch pen that is an input device for performing an input operation on the display device.
  • the palm touches the touch panel when the stylus pen is input.
  • the digital device may detect both input by the stylus pen and input by the human body. Therefore, a palm rejection function is often mounted on such digital devices.
  • an information processing apparatus an information processing method, and an information processing apparatus that can further improve the convenience of the user with respect to input operability in an apparatus that can perform an input operation with a human body and an input operation with a rod-shaped input device. Suggest a program.
  • an operation input unit capable of performing an input operation with two types of operating bodies, that is, an input operation when a part of a human body approaches or comes in contact and an input operation when a bar-like input device approaches or comes into contact And a separation distance between a part of the human body and / or the rod-shaped input device and the operation input surface of the operation input unit, and an angle formed by a central axis of the rod-shaped input device and the operation input surface
  • An information processing apparatus comprising: an input control unit that performs switching control between an input operation caused when a part of the human body approaches or comes into contact with an input operation caused when the bar-like input device approaches or comes into contact Is provided.
  • an operation that can be input by two types of operating bodies that is, an input operation when a part of a human body approaches or comes in contact and an input operation that comes when a rod-shaped input device approaches or comes into contact
  • an information processing method including switching control between an input operation when a part of the human body approaches or comes into contact with and an input operation when the bar-like input device approaches or comes into contact.
  • an operation that can be input by two types of operating bodies that is, an input operation when a part of a human body approaches or comes in contact and an input operation that comes when a rod-shaped input device approaches or comes into contact
  • a computer including an input unit, a part of the human body and / or a separation distance between the bar-shaped input device and the operation input surface of the operation input unit, and a central axis of the bar-shaped input device and the operation input Realizes an input control function that performs switching control between an input operation when a part of the human body approaches or comes into contact with an input operation when the bar-shaped input device approaches or comes into contact based on an angle with the surface
  • a program is provided.
  • the separation distance between a part of the human body and / or the rod-shaped input device and the operation input surface of the operation input unit, and the angle formed between the central axis of the rod-shaped input device and the operation input surface Based on this, switching control between an input operation when a part of the human body approaches or comes into contact with and an input operation when a bar-like input device approaches or comes into contact is performed.
  • FIG. 6 is an explanatory diagram for describing switching control of an input operation according to the first embodiment of the present disclosure.
  • FIG. It is the block diagram which showed typically an example of the structure of the information processing apparatus which concerns on the embodiment. It is explanatory drawing which showed typically an example of the display screen of the information processing apparatus which concerns on the embodiment. It is the block diagram which showed typically an example of the structure of the input control part with which the information processing apparatus which concerns on the same embodiment is provided. It is explanatory drawing for demonstrating the inclination-angle for control and the separation distance in the information processing apparatus which concerns on the embodiment. It is explanatory drawing for demonstrating an example of the detection method of the inclination-angle for control, and an azimuth angle in the information processing apparatus which concerns on the embodiment.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus according to an embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram for explaining switching control of an input operation according to the present embodiment.
  • the present inventors have conducted an input using a stylus pen as schematically shown in FIG.
  • the angle of the stylus pen relative to the surface of the touch panel (operation input surface) (more specifically, the center axis of the stylus pen is I came up with a different angle.
  • the end located on the side opposite to the pen tip of the stylus pen faces the trunk of the user, and the stylus pen
  • the angle formed between the center axis of the touch panel and the touch panel is an acute angle.
  • the end portion of the stylus pen opposite to the pen tip is in the direction opposite to the user's trunk
  • the angle between the center axis of the stylus pen and the touch panel is an obtuse angle.
  • the present inventors pay attention to the phenomenon that the angle of the stylus pen is different depending on the input operation method to be used as shown in FIG. 1, and improve the palm rejection function by using such a phenomenon. I came up with what I can do.
  • the information processing apparatus and the information processing method according to the present embodiment completed based on such knowledge will be described in detail.
  • FIG. 2 is a block diagram schematically illustrating an example of the configuration of the information processing apparatus according to the present embodiment.
  • FIG. 3 is an explanatory diagram schematically showing an example of a display screen of the information processing apparatus according to the present embodiment.
  • FIG. 4 is a block diagram schematically illustrating an example of the configuration of the input control unit included in the information processing apparatus according to the present embodiment.
  • FIG. 5 is an explanatory diagram for explaining the control tilt angle and the separation distance in the information processing apparatus according to the present embodiment.
  • 6A and 6B are explanatory diagrams for explaining an example of a control tilt angle and azimuth angle detection method in the information processing apparatus according to the present embodiment.
  • 7A and 7B are explanatory diagrams for explaining an example of a control tilt angle detection method in the information processing apparatus according to the present embodiment.
  • FIG. 8 is an explanatory diagram for explaining the threshold value of the control inclination angle according to the present embodiment.
  • the information processing apparatus 10 includes an operation input unit 101, an operation tool detection unit 103, an input control unit 105, a display control unit 107, and an arithmetic processing unit. 109 and a storage unit 111 are mainly provided.
  • the operation input unit 101 is realized by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input device, an output device, various sensors, and the like.
  • the operation input unit 101 receives various user operations for performing various functions provided by the information processing apparatus 10 according to the present embodiment.
  • the operation input unit 101 has two types of operations, ie, a grain force operation when a part of a human body (for example, a user's finger) approaches or comes into contact, and an input operation when a bar-like input device approaches or comes into contact. An input operation by an operating body is possible.
  • the rod-shaped input device is not particularly limited, and for example, a stylus pen, a pen-shaped input device worn on the user's finger, or the like is an artificial device worn or gripped on the human body. Mention input devices.
  • the operation input unit 101 is provided with an operation body detection unit 103 which will be described later. An input operation using a part of a human body or a rod-shaped input device with respect to the operation input unit 101 is detected by the operation body detection unit 103. Also, the input control unit 105 described later controls which of the input mode for accepting an input operation by a part of the human body and the input mode for accepting an input operation by a rod-shaped input device is valid in the operation input unit 101. Is done.
  • the operation input unit 101 is mounted with a display that functions as a display screen for presenting the contents of functions realized by the information processing apparatus 10 to the user.
  • a display that functions as a display screen for presenting the contents of functions realized by the information processing apparatus 10 to the user.
  • the user can operate the information processing apparatus 10 by operating such objects with the two types of operating bodies as described above while viewing various objects such as icons displayed on the display screen. It becomes.
  • Such a display is controlled by a display control unit 107 described later.
  • the operating tool detection unit 103 is realized by, for example, a CPU, a ROM, a RAM, various circuit devices, and the like.
  • the operation tool detection unit 103 detects the above-described two types of operation tools performed on the operation input unit 101, and which one of the human body or the rod-shaped input device performs any movement. Detect if you did.
  • the detection result is output to the arithmetic processing unit 109, which will be described later, so that the arithmetic processing unit 109 interprets the movement of the operation body performed by the user as a user operation significant for the information processing apparatus 10, and performs various operations.
  • the function is realized.
  • the operating body detection unit 103 includes an electrostatic sensor circuit that detects an input operation by a human body and a detection circuit that detects an input operation by a rod-shaped input device. These two types of circuits are switched at high speed by an input control unit 105 described later. As a result, it is possible to separately detect the used operating tool and the coordinates of the operating tool, regardless of which part of the human body or the rod-shaped input device is used. Become.
  • the detection circuit for detecting an input operation by a rod-shaped input device is not particularly limited, and examples include an electric field detection circuit based on a so-called electric field method, a current detection circuit based on an electromagnetic induction method, and the like. In addition to these detection circuits, various detection circuits can be applied.
  • the switching cycle of the electrostatic sensor circuit and the detection circuit that detects an input operation by the rod-shaped input device is not particularly limited, and is appropriately determined according to the processing response speed required for the information processing apparatus 10. You only have to set it.
  • the operation tool detection unit 103 can acquire an output signal from the sensor by an arbitrary method. Is possible.
  • a detection signal representing the detection result of the operation object by the operation object detection unit 103 is output to the input control unit 105 described later, and is used to control the operation object for which the input operation to the operation input unit 101 is valid.
  • a detection signal representing the detection result of the operating tool by the operating tool detecting unit 103 is also output to the arithmetic processing unit 109 described later, and can be used to operate a program including various applications executed by the arithmetic processing unit 109. Used.
  • the input control unit 105 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the input control unit 105 performs switching control of the operation input unit 101 between an input operation when a part of a human body approaches or comes in contact with an input operation when a bar-shaped input device approaches or comes into contact. Such switching control is performed on the part of the human body and / or the separation distance between the rod-shaped input device and the operation input surface of the operation input unit 101, and the angle formed between the central axis of the rod-shaped input device and the operation input surface. Based on.
  • the display control unit 107 is realized by, for example, a CPU, a ROM, a RAM, an output device, a communication device, and the like.
  • the display control unit 107 outputs execution results of programs such as various applications executed by the arithmetic processing unit 109 to be described later to an output device such as a display provided in the information processing apparatus 10 or an output provided outside the information processing apparatus 10. Display control when displaying on a device or the like is performed.
  • various objects provided by a program executed by the arithmetic processing unit 109 described later are displayed on the display screen on which the display control is performed by the display control unit 107.
  • such an object changes in accordance with a user operation performed on the operation input unit 101 by the operating tool.
  • the display control unit 107 also displays an object that notifies the user of at least one of the valid input mode set as a valid input operation by the input control unit 105 and the invalid input mode set as an invalid input operation. It is preferable to display on the display screen.
  • Such an object is not particularly limited, and for example, a selection operation object indicator composed of icons as shown in FIG. 3 can be displayed at an arbitrary position on the display screen.
  • the display control unit 107 displays the selected operating tool indicator at the tip of the operating tool. For example, it may be displayed at a position about 3 to 5 cm above the coordinates so as to follow the movement of the tip of the operating body.
  • the arithmetic processing unit 109 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like.
  • the arithmetic processing unit 109 executes a program including various applications stored in the storage unit 111 to be described later or a program including various applications acquired from various servers existing outside the information processing apparatus 10.
  • Various functions corresponding to the selected program are realized. Execution states of various programs executed by the arithmetic processing unit 109 change according to a user operation performed on the operation input unit 101 via the operation tool.
  • the storage unit 111 is realized by, for example, a RAM or a storage device provided in the information processing apparatus 10 according to the present embodiment.
  • Various programs including applications used for arithmetic processing, various parameters that need to be saved when performing some processing, the progress of processing, and the like may be recorded as appropriate.
  • the storage unit 111 may also store various object data displayed on the display screen by executing various programs.
  • the object data referred to here includes, for example, arbitrary parts constituting a graphical user interface (GUI) such as icons, buttons, and thumbnails.
  • GUI graphical user interface
  • the storage unit 111 is freely accessed by each processing unit such as the operation input unit 101, the operation tool detection unit 103, the input control unit 105, the display control unit 107, and the arithmetic processing unit 109, and writes and reads data. be able to.
  • the input control unit 105 includes a separation distance specifying unit 121, an angle specifying unit 123, and an input operation setting unit 125, as schematically shown in FIG.
  • the separation distance specifying unit 121 is realized by, for example, a CPU, a ROM, a RAM, an input device, and the like.
  • the separation distance specifying unit 121 specifies the separation distance between the operation input surface and a part of the human body such as a finger based on the output signal from the electrostatic sensor circuit output from the operation body detection unit 103. To do. Further, the separation distance specifying unit 121 is based on the output signals from the various detection circuits output from the operation tool detection unit 103, and the separation between the operation input surface and a rod-shaped input device such as a stylus pen. Identify the distance.
  • the separation distance specifying unit 121 only needs to specify a separation distance between at least one of the two types of operation bodies and the operation input surface. It is not particularly limited as to which operation body the separation distance is specified. If the separation distance specifying unit 121 focuses on the operation body that can easily specify the separation distance, the separation distance is specified. Good.
  • the specific method by which the separation distance specifying unit 121 specifies the separation distance based on the output signal from the operating tool detection unit 103 is not particularly limited, and a known method can be used.
  • a separation distance between the operation body and the operation input surface specified by the separation distance specifying unit 121 (for example, a separation distance d between the rod-shaped input device and the operation input surface as schematically shown in FIG. 5).
  • the information regarding is output to the input operation setting unit 125 described later.
  • the angle specifying unit 123 is realized by, for example, a CPU, a ROM, a RAM, an input device, and the like.
  • the angle specifying unit 123 determines two types of angles representing the relative positional relationship between the rod-shaped input device and the operation input surface based on output signals from various detection circuits output from the operation body detection unit 103. Identify.
  • the two types of angles specified by the angle specifying unit 123 are (a) a control inclination angle ⁇ defined as an angle formed by the central axis of the rod-shaped input device and the normal direction of the operation input surface, and (B) There are two types of azimuth angle ⁇ defined as an angle formed by the projection axis when the central axis of the rod-shaped input device is projected onto the operation input surface and the reference direction on the operation input surface.
  • the angle specifying unit 123 can specify the control inclination angle ⁇ as schematically shown in FIG. 5 by using various known directions.
  • the control tilt angle ⁇ is specified using the output signal from the acceleration sensor of the rod-shaped input device output from the operating tool detection unit 103. can do.
  • the angle specifying unit 123 uses a bar-shaped input device and an output signal from the acceleration sensor mounted on the information processing apparatus 10. By calculating the difference, the magnitude of the control inclination angle ⁇ can be specified more accurately.
  • the angle specifying unit 123 can specify the control inclination angle ⁇ by paying attention to the degree of electric field or current distribution on the operation input surface output from the operating tool detection unit 103.
  • FIGS. 6A and 6B when the rod-shaped input device approaches or comes into contact with the operation input surface, an electric field is applied to the operation input surface according to the difference in device detection method. Distribution and current distribution occur.
  • the control inclination angle ⁇ shown in FIG. 5 is smaller, for example, as shown in FIG. 6A, the shape of the electric field distribution or current distribution is closer to a perfect circle and the spread should be smaller.
  • the angle ⁇ increases, for example, as shown in FIG.
  • the shape of the electric field distribution or current distribution becomes a collapsed elliptical shape, and the spread should increase. Therefore, the magnitude of the spread of the electric field or current distribution and the flatness of the distribution shape are digitized in advance while changing the value of the control tilt angle ⁇ , and the correlation between the control tilt angle ⁇ and the magnitude of the spread, the flatness, etc. It is possible to create a database of relationships.
  • the angle identifying unit 123 can identify the magnitude of the control tilt angle ⁇ based on the electric field or current distribution by referring to the database created in advance in this way.
  • the angle specifying unit 123 it is also possible to specify the control inclination angle ⁇ by the following method.
  • a position sensor or a pattern for specifying a position is mounted at two locations (point A and point B) separated from each other, and two points A , B are specified using various output signals output from the operating tool detection unit 103.
  • the control tilt angle ⁇ 1 when the control tilt angle ⁇ 1 is small, the distance L 1 between the two points on the operation input surface is small, and as shown in FIG. 7B, the control tilt angle ⁇ 2 is If large, the distance L 2 between the two points in the operation input surface increases. Therefore, the magnitude of the distance L between the two points is digitized in advance while changing the value of the control tilt angle ⁇ , and the correlation between the control tilt angle ⁇ and the distance L between the two points is made into a database. It is possible to keep.
  • the angle specifying unit 123 can specify the magnitude of the control inclination angle ⁇ by referring to the database created in advance in this way.
  • the method for specifying the control tilt angle has been described in detail. Note that the method for specifying the control tilt angle according to the present embodiment is not limited to the above example, and the control tilt angle can be specified using other known methods.
  • the angle specifying unit 123 specifies the azimuth angle ⁇ based on the output signal relating to the distribution degree of the electric field or current output from the operating tool detection unit 103, as schematically shown in FIGS. 6A and 6B. It is possible. That is, the angle specifying unit 123 first specifies the direction of the projection axis when the central axis of the rod-shaped input device is projected onto the operation input surface. As shown in FIGS.
  • the direction of the projection axis is specified as a direction connecting the pen tip position of the rod-shaped input device and the end point in the elliptical long axis direction of the shape representing the electric field or current distribution. be able to.
  • the reference direction for defining the azimuth angle ⁇ is not particularly limited, and can be set as appropriate.
  • the angle specifying unit 123 can set the reference direction in a direction parallel to the vertical direction of the information processing device 10 specified based on an output from an acceleration sensor mounted on the information processing device 10. is there.
  • the angle specifying unit 123 sets the reference direction in a direction parallel to the operation input surface from the input operation side end of the rod-shaped input device to the trunk of the user having the rod-shaped input device. May be.
  • the angle specifying unit 123 may set the vertical direction of the display content to the reference direction based on the direction of the display content displayed on the display screen of the information processing apparatus 10.
  • the angle specifying unit 123 can calculate the magnitude of the azimuth angle ⁇ from the vectors corresponding to these two directions.
  • the method for specifying the direction toward the user's trunk is not particularly limited.
  • the angle specifying unit 123 may sense the position of the user by using various sensors or imaging devices mounted on the information processing apparatus 10, and wearable terminals (for example, worn by the user on the wrist etc.)
  • the direction toward the user's trunk may be specified using the output from the position sensor or the like.
  • the angle specifying unit 123 can also specify the azimuth angle ⁇ based on an output signal from the sensor.
  • the angle specifying unit 123 specifies the control tilt angle ⁇ and the azimuth angle ⁇ by the above method, the angle specifying unit 123 outputs information on these angles to the input operation setting unit 125 described later.
  • the input operation setting unit 125 is realized by, for example, a CPU, a ROM, a RAM, an input device, and the like.
  • the input operation setting unit 125 sets an effective input mode to the operation input unit 101 based on the information regarding the separation distance output from the separation distance specifying unit 121 and the information regarding the angle output from the angle specifying unit 123. To do. More specifically, the input operation setting unit 125 uses the magnitude of the separation distance d obtained from the separation distance identification unit 121 and the magnitude of the control inclination angle ⁇ obtained from the angle identification unit 123 to threshold the value. By making the determination, an effective input mode to the operation input unit 101 is set.
  • the input operation setting unit 125 sets the input mode of the operation input unit 101 to a rod-like shape when the separation distance d is equal to or less than the first threshold and the control inclination angle ⁇ is less than the second threshold.
  • the input operation setting unit 125 sets the input mode of the operation input unit 101 to the human body when the separation distance d is equal to or smaller than the first threshold and the control inclination angle ⁇ is equal to or larger than the second threshold. Set the input mode for some.
  • the selection operation body indicator as illustrated in FIG. 3 is displayed on the display screen in cooperation with the display control unit 107. .
  • the input operation setting unit 125 sets the effective input mode
  • the input operation is set for a predetermined time (for example, about 0.5 seconds to several seconds) by the operation body corresponding to the set input mode. It is preferable to hold it until it is no longer implemented. Further, the input operation setting unit 125 may hold until the separation distance between the operation tool and the operation input surface becomes a predetermined threshold (for example, about several millimeters) or more instead of the processing duration. Thereby, the user can continue the input operation with a desired operation body without feeling inconvenience.
  • the method for setting the holding period of the effective input mode is not limited to the above method, and the setting of the effective input mode may be changed based on other criteria.
  • the input operation setting unit 125 may switch the effective input mode to the input mode by the selected operation body when the selection operation body indicator displayed on the display screen is selected by a user operation. .
  • the specific value of the first threshold value regarding the separation distance d used for setting the effective input mode is not particularly limited, and is set to a general value such as 30 mm to 40 mm, for example. It is also possible to set the upper limit to about 50 mm.
  • the specific value of the second threshold value regarding the control tilt angle ⁇ used for setting the effective input mode can be set as appropriate.
  • the effective input mode is set, by using not only the control inclination angle ⁇ but also the azimuth angle ⁇ , it is possible to set the effective input mode in pursuit of user convenience.
  • the input operation setting unit 125 sets the second threshold value for each azimuth angle ⁇ as shown in FIG. 8, for example, in order to set the effective input mode in pursuit of user convenience. Also good.
  • the inclination angle threshold ⁇ TH C to a smaller value.
  • the threshold value ⁇ TH at which the palm rejection function is activated according to the azimuth angle ⁇ it is possible to further pursue user convenience.
  • the specific values of the various threshold values as described above may be held as preset initial values, or may be changed at any time by the user's own operation. Further, the input operation setting unit 125 may change the specific values of these thresholds to user-specific values by performing so-called machine learning processing based on user operations.
  • the input operation setting unit 125 may perform other identification processing such as identifying the user's dominant hand by using information on the separation distance d, the control inclination angle ⁇ , and the azimuth angle ⁇ in an appropriate combination. Is possible.
  • each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component.
  • the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
  • a computer program for realizing each function of the information processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • FIG. 9 is a flowchart illustrating an example of the flow of the information processing method according to the present embodiment.
  • step S101 When the information processing apparatus 10 according to the present embodiment is activated, first, it is assumed that input by a human body such as a finger is validated (step S101). Thereafter, the information processing apparatus 10 waits for a user operation.
  • the operating tool detection unit 103 detects a rod-like input device such as a stylus pen (step S103), the output signal output from the operating tool detection unit 103 is output to the input control unit 105.
  • the separation distance specifying unit 121 and the angle specifying unit 123 of the input control unit 105 use the obtained output signal to perform the separation distance by the method described above.
  • d, control inclination angle ⁇ , and azimuth angle ⁇ are specified (step S105).
  • Information regarding the specified separation distance d, control inclination angle ⁇ , and azimuth angle ⁇ is output to the input operation setting unit 125.
  • the input operation setting unit 125 first determines whether the separation distance d is equal to or less than the first threshold value (step S107). If the separation distance d exceeds the first threshold, the information processing apparatus 10 returns to step S101 and continues the process.
  • the input operation setting unit 125 determines whether the control inclination angle ⁇ at the detected azimuth angle ⁇ is less than the second threshold (step S109). .
  • the control inclination angle ⁇ is equal to or greater than the second threshold value, the information processing apparatus 10 returns to step S101 and continues the process.
  • the input operation setting unit 125 sets the input by the human body to an invalid state and enables the input by the rod-shaped input device. (Step S111).
  • the input operation setting unit 125 determines whether or not the above setting holding condition is established based on the operation time or the separation distance (step S113). When the setting holding condition is satisfied, the input operation setting unit 125 returns to step S111 and continues to validate the input by the rod-shaped input device. On the other hand, when the setting holding condition is not satisfied, the information processing apparatus 10 returns to step S101 and continues the processing.
  • the inclination angle of the rod-shaped input device even when the hover distance that is a threshold value when the palm rejection is activated is set large. It becomes possible to cancel the palm rejection by combining the azimuth and the azimuth, and the convenience for the user can be improved.
  • by displaying an indicator indicating the selected input mode on the display screen it is possible to notify the user of the input mode that is valid in a manner that is easy for the user to understand.
  • FIG. 10 is a block diagram for describing a hardware configuration of the information processing apparatus 10 according to the embodiment of the present disclosure.
  • the information processing apparatus 10 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the information processing apparatus 10 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, a sensor 914, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • a host bus 907 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the information processing apparatus 10 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, a sensor 914, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the sensor 914 is a detection unit such as a sensor that detects a user's movement, a sensor that acquires information indicating the current position, and a sensor that specifies the posture of the information processing apparatus 10.
  • a motion sensor such as a three-axis acceleration sensor including an acceleration sensor, a gravity detection sensor, a fall detection sensor, an angular velocity sensor, a camera shake correction sensor, a geomagnetic sensor, a GPS sensor, and the like.
  • the sensor 914 may include various measuring devices such as a thermometer, an illuminometer, and a hygrometer in addition to the above-described ones.
  • the input device 915 is an operation means operated by the user such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. Further, the input device 915 may be, for example, remote control means (so-called remote controller) using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA corresponding to the operation of the information processing device 10. 929 may be used. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. The user of the information processing apparatus 10 can input various data and instruct a processing operation to the information processing apparatus 10 by operating the input device 915.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and display devices such as lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles.
  • the output device 917 outputs results obtained by various processes performed by the information processing apparatus 10. Specifically, the display device displays results obtained by various processes performed by the information processing device 10 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 10.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for the recording medium, and is built in or externally attached to the information processing apparatus 10.
  • the drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 921 can write a record on a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray medium, or the like.
  • the removable recording medium 927 may be a compact flash (registered trademark) (CompactFlash: CF), a flash memory, or an SD memory card (Secure Digital memory card). Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • CompactFlash CompactFlash: CF
  • flash memory a flash memory
  • SD memory card Secure Digital memory card
  • the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • the connection port 923 is a port for directly connecting a device to the information processing apparatus 10.
  • Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • As another example of the connection port 923 there are an RS-232C port, an optical audio terminal, an HDMI (High-Definition Multimedia Interface) port, and the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 is, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.
  • An operation input unit capable of performing an input operation by two types of operating bodies, that is, an input operation when a part of a human body approaches or comes into contact, and an input operation when a bar-shaped input device approaches or comes into contact; Based on a part of the human body and / or a separation distance between the rod-shaped input device and the operation input surface of the operation input unit, and an angle formed between a central axis of the rod-shaped input device and the operation input surface
  • An input control unit that performs switching control between an input operation caused by the proximity or contact of a part of the human body and an input operation caused by the proximity or contact of the rod-shaped input device;
  • An information processing apparatus comprising: (2) The input control unit The angle formed by the central axis of the rod-shaped input device and the normal direction of the operation input surface is used as a control inclination angle, When the separation distance is less than or equal to a first threshold and the control inclination angle is less than a second threshold, the input mode
  • the input control unit sets the input mode until an input operation by the operation body corresponding to the set input mode is not performed for a predetermined time or longer, or a separation distance between the operation body and the operation input surface.
  • the second threshold value is determined for each azimuth angle defined as an angle formed by a projection axis when the central axis of the rod-shaped input device is projected onto the operation input surface and a reference direction on the operation input surface.
  • the input control unit specifies the magnitude of the azimuth based on at least a distribution degree of an electric field or current generated on the operation input surface due to the rod-shaped input device, (2) or (3) The information processing apparatus described in 1. (5) The information processing unit according to any one of (2) to (4), wherein the input control unit specifies the tilt angle for control using at least an output of a sensor provided in the rod-shaped input device. apparatus. (6) The input control unit identifies the control inclination angle based at least on the distribution degree of the electric field or current generated on the operation input surface due to the rod-shaped input device. (2) to (5) The information processing apparatus according to any one of the above.
  • the information processing apparatus further includes a display control unit that controls a display screen for presenting the content of the function realized by the information processing apparatus to the user,
  • the display control unit includes an object for notifying a user of at least one of an effective input mode set as an effective input operation by the input control unit and an invalid input mode set as an invalid input operation.
  • the information processing apparatus according to any one of (2) to (6), which is displayed on a display screen.
  • the input control unit determines the reference direction as an output from an acceleration sensor provided in the information processing device, an output from a wearable terminal worn by a user, or the information provided in the information processing device.
  • the operation input unit is provided with an electrostatic sensor circuit for detecting an input operation by the human body, and a detection circuit for detecting an input operation by the rod-shaped input device,
  • An operation input surface of an operation input unit capable of performing an input operation by two types of operating bodies that is, an input operation by a part of a human body approaching or contacting, and an input operation by a rod-shaped input device approaching or contacting; Based on the separation distance between the part of the human body and / or the rod-shaped input device, and the angle formed by the central axis of the rod-shaped input device and the operation input surface, the part of the human body is close or An information processing method including switching control between an input operation by contact and an input operation by the rod-shaped input device approaching or contacting.
  • a computer including an operation input unit capable of performing an input operation by two types of operating bodies, that is, an input operation by a part of a human body approaching or contacting, and an input operation by a stick-shaped input device approaching or contacting, Based on a part of the human body and / or a separation distance between the rod-shaped input device and the operation input surface of the operation input unit, and an angle formed between a central axis of the rod-shaped input device and the operation input surface.

Abstract

【課題】人体による入力操作及び棒状の入力デバイスによる入力操作が可能な機器において、入力操作性についてのユーザの利便性を更に向上させること。 【解決手段】本開示に係る情報処理装置は、人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部と、前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御部と、を備える。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 近年の情報処理技術の発展に伴い、コンピュータや情報携帯端末等といった情報処理装置の表示画面にタッチパネルを設け、かかるタッチパネルを人体やスタイラスペン等で操作することで、情報処理装置を操作することが可能となってきている。
 例えば、下記の特許文献1には、タッチパネルの設けられた表示装置と、かかる表示装置に対して入力操作を行うための入力装置であるタッチペンとが開示されている。
特開2013-250805号公報
 ここで、指等の人体による入力操作と、スタイラスペン等の棒状の入力デバイスによる入力操作と、の双方が可能なデジタル機器を操作する場合、スタイラスペンの入力時に手のひら等がタッチパネルに接触してしまい、デジタル機器がスタイラスペンによる入力と人体による入力の双方を検出してしまうことがある。そこで、かかるデジタル機器には、パームリジェクション(palm rejection)機能が実装されることが多い。
 かかるパームリジェクション機能とは、人体及びスタイラスペンの双方による入力操作が可能なデジタル機器において、ペン入力時に手のひらの接地等による意図しないタッチ検出により、スクリーン面にタッチによる入力軌跡が描かれたり、入力対象のグラフィカルユーザインタフェース(GUI)背景が動いたり、メニューが表示されたりする等といった、ユーザにとって意図しない入力動作を抑制するための機能である。
 パームリジェクション機能に関して、従来、様々な研究が行われているが、デジタル機器のスクリーン面がスタイラスペンのペン先を検出したときにタッチ入力を無視する方式が一般的である。ペン先を検出したときのスクリーン面からの距離(以後、「ホバー距離」という。)がある程度の大きさに設定されていれば、ユーザが意図しないタッチ動作を防ぐことができることが、明らかになっている。一方で、パームリジェクション機能が働くホバー距離が大きいほど、意図したタッチ操作が認識されない確率も高まり、デジタル機器の操作性の向上の妨げになっている。
 そこで、本開示では、人体による入力操作及び棒状の入力デバイスによる入力操作が可能な機器において、入力操作性についてのユーザの利便性を更に向上させることが可能な、情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部と、前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御部と、を備える情報処理装置が提供される。
 また、本開示によれば、人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部の操作入力面と、当該人体の一部及び/又は当該棒状の入力デバイスとの間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行うことを含む、情報処理方法が提供される。
 また、本開示によれば、人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部を備えるコンピュータに、前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御機能を実現させるためのプログラムが提供される。
 本開示によれば、人体の一部及び/又は棒状の入力デバイスと操作入力部の操作入力面との間の離隔距離、並びに、棒状の入力デバイスの中心軸と操作入力面とのなす角度に基づいて、人体の一部が近接又は接触することによる入力操作と、棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御が行われる。
 以上説明したように本開示によれば、人体による入力操作及び棒状の入力デバイスによる入力操作が可能な機器において、入力操作性についてのユーザの利便性を更に向上させることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る入力操作の切替制御について説明するための説明図である。 同実施形態に係る情報処理装置の構成の一例を模式的に示したブロック図である。 同実施形態に係る情報処理装置の表示画面の一例を模式的に示した説明図である。 同実施形態に係る情報処理装置が備える入力制御部の構成の一例を模式的に示したブロック図である。 同実施形態に係る情報処理装置における制御用傾斜角度及び離隔距離について説明するための説明図である。 同実施形態に係る情報処理装置における制御用傾斜角度及び方位角の検出方法の一例を説明するための説明図である。 同実施形態に係る情報処理装置における制御用傾斜角度及び方位角の検出方法の一例を説明するための説明図である。 同実施形態に係る情報処理装置における制御用傾斜角度の検出方法の一例を説明するための説明図である。 同実施形態に係る情報処理装置における制御用傾斜角度の検出方法の一例を説明するための説明図である。 同実施形態に係る制御用傾斜角度の閾値について説明するための説明図である。 同実施形態に係る情報処理方法の流れの一例を示した流れ図である。 本開示の実施形態に係る情報処理装置のハードウェア構成の一例を示したブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1.1.入力操作の切替制御について
  1.2.情報処理装置の構成について
  1.3.情報処理方法の流れについて
 2.ハードウェア構成について
(第1の実施形態)
<入力操作の切替制御について>
 まず、図1を参照しながら、本開示の第1の実施形態に係る情報処理装置で採用する入力操作の切替制御について、簡単に説明する。図1は、本実施形態に係る入力操作の切替制御について説明するための説明図である。
 情報処理装置の操作体として、指等の人体と、スタイラスペン等のような棒状の入力デバイスと、が許容されている場合、ユーザは、自身の利き手に棒状の入力デバイスを把持した上で、利き手の指を使ったり棒状の入力デバイスを使ったりしながら、入力操作を行うことが多い。
 本発明者らは、2種類の操作体を用いたタッチパネル(すなわち、操作入力面)への入力操作を詳細に検討した結果、図1に模式的に示したように、スタイラスペンを用いた入力操作を行う場合と、スタイラスペンを持ちながら指による入力操作を行う場合とでは、タッチパネル(操作入力面)の表面に対するスタイラスペンの角度(より詳細には、スタイラスペンの中心軸がタッチパネルの表面となす角度)が異なることに想到した。
 すなわち、図1左側に示したように、スタイラスペンを用いた入力操作を行う場合には、スタイラスペンのペン先とは反対側に位置する端部はユーザの体幹の方向を向き、スタイラスペンの中心軸とタッチパネルとのなす角度は鋭角となる。一方、図1右側に示したように、スタイラスペンを持ちつつ指による入力操作を行う場合には、スタイラスペンのペン先とは反対側に位置する端部はユーザの体幹とは逆の方向を向き、スタイラスペンの中心軸とタッチパネルとのなす角度は鈍角となる。
 本発明者らは、図1に示したような、利用する入力操作方法に応じてスタイラスペンの角度が異なるという現象について着目し、かかる現象を利用することで、上記のパームリジェクション機能を改良することができることに想到した。以下では、かかる知見に基づき完成された、本実施形態に係る情報処理装置及び情報処理方法について、詳細に説明する。
<情報処理装置の構成について>
 以下では、まず、図2~図8を参照しながら、本実施形態に係る情報処理装置の構成について、詳細に説明する。図2は、本実施形態に係る情報処理装置の構成の一例を模式的に示したブロック図である。図3は、本実施形態に係る情報処理装置の表示画面の一例を模式的に示した説明図である。図4は、本実施形態に係る情報処理装置が備える入力制御部の構成の一例を模式的に示したブロック図である。図5は、本実施形態に係る情報処理装置における制御用傾斜角度及び離隔距離について説明するための説明図である。図6A及び図6Bは、本実施形態に係る情報処理装置における制御用傾斜角度及び方位角の検出方法の一例を説明するための説明図である。図7A及び図7Bは、本実施形態に係る情報処理装置における制御用傾斜角度の検出方法の一例を説明するための説明図である。図8は、本実施形態に係る制御用傾斜角度の閾値について説明するための説明図である。
[情報処理装置10の全体構成について]
 本実施形態に係る情報処理装置10は、図2に模式的に示したように、操作入力部101と、操作体検出部103と、入力制御部105と、表示制御部107と、演算処理部109と、記憶部111と、を主に備える。
 操作入力部101は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入力装置、出力装置、各種センサ等によって実現される。操作入力部101は、本実施形態に係る情報処理装置10で提供される各種機能を実施するための各種のユーザ操作が入力される。かかる操作入力部101は、人体の一部(例えば、ユーザの指等)が近接又は接触することによる粒力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という、2種類の操作体による入力操作が可能である。
 ここで、棒状の入力デバイスとしては、特に限定されるものではなく、例えば、スタイラスペンや、ユーザの指に装着されたペン状の入力デバイス等のような、人体に装着又は把持された人工の入力デバイスを挙げることができる。
 この操作入力部101には、後述する操作体検出部103が設けられている。操作入力部101に対する人体の一部や棒状の入力デバイスによる入力操作は、かかる操作体検出部103によって検出される。また、操作入力部101において、人体の一部による入力操作を受け付ける入力モードと、棒状の入力デバイスによる入力操作を受け付ける入力モードのどちらが有効となっているかについては、後述する入力制御部105によって制御される。
 また、操作入力部101には、情報処理装置10によって実現される機能の内容をユーザに提示するための表示画面として機能するディスプレイが実装されていることが好ましい。これにより、ユーザは、表示画面に表示されているアイコン等の各種オブジェクトを見ながら、かかるオブジェクトを上記のような2種類の操作体によって操作することで、情報処理装置10を操作することが可能となる。なお、かかるディスプレイは、後述する表示制御部107によって制御される。
 操作体検出部103は、例えば、CPU、ROM、RAM、各種の回路デバイス等により実現される。操作体検出部103は、操作入力部101に対して実施された、上記2種類の操作体を検出して、人体の一部又は棒状の入力デバイスのどちらの操作体が、どのような動きをしたのかを検出する。かかる検出結果が、後述する演算処理部109に対して出力されることで、演算処理部109は、ユーザによってなされた操作体の動きを、情報処理装置10にとって有意なユーザ操作として解釈し、各種の機能が実現される。
 かかる操作体検出部103は、人体による入力操作を検出する静電センサ回路と、棒状の入力デバイスによる入力操作を検出する検出回路と、から構成されている。これら2種類の回路は、後述する入力制御部105によって高速にスイッチングされる。これにより、人体の一部や棒状の入力デバイスの何れの操作体が用いられた場合であっても、用いられた操作体と、かかる操作体の座標と、を別個に検出することが可能となる。
 なお、棒状の入力デバイスによる入力操作を検出する検出回路としては、特に限定されるものではなく、いわゆる電界方式に基づく電界検出回路や、電磁誘導方式に基づく電流検出回路等を挙げることができる。また、これらの検出回路以外にも、各種の検出回路を適用することが可能である。
 なお、静電センサ回路と、棒状の入力デバイスによる入力操作を検出する検出回路と、のスイッチング周期については、特に限定されるものではなく、情報処理装置10に求める処理応答速度に応じて、適宜設定すればよい。
 また、操作体検出部103は、棒状の入力デバイスに対して加速度センサや位置センサ等の各種のセンサが実装されている場合に、かかるセンサからの出力信号を、任意の方法で取得することが可能である。
 操作体検出部103による操作体の検出結果を表わす検出信号は、後述する入力制御部105へと出力されて、操作入力部101への入力操作が有効となる操作体を制御するために利用される。また、操作体検出部103による操作体の検出結果を表わす検出信号は、後述する演算処理部109に対しても出力され、演算処理部109によって実行されている各種のアプリケーションを含むプログラムの操作に利用される。
 入力制御部105は、例えば、CPU、ROM、RAM等により実現される。入力制御部105は、操作入力部101について、人体の一部が近接又は接触することによる入力操作と、棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う。かかる切替制御は、人体の一部及び/又は棒状の入力デバイスと操作入力部101の操作入力面との間の離隔距離、並びに、棒状の入力デバイスの中心軸と操作入力面とのなす角度に基づいて行われる。
 かかる入力制御部105の詳細な構成については、以下で改めて詳細に説明する。
 表示制御部107は、例えば、CPU、ROM、RAM、出力装置、通信装置等により実現される。表示制御部107は、後述する演算処理部109によって実行される各種のアプリケーション等のプログラムの実行結果を、情報処理装置10が備えるディスプレイ等の出力装置や情報処理装置10の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、表示制御部107によって表示制御が行われている表示画面には、後述する演算処理部109によって実行されたプログラムによって提供される各種のオブジェクト等が表示されることとなる。また、かかるオブジェクトは、操作入力部101に対して行われた操作体によるユーザ操作に応じて変化する。
 また、表示制御部107は、入力制御部105によって有効な入力操作として設定された有効入力モード、又は、無効な入力操作として設定された無効入力モードの少なくとも何れか一方をユーザに通知するオブジェクトを、表示画面に表示させることが好ましい。
 かかるオブジェクトは、特に限定されるものではなく、例えば図3に示したようなアイコンから構成される選択操作体インジケータを、表示画面の任意の位置に表示させることができる。ここで、ユーザの目線は、操作体を用いてユーザ入力を行っている部分に近い場所に注がれると考えられるため、表示制御部107は、かかる選択操作体インジケータを、操作体の先端の座標から上に例えば3~5cm程度の位置に、操作体の先端の動きに追従するように表示させてもよい。
 演算処理部109は、例えば、CPU、ROM、RAM、通信装置等により実現される。演算処理部109は、後述する記憶部111に格納されている各種アプリケーションを含むプログラムや、情報処理装置10の外部に存在する各種のサーバ等から取得した各種アプリケーションを含むプログラムを実行して、実行したプログラムに対応する様々な機能を実現する。演算処理部109によって実行される各種のプログラムは、操作入力部101に対して操作体を介してなされたユーザ操作に応じて、その実行状態が変化する。
 記憶部111は、例えば本実施形態に係る情報処理装置10が備えるRAMやストレージ装置等により実現される。記憶部111には、操作入力部101、操作体検出部103、入力制御部105、表示制御部107、演算処理部109における処理に利用される各種のデータベースや、これら処理部が実行する各種の演算処理に用いられるアプリケーションを含む各種のプログラムや、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過などが、適宜記録されてもよい。また、記憶部111には、各種のプログラムが実行されることで表示画面に表示される各種のオブジェクトデータ等が格納されていてもよい。ここで言うオブジェクトデータには、例えば、アイコン、ボタン、サムネイル等のグラフィカルユーザインターフェース(GUI)を構成する任意のパーツ類が含まれる。
 この記憶部111は、操作入力部101、操作体検出部103、入力制御部105、表示制御部107、演算処理部109などの各処理部が、自由にアクセスし、データを書き込んだり読み出したりすることができる。
[入力制御部105の詳細な構成について]
 次に、図4~図8を参照しながら、本実施形態に係る入力制御部105の構成について、詳細に説明する。
 本実施形態に係る入力制御部105は、図4に模式的に示したように、離隔距離特定部121と、角度特定部123と、入力操作設定部125と、を有している。
 離隔距離特定部121は、例えば、CPU、ROM、RAM、入力装置等により実現される。離隔距離特定部121は、操作体検出部103から出力された、静電センサ回路からの出力信号に基づいて、操作入力面と、指等の人体の一部と、の間の離隔距離を特定する。また、離隔距離特定部121は、操作体検出部103から出力された、各種の検出回路からの出力信号に基づいて、操作入力面と、スタイラスペン等の棒状の入力デバイスと、の間の離隔距離を特定する。ここで、離隔距離特定部121は、少なくとも、上記2種類の操作体のうち何れか一方と操作入力面との間の離隔距離を特定すればよい。どちらの操作体との離隔距離を特定するかについては、特に限定されるものではなく、離隔距離特定部121は、離隔距離の特定が容易な操作体に着目して、離隔距離を特定すればよい。
 離隔距離特定部121が操作体検出部103からの出力信号に基づいて離隔距離を特定する具体的な方法については、特に限定されるものではなく、公知の方法を利用することが可能である。
 離隔距離特定部121によって特定された、操作体と操作入力面との間の離隔距離(例えば、図5に模式的に示したような、棒状の入力デバイスと操作入力面との離隔距離d)に関する情報は、後述する入力操作設定部125へと出力される。
 角度特定部123は、例えば、CPU、ROM、RAM、入力装置等により実現される。角度特定部123は、操作体検出部103から出力された、各種の検出回路からの出力信号に基づいて、棒状の入力デバイスと操作入力面との相対的な位置関係を表わす2種類の角度を特定する。ここで、角度特定部123が特定する2種類の角度は、(a)棒状の入力デバイスの中心軸と操作入力面の法線方向とのなす角度として規定される、制御用傾斜角度θ、及び、(b)棒状の入力デバイスの中心軸を操作入力面へと射影した際の射影軸と、操作入力面における基準方向と、のなす角として規定される方位角φの2種類である。
 まず、(a)制御用傾斜角度θの特定方法について、詳細に説明する。
 角度特定部123は、図5に模式的に示したような制御用傾斜角度θを、公知の様々な方向を利用して特定することが可能である。
 例えば、棒状の入力デバイスに加速度センサが実装されている場合には、操作体検出部103から出力された、棒状の入力デバイスの加速度センサからの出力信号を用いて、制御用傾斜角度θを特定することができる。また、本実施形態に係る情報処理装置10にも加速度センサが実装されている場合、角度特定部123は、棒状の入力デバイス及び情報処理装置10に実装されている加速度センサからの出力信号を用いて、その差分を算出することで、より正確に制御用傾斜角度θの大きさを特定することができる。
 また、角度特定部123は、操作体検出部103から出力される、操作入力面における電界又は電流の分布の度合いに着目して、制御用傾斜角度θを特定することも可能である。例えば図6A及び図6Bに模式的に示したように、棒状の入力デバイスが操作入力面に対して近接又は接触することで、操作入力面には、デバイスの検出方法の違いに応じて、電界分布や電流分布が発生する。ここで、図5に示した制御用傾斜角度θが小さいほど、例えば図6Aに示したように、電界分布や電流分布の形状は真円に近付き、広がりは小さくなるはずであり、制御用傾斜角度θが大きいほど、例えば図6Bに示したように、電界分布や電流分布の形状は潰れた楕円形状になって、広がりは大きくなるはずである。そこで、制御用傾斜角度θの値を変えながら電界又は電流分布の広がりの大きさや分布形状の扁平率を予め数値化しておき、制御用傾斜角度θと、広がりの大きさや扁平率等との相関関係をデータベース化しておくことが可能となる。角度特定部123は、このようにして予め作成されたデータベースを参照することで、電界又は電流分布に基づき、制御用傾斜角度θの大きさを特定することができる。
 また、図7A及び図7Bに示したように、棒状の入力デバイスに2つの位置センサ(もしくは、2か所の位置特定用の模様)が実装されている場合には、角度特定部123は、以下のような方法により制御用傾斜角度θを特定することも可能である。
 すなわち、図7A及び図7Bに模式的に示したように、互いに離隔した2か所(点A、点B)に位置センサ又は位置特定用の模様を実装しておき、2か所の点A,Bの操作入力面への射影位置を、操作体検出部103から出力される各種出力信号を用いて特定する。
 図7Aに示したように、制御用傾斜角度θが小さい場合には、操作入力面における2点間の距離Lは小さくなり、図7Bに示したように、制御用傾斜角度θが大きい場合には、操作入力面における2点間の距離Lは大きくなる。そこで、制御用傾斜角度θの値を変えながら2点間の距離Lの大きさを予め数値化しておき、制御用傾斜角度θと、2点間の距離Lの大きさとの相関関係をデータベース化しておくことが可能となる。角度特定部123は、このようにして予め作成されたデータベースを参照することで、制御用傾斜角度θの大きさを特定することができる。
 以上、制御用傾斜角度の特定方法について、詳細に説明した。なお、本実施形態に係る制御用傾斜角度の特定方法は、上記の例に限定されるものではなく、その他の公知の方法を用いて制御用傾斜角度を特定することも可能である。
 次に、(b)方位角φの特定方法について、詳細に説明する。
 例えば、角度特定部123は、図6A及び図6Bに模式的に示したように、操作体検出部103から出力された電界又は電流の分布度合いに関する出力信号に基づいて、方位角φを特定することが可能である。すなわち、角度特定部123は、棒状の入力デバイスの中心軸を操作入力面へと射影した際の射影軸の方向を、まず特定する。この射影軸の方向は、図6A及び図6Bに示したように、棒状の入力デバイスのペン先位置と、電界又は電流分布を表わす形状の楕円長軸方向の端点と、を結ぶ方向として特定することができる。
 また、方位角φを規定する際の基準方向は、特に限定されるものではなく、適宜設定することが可能である。例えば、角度特定部123は、かかる基準方向を、情報処理装置10に実装された加速度センサからの出力に基づき特定される、情報処理装置10の上下方向と平行な方向に設定することも可能である。また、角度特定部123は、かかる基準方向を、棒状の入力デバイスの入力操作側端部から、棒状の入力デバイスを持つユーザの体幹へと、操作入力面に対して平行に向かう方向に設定してもよい。また、角度特定部123は、情報処理装置10の表示画面に表示されている表示内容の向きに基づいて、表示内容の上下方向を、上記の基準方向に設定してもよい。
 これら2つの方向が特定されることで、角度特定部123は、これら2つの方向に対応するベクトルから方位角φの大きさを算出することが可能となる。
 なお、ユーザの体幹に向かう方向(換言すれば、操作入力面がユーザに対して正面となる方向)の特定方法については、特に限定されるものではない。例えば、角度特定部123は、情報処理装置10に実装されている各種センサや撮像装置等を利用してユーザの位置をセンシングしてもよく、ユーザが手首等に装着しているウェアラブル端末(例えば、位置センサ等)からの出力を利用して、ユーザの体幹に向かう方向を特定してもよい。ユーザの装着するウェアラブル端末を方向の特定に利用することで、例えば情報処理装置10を複数のユーザが同時に操作する場合であっても、ユーザの体幹に向かう方向を容易に特定することが可能となる。
 また、棒状の入力デバイスに加速度センサ等の各種センサが実装されている場合、角度特定部123は、かかるセンサからの出力信号に基づいて、方位角φを特定することも可能である。
 角度特定部123は、以上のような方法により、制御用傾斜角度θ及び方位角φを特定すると、これらの角度に関する情報を、後述する入力操作設定部125へと出力する。
 入力操作設定部125は、例えば、CPU、ROM、RAM、入力装置等により実現される。入力操作設定部125は、離隔距離特定部121から出力された離隔距離に関する情報、及び、角度特定部123から出力された角度に関する情報に基づいて、操作入力部101への有効な入力モードを設定する。より詳細には、入力操作設定部125は、離隔距離特定部121から得られた離隔距離dの大きさと、角度特定部123から得られた制御用傾斜角度θの大きさと、を利用して閾値判断を行うことで、操作入力部101への有効な入力モードを設定する。
 すなわち、入力操作設定部125は、離隔距離dが第1の閾値以下であり、かつ、制御用傾斜角度θが第2の閾値未満である場合に、操作入力部101の入力モードを、棒状の入力デバイスによる入力モードに設定する。また、入力操作設定部125は、離隔距離dが第1の閾値以下であり、かつ、制御用傾斜角度θが第2の閾値以上である場合に、操作入力部101の入力モードを、人体の一部による入力モードに設定する。
 また、入力操作設定部125は、上記のような閾値判断により入力モードを設定すると、表示制御部107と連携することで、図3に示したような選択操作体インジケータを、表示画面に表示させる。
 入力操作設定部125は、ひとたび有効入力モードを設定すると、かかる入力モードの設定を、設定された入力モードに対応する操作体による入力操作が所定の時間(例えば、0.5秒~数秒程度)以上実施されなくなるまで、保持することが好ましい。また、入力操作設定部125は、処理の継続時間ではなく、操作体と操作入力面との離隔距離が所定の閾値(例えば、数ミリ程度)以上となるまで、保持するようにしてもよい。これにより、ユーザは、所望の操作体による入力操作を、不便さを感じることなく継続することが可能となる。
 なお、有効入力モードの保持期間の設定方法については、上記の方法に限定されるものではなく、その他の基準に基づいて、有効入力モードの設定を変更してもよい。例えば、入力操作設定部125は、表示画面に表示させた選択操作体インジケータがユーザ操作によって選択された場合に、選択された操作体による入力モードへと、有効入力モードを切り替えるようにしてもよい。
 なお、有効入力モードの設定に利用される、離隔距離dに関する第1の閾値の具体的な値については、特に限定されるものではなく、例えば30mm~40mm等のような一般的な値に設定することも可能であり、上限値を50mm程度まで大きく設定することも可能である。
 また、有効入力モードの設定に利用される、制御用傾斜角度θに関する第2の閾値の具体的な値についても、適宜設定することが可能である。しかしながら、有効入力モードの設定に際して、制御用傾斜角度θのみならず方位角φを合わせて利用することで、よりユーザの利便性を追求した有効入力モードの設定を行うことが可能となる。
 すなわち、入力操作設定部125は、ユーザの利便性をより追求した有効入力モードの設定を行うために、例えば図8に示したように、上記第2の閾値を方位角φごとに設定してもよい。
 いま、便宜的に、操作入力面がユーザに対して正面となる姿勢で、棒状の入力デバイスのペン先が時計の12時を指す方向を向くとき(例えば、図6Aにおいてφ=0°となり、ペン先がユーザにとって視線の方向を向くとき)を、φ=0°とする。方位角φ=0°では、ユーザがスタイラスペン等の棒状の入力デバイスを寝かせて操作している可能性があるため、傾斜角度の閾値θTH=Aを大きめの値に設定することが好ましい。また、方位角φ=180°の場合、ペン先がユーザに向いている状態であり、ユーザは、かかる状態でペンによる操作をしている可能性は少ないと考えられる。そこで、傾斜角度の閾値θTH=Cを、小さめの値に設定することが好ましい。このように、方位角φに応じて、パームリジェクション機能が作動する閾値θTHを設定しておくことで、ユーザの利便性をより追求することが可能となる。
 以上説明したような各種の閾値に関する情報は、記憶部111等に予め格納され、入力操作設定部125により適宜利用される。
 また、以上説明したような各種の閾値の具体的な値は、予め設定された初期値のまま保持されてもよいし、ユーザ自身の操作によって随時変更可能であってもよい。また、入力操作設定部125は、ユーザ操作に基づくいわゆる機械学習処理を行うことで、これら閾値の具体的な値をユーザ固有の値に変更していくようにしてもよい。
 なお、入力操作設定部125は、離隔距離d、制御用傾斜角度θ及び方位角φに関する情報を適宜組み合わせて利用することで、ユーザの利き手を特定する等といった、他の特定処理を行うことも可能である。
 以上、図4~図8を参照しながら、本実施形態に係る入力制御部105の構成について、詳細に説明した。
 以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<情報処理方法の流れについて>
 次に、図9を参照しながら、本実施形態に係る情報処理装置10で実施される情報処理方法の流れの一例について、簡単に説明する。図9は、本実施形態に係る情報処理方法の流れの一例を示した流れ図である。
 本実施形態に係る情報処理装置10が起動すると、まず、指等の人体による入力が有効化されるものとする(ステップS101)。その後、情報処理装置10は、ユーザ操作を待ち受ける。
 ある瞬間に、操作体検出部103が、スタイラスペン等の棒状の入力デバイスを検出すると(ステップS103)、操作体検出部103から出力された出力信号は、入力制御部105へと出力される。
 操作体検出部103から出力信号が出力されると、入力制御部105の離隔距離特定部121及び角度特定部123は、得られた出力信号を利用して、上述したような方法により、離隔距離d、制御用傾斜角度θ、及び方位角φを特定する(ステップS105)。特定された離隔距離d、制御用傾斜角度θ、及び方位角φに関する情報は、入力操作設定部125へと出力される。
 入力操作設定部125は、まず、離隔距離dが第1の閾値以下であるかを判断する(ステップS107)。離隔距離dが第1の閾値超過である場合には、情報処理装置10は、ステップS101に戻って処理を継続する。
 一方、離隔距離dが第1の閾値以下である場合、入力操作設定部125は、検出した方位角φでの制御用傾斜角度θが第2の閾値未満であるかを判断する(ステップS109)。制御用傾斜角度θが第2の閾値以上である場合には、情報処理装置10は、ステップS101に戻って処理を継続する。
 一方、検出した方位角φでの制御用傾斜角度θが第2の閾値未満である場合、入力操作設定部125は、人体による入力を無効な状態に設定し、棒状の入力デバイスによる入力を有効化する(ステップS111)。
 その後、入力操作設定部125は、操作時間又は離隔距離に基づく、上記のような設定保持条件が成立しているかを判断する(ステップS113)。設定保持条件が成立している場合、入力操作設定部125は、ステップS111に戻って、棒状の入力デバイスによる入力を有効化し続ける。一方、設定保持条件が不成立の場合、情報処理装置10は、ステップS101に戻って処理を継続する。
 なお、上記説明では、予め人体による入力が有効化される場合を例に挙げたが、棒状の入力デバイスによる入力が予め有効化されている場合においても、上記と同様の処理を行うことが可能である。
 以上、図9を参照しながら、本実施形態に係る情報処理方法の流れについて、簡単に説明した。
 このように、本実施形態に係る情報処理装置及び情報処理方法によれば、パームリジェクションが作動する際の閾値となるホバー距離を大きく設定した場合であっても、棒状の入力デバイスの傾斜角度や方位角の組み合わせによりパームリジェクションを解除することが可能となり、ユーザの利便性を向上させることができる。また、選択された入力モードを示すインジケータを表示画面に表示することで、ユーザにとって分かりやすい形で、有効となっている入力モードをユーザに通知することが可能となる。
(ハードウェア構成について)
 次に、図10を参照しながら、本開示の実施形態に係る情報処理装置10のハードウェア構成について、詳細に説明する。図10は、本開示の実施形態に係る情報処理装置10のハードウェア構成を説明するためのブロック図である。
 情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907、ブリッジ909、外部バス911、インターフェース913、センサ914、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923および通信装置925を備える。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 センサ914は、ユーザの動きを検知するセンサや、現在位置を表す情報を取得するセンサや、情報処理装置10の姿勢等を特定するためのセンサ等の検出手段である。かかるセンサの一例として、加速度センサ、重力検知センサ、落下検出センサ等を含む3軸加速度センサ、角速度センサ、手振れ補正センサ、地磁気センサ等を含む3軸ジャイロセンサ等のモーションセンサや、GPSセンサ等を挙げることができる。また、センサ914は、上述のもの以外にも、温度計、照度計、湿度計などの様々な測定機器を備えていてもよい。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種データなどを格納する。
 ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、Blu-rayメディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。
 接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
 通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。
 以上、本開示の実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部と、
 前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御部と、
を備える、情報処理装置。
(2)
 前記入力制御部は、
 前記棒状の入力デバイスの中心軸と前記操作入力面の法線方向とのなす角度を、制御用傾斜角度として利用し、
 前記離隔距離が第1の閾値以下であり、かつ、前記制御用傾斜角度が第2の閾値未満である場合に、前記操作入力部の入力モードを前記棒状の入力デバイスによる入力モードに設定し、
 前記離隔距離が第1の閾値以下であり、かつ、前記制御用傾斜角度が第2の閾値以上である場合に、前記操作入力部の入力モードを前記人体の一部による入力モードに設定する、(1)に記載の情報処理装置。
(3)
 前記入力制御部は、前記入力モードの設定を、設定された入力モードに対応する操作体による入力操作が所定の時間以上実施されなくなるまで、又は、当該操作体と前記操作入力面との離隔距離が所定の閾値以上となるまで、保持する、(1)又は(2)に記載の情報処理装置。
(4)
 前記第2の閾値は、前記棒状の入力デバイスの中心軸を前記操作入力面へと射影した際の射影軸と、前記操作入力面における基準方向と、のなす角として規定される方位角ごとに設定され、
 前記入力制御部は、前記棒状の入力デバイスに起因して前記操作入力面に発生する電界又は電流の分布度合いに少なくとも基づいて、前記方位角の大きさを特定する、(2)又は(3)に記載の情報処理装置。
(5)
 前記入力制御部は、前記棒状の入力デバイスに設けられたセンサの出力を少なくとも利用して、前記制御用傾斜角度を特定する、(2)~(4)の何れか1つに記載の情報処理装置。
(6)
 前記入力制御部は、前記棒状の入力デバイスに起因して前記操作入力面に発生する電界又は電流の分布度合いに少なくとも基づいて、前記制御用傾斜角度を特定する、(2)~(5)の何れか1つに記載の情報処理装置。
(7)
 前記情報処理装置は、当該情報処理装置によって実現される機能の内容をユーザに提示するための表示画面を制御する表示制御部を更に備え、
 前記表示制御部は、前記入力制御部によって有効な入力操作として設定された有効入力モード、又は、無効な入力操作として設定された無効入力モードの少なくとも何れか一方をユーザに通知するオブジェクトを、前記表示画面に表示させる、(2)~(6)の何れか1つに記載の情報処理装置。
(8)
 前記入力制御部は、前記基準方向を、前記情報処理装置に設けられた加速度センサからの出力、ユーザの装着しているウェアラブル端末からの出力、又は、前記情報処理装置に設けられた、当該情報処理装置によって実現される機能の内容をユーザに提示するための表示画面における表示内容の方向、の少なくとも何れかに基づいて特定する、(4)~(7)の何れか1つに記載の情報処理装置。
(9)
 前記操作入力部には、前記人体による入力操作を検出する静電センサ回路と、前記棒状の入力デバイスによる入力操作を検出する検出回路と、が設けられており、
 前記入力制御部は、前記静電センサ回路と前記検出回路とを所定のタイミングでスイッチングすることで、ユーザによる入力操作を検出する、(1)~(8)の何れか1つに記載の情報処理装置。
(10)
 前記棒状の入力デバイスは、人体に装着又は把持された人工の入力デバイスである、(1)~(9)の何れか1つに記載の情報処理装置。
(11)
 人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部の操作入力面と、当該人体の一部及び/又は当該棒状の入力デバイスとの間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行うこと
を含む、情報処理方法。
(12)
 人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部を備えるコンピュータに、
 前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御機能を実現させるためのプログラム。
  10  情報処理装置
 101  操作入力部
 103  操作体検出部
 105  入力制御部
 107  表示制御部
 109  演算処理部
 111  記憶部

Claims (12)

  1.  人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部と、
     前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御部と、
    を備える、情報処理装置。
  2.  前記入力制御部は、
     前記棒状の入力デバイスの中心軸と前記操作入力面の法線方向とのなす角度を、制御用傾斜角度として利用し、
     前記離隔距離が第1の閾値以下であり、かつ、前記制御用傾斜角度が第2の閾値未満である場合に、前記操作入力部の入力モードを前記棒状の入力デバイスによる入力モードに設定し、
     前記離隔距離が第1の閾値以下であり、かつ、前記制御用傾斜角度が第2の閾値以上である場合に、前記操作入力部の入力モードを前記人体の一部による入力モードに設定する、請求項1に記載の情報処理装置。
  3.  前記入力制御部は、前記入力モードの設定を、設定された入力モードに対応する操作体による入力操作が所定の時間以上実施されなくなるまで、又は、当該操作体と前記操作入力面との離隔距離が所定の閾値以上となるまで、保持する、請求項2に記載の情報処理装置。
  4.  前記第2の閾値は、前記棒状の入力デバイスの中心軸を前記操作入力面へと射影した際の射影軸と、前記操作入力面における基準方向と、のなす角として規定される方位角ごとに設定され、
     前記入力制御部は、前記棒状の入力デバイスに起因して前記操作入力面に発生する電界又は電流の分布度合いに少なくとも基づいて、前記方位角の大きさを特定する、請求項2に記載の情報処理装置。
  5.  前記入力制御部は、前記棒状の入力デバイスに設けられたセンサの出力を少なくとも利用して、前記制御用傾斜角度を特定する、請求項2に記載の情報処理装置。
  6.  前記入力制御部は、前記棒状の入力デバイスに起因して前記操作入力面に発生する電界又は電流の分布度合いに少なくとも基づいて、前記制御用傾斜角度を特定する、請求項2に記載の情報処理装置。
  7.  前記情報処理装置は、当該情報処理装置によって実現される機能の内容をユーザに提示するための表示画面を制御する表示制御部を更に備え、
     前記表示制御部は、前記入力制御部によって有効な入力操作として設定された有効入力モード、又は、無効な入力操作として設定された無効入力モードの少なくとも何れか一方をユーザに通知するオブジェクトを、前記表示画面に表示させる、請求項2に記載の情報処理装置。
  8.  前記入力制御部は、前記基準方向を、前記情報処理装置に設けられた加速度センサからの出力、ユーザの装着しているウェアラブル端末からの出力、又は、前記情報処理装置に設けられた、当該情報処理装置によって実現される機能の内容をユーザに提示するための表示画面における表示内容の方向、の少なくとも何れかに基づいて特定する、請求項4に記載の情報処理装置。
  9.  前記操作入力部には、前記人体による入力操作を検出する静電センサ回路と、前記棒状の入力デバイスによる入力操作を検出する検出回路と、が設けられており、
     前記入力制御部は、前記静電センサ回路と前記検出回路とを所定のタイミングでスイッチングすることで、ユーザによる入力操作を検出する、請求項1に記載の情報処理装置。
  10.  前記棒状の入力デバイスは、人体に装着又は把持された人工の入力デバイスである、請求項1に記載の情報処理装置。
  11.  人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部の操作入力面と、当該人体の一部及び/又は当該棒状の入力デバイスとの間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行うこと
    を含む、情報処理方法。
  12.  人体の一部が近接又は接触することによる入力操作、及び、棒状の入力デバイスが近接又は接触することによる入力操作という2種類の操作体による入力操作が可能な操作入力部を備えるコンピュータに、
     前記人体の一部及び/又は前記棒状の入力デバイスと前記操作入力部の操作入力面との間の離隔距離、並びに、前記棒状の入力デバイスの中心軸と前記操作入力面とのなす角度に基づき、前記人体の一部が近接又は接触することによる入力操作と、前記棒状の入力デバイスが近接又は接触することによる入力操作と、の切替制御を行う入力制御機能を実現させるためのプログラム。
PCT/JP2015/061285 2014-06-26 2015-04-10 情報処理装置、情報処理方法及びプログラム WO2015198688A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15811350.6A EP3163415A4 (en) 2014-06-26 2015-04-10 Information processing device, information processing method, and program
US15/316,240 US10191603B2 (en) 2014-06-26 2015-04-10 Information processing device and information processing method
JP2016529127A JP6658518B2 (ja) 2014-06-26 2015-04-10 情報処理装置、情報処理方法及びプログラム
CN201580033173.6A CN106471450B (zh) 2014-06-26 2015-04-10 信息处理设备、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014131293 2014-06-26
JP2014-131293 2014-06-26

Publications (1)

Publication Number Publication Date
WO2015198688A1 true WO2015198688A1 (ja) 2015-12-30

Family

ID=54937788

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/061285 WO2015198688A1 (ja) 2014-06-26 2015-04-10 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10191603B2 (ja)
EP (1) EP3163415A4 (ja)
JP (1) JP6658518B2 (ja)
CN (1) CN106471450B (ja)
WO (1) WO2015198688A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3056975B1 (en) * 2013-10-08 2020-08-12 Maxell, Ltd. Projection type image display device, manipulation detection device and projection type image display method
EP3396499A4 (en) * 2015-12-21 2018-12-05 Sony Corporation Information processing device and information processing method
US10353478B2 (en) * 2016-06-29 2019-07-16 Google Llc Hover touch input compensation in augmented and/or virtual reality
TWI719233B (zh) * 2016-08-01 2021-02-21 美商肯特顯示器公司 含電阻式數化器並具有機械防止手掌誤觸的液晶電子手寫板系統
KR20190074335A (ko) * 2017-12-19 2019-06-28 삼성디스플레이 주식회사 스타일러스를 포함하는 전자장치 및 이의 동작방법
JP7225638B2 (ja) * 2018-09-26 2023-02-21 富士フイルムビジネスイノベーション株式会社 情報処理システムおよびプログラム
CN111079492B (zh) * 2019-06-03 2023-10-31 广东小天才科技有限公司 一种确定点读区域的方法及终端设备
US11526659B2 (en) 2021-03-16 2022-12-13 Microsoft Technology Licensing, Llc Converting text to digital ink
US11875543B2 (en) 2021-03-16 2024-01-16 Microsoft Technology Licensing, Llc Duplicating and aggregating digital ink instances
US11372486B1 (en) * 2021-03-16 2022-06-28 Microsoft Technology Licensing, Llc Setting digital pen input mode using tilt angle
US11435893B1 (en) 2021-03-16 2022-09-06 Microsoft Technology Licensing, Llc Submitting questions using digital ink
US11361153B1 (en) 2021-03-16 2022-06-14 Microsoft Technology Licensing, Llc Linking digital ink instances using connecting lines

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240442A (ja) * 1997-02-21 1998-09-11 Sharp Corp 情報処理装置
JP2006146936A (ja) * 2004-11-23 2006-06-08 Microsoft Corp 偶発的なタッチセンシティブ装置の活動化の低減のための入力方法
WO2013057862A1 (ja) * 2011-10-20 2013-04-25 シャープ株式会社 情報入力ペン

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685359A (zh) * 2008-09-27 2010-03-31 佛山市顺德区汉达精密电子科技有限公司 具有互动显示屏幕的电子装置及其处理方法
US8660978B2 (en) * 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US8988398B2 (en) * 2011-02-11 2015-03-24 Microsoft Corporation Multi-touch input device with orientation sensing
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US9201520B2 (en) * 2011-02-11 2015-12-01 Microsoft Technology Licensing, Llc Motion and context sharing for pen-based computing inputs
JP2013250805A (ja) 2012-05-31 2013-12-12 Sharp Corp 表示装置、入力装置及びタッチペン

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240442A (ja) * 1997-02-21 1998-09-11 Sharp Corp 情報処理装置
JP2006146936A (ja) * 2004-11-23 2006-06-08 Microsoft Corp 偶発的なタッチセンシティブ装置の活動化の低減のための入力方法
WO2013057862A1 (ja) * 2011-10-20 2013-04-25 シャープ株式会社 情報入力ペン

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3163415A4 *

Also Published As

Publication number Publication date
US20170153728A1 (en) 2017-06-01
JP6658518B2 (ja) 2020-03-04
US10191603B2 (en) 2019-01-29
CN106471450A (zh) 2017-03-01
JPWO2015198688A1 (ja) 2017-04-20
EP3163415A1 (en) 2017-05-03
EP3163415A4 (en) 2018-03-07
CN106471450B (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
WO2015198688A1 (ja) 情報処理装置、情報処理方法及びプログラム
EP3461291B1 (en) Implementation of a biometric enrollment user interface
JP6275839B2 (ja) リモコン装置、情報処理方法およびシステム
US10055064B2 (en) Controlling multiple devices with a wearable input device
US10346027B2 (en) Information processing apparatus, information processing method, and program
US9690475B2 (en) Information processing apparatus, information processing method, and program
WO2014144015A2 (en) Computing interface system
US10180783B2 (en) Information processing device, information processing method and program that controls movement of a displayed icon based on sensor information and user input
US20150077381A1 (en) Method and apparatus for controlling display of region in mobile device
US10140002B2 (en) Information processing apparatus, information processing method, and program
US10754446B2 (en) Information processing apparatus and information processing method
WO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102297473B1 (ko) 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
US20190384419A1 (en) Handheld controller, tracking method and system using the same
US9471154B1 (en) Determining which hand is holding a device
US20220019288A1 (en) Information processing apparatus, information processing method, and program
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5422694B2 (ja) 情報処理装置、コマンド実行制御方法及びコマンド実行制御プログラム
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
Chen et al. MobiRing: A Finger-Worn Wireless Motion Tracker
WO2018131245A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014021893A (ja) 情報処理装置、操作信号生成方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15811350

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016529127

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15316240

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015811350

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015811350

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE