WO2003104967A1 - 3次元空間内の任意の点を指定する処理のための情報処理方法 - Google Patents

3次元空間内の任意の点を指定する処理のための情報処理方法 Download PDF

Info

Publication number
WO2003104967A1
WO2003104967A1 PCT/JP2003/007334 JP0307334W WO03104967A1 WO 2003104967 A1 WO2003104967 A1 WO 2003104967A1 JP 0307334 W JP0307334 W JP 0307334W WO 03104967 A1 WO03104967 A1 WO 03104967A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
display screen
user
computer
value
Prior art date
Application number
PCT/JP2003/007334
Other languages
English (en)
French (fr)
Inventor
鈴木 章
榎本 繁
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to EP03733344A priority Critical patent/EP1513050A1/en
Publication of WO2003104967A1 publication Critical patent/WO2003104967A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04144Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces

Definitions

  • the present invention is applicable to, for example, a process of designating an arbitrary point in a three-dimensional space displayed on a two-dimensional display screen, and is suitable for an information processing method.
  • the present invention relates to a recordable recording medium, an information processing program, and an information processing apparatus. Background art
  • a user when specifying an arbitrary point in an image displayed on a two-dimensional display screen such as a liquid crystal display device or a CRT (Cathode Ray Tube), a user must use a mouse pointer, a tablet, or the like. A desired point was pointed to the system with an input device such as a touch panel or a touch panel, or with a finger.
  • a two-dimensional display screen such as a liquid crystal display device or a CRT (Cathode Ray Tube)
  • conventional systems have a configuration in which only the position of a point in the in-plane direction of the two-dimensional display screen can be specified. Cannot specify any point in the three-dimensional space.
  • an input device that specifies the position (x, y) of a point in the in-plane direction of the display screen
  • another method that specifies the position of a point in the vertical direction (z) (depth direction) with respect to the display screen is used.
  • Specify the position of an arbitrary point in three-dimensional space by using a method that uses the input device of the above or by directly inputting the three-dimensional coordinates (x, y, z) of the specified point.
  • the present invention has been made in order to solve the above-mentioned problems, and an object of the present invention is to easily and naturally operate any point in a three-dimensional space displayed on a two-dimensional display screen, and An object of the present invention is to provide an information processing method, a computer-readable recording medium on which the information processing program is recorded, an information processing program, and an information processing device, which enable the specification with high accuracy. Disclosure of the invention
  • a first feature of the present invention is that a three-dimensional space is displayed on a two-dimensional display screen, coordinate values and depth values of points in the two-dimensional display screen specified by a user are detected, and coordinate and depth values are detected.
  • the purpose is to specify the position in the three-dimensional space according to the size. That is, in the present invention, the position in the three-dimensional space specified by the user is specified based on the position of the point on the two-dimensional display screen specified by the user and the depth value at that point. According to such a configuration, the user can easily and accurately specify a point in the three-dimensional space with a natural operation feeling close to a motion in the real world.
  • a second feature of the present invention is that at least one object is displayed on a two-dimensional display screen, and a coordinate value and a depth value of a point on the two-dimensional display screen specified by a user are detected. Performing processing according to the magnitude of the depth value on the object specified by the coordinate value It is in. That is, in the present invention, a predetermined operation is performed on an object at a point designated by the user according to the magnitude of the depth value. According to such a configuration, even a user unfamiliar with the operation of the device can easily operate an object displayed in the two-dimensional display screen with a natural operation feeling.
  • FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a schematic diagram illustrating a configuration of the operation input unit according to the first embodiment of the present invention.
  • FIG. 3 is a schematic diagram showing an application example of the operation input unit shown in FIG.
  • FIG. 4 is a schematic diagram showing a connection relationship between the pressure-sensitive element shown in FIG. 2 and electric wiring.
  • FIG. 5 is a flowchart showing a method of specifying a three-dimensional coordinate value according to the embodiment of the present invention.
  • FIG. 6 is a schematic diagram for explaining a method of specifying the three-dimensional coordinate values shown in FIG.
  • FIG. 7 is a schematic diagram for explaining an application example of the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 8 is a schematic diagram for explaining an example of using the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 9 is a schematic diagram for explaining an example of using the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 10 is a schematic diagram for explaining an example of use of the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 11 is a schematic diagram for explaining an example of using the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 12 is a schematic diagram for explaining an example of use of the method of designating three-dimensional coordinate values shown in FIG.
  • FIG. 13 is a flowchart showing a method of operating an icon according to an embodiment of the present invention.
  • FIG. 14 is a schematic diagram illustrating a configuration of an operation input unit according to the second embodiment of the present invention.
  • FIG. 15 is a schematic diagram showing an application example of the operation input unit shown in FIG.
  • FIG. 16 is a schematic diagram showing an application example of the operation input unit shown in FIG.
  • FIG. 17 is a schematic diagram showing an application example of the operation input unit shown in FIG.
  • FIG. 18 is a flowchart illustrating the operation of the information processing apparatus according to the second embodiment of the present invention.
  • FIG. 19 is a schematic diagram showing an application example of the operation input unit according to the embodiment of the present invention.
  • FIG. 20 is a schematic diagram showing an application example of the operation input unit according to the embodiment of the present invention.
  • FIG. 21 is a schematic diagram illustrating an application example of the operation input unit according to the embodiment of the present invention.
  • An information processing apparatus is designed to specify and operate an arbitrary point in a three-dimensional space displayed on a two-dimensional display screen. This can be applied to a process that causes a predetermined process to be executed.
  • the configuration and operation of the information processing apparatus according to the first and second embodiments of the present invention will be described in detail.
  • an information processing apparatus 1 includes a CPU 2, a RAM 3, a ROM 4, a display unit 5, and an operation input unit 6 as main components. These components are electrically connected to each other via a bus wiring 7.
  • the CPU 2 is constituted by a general processor device, and controls the operation of the information processing device in accordance with a computer program stored in the ROM 4.
  • the RAM 3 is composed of volatile semiconductor memory and provides a computer program for realizing the processing executed by the CPU 2 and a work area for temporarily storing processing data.
  • the ROM 4 is composed of a non-volatile semiconductor memory, and includes a computer program such as a startup program (not shown) for the information processing apparatus and an interface program 8 (to be described in detail later). It has a program section 9 for storing programs and a processing data section 10 for storing processing data necessary for executing a computer program. Note that a part or all of the computer program and the processing data may be received via an electronic network.
  • the display unit 5 includes a display output device such as a liquid crystal display or a CRT, and displays various information such as a three-dimensional object in a two-dimensional screen according to an instruction from the CPU 2.
  • a flexible base such as a plastic film is used as the display unit 5.
  • a flexible display device using a panel may be used.
  • the operation input unit 6 is a device capable of detecting a coordinate value (x, y) and a pressing value P at an arbitrary point on the two-dimensional screen, which are specified by pressing with a finger or a predetermined input device by a user. It is composed of
  • the operation input unit 6 includes a touch panel unit 11 built in or bonded to the display unit 5 and a touch panel unit 11. It has a pressure-sensitive element 12 installed on the back, and a back plate 14 for supporting the pressure-sensitive element 12 from the back.
  • the touch panel section 11 detects the coordinate value (x, y) of a point on the two-dimensional screen pressed by the user using an existing detection method such as an infrared type, a pressure type, and an electromagnetic type.
  • the pressure-sensitive element 12 detects the pressure value P at a point on the two-dimensional screen pressed by the user, and outputs a pressure detection signal indicating the magnitude of the pressure value P to CPU2.
  • the back plate 14 is fixed to the apparatus main body 13 in a form as shown in FIGS.
  • the operation input unit 6 includes the coordinate detection mechanism (touch panel unit 11) and the pressing value detection mechanism (pressure-sensitive element 12) on the front of the display unit 5, respectively. ⁇ Since it is located on the back, the function of both the coordinate value detection mechanism and the pressure value detection mechanism is reduced as compared to the case where both functions are put together on the front of the display unit 5. As a result, when a user designates a point while observing the display unit 5 from an oblique direction, a shift generated between the display point and the pressed point can be reduced. .
  • the pressure-sensitive element 12 when the pressure-sensitive element 12 is arranged in front of the display unit 5, the pressure-sensitive element 12 having a small thickness is usually used to suppress the thickness of the display unit 5, but the above operation input is performed.
  • pressure sensitive elements 1 and 2 are displayed Since it is arranged on the back of the unit 5, for example, the operation input unit 6 has a certain degree of elasticity by giving the pressure-sensitive element 12 a certain thickness to widen the range of the detectable pressure value P.
  • the degree of freedom of design can be increased, for example, by giving it.
  • the manufacturing cost of the operation input unit can be reduced by using an inexpensive pressure-sensitive element.
  • the surface of the display unit 5 is usually softened, and the user may feel uncomfortable in operation. According to this, since the surface of the display unit 5 becomes moderately soft, the user does not feel uncomfortable in operation.
  • the back plate 14 is connected to the main unit 13 and the touch panel unit 11 itself is not fixed to the main unit 13, the pressing value of the point pressed by the user is set. P can be detected accurately.
  • the pressure-sensitive element 12 is connected in series via an electric wiring 15 as shown in FIG. 4A, for example, and detects the pressure value P for the entire touch panel section 11. You may do it. Further, as shown in FIG. 4 (b), for example, as shown in FIG. 4 (b), the pressure-sensitive element 12 is connected to each desired block via the electric wiring 15 and the pressing value P is detected for each block. Is also good. Further, as shown in FIG. 4 (c), for example, an electric wiring 15 may be connected to each pressure-sensitive element 12 to detect the pressing value P of each pressure-sensitive element 12.
  • an electronic circuit or software may be used. It is desirable to correct the two values so that they are the same by hardware-like processing. Also, soft According to the software-based correction processing, it is possible to easily deal with changes in correction values due to aging and differences in average pressing values due to individual differences and age differences between users. Should be performed by software-like processing.
  • the information processing apparatus As described above, in the first embodiment, the information processing apparatus
  • the user can specify and select an arbitrary three-dimensional position in the three-dimensional space displayed on the display unit 5.
  • the operation of the information processing apparatus 1 when the user specifies and selects an arbitrary three-dimensional position in the three-dimensional space will be described in detail with reference to a flowchart shown in FIG.
  • the flowchart shown in FIG. 5 is started when the user touches the two-dimensional display screen with a finger or a predetermined input device via the touch panel unit 11, and the CPU 2 operates according to the interface program 8. Perform the following processing.
  • step S1 the CPU 2 determines the coordinate value (x) of the point 16 (hereinafter, designated as the designated point 16) on the two-dimensional display screen designated by the user via the touch panel section 11 , y). Thereby, the process of step S1 is completed, and the designation process proceeds from the process of step S1 to the process of step S2.
  • step S2 the CPU 2 controls the display unit 5 to The cursor 17 is displayed at the detected coordinate position (x, y).
  • the process of step S2 is completed, and the designation process proceeds to the process of step S3 from the process card of step S2.
  • step S3 CPU2 detects the pressure value P at the designated point 16 with reference to the pressure detection signal output from the pressure-sensitive element 12. As a result, the process of step S3 is completed, and the designation process proceeds from the processing power of step S3 to the process of step S4.
  • step S4 the CPU 2 determines, as shown in FIG. 6, the depth of the drawing area 20 forming a three-dimensional space from the designated point 16 parallel to the line of sight 18 of the user. z) A straight line 19 extending in the direction is specified. Then, the CPU 2 moves and displays the cursor 17 along the straight line 19 in the depth (z) direction of the drawing area 20 by a distance corresponding to the magnitude of the pressing value P. After that, the CPU 2 sets the position where the cursor 17 stops at the 3D position in the drawing area 20 specified by the user, for example, by selecting the object at the position where the cursor 17 stops. And specify. Thus, the process of step S4 is completed, and a series of designated processes is completed.
  • the CPU 2 defines a straight line 19 parallel to the user's line of sight 18, but, for example, as shown in FIG. May be specified, and the cursor 17 may be moved and displayed along the straight line 21.
  • the user can understand how the cursor 17 moves in the depth direction of the drawing area 20 as compared with the case where a straight line 19 parallel to the line of sight 18 is used. It becomes easier.
  • the CPU 2 controls the display unit 5 to display the straight line 19 together with the cursor 17 so that the user can recognize the moving direction of the cursor 17.
  • the CPU 2 changes the size, color, brightness, and the like of the cursor 17 according to the position of the cursor 17 in the depth (z) direction, for example, in the three-dimensional space in the drawing area 20.
  • a drawing process such as displaying a state in which the object 17 and the cursor 17 interfere with each other, displaying a dalid line, and forming the drawing area 20 in a stereoscopic view, It is desirable that the user can easily grasp how the sol 17 moves in the depth direction of the drawing area 20.
  • the display screen vibrates or generates a sound as the cursor 17 interferes with an object in the drawing area 20.
  • the user may be able to easily grasp how the cursor 17 moves in the depth direction of the drawing area 20.
  • the information processing apparatus 1 detects the pressure value P at a point on the two-dimensional display screen specified by the user with the pressure-sensitive element 12 and determines the magnitude in the depth direction of the drawing area 20. Is recognized as the coordinate value (z).
  • the user designates a point on the two-dimensional display screen via the touch panel unit 11 so that the drawing that constitutes the three-dimensional space is performed.
  • the 3D position of any point in the region 20 can be easily specified.
  • this processing operation is similar to the actual three-dimensional position pointing operation in the real world, even a user who is unfamiliar with the operation of the device can easily draw the image without receiving training or training. Any three-dimensional position within 20 can be specified.
  • an object 22 composed of three-dimensionally arranged object elements as shown in Fig. 8 (a) is displayed on the display unit 5, and the user is able to specify the designated point in the object.
  • the specified point can be turned as shown in Fig. 9 as shown in Fig. 9. If the selected object element can be moved according to 23, the user can adjust the magnitude of the pressing value P to select the object element as shown in FIG. It is possible to intuitively change the number of object elements to be moved and to easily move a desired object element.
  • FIGS. 11 (a) to 11 (c) two points 23a and 23b on the touch panel section 11 are designated and these two points are moved. Therefore, when the operation of picking up the object 25 placed on the texture 24 is performed according to the magnitude of the pressing value P, as shown in FIG. 11D and FIG. By transforming 4, it is possible to give the user the feeling of actually picking up the object 25 in the real world.
  • the user does not need to perform a single-click operation or a double-click operation that is employed in a general computer system, and the display unit is not required. Operate the icons representing the folder files and application programs displayed in 5 with a natural feeling similar to real-world operations, and instruct the device to perform the processing corresponding to each operation can do.
  • the processing operation of the information processing apparatus 1 when the user operates the icon will be described in detail according to the flowchart shown in FIG.
  • the CPU 2 detects a change in the coordinate value (x, y) and the pressed value P of the specified point on the touch panel section 11 pressed by the user (event detection). ), And the CPU 2 executes the following processing in accordance with the interface program 8.
  • the CPU 2 stores information on the coordinate value (x, y) and the pressing value P of the designated point before the event detection in the RAM 3 in accordance with the interface program 8.
  • the user sets the first and second set values P 1, P 2 used when the CPU 2 determines which of the single click operation and the double click operation has been instructed. (P 1 ⁇ P 2) is input to the device in advance. Then, according to the input of the first and second set values P I, P 2, C P U
  • CPU2 is used to determine the detected pressure value P and the first and second set values P1 and P2 stored in ROM4.
  • the magnitude relation with P 2 is compared, and processing is executed as described below according to the magnitude relation.
  • the CPU 2 detects the detected event, for example, whether the user is pressing the designated point with a finger or the user is moving the finger away from the designated point.
  • the status of the immediately preceding event is stored in RAM 3 so that the contents can be recognized, and the detected event is compared with the status of the immediately preceding event to recognize a change in the status. Thus, the content of the detected event is determined.
  • the CPU 2 assigns the first set value P 1 corresponding to a single click operation to the designated point (PRESS 1 state), and sets the second set value P corresponding to a double click operation to P 2.
  • Two states are stored in RAM 3 as a status: a state in which 2 is given to the specified point (PRESS 2 state), and a state in which the finger is separated from the specified point (hereinafter referred to as the RELEASE state).
  • the CP 2 advances the operation processing from the processing power of steps S 11 and S 12 to the processing of step S 13, and proceeds to step S 13
  • the CPU refers to the data in RAM 3 to determine whether the status is the PRESS 2 state.
  • step S13 if the status is in the PRESS2 state, CPU2 waits until the next event is detected. On the other hand, if the result of determination is that the status is not the PRES S2 state, CPU 2 proceeds with this operation to step S14.
  • step S14 CPU2 sets the status to the PRESS2 state and stores it in RAM3.
  • step S14 is completed, and the operation process proceeds from the process of step S14 to the process of step S15.
  • step S15 the CPU 2 performs a process corresponding to a double-click operation such as, for example, starting an application program represented by an icon. As a result, the operation process for the detected event is completed, and the CPU 2 waits until the next event is detected.
  • the CPU 2 stops the operation processing. The process proceeds from the processing of steps S11 and S12 to the processing of step S16, and as the processing of step S16, the data in RAM 3 is referred to and the status is changed to PRESS2. Determine whether it is in the state.
  • the CPU 2 waits until the next event is detected. On the other hand, if the result of the determination is that the status is not in the PRESS 2 state, the CPU 2 advances this operation processing to the processing of step S17.
  • step S17 CPU2 refers to the data in RAM3 to determine whether or not the status is PRESS1. If the result of the determination is that the status is not the PRESS 1 state, the CPU 2 sets the status to the PRESS 1 state in the processing of the step S 18, and then proceeds to the step S 19. For example, the processing corresponding to a single click operation such as setting an application program represented by an icon to a selected state is executed. Then, upon completion of the process in the step S 19, the CPU 2 advances this operation process to a process in the step S 22.
  • step S 17 if the status is the PRESSI state, the CPU 2 determines that the specified point (x, y) is in RAM 3 in step S 20. It is determined whether the reference point ( ⁇ , ⁇ ) stored in the controller is separated from the force by DX1 or DX2 for a predetermined distance or more. If the result of the determination indicates that the designated point is not more than a predetermined distance from the reference point, the CPU 2 waits until the next event is detected.
  • step S 21 a processing operation corresponding to the drag process is executed. As a result, the processing of this step S21 is completed, and this operation processing proceeds from the processing of step S21 to the processing of step S22.
  • step S22 the CPU 2 uses the coordinate value (x, y) of the current designated point as the coordinate value (x0, yO) of the reference point used in the subsequent process. Store in. As a result, the operation process for the detected event is completed, and the CPU 2 waits until the next event is detected.
  • the CPU 2 advances the operation processing from the processing of the step S11 to the processing of the step S23, and proceeds to the processing of the step S23. Then, referring to the data in RAM 3, it is determined whether or not the status is in the PRESS 1 state. If the result of the determination indicates that the status is in the PRESS 1 state, the CPU 2 detects the event where the user releases the finger pressure after the user single-clicks the icon. (Hereinafter referred to as “release operation after single-click operation”), and the process goes to step S24 to return the status to the RELEASE state.
  • step S25 the processing corresponding to "release operation after single click operation", such as opening the folder if the icon is a folder, as the processing of step S25 Execute Then, when the processing in step S25 is completed, the CPU 2 returns this operation processing to the processing in step S11.
  • step S 23 determines whether the status is not in the PRESSI state. If the status is SPRESS 2 as a result of the determination, the CPU 2 detects the event at a stage where the user releases the finger pressure after the user double-clicks the icon.
  • step S27 the status is set to the RELEASE state and then the step is executed.
  • step S28 a process corresponding to "release operation after double click operation” is executed.
  • the CPU 2 returns this operation processing to the processing in step S11 described above.
  • step S26 determines whether the status is not the status SPRESS2 or the CPU 2 executes this operation process from step S26 to step S1. Return to step 1.
  • the information processing apparatus performs the single click operation by referring to the magnitude of the pressing value at the point on the two-dimensional display screen designated by the user. Then, it is determined which of the double-click operation and the double-click operation is instructed, and the processing corresponding to each operation is executed according to the determination result. According to such a process, the user does not have to perform a troublesome operation of once releasing his finger from the touch panel section 11 and pressing the same point again, and can perform the same operation on the two-dimensional display screen. It is possible to operate the icons displayed on the device, so that even a user unfamiliar with the operation of the device can easily operate the icons with a natural operation feeling. it can. In addition, the user operates the touch panel section 11 Since there is no need to release the finger, the icon can be operated faster than the double-click operation.
  • the operation processing target is an icon, but the above processing may be applied to, for example, an operation of a slide-type volume control function displayed on the display unit 5. It is.
  • the information processing apparatus according to the second embodiment of the present invention is different from the first embodiment in the configuration and operation of the operation input unit 6. Therefore, hereinafter, only the configuration and operation of the operation input unit 6 in the information processing apparatus according to the second embodiment of the present invention will be described in detail, and the description of the other components will be omitted because they are the same as above. I do.
  • the operation input unit 6 according to the second embodiment of the present invention is different from that of the first embodiment in that, as shown in FIG. 14, a touch panel to which the pressure-sensitive element 12 is not connected is used.
  • the unit 11 includes a plurality of vibrating elements 26 on the surface.
  • the vibrating element 26 is composed of a piezoelectric element or a solenoid, and when the user presses down the touch panel section 11 to operate, generates vibration corresponding to the operation content according to the control of the CPU 2. .
  • the vibrating element 26 shown in FIG. 14 is connected to the surface of the touch panel 11, for example, as shown in FIGS. 15 to 17, the vibrating element 26 is provided on the back of the back plate 14. May be connected. Further, a plurality of different vibration patterns may be generated by the CPU 2 individually controlling the plurality of vibration elements 26.
  • the vibration pattern of the tallic vibration generated when a mechanical button is pressed is stored in the ROM 4, and the user executes a predetermined process.
  • this vibration pattern is reproduced, a click feeling as if a mechanical button is pressed may be given to the user.
  • the magnitude of the vibration generated according to the change of the pressing value P may be changed.
  • a plurality of vibrating elements 26 are provided. However, when the user touches only one point on the surface of the touch panel section 11, the vibrating element 26 is used. May be generated.
  • the operation input unit 6 includes the touch panel unit by adding the vibrating element 26 to the operation input unit 6 of the first embodiment. It is configured to generate vibration corresponding to the operation content according to the control of the CPU 2 when the operation is performed by pressing 11.
  • the user can display the object displayed on the two-dimensional display screen. It is possible to operate with a natural operation feeling.
  • the display unit 5 displays a button for instructing the information processing apparatus to execute a predetermined process as an object on a two-dimensional display screen. 1
  • the processing assigned to each of the # buttons is instructed to the information processing unit.
  • the flowchart shown in Figure 18 shows that the CPU 2 It starts by detecting the change of the coordinate value (x, y) and the pressing value P of the point on the touch panel section 11 (event detection), and the CPU 2 executes the interface program. Perform the following processing according to 8.
  • step S31 CPU2 determines whether the pressing value P is equal to or greater than the first set value P1.
  • This determination process is a process for determining whether or not the user is touching the touch panel unit 11. If the determination result indicates that the pressing value P is not equal to or greater than the first set value P 1, the CPU In step S32, it is determined whether or not the button displayed on the two-dimensional display screen is in the ON state as the process of step S32.
  • the first set value P 1 is set in advance to a press value when the user touches the touch panel section 11 lightly with a finger.
  • step S32 the CPU 2 detects the event that the user pressed the touch panel section 11 corresponding to the button. After that, it is determined that the operation is in a stage where the pressure of the finger is released, and as a process in step S33, the vibrating element 26 is controlled to clear the button release button. Generates vibration. Thereafter, the CPU 2 sets the button pressed by the user to the OFF state as the processing of step S34, and then waits until the next event is detected. On the other hand, if the result of determination in step S32 is that the button is not on, processing for the detected event is complete and CPU 2 waits until the next event is detected.
  • step S31 if the pressing value P is equal to or larger than the first set value P1, the CPU 2 executes this operation processing from the processing in step S31. Proceed to step S35. Then, in the process of step S35, the CPU 2 determines whether or not the pressing value P is equal to or larger than the second set value P2 (here, P1 ⁇ P2). If the pressure value P is not equal to or greater than the second set value P2 as a result of the discrimination processing in step S35, the CPU 2 determines that the moved point is two-dimensional as the processing in step S36. It is determined whether or not the user has passed the position corresponding to the boundary of the button displayed on the display screen. The second set value P2 is set in advance to a pressure value when the user presses the touch panel section 11 with a finger.
  • step S36 determines whether the moved point has passed the position corresponding to the boundary line.
  • step S37 the vibrating element 26 is controlled to generate vibration corresponding to the step between the part where the button is displayed and the part where the button is not displayed, and the vibration is displayed on the two-dimensional display screen. Let the user recognize the shape of the displayed button. As a result, the processing for the detected event is completed, and the CPU 2 waits until the next event is detected. On the other hand, if the moved point does not pass through the position corresponding to the boundary as a result of the determination processing in step S36, the processing for the detected event is completed, and CPU 2 proceeds to the next step. Wait until an event is detected.
  • step S35 if the pressing value P is equal to or larger than the second set value P2, the CPU 2 advances this operation processing from the processing power in step S35 to the processing in step S38. . Then, in the process of step S38, the CPU 2 determines whether or not the moved point is located at a position corresponding to the button displayed on the two-dimensional display screen. . Then, as a result of the determination processing in step S38, if the moved point is located at a position corresponding to the position within the display area of the button, the CPU 2 determines that the detected event is the type corresponding to the button corresponding to the button by the user.
  • step S39 It is determined that the operation is that the touch panel section 11 was pressed, and the operation of step S39 is performed.
  • the button is pressed by controlling the vibrating element 26, a corresponding click vibration is generated, and the user is made aware that the button has been pressed.
  • the CPU 2 sets the button pressed by the user to the ON state in the process of step S40, and then waits until the next event is detected.
  • the discrimination processing in step S38 if the moved button is not at the corresponding position in the display area, the processing for the detected event is completed, and CPU 2 executes the next event. Wait until detected.
  • the information processing apparatus operates when the user operates an object displayed on the two-dimensional display screen via the touch panel unit 11.
  • the user is fed back with the tactile sensation corresponding to the pressed position of the touch panel section 11 and the pressure, such as the tactile sensation of the position and shape of the object and the click sensation according to the pressing strength, so that the user can
  • the object can be operated with a natural feeling of operation, and at the same time, the frequency of operation errors can be reduced.
  • the touch panel section 11 is built in or adhered to the display section 5, but as shown in FIG. 19, the touch panel section 11 is Instead, a flexible display 27 formed using a flexible base such as a plastic film is used as the display unit 5, and a plurality of flexible displays 27
  • the pressure-sensitive element 12 may be provided.
  • the shape of the display unit 5 changes flexibly as the user presses it, so that the display unit 5 is formed using a solid base such as a liquid crystal display device or a CRT device. It is possible to more accurately detect the pressure value at an arbitrary point pressed by the user, as compared with the case where the displayed display device is used.
  • the touch panel unit 11 is adhered to the surface of the flexible display 27, and the coordinate values of the point specified by the user are set to the touch panel unit 1.
  • the number of the pressure-sensitive elements 12 arranged on the back surface of the flexible display 27 may be reduced by performing the detection using 1.
  • a vibration element may be provided, and when the user touches the flexible display 27, the user may feed-knock a tactile sensation corresponding to the operation content to the user. Ray.
  • the above configuration it is possible to detect the shape of the user's finger or hand touching the two-dimensional display screen, and the manner and behavior of the touch on the two-dimensional display screen. Therefore, for example, by associating such information with a calling process of a predetermined function, the shape or movement of the hand or finger can be changed. Based on the work, it is possible to realize an unprecedented new operation method.
  • the operation input unit 6 may be constituted by a mouse pointer 30 as shown in FIG. 21 (a), for example.
  • the mouse pointer 30 shown in FIG. 21 (a) is composed of a general mouse pointer, and has a button unit 31 for switching the on / off state in accordance with a user operation, and a mouse unit 30 for the user. It comprises a detection unit 32 for detecting a position on the designated screen, and a pressure-sensitive element 33 disposed below the button unit 31.
  • the pressure-sensitive element 33 detects a pressure value when the user operates the button unit 31, and outputs a pressure detection signal indicating the magnitude of the pressure value to the CPU 2.
  • the mouse pointer 30 can only detect the on / off state of the button section 31.
  • the processing described in the above embodiment can be executed according to the magnitude of the pressing value when the unit 31 is operated.
  • the scroll value, the movement, the enlargement / reduction, and the cursor position can be detected by analogously detecting the press value when the user operates the button section 31.
  • Analog values can be easily input in various situations such as movement and volume adjustment.
  • the mouse element 30 may be provided with a vibrating element 26. According to such a configuration, a tactile sensation corresponding to the operation content is provided to the user. Feedback You can do it.
  • press values P max and P min corresponding to the maximum and minimum depth values in the three-dimensional space are defined in advance, and the press values P max and P min are compared with the press value P at the designated point. Thereby, the depth value in the three-dimensional space specified by the user may be calculated.
  • the relationship between the pressing value P and the depth value in the three-dimensional space is stored in a table in advance, and the pressing value P at the designated point is searched using the table, thereby obtaining the 3D value specified by the user.
  • the depth value of the dimensional space may be calculated.
  • the pressure value P at the specified point is within the defined width, the depth value corresponding to the pressure value P is recognized, so that the operation of specifying the depth value object can be performed. It will be easier.
  • the information processing apparatus 1 detects and uses the magnitude of the pressing value P at the designated point as the depth value of the designated point.
  • Non-contact input device that detects the distance between the two (-depth direction), and the user's movement in the vertical (depth) direction with respect to the display screen of the display device using techniques such as pattern matching processing
  • a value detected using a camera device (a so-called stereo camera) that performs the measurement may be used as the depth value of the designated point. Further, in this case, the information processing apparatus 1 may change the depth value of the designated point in accordance with the change in the detected value.
  • the present invention can be applied to, for example, a process of designating an arbitrary point in a three-dimensional space displayed on a two-dimensional display screen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

2次元表示画面上に3次元空間を表示し、ユーザが指定した2次元表示画面内の点の座標値及び押圧値を検出し、座標値及び押圧値の大きさに従って3次元空間内の位置を特定する。これにより、ユーザは、2次元表示画面上の点を指定することにより3次元空間内の任意の点の位置を簡単に指定することができるようになり、現実世界における動作に近い自然な操作感で、3次元空間内の任意の点を容易、且つ、精度高く指定することが可能となる。

Description

明細書
3次元空間内の任意の点を指定する処理のための情報処理方法
技術分野
本発明は、 例えば 2次元表示画面上に表示されている 3 次元空 間内の任意の点を指定する処理に適用 して好適な、 情報処理方法 情報処理プロ グラムを記録した コ ン ピ ュータ読み取 り 可能な記 録媒体、 情報処理プロ グラム、 及ぴ情報処理装置に関する。 背景技術
従来、 液晶ディ スプレイ装置や C R T ( C atho de Ray Tub e ) 等 の 2 次元表示画面上に表示されている画像の中の任意の点を指 定する場合には、 ユーザは、 マウスポイ ンタ, タブレッ ト, タ ツ チパネル等の入力装置や指で所望の点をシス テ ム に対し指示 し ていた。
しかしなが ら、 一般に、 従来までのシステ ム は 2次元表示画面 の面内方向における点の位置しか指定する こ と ができ ない構成 と なっているために、 例えば 2次元表示画面上に表示されている 3次元空間内の任意の点を指定する こ とができない。 なお、 例え ば、 表示画面の面内方向における点の位置 (x,y)を指定する入力 装置に加えて、 表示画面に対し垂直方向 (z ) (奥行方向) の点の 位置を指定する別の入力装置を利用する方法や、 指定する点の 3 次元座標 (x,y, z ) を直接入力する方法を用いる こ とによ り 、 3次 元空間内の任意の点の位置を指定する こ と も考えられるが、 こ の 方法を用いた場合には、 ユーザの操作が非常に煩雑と な り 、 点を 簡単に指定する こ とができなく なって しま う。 また、 例えば 3次 元マ ウスボイ ンタ を利用 して 3 次元空間内の点の位置を指定す る方法も考えられるが、 一般的に、 3次元マウスポイ ンタは、 ュ 一ザが空中で操作する構成と なっているために、 点を指定する際 にはユーザは多く の労力が必要と なるばかり でなく、 システムに 対し点を正確に指定するこ とが難しい。
本発明は、 上記課題を解決するためになされたものであ り 、 そ の 目的は、 2次元表示画面に表示されている 3次元空間内の任意 の点を 自然な操作感で容易、 且つ、 精度高く 指定する こ と を可能 にする、 情報処理方法、 情報処理プロ グラムを記録したコ ンビュ ータ読み取り 可能な記録媒体、 情報処理プロ グラム、 及び情報処 理装置を提供する こ と にある。 発明の開示
本発明の第 1 の特徴は、 2次元表示画面上に 3次元空間を表示 し、 ユーザが指定した 2次元表示画面内の点の座標値及び奥行値 を検出 し、 座標値及ぴ奥行値の大き さに従って 3次元空間内の位 置を特定する こ と にある。 すなわち、 この発明においては、 ユー ザが指定した 2 次元表示画面上の点の位置とその点における奥 行値に基づいてユーザが指定する 3 次元空間内の位置を特定す る。 こ のよ う な構成によれば、 ユーザは、 現実世界における動作 に近い自然な操作感で、 3次元空間内の点を容易、 且つ、 精度高 く 指定するこ とができ る。
また、 本発明の第 2 の特徴は、 2次元表示画面上に少なく と も 一つのオブジェク トを表示し、 ユーザが指定した 2次元表示画面 上の点の座標値及ぴ奥行値を検出し、 座標値によ り指定されるォ ブジェ ク ト に対し奥行値の大き さ に応 じた処理を実行する こ と にある。 すなわち、 この発明においては、 奥行値の大き さに応じ てユーザが指定した点にあるオブジェ ク ト に対して所定の操作 を実行する。 このよ う な構成によれば、 装置の操作に不慣れなュ 一ザであっても 自然な操作感で簡単に 2 次元表示画面内に表示 されているオブジェク トを操作する こ とができ る。 図面の簡単な説明
図 1 は、 本発明の第 1 の実施の形態と なる情報処理装置の構成 を示すブロ ック図である。
図 2 は、 本発明の第 1 の実施の形態と なる操作入力部の構成を 示す模式図である。
図 3 は、 図 2 に示す操作入力部の応用例を示す模式図である。 図 4 は、 図 2 に示す感圧素子と電気配線の接続関係を示す模式 図である。
図 5 は、 本発明の実施の形態と なる 3次元座標値の指定方法を 示すフローチヤ一ト図である。
図 6 は、 図 5 に示す 3次元座標値の指定方法を説明するための 模式図である。
図 7 は、 図 6 に示す 3次元座標値の指定方法の応用例を説明す るための模式図である。
図 8 は、 図 5 に示す 3次元座標値の指定方法の利用例を説明す るための模式図である。
図 9 は、 図 5 に示す 3次元座標値の指定方法の利用例を説明す るための模式図である。
図 1 0 は、 図 5 に示す 3次元座標値の指定方法の利用例を説明 するための模式図である。 図 1 1 は、 図 5 に示す 3次元座標値の指定方法の利用例を説明 するための模式図である。
図 1 2 は、 図 5 に示す 3次元座標値の指定方法の利用例を説明 するための模式図である。
図 1 3は、 本発明の実施の形態となるアイ コ ンの操作方法を示 すフローチヤ一 ト図である。
図 1 4 は、 本発明の第 2 の実施の形態となる操作入力部の構成 を示す模式図である。
図 1 5 は、 図 1 4 に示す操作入力部の応用例を示す模式図であ る。
図 1 6 は、 図 1 4 に示す操作入力部の応用例を示す模式図であ る。
図 1 7 は、 図 1 4 に示す操作入力部の応用例を示す模式図であ る。
図 1 8 は、 本発明の第 2 の実施の形態となる情報処理装置の動 作を説明するためのフローチヤ一ト図である。
図 1 9 は、 本発明の実施の形態と なる操作入力部の応用例を示 す模式図である。
図 2 0 は、 本発明の実施の形態と なる操作入力部の応用例を示 す模式図である。
図 2 1 は、 本発明の実施の形態となる操作入力部の応用例を示 す模式図である。 発明を実施するための最良の形態
本発明に係る情報処理装置は、 2次元表示画面上に表示されて いる 3 次元空間内の任意の点を指定、 操作する こ とによ り 、 装置 に対し所定の処理を実行させる処理に適用する こ とができ る。 以 下、 本発明の第 1及び第 2の実施の形態と なる情報処理装置の構 成及び動作について詳しく説明する。
[第 1 の実施形態]
〔情報処理装置の構成〕
本発明の第 1 の実施形態と なる情報処理装置 1 は、 図 1 に示す よ う に、 C P U 2 、 R AM 3 、 R O M 4 、 表示部 5 、 及び操作入 力部 6 を主な構成要素と して備え、 これらの構成要素はバス配線 7 を介して互いに電気的に接続されている。
上記 C P U 2 は、 一般的なプロセ ッサ装置によ り構成され、 R O M 4 内に記憶されたコ ン ピ ュータプロ グラムに従って情報処 理装置の動作を制御する。
上記 R AM 3 は、 揮発性の半導体メモ リ によ り 構成され、 C P U 2 が実行する処理を実現する コ ンピュータプロ グラムや処理 用データを一時的に格納する ワークエリ アを提供する。
上記 R O M 4 は、 不揮発性の半導体メモ リ によ り構成され、 情 報処理装置の起動プログラム (図示せず) やイ ンタ フ ェイ スプロ グラム 8 (詳しく は後述する) 等のコ ン ピュータプロ グラムを格 納するプロ グラム部 9 と 、 コ ン ピュータプロ グラ ムの実行に必要 な処理用データ を格納する処理用データ部 1 0 と を備える。 なお コ ン ピュータプログラムや処理用データは、 その一部若しく は全 部を電子ネ ッ ト ワーク を介して受信する よ う にしても よい。
上記表示部 5 は、 液晶ディ スプレイや C R T等の表示出力装置 によ り構成され、 C P U 2 の指示に従って 3次元オブジェク ト等 の様々な情報を 2次元画面内に表示する。 なお、 その他の実施の 形態と して、 表示部 5 と してプラスチック フ ィ ルム等の柔軟な基 盤を用いたフ レキシブルディ ス プ レイ装置を利用 して も よい。 上記操作入力部 6 は、 ユーザが指や所定の入力装置によ り 押下 して指定した、 2次元画面上の任意の点における座標値 (x , y)及 ぴ押圧値 P を検出可能な装置によ り構成される。 こ の第 1 の実施 の形態においては、 操作入力部 6 は、 図 2 に示すよ う に、 表示部 5 に内蔵若しく は接着されたタ ツチパネル部 1 1 と、 タ ツチパネ ル部 1 1 の背面に設置された感圧素子 1 2 と、 感圧素子 1 2 を背 面から支持する裏板 1 4 を備える。
こ こで、 上記タ ツチパネル部 1 1 は、 赤外線式、 圧力式、 電磁 式等の既存の検出方式によ り ユーザが押下した 2次元画面上の 点の座標値 (x , y)を検出する。 また、 感圧素子 1 2 はユーザが押 下した 2次元画面上の点における押圧値 P を検出 し、 押圧値 Pの 大き さを示す圧力検知信号を C P U 2 に出力する。 また、 上記裏 板 1 4 は、 図 2や図 3 に示すよ う な形態で装置本体 1 3 に固定さ れている。
上記のよ う に、 こ の実施の形態となる操作入力部 6 は、 座標検 出機構 (タ ツチパネル部 1 1 ) と押圧値検知機構 (感圧素子 1 2 ) がそれぞれ表示部 5 の前面及ぴ背面に配置されているので、 座標 値検出機構と押圧値検知機構の両方の機能をま と めて表示部 5 の前面に配置した場合と比較して、 表示部 5部分の厚みを薄く す る こ とが可能と な り 、 この結果、 ユーザが表示部 5 を斜め方向か ら見て点を指定した際に表示点と押下点 と の間に生じるずれを 小さ く する こ とができ る。
また、 感圧素子 1 2 を表示部 5 の前面に配置する場合には、 通 常、 表示部 5部分の厚みを抑えるために、 厚みの小さい感圧素子 1 2 を利用するが、 上記操作入力部 6 では、 感圧素子 1 2 は表示 部 5 の背面に配置されているので、 例えば、 感圧素子 1 2 にある 程度の厚みを持たせて検出可能な押圧値 Pの範囲を広く する、 操 作入力部 6 にある程度の弾力性を持たせる等、 設計の自 由度が増 すこ とができ る。 また、 感圧素子 1 2 が透明である必要性がなく なるので、 安価な感圧素子を利用 して操作入力部の製造コス ト を 削減するこ とができ る。
また、 圧力検出機構を表示部 5 の前面に設置した場合には、 通 常、 表示部 5表面が軟らかく な り 、 ユーザが操作上違和感を感じ る こ とがあるが、 このよ う な構成によれば、 ¾示部 5表面は適度 な軟らかさ になるので、 ユーザが操作上違和感を感じる こ とがな レヽ
さ らに、 裏板 1 4 を装置本体 1 3 に接続し、 タ ツチパネル部 1 1 自体は装置本体 1 3 に固定しないよ う に構成しているので、 ュ 一ザが押下した点の押圧値 P を正確に検出する こ とができ る。
なお、 上記感圧素子 1 2 は、 例えば図 4 ( a ) に示すよ う に電 気配線 1 5 を介して直列に接続し、 タ ツチパネル部 1 1 全体につ いて押圧値 P を検出する よ う に して も よい。 また、 例えば図 4 ( b ) に示すよ う に、 感圧素子 1 2 を電気配線 1 5 を介して所望 のプロ ック毎に接続し、 プロ ック領域毎に押圧値 P を検出 しても よい。 また、 例えば図 4 ( c ) に示すよ う に、 各感圧素子 1 2 に 電気配線 1 5 を接続し、 各感圧素子 1 2 の押圧値 P を検出 しても よい。
また、 ユーザの押圧値 P と感圧素子 1 2の圧力検知信号の値と が異なる場合や、 2次元平面内の位置によって押圧値 Pの検出精 度が異なる場合には、 電子回路やソフ ト ウェア的な処理によ り 両 者の値が同 じになる よ う に補正する こ と が望ま しい。 また、 ソ フ ト ウエア的な捕正処理によれば、 経年変化に伴う補正値の変化や ユーザの個人差や年齢差に伴 う 平均押圧値の違いについても簡 単に対応するこ とができるので、 上記補正処理はソフ ト ウヱァ的 な処理によ り行う と よい。
このよ う に、 この第 1 の実施の形態においては、 情報処理装置
1 は、 タ ツチパネル部 1 1 と感圧素子 1 2 によ り ユーザが指定し た 2次元表示画面上の任意の点における座標値 ( x, y)及び押圧値 P をそれぞれ独立 して検出する こ と ができ る よ う に構成されて いる。
〔情報処理装置の動作〕
『 3次元位置の指定, 選択』
上記のよ う な構成を有する情報処理装置 1 によれば、 ユーザは 表示部 5 に表示されている 3 次元空間内の任意の 3 次元位置を 指定、 選択する こ とができ る。 以下、 図 5 に示すフローチャー ト を参照 して、 ユーザが 3次元空間内の任意の 3 次元位置を指定、 選択する際の情報処理装置 1 の動作について詳しく 説明する。
図 5 に示すフローチャー トは、 ユーザが、 タ ツチパネル部 1 1 を介して 2 次元表示画面に指や所定の入力装置で触れる こ と で 開始と な り 、 C P U 2 がイ ンタフヱイ スプロ グラム 8 に従って以 下の処理を実行する。
ステ ップ S 1 の処理では、 C P U 2 が、 タ ツチパネル部 1 1 を 介してユーザが指定した 2次元表示画面上の点 1 6 (以下、 指定 点 1 6 と表記する) の座標値 (x , y)を検出する。 これによ り 、 こ のステップ S 1 の処理は完了 し、 こ の指定処理はステップ S 1 の 処理からステップ S 2 の処理に進む。
ステ ップ S 2 の処理では、 C P U 2が、 表示部 5 を制御 して、 検出 した座標位置 (x,y)にカーソル 1 7 を表示出力する。 これに よ り 、 このステ ップ S 2 の処理は完了 し、 この指定処理はステツ プ S 2 の処理カゝらステップ S 3 の処理に進む。
ステ ップ S 3 の処理では、 C P U 2 が、 感圧素子 1 2 から出力 される圧力検知信号を参照して、 指定点 1 6 における押圧値 P を 検出する。 これによ り 、 このステ ップ S 3 の処理は完了し、 この 指定処理はステ ップ S 3 の処理力 らステ ップ S 4 の処理に進む。
ステ ップ S 4 の処理では、 C P U 2 が、 図 6 に示すよ う に、 ュ 一ザの視線 1 8 と平行な、 指定点 1 6 から 3次元空間を構成する 描画領域 2 0 の奥行き (z) 方向に伸びる直線 1 9 を規定する。 そ して、 C P U 2 は、 こ の直線 1 9 上に沿ってカーソル 1 7 を押 圧値 P の大き さ に対応する距離だけ描画領域 2 0 の奥行き (z) 方向に移動表示する。 その後、 C P U 2 は、 例えばカーソル 1 7 が停止した位置にあるオブジェク ト を選択状態にする等して、 力 一ソル 1 7 が停止 した位置をユーザが指定した描画領域 2 0 内 の 3次元位置と特定する。 これによ り 、 このステ ップ S 4 の処理 は完了 し、 一連の指定処理は終了する。
こ こで、 上記の処理では、 C P U 2 は、 ユーザの視線 1 8 と平 行な直線 1 9 を規定したが、 例えば図 7 に示すよ う に、 ユーザの 視線 1 8 と平行でない直線 2 1 を規定し、 この直線 2 1 に沿って カーソル 1 7 を移動表示しても よい。 このよ う な構成によれば、 視線 1 8 と平行な直線 1 9 を用いた場合と比べ、 ユーザはカーソ ル 1 7 が描画領域 2 0 の奥行き方向に移動する様子を把握する こ とがよ り容易と なる。 なお、 この時、 C P U 2 は、 表示部 5 を 制御して、 カーソル 1 7 と併せて直線 1 9 も表示する よ う にして カー ソル 1 7 の移動方向をユーザに認識させる よ う に しても よ レヽ 0
また、 C P U 2 は、 例えば、 カ ー ソル 1 7 の大 き さ , 色, 輝度 等をカーソル 1 7 の奥行き (z) 方向の位置に応じて変化させる、 描画領域 2 0 内の 3 次元空間内のオブジェ ク ト と カー ソル 1 7 が干渉する様子を表示する、 ダリ ッ ド線を表示する、 描画領域 2 0 を立体視によ り形成する等の描画処理を行う こ と によ り 、 カー ソル 1 7 が描画領域 2 0 の奥行き方向に移動する様子をユーザ が簡単に把握する こ とができ るよ う にする こ とが望ま しい。
なお、 上記のよ う な視覚的な処理以外にも、 例えば、 カー ソル 1 7 が描画領域 2 0 内のオブジェ ク ト と干渉するに応 じて表示 画面を振動させた り 、 音を発生する等の処理を実行するこ と によ り 、 カーソル 1 7 が描画領域 2 0 の奥行き方向に移動する様子を ユーザが簡単に把握する こ と ができ る よ う にしてもよい。
このよ う に、 上記情報処理装置 1 は、 ユーザが指定した 2次元 表示画面上の点における押圧値 P を感圧素子 1 2 によ り 検出 し、 その大き さ を描画領域 2 0 の奥行き方向の座標値 (z ) と して認 識する。 この よ う な情報処理装置 1 の処理動作によれば、 ユーザ はタ ツチパネル部 1 1 を介 して 2 次元表示画面上の点を指定す る こ と によ り 、 3次元空間を構成する描画領域 2 0 内の任意の点 の 3 次元位置を簡単に指定するこ とができる。 また、 この処理動 作は現実世界における実際の 3 次元位置指示動作に近いも ので あるので、 装置の操作に不慣れなユーザであっても教育や ト レー ニングを受ける こ と な く 簡単に描画領域 2 0 内の任意の 3 次元 位置を指定する こ とが可能と なる。
なお、 上記のよ う な 3次元位置の指定動作は、 具体的には以下 に示すよ う なオブジェク トの操作に対し適用 して好適である。 例 えば、 図 8 ( a ) に示すよ う な 5層のォブジェク ト要素が立体的 に配置された構成のォブジェク ト 2 2 が表示部 5 に表示され、 ュ 一ザは、オブジェク ト 中に指定点 2 3 を指定した後に(図 8 ( b ) ) この指定点 2 3 を移動する こ と によ り (図 8 ( c ) )、 図 9 に示す よ う にページをめ く る感覚で指定点 2 3 によ り 選択されたォブ ジェク ト要素を移動するこ とができ る場合、 ユーザは、 押圧値 P の大き さを調節する こ とによ り 、 図 1 0 に示すよ う に選択される オブジェク ト要素の数を直感的に変化させ、 所望のオブジェク ト 要素を簡単に移動させるこ とができる。
また、 例えば図 1 1 ( a ) 〜 ( c ) に示すよ う に、 タ ツチパネ ル部 1 1 上の 2つの点 2 3 a , 2 3 b を指定し、 この 2点を移動 する こ と によ り 、 テク スチャ 2 4上に配置されたオブジェク ト 2 5 を摘み取る操作を行 う際に、 押圧値 Pの大き さに従って図 1 1 ( d ) や図 1 2 に示すよ う にテク スチャ 2 4 を変形させる こ と に よ り 、 現実世界で実際にオブジェク ト 2 5 を摘み取っている よ う な感覚をユーザに与えるこ とができる。
『ダブルク リ ック無し操作』
上記のよ う な構成を有する情報処理装置 1 によれば、 ユーザは 一般的なコ ン ピュータ システムにおいて採用 されている シング ルク リ ック操作やダブルク リ ック操作を行う こ となく 、 表示部 5 に表示されている フォルダフ ァ イルやアプ リ ケーシ ョ ンプロ グ ラ ムを表すアイ コ ンを現実世界の操作に近い 自 然な操作感で操 作し、 各操作に対応する処理を装置に指示する こ とができ る。 以 下、 図 1 3 に示すフ ローチャー ト に従って、 ユーザがアイ コ ンを 操作する際の上記情報処理装置 1 の処理動作について詳 しく 説 明する。 図 1 3 に示すフローチャー トは、 C P U 2が、 ユーザが押下し ているタ ツチパネル部 1 1 上の指定点の座標値 ( x,y)及ぴ押圧値 P の変化を検出 (イベン ト検知) する こ とで開始と な り 、 C P U 2 はィ ンタ フェイ スプロ グラム 8 に従つ て以下の処理を実行す る。
なお、 以下の処理において、 C P U 2 は、 イ ンタフェイスプロ グラム 8 に従って、 イベン ト検知前の指定点の座標値 ( x,y)及ぴ 押圧値 Pに関する情報を R A M 3 内に記憶する。 また、 ユーザは、 C P U 2 がシングルク リ ッ ク操作及びダブルク リ ッ ク操作の ど ち らの操作が指示されたのかを判別する 際に使用する第 1 及び 第 2設定値 P 1 , P 2 ( P 1 < P 2 ) を予め装置に入力 しておく 。 そ して、 第 1 及び第 2設定値 P I , P 2 の入力に応じて、 C P U
2 は、 入力 された値を R O M 4 内に格納する。
ステップ S 1 1, S 1 2 の処理では、 C P U 2 が、 検出 した押 圧値 P と R O M 4 内に格納されている第 1及び第 2設定値 P 1 ,
P 2 との大小関係を比較し、 その大小関係に応じて以下のよ う に 場合分けを して処理を実行する。
以下、 (i) 第 2設定値 P 2 <押圧値 Pである場合、 (ii) 第 1 設 定値 P l <押圧値 P <第 2設定値 P 2 である場合、 ( iii) 押圧値 P <第 1 設定値 P 1 である場合の 3 つの場合に分けて情報処理 装置の動作を説明する。
なお、 以下の処理では、 C P U 2 は、 例えばユーザが指定点を 指で押圧している状態なのか、 又は、 指定点から指を離そ う と し ている状態なのか等、 検出 したイベン ト の内容を認識可能なよ う に、 直前のイベン ト の状態を R AM 3 内に記憶し、 検出 したィべ ン ト と 直前のィ ベン トの状態と を比較して状態の変化を認識す る こ と によ り 、 検出 したィベン ト の内容を判定する。 具体的には、 C P U 2 は、 シングルク リ ック操作に相当する第 1設定値 P 1 を 指定点に与えた状態 ( P R E S S 1 状態)、 ダブルク リ ッ ク操作 に相当する第 2設定値 P 2 を指定点に与えた状態 ( P R E S S 2 状態)、 指定点から指が離れた状態 (以下、 R E L E A S E状態 と表記する) の 3つの状態をステータス と して R AM 3 内に格納 する。
(i) 第 2設定値 P 2 <押圧値 P の場合
第 2設定値 P 2 <押圧値 Pである場合、 C Pひ 2 は、 操作処理 をステ ップ S 1 1 , S 1 2 の処理力 らステップ S 1 3 の処理に進 め、 ステップ S 1 3 の処理と して、 R AM 3 内のデータ を参照し て、 ステータスが P R E S S 2状態であるか否かを判別する。
そ して、 ステ ップ S 1 3 の判別処理の結果、 ステータ スが P R E S S 2状態である場合には、 C P U 2 は次のィベン トが検知さ れるまで待機する。 一方、 判別の結果、 ステータスが P R E S S 2状態でない場合には、 C P U 2 はこの操作処理をステ ップ S 1 4 の処理に進める。
ステ ップ S 1 4 の処理では、 C P U 2 が、 ステータス を P R E S S 2状態に設定し、 R AM 3 内に記憶する。 これによ り 、 この ステップ S 1 4 の処理は完了 し、 この操作処理はステップ S 1 4 の処理からステ ップ S 1 5 の処理に進む。
ステップ S 1 5 の処理では、 C P U 2が、 例えばアイ コンが表 すアプリ ケーシ ョ ンプロ グラ ムを起動する等のダブルク リ ッ ク 操作に対応する処理を行う。 これによ り 、 検知したイベン トに対 する操作処理は完了 し、 C P U 2 は次のイベン トが検知されるま で待機する。 (ii) 第 1 設定値 P I <押圧値 P <第 2設定値 P 2 の場合 第 1 設定値 P 1 <押圧値 P <第 2設定値 P 2 である場合、 C P U 2 は、 操作処理をステ ップ S 1 1 , S 1 2 の処理からステ ップ S 1 6 の処理に進め、 ステ ップ S 1 6 の処理と して、 R AM 3 内 のデータ を参照 して、 ステータスが P R E S S 2 状態であるか否 かを判別する。 そ して、 判別の結果、 ステータ スが P R E S S 2 状態である場合、 C P U 2 は次のィベン トが検知 される まで待機 する。 一方、 判別の結果、 ステータ スが P R E S S 2 状態でない 場合には、 C P U 2 はこの操作処理をステップ S 1 7 の処理に進 める。
ステ ップ S 1 7 の処理では、 C P U 2 が、 R AM 3 内のデ タ を参照 して、 ステータスが P R E S S 1 状態であるか否かを判別 する。 そ して、 判別の結果、 ステータスが P R E S S 1 状態でな い場合には、 C P U 2 は、 ステ ップ S 1 8 の処理においてステー タス を P R E S S 1 状態に設定した後、 ステ ップ S 1 9 の処理と して、 例えばアイ コ ンが表すアプリ ケーショ ンプロ グラムを選択 状態にする等のシングルク リ ッ ク操作に対応する処理を実行す る。 そ して、 ステ ップ S 1 9 の処理が完了する と 、 C P U 2 はこ の操作処理をステ ップ S 2 2 の処理に進める。
一方、 ステ ップ S 1 7 の判別処理の結果、 ステータスが P R E S S I 状態である場合には、 C P U 2 は、 ステ ップ S 2 0 の処理 と し て 、 指定点(x,y)が R A M 3 内 に 記憶 さ れ て い る 基準点 (χθ,γθ) 力 ら所定の距離以上 DX1,DX2 離れているか否かを判別 する。 そ して、 判別の結果、 指定点が基準点から所定の距離以上 離れていない場合、 C P U 2 は次のイベン トが検知 される まで待 機する。 一方、 指定点が基準点から所定の距離以上離れている場 合には、 C P U 2 は、 検知 したイベン ト はユーザがシングルタ リ ッ ク 操作によ り 指定 したアイ コ ンを移動する ドラ ッ グ操作であ る と判断し、 ステ ップ S 2 1 の処理と して、 ドラ ッ グ処理に対応 する処理動作を実行する。 これによ り 、 このステ ップ S 2 1 の処 理は完了 し、 こ の操作処理はステ ップ S 2 1 の処理からステ ップ S 2 2 の処理に進む。
ステ ップ S 2 2 の処理では、 C P U 2 が、 現在の指定点の座標 値 (x,y) を、 以後の処理に利用する基準点の座標値 (x0,yO) と して R AM 3 内に格納する。 これによ り 、 検知 したイベン ト に対 する操作処理は完了 し、 C P U 2 は次のイ ベン ト が検知 されるま で待機する。
(iii) 押圧値 P <第 1 設定値 P I の場合
押圧値 P <第 1 設定値 P 1 である場合、 C P U 2 は、 操作処理 をステ ップ S 1 1 の処理からステ ップ S 2 3 の処理に進め、 ステ ップ S 2 3 の処理と して、 R AM 3 内のデータ を参照 して、 ステ 一タ スが P R E S S 1 状態である否かを判別する。 そ して、 判別 の結果、 ステータ ス が P R E S S 1 状態である場合には、 C P U 2 は、 検知したイベン ト はユーザがアイ コ ンをシングルク リ ッ ク した後に指の圧力 を抜いてい く 段階の動作 (以下、 「シングルク リ ッ ク操作後の リ リ ース動作」 と表記する) である と判断し、 ス テ ツ プ S 2 4 の処理にぉレ、てステータ ス を R E L E A S E状態 に設定した後、 ステ ップ S 2 5 の処理と して、 例えばアイ コ ンが フォルダであればフォルダを開 く 等の 「シングルク リ ッ ク操作後 の リ リ ース動作」 に対応する処理を実行する。 そ して、 ステ ップ S 2 5 の処理が完了する と 、 C P U 2 はこの操作処理をステ ップ S 1 1 の処理に戻す。 一方、 ステ ップ S 2 3 の判別処理の結果、 ステータスが P R E S S I 状態でない場合には、 C P U 2 は、 ステ ップ S 2 6 の処理 と して、 R AM 3 内のデータ を参照 して、 ステータスが P R E S S 2状態であるか否かを判別する。 そ して、 判別の結果、 ステー タス力 S P R E S S 2 状態である場合、 C P U 2 は、 検知したィべ ン ト はユーザがアイ コ ンをダブルク リ ッ ク した後に指の圧力 を 抜いてい く 段階の動作 (以下、 「ダブルク リ ッ ク操作後の リ リ ー ス動作」 と表記する) である と判断し、 ステ ップ S 2 7 の処理に おいてステータス を R E L E A S E状態に設定した後、 ステ ップ S 2 8 の処理において、 「ダブルク リ ッ ク操作後の リ リ ース動作」 に対応する処理を実行する。 そ して、 ステ ップ S 2 8 の処理が完 了する と 、 C P U 2 は、 この操作処理を上述のステップ S 1 1 の 処理に戻す。 一方、 ステ ップ S 2 6 の処理において、 ステータス 力 S P R E S S 2 状態でないと判別された場合には、 C P U 2 はこ の操作処理をステ ッ プ S 2 6 の処理カゝ ら ステ ッ プ S 1 1 の処理 に戻す。
このよ う に、 この第 1 の実施の形態 と なる情報処理装置は、 ュ 一ザが指定 した 2 次元表示画面上の点におけ る押圧値の大き さ を参照 して シングルク リ ッ ク操作及びダブルク リ ッ ク操作の ど ち ら を指示 している のかを判別 し、 その判別結果に応 じて各操作 に対応する処理を実行する。 このよ う な処理によれば、 ユーザは、 タ ツチパネル部 1 1 か ら一旦指を離 して再度同 じ点を押すよ う な面倒な操作を行 う こ と な く 、 2 次元表示画面上に表示されてい る アイ コ ンを操作する こ と ができ る よ う になるので、 装置の操作 に不慣れなユーザであっ て も 自 然な操作感で簡単にアイ コ ンを 操作する こ と ができ る。 また、 ユーザはタ ツチパネル部 1 1 力、ら 一且指を離す必要がないために、 ダブルク リ ック操作よ り も速く アイ コンを操作する こ とが可能となる。
なお、 上記の説明においては、 操作処理対象をアイ コ ンと した が、 例えば表示部 5 に表示されているスライ ド式のボリ ュームコ ン ト ロール機能の操作についても上記処理を適用する こ と がで さ る。
[第 2 の実施形態]
本発明の第 2 の実施形態となる情報処理装置は、 操作入力部 6 の構成及ぴ動作が第 1 の実施形態のそれとは異なる。 そこで、 以 下では、 本発明の第 2 の実施形態となる情報処理装置における操 作入力部 6 の構成及び動作についてのみ詳しく 説明 し、 他の構成 要素についての説明は上記と 同様であるので省略する。
〔操作入力部の構成〕
本発明の第 2 の実施形態となる操作入力部 6 は、 第 1 の実施の 形態のそれと は異な り 、 図 1 4 に示すよ う に、 感圧素子 1 2 が接 続されていないタ ツチパネル部 1 1 表面に複数の振動素子 2 6 を備える。 こ の振動素子 2 6 は、 圧電素子やソ レノイ ドによ り 構 成され、 ユーザがタ ツチパネル部 1 1 を押下して操作した際に C P U 2 の制御に従って操作内容に対応する振動を発生する。
なお、 図 1 4 に示す振動素子 2 6 はタ ツチパネル部 1 1表面に 接続されているが、 例えば図 1 5 〜図 1 7 に示すよ う に、 裏板 1 4 の背面に振動素子 2 6 を接続する よ う に してもよい。 また、 C P U 2が複数の振動素子 2 6 を個別に制御する こ と によ り 、 複数 の異なる振動パター ンを発生する よ う にしても よい。
また、 機械的なボタ ンを押した際に発生するタ リ ック振動の振 動パターンを R O M 4 内に格納し、 ユーザが所定の処理を実行し た際にこの振動パターンを再生する こ と によ り 、 あたかも機械式 のボタ ンを押 したかのよ う なク リ ッ ク感をユーザに与える よ う に しても よい。
また、 押圧値 Pの変化に応じて生成する振動の大き さを変化さ せる よ う に しても よい。 さ らに、 こ の実施の形態においては、 振 動素子 2 6 を複数設ける こ と と したが、 ユーザはタ ツチパネル部 1 1 表面の 1 点しか触れない場合には、 1 つの振動素子で振動を 発生する よ う にしても よい。
このよ う に、 この第 2 の実施の形態においては、 操作入力部 6 は、 第 1 の実施の形態の操作入力部 6 に振動素子 2 6 を加える こ と によ り 、 ユーザがタ ツチパネル部 1 1 を押下して操作した際に C P U 2 の制御に従って操作内容に対応する振動を発生する こ とが可能なよ う に構成されている。
〔情報処理装置の動作〕
上記のよ う な構成の情報処理装置によれば、 例えば図 1 8 に示 すフローチヤ一 トの処理を実行する こ と によ り 、 ユーザが 2次元 表示画面に表示されているオブジェ ク ト を き 然な操作感で操作 する こ とが可能となる。
なお、 以下に示す例においては、 表示部 5 は、 情報処理装置に 対し所定の処理の実行を指示するボタ ンをオブジェク ト と して 2次元表示画面上に表示し、 ユーザは、 タ ツチパネル部 1 1 を介 して 2次元表示画面上に表示されているポタンを押下し、 ボタ ン をオン状態 (選択状態) に設定する こ と によ り 、 例えば別のウイ ン ドウ画面を開 く 等の各ボタ ンに割 り 当て られた処理を情 #処 理装置に対し指示する。
図 1 8 に示すフローチャー トは、 C P U 2が、 ユーザが押下し ている タ ツチパネル部 1 1 上の点の座標値 ( x,y)及ぴ押圧値 P の 変化を検出 (イベン ト検知) する こ と で開始と な り 、 C P U 2 が ィ ンタ フヱイ スプロ ダラ ム 8 に従って以下の処理を実行する。
ステ ップ S 3 1 の処理では、 C P U 2 が、 押圧値 Pが第 1 設定 値 P 1 以上であるか否かを判別する。 この判別処理は、 ユーザが タ ツ チパネル部 1 1 に触れてい る か否かを判別する ための処理 であ り 、 この判別の結果、 押圧値 P が第 1 設定値 P 1 以上でない 場合、 C P U 2 は、 ステ ッ プ S 3 2 の処理と して 2 次元表示画面 上に表示しているボタ ンがオン状態にあるか否かを判別する。 な お、 上記第 1 設定値 P 1 は、 ユーザがタ ツチパネル部 1 1 を指で 軽く 触れた時の押圧値に予め設定しておく もの とする。
そ して、 ステ ップ S 3 2 の判別処理の結果、 ボタ ンがオン状態 にある場合、 C P U 2 は、 検知 したイベン トは、 ユーザがボタ ン に対応する タ ツチパネル部 1 1 を押下した後、 指の圧力を抜いて い く 段階の動作であ る と判断し、 ステ ップ S 3 3 の処理と して、 振動素子 2 6 を制御 してボタ ン リ リ ース時の ク リ ッ ク 振動を発 生する。 その後、 C P U 2 は、 ステ ップ S 3 4 の処理と してユー ザが押下したボタ ンをオフ状態に設定した後、 次のィベン トが検 知 されるまで待機する。 一方、 ステ ップ S 3 2 の判別処理の結果、 ボタ ンがオン状態にない場合には、 検知 したイ ベン ト に対する処 理は完了 し、 C P U 2 は次のィベン ト が検知 されるまで待機する 一方、 ステ ップ S 3 1 の判別処理の結果、 押圧値 Pが第 1 の設 定値 P 1 以上である場合、 C P U 2 はこの操作処理をステ ップ S 3 1 の処理からステ ップ S 3 5 の処理に進める。 そ して、 ステ ツ プ S 3 5 の処理において、 C P U 2 は、 押圧値 P が第 2 設定値 P 2 (こ こでは P 1 < P 2 と する) 以上である か否かを判別する。 そ して、 ステップ S 3 5 の判別処理の結果、 押圧値 Pが第 2設定 値 P 2以上でない場合、 C P U 2 は、 ステ ップ S 3 6 の処理と し て、 移動した点が 2次元表示画面に表示しているボタ ンの境界線 に対応する位置を通ったか否かを判別する。 なお、 上記第 2設定 値 P 2 は、 ユーザがタ ツチパネル部 1 1 を指で押し込んだ時の押 圧値に予め設定しておく ものとする。
そして、 ステ ップ S 3 6 の判別処理の結果、 移動した点が境界 線に対応する位置を通った場合には、 C P U 2 は、 移動した点が 境界線に対応する位置を通った際に、 ステ ッ プ S 3 7 の処理と し て振動素子 2 6 を制御 してポタ ンが表示されている部分と表示 されていない部分の段差に対応する振動を発生し、 2次元表示画 面に表示されているボタ ンの形状をユーザに認識させる。 これに よ り 、 検知 したイ ベン トに対する処理は完了 し、 C P U 2 は次の イベン トが検知されるまで待機する。 一方、 ステ ップ S 3 6 の判 別処理の結果、 移動した点が境界線に対応する位置を通っていな い場合には、 検知したイ ベン ト に対する処理は完了 し、 C P U 2 は次のィ ベン トが検知されるまで待機する。
一方、 ステップ S 3 5 の判別処理の結果、 押圧値 Pが第 2設定 値 P 2以上である場合、 C P U 2 はこの操作処理をステップ S 3 5 の処理力 らステップ S 3 8 の処理に進める。 そ して、 ステップ S 3 8 の処理において、 C P U 2 は、 移動した点が 2次元表示画 面上に表示 しているボ タ ンの表示領域内に対応する位置にある か否かを判別する。 そ して、 ステ ップ S 3 8 の判別処理の結果、 移動した点がボタンの表示領域内に対応する位置にある場合、 C P U 2 は、 検知 したイベン トはユーザがボタ ンに対応するタ ツチ パネル部 1 1 を押下した動作である と判断し、 ステップ S 3 9 の 処理と して、 振動素子 2 6 を制御してボタンを押下した時に対応 する ク リ ッ ク振動を発生し、 ボタンが押されたこ と をユーザに認 識させる。 その後、 C P U 2 は、 ステップ S 4 0 の処理と してュ 一ザが押下したボタ ンをオン状態に設定した後、 次のィベン トが 検知されるまで待機する。 一方、 ステップ S 3 8 の判別処理の結 果、 移動したポタ ンが表示領域内に対応する位置にない場合には この検知したィベン トに対する処理は完了し、 C P U 2 は次のィ ベン トが検知されるまで待機する。
こ のよ う に、 この第 2 の実施の形態においては、 情報処理装置 は、 ユーザがタ ツチパネル部 1 1 を介して 2次元表示画面上に表 示されているオブジェク トを操作した際に、 オブジェク ト の位置 や形状の触感や押し込み強さに応じたク リ ック感等、 押下したタ ツチパネル部 1 1 の点の位置や圧力に応じた触感をユーザにフ イー ドバックするので、 ユーザは自然な操作感でオブジェク ト を 操作するこ とができ る と 同時に、 操作ミ スの発生頻度を低減する こ とが可能となる。
以上、 本発明者らによってなされた発明を適用 した実施の形態 について説明 したが、 こ の実施の形態による本発明の開示の一部 をなす論述及ぴ図面によ り本発明は限定されるこ とはない。
例えば、 上記の実施の形態の情報処理装置においては、 タ ツチ パネル部 1 1 が表示部 5 に内蔵若しく は接着されていたが、 図 1 9 に示すよ う に、 タ ツチパネル部 1 1 を利用せずに、 表示部 5 と してプラスチ ッ ク フ ィ ルム等の柔軟な基盤を利用 して形成され たフ レキシブルディ スプレイ 2 7 を利用 し、 このフ レキシブルデ イ スプレイ 2 7 の裏面に複数の感圧素子 1 2 を設ける よ う に し ても よい。 このよ う な構成によれば、 ユーザが押下するに応じて表示部 5 の形状が柔軟に変化するので、 表示部 5 と して液晶ディ スプレイ 装置や C R T装置等の固い基盤を利用 して形成された表示装置 を利用 した場合と比較して、 ユーザが押下した任意の点における 圧力値をよ り 正確に検出する こ とが可能と なる。
また、 上記のよ う な構成によれば、 ユーザが画面上の複数点を 同時に押下した場合も各点の圧力値を正確に検出する こ と が可 能と なる。 なお、 このと き、 例えば図 2 0 に示すよ う にフ レキシ ブルディ スプ レイ 2 7 の表面にタ ツチパネル部 1 1 を接着する 等して、 ユーザが指定した点の座標値はタ ツチパネル部 1 1 を利 用 して検出する こ と によ り 、 フ レキシブルディ スプレイ 2 7 の背 面に配置する感圧素子 1 2 の数を減らすよ う にしてもよい。 また 上述の実施の形態と 同様、 振動素子を設け、 ユーザがフ レキシブ ルディ ス プレイ 2 7 に触れた際に操作内容に対応する触感をュ 一ザにフ ィ ー ドノ ッ ク してもよレヽ。
さ らに、 上記のよ う な構成によれば、 2次元表示画面上の複数 点の押圧値をアナロ グ的に検出する こ とができ るので、 例えばピ ァノ等の電子楽器の操作画面に適用するこ と によ り 、 複数の音程 を入力し、 高度な演奏処理が可能な電子楽器を実現する こ と がで き る。 また、 例えば、 ゲームの操作画面に適用すれば、 両手を用 いた操作や、 複数の指によ る各種機能の同時動作等が可能なグー ム装置を実現する こ とができ る。
さ らに、 上記のよ う な構成によれば、 2次元表示画面に接触し ているユーザの指や手の形、 2次元表示画面への接触の仕方や動 作を検出する こ とができ るので、 例えば、 これらの情報を所定の 機能の呼出処理と 関連付けさせる こ と によ り 、 手や指の形状や動 作に基づいた、 今までにない新しい操作方法を実現するこ とがで ぎ る。
さ らに、 上記のよ う な構成によれば、 ユーザが操作した際の圧 力分布データ を認識するこ とができ るので、 例えば、 2次元表示 画面に接触している手や指の形状、 圧力分布、 動作特性等、 ユ ー ザ固有の特徴を抽出 し、 抽出した特徴に基づいて認証処理を行う こ とによ り 、 今までにない認証処理を実現する こ とができ る。
一方、 操作入力部 6 は例えば図 2 1 ( a ) に示すよ う にマウス ポイ ンタ 3 0 によ り構成しても よい。 図 2 1 ( a ) に示すマウス ポイ ンタ 3 0 は、 一般的なマウスポイ ンタによ り構成され、 ユ ー ザの操作に従ってオン /オ フ状態を切 り換えるボタ ン部 3 1 と 、 ユーザが指定した画面上の位置を検出する検出部 3 2 と、 ボタ ン 部 3 1 下部に配置された感圧素子 3 3 を備える。 上記感圧素子 3 3 は、 ユーザがボタ ン部 3 1 を操作した際の押圧値を検出 し、 押 圧値の大き さ を示す圧力検知信号を C P U 2 に出力する。 一般に マ ウスポイ ンタ 3 0 はボタ ン部 3 1 のオン /オフ状態 しか感知 するこ とができないが、 上記図 2 1 ( a ) に示す構成のマウスポ イ ンタ 3 0 によれば、 ユーザがボタ ン部 3 1 を操作した際の押圧 値の大き さ に応じて上記実施の形態で説明 した処理を実行する こ とができ る よ う になる。 また、 このマウスポイ ンタ 3 0 によれ ば、 ユーザがボタ ン部 3 1 を操作した際の押圧値をアナロ グ的に 検出する こ と によ り 、 スク ロール、 移動、 拡大縮小、 カーソル位 置の移動、 音量調整等の様々 な場面においてアナログ値を簡単に 入力する こ とができ る。 なお、 図 2 1 ( b ) に示すよ う に、 マウ スポイ ンタ 3 0 に振動素子 2 6 を設けても よ く 、 このよ う な構成 によれば、 操作内容に対応する触感をユーザにフ ィ ー ドバックす る こ と ができ る。
また、 3次元空間の奥行値の最大値及び最小値に対応する押圧 値 P m ax , P min を予め定義し、 この押圧値 P m ax , P min と指 定点における押圧値 P と を比較する こ と によ り 、 ユーザが指定し た 3次元空間の奥行値を算出しても よい。
また、 押圧値 P と 3次元空間の奥行値と の関係を予めテーブル ィ匕し、 こ のテーブル内を用いて指定点における押圧値 P を検索す る こ と によ り 、 ユーザが指定した 3次元空間の奥行値を算出 して も よい。 なお、 この場合、 3次元空間内に配置されるオブジェク ト の位置に応じて、 一つの奥行値 (例えば z= l ) に対応する押圧 値 P に適当な幅 (例えば、 押圧値 P = l〜3 ) を定義してテーブル を作成しても よい。 このよ う な構成によれば、 指定点における押 圧値 Pが定義された幅内にあれば、 その押圧値 P に対応する奥行 値が認識される ので、 奥行値ゃォブジェク ト の指定作業が容易に なる。
なお、 上記実施の形態では、 情報処理装置 1 は、 指定点の奥行 値と して指定点における押圧値 P の大き さを検出, 利用 したが、 静電作用を利用 して物体と入力装置との間の距離 (-奥行方向の 距離) を検出する非接触型の入力装置や、 表示装置の表示画面に 対し垂直 (奥行) 方向のユーザの動きをパターンマッチング処理 等の手法を利用 して検出するカメ ラ装置 (いわゆるステ レオカメ ラ) 等を利用 して検出した値を指定点の奥行値と して利用 しても よい。 また、 この場合、 情報処理装置 1 は、 検出 された値が変化 するのに合わせて、 指定点の奥行値も変化させる と よい。
こ のよ う に、 この実施の形態に基づいて当業者等によ り なされ る他の実施の形態、 実施例及び運用技術等は全て本発明の範疇に 含まれるこ とは勿論であるこ と を付け加えておく 。 産業上の利用の可能性
本発明は、 例えば 2次元表示画面上に表示されている 3次元空間 内の任意の点を指定する処理に適用する こ とができ る。

Claims

請求の範囲
1 . 2次元表示画面上に 3 次元空間を表示するステップと、 ユーザが指定 した上記 2次元表示画面内の点の座標値及び奥 行値を検出するステ ップと、
上記座標値及び上記奥行値の大き さ に従ってユーザが指定す る上記 3次元空間内の位置を認識するステップと
を有する情報処理方法。
2 . 請求の範囲 1 に記載の情報処理方法であって、
上記ユーザが指定した 2 次元表示画面の点にカーソルを表示 するステップと 、
上記奥行値の大き さの変化に従って上記 2 次元表示画面の奥 行方向に移動する上記カー ソルを表示するステ ップと
を有する こ と を特徴とする情報処理方法。
3 . 請求の範囲 2 に記載の情報処理方法であって、
上記カーソルが停止 した位置をユーザが指定する上記 3 次元 空間内の位置とするステップを有する こ と
を特徴とする情報処理方法。
4 . 請求の範囲 2 に記載の情報処理方法であって、
上記カーソルが移動するのに応じてカー ソルの大き さ、 色、 及 ぴ輝度の少なく と も一つを変化させるステップを有する こ と を特徴とする情報処理方法。
5 . 請求の範囲 2 に記載の情報処理方法であって、
上記カーソルが上記 3 次元空間内にあるオブジェク ト と接触 するのに応じて所定の処理を実行するステップを有するこ と
を特徴とする情報処理方法。
6 . 請求の範囲 5 に記載の情報処理方法であって、
上記所定の処理は振動及ぴ音声の少な く と も一方を生成する 処理である こ と
を特徴とする情報処理方法。
7 . 2次元表示画面上に少なく と も一つのォブジェク トを表示 するステ ップと、
ユーザが指定した上記 2 次元表示画面上の点の座標値及び奥 行値を検出するステップと、
上記座標値によ り 指定される上記オブジェ ク ト に対し上記奥 行値の大き さ に応じた処理を実行するステップと
を有する情報処理方法。
8 . 請求の範囲 7 に記載の情報処理方法であって、
上記奥行値が所定の閾値以上であるか否かを判別する こ と に よ り 上記実行する処理を選択するステップを有する こ と
を特徴とする情報処理方法。
9 . 請求の範囲 7 に記載の情報処理方法であって、
上記座標値及び上記奥行値の大き さ の変化に応じて振動及ぴ 音声の少なく と も一方を生成するステップを有するこ と を特徴とする情報処理方法。
1 0 . 2 次元表示画面上に 3次元空間を表示するステップと 、 ユーザが指定した上記 2次元表示画面内の点の座標値及ぴ奥 行値を検出するステップと、
上記座標値及び上記奥行値の大き さ に従ってユーザが指定す る上記 3次元空間内の位置を認識するステップと
をコ ン ピ ュータ に実行させる情報処理プロ グラムを記録した コン ピュ ータ読み取 り 可能な記録媒体。
1 1 . 請求の範囲 1 0 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取 り 可能な記録媒体であって、
上記ユーザが指定した 2 次元表示画面の点にカー ソ ルを表示 するステップと 、
上記奥行値の大き さの変化に従っ て上記 2 次元表示画面の奥 行方向に移動する上記カー ソルを表示するステップと
を コ ン ピ ュータ に実行させる こ と を特徴とする情報処理プロ グラムを記録したコ ン ピュータ読み取 り 可能な記録媒体。
1 2 . 請求の範囲 1 1 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取り 可能な記録媒体であって、
上記カー ソルが停止 した位置をユーザが指定する上記 3 次元 空間内の位置とするステップをコ ン ピュータに実行させる こ と を特徴と する情報処理プロ グラムを記録した コ ン ピ ュータ読 み取り 可能な記録媒体。
1 3 . 請求の範囲 1 1 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取り 可能な記録媒体であって、
上記カーソルが移動するのに応じてカーソルの大き さ、 色、 及 び輝度の少な く と も一つを変化させるステ ップをコ ン ピ ュータ に実行させる こ と
を特徴とする情報処理プロ グラムを記録したコ ン ピ ュータ読 み取り 可能な記録媒体。
1 4 . 請求の範囲 1 1 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取り 可能な記録媒体であって、
上記カー ソルが上記 3 次元空間内にあるオブジェク ト と接触 するのに応 じて所定の処理を実行するステ ップをコ ンピュータ に実行させる こ と
を特徴とする情報処理プロ グラ ムを記録したコ ンピュータ読 み取り 可能な記録媒体。
1 5 . 請求の範囲 1 4 に記載の情報処理プログラムを記録した コ ン ピュータ読み取り 可能な記録媒体であって、
上記所定の処理は振動及ぴ音声の少な く と も一方を生成する 処理である こ と
を特徴とする情報処理プロ グラ ムを記録したコ ン ピ ュータ読 み取り 可能な記録媒体。
1 6 . 2次元表示画面上に少な く と も一つのオブジェク トを表 示するステ ップと、
ユーザが指定した上記 2 次元表示画面上の点の座標値及ぴ奥 行値を検出するステップと、
上記座標値によ り 指定される上記オブジェ ク ト に対し上記奥 行値の大き さに応じた処理を実行するステップと
をコ ン ピ ュータ に実行させる情報処理プロ グラムを記録した コ ン ピュータ読み取り 可能な記録媒体。
1 7 . 請求の範囲 1 6 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取 り 可能な記録媒体であって、
上記奥行値が所定の閾値以上であるか否かを判別する こ と に よ り 上記実行する処理を選択するステ ップをコ ンピュータ に実 行させる こ と
を特徴とする情報処理プロ グラムを記録したコ ン ピ ュータ読 み取り 可能な記録媒体。
1 8 . 請求の範囲 1 6 に記載の情報処理プロ グラムを記録した コ ン ピュータ読み取り 可能な記録媒体であって、
上記座標値及び上記奥行値の大き さ の変化に応 じて振動及び 音声の少な く と も一方を生成するステ ップをコ ンピュータ に実 行させる こ と
を特徴とする情報処理プ ロ グ ラ ムを記録したコ ン ピ ュータ読 み取り 可能な記録媒体。
1 9 . 2 次元表示画面上に 3次元空間を表示するステ ップと 、 ユーザが指定した上記 2 次元表示画面内の点の座標値及び奥 行値を検出するステップと、
上記座標値及び上記奥行値の大き さ に従って上記 3 次元空間 内の位置を認識するステップと
をコ ン ピュータ に実行させる情報'処理プロ グラム。
2 0 . 2次元表示画面上に少なく と も一つのオブジェク トを表 示するステ ップと 、
ユーザが指定した上記 2次元表示画面上の点の座標値及ぴ奥 行値を検出するステ ップと、
上記座標値によ り 指定 される上記オブジェ ク ト に対し上記奥 行値の大き さに応じた処理を実行するステップと
をコ ン ピュータに実行させる情報処理プロ グラム。
2 1 . 2次元表示画面上に 3次元空間を表示する表示部と、 ユーザが指定した上記 2次元表示画面上の点の座標値を検出 する座標値検出部と
上記 2 次元表面上の点における奥行値を検出する奥行値検出 部と、
検出 した上記座標値及び上記奥行値に従ってユーザが指定す る上記 3次元空間内の位置を認識する制御部と
を有する情報処理装置。
2 2 . 請求の範囲 2 1 に記載の情報処理装置であって、
上記制御部は、 上記 2次元画面上の点にカー ソルを表示し、 上 記奥行値の大き さの変化に従って 2 次元表示画面の奥行方向に カー ソルを移動表示する こ と
を特徴とする情報処理装置。
2 3 . 請求の範囲 2 2 に記載の情報処理装置であって、 上記制御部は、 上記カーソルが停止した位置をユーザが指定す る上記 3次元空間内の位置とする こ と
を特徴とする情報処理装置。
2 4 . 請求の範囲 2 2 に記載の情報処理装置であって、
上記制御部は、 上記カー ソルが移動するに応じて、 カー ソルの 大き さ、 色、 及び輝度の少なく と も一つを変化させる こ と
を特徴とする情報処理装置。
2 5 . 請求の範囲 2 2 に記載の情報処理装置であって、
上記制御部は、 上記カ ー ソルが上記 3次元空間内にあるォブジ エタ ト と接触するのに応じて所定の処理を実行する こ と
を特徴とする情報処理装置。
2 6 . 請求の範囲 2 5 に記載の情報処理装置であって、
上記所定の処理は振動及ぴ音声の少な く と も一方を生成する 処理である こ と
を特徴とする情報処理装置。
2 7 . 請求の範囲 2 1 に記載の情報処理装置であって、
上記座標値検出部及び上記奥行値検出部はそれぞれタ ツチパ ネル及び感圧素子である こ と
を特徴とする情報処理装置。
2 8 . 2次元表示画面上に少なく と も一つのオブジェク トを表 示する表示部と、
ユーザが指定 した 2 次元表示画面上の点の座標値を検出する 座標値検出部と、
上記 2 次元表示画面上の点における奥行値を検出する奥行値 検出部と 、
上記座標値に よ り 指定される上記オブジェ ク ト に対し上記奥 行値の大き さ に応じた処理を実行する制御部と
を備える情報処理装置。
2 9 . 請求の範囲 2 8 に記載の情報処理装置であって、
上記制御部は、 上記奥行値が所定の閾値以上であるか否かを判 別するこ と によ り 実行する処理を選択する こ と
を特徴とする情報処理装置。
3 0 . 請求の範囲 2 8 に記載の情報処理装置であって、
上記制御部は、 上記座標値及び上記奥行値の大き さの変化に従 つて、 振動及び音声の少なく と も一方を生成する こ と
を特徴とする情報処理装置。
3 1 . 請求の範囲 2 8 に記載の情報処理装置であって、
上記座標値検出部及び上記奥行値検出部はそれぞれタ ツチパ ネル及び感圧素子である こ と
を特徴とする情報処理装置。
PCT/JP2003/007334 2002-06-11 2003-06-10 3次元空間内の任意の点を指定する処理のための情報処理方法 WO2003104967A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP03733344A EP1513050A1 (en) 2002-06-11 2003-06-10 Information processing method for specifying an arbitrary point in 3-dimensional space

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002-170184 2002-06-11
JP2002170184 2002-06-11
JP2003084103A JP2004070920A (ja) 2002-06-11 2003-03-26 情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報処理方法、及び情報処理装置
JP2003-84103 2003-03-26

Publications (1)

Publication Number Publication Date
WO2003104967A1 true WO2003104967A1 (ja) 2003-12-18

Family

ID=29738359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/007334 WO2003104967A1 (ja) 2002-06-11 2003-06-10 3次元空間内の任意の点を指定する処理のための情報処理方法

Country Status (4)

Country Link
US (1) US20040021663A1 (ja)
EP (1) EP1513050A1 (ja)
JP (1) JP2004070920A (ja)
WO (1) WO2003104967A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068063B2 (en) 2015-01-23 2021-07-20 Sony Corporation Information processing apparatus and method for adjusting detection information based on movement imparted by a vibrator

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
CN101308442B (zh) * 2004-10-12 2012-04-04 日本电信电话株式会社 三维指示方法和三维指示装置
JP4388878B2 (ja) 2004-10-19 2009-12-24 任天堂株式会社 入力処理プログラムおよび入力処理装置
KR101354316B1 (ko) * 2005-03-04 2014-01-22 애플 인크. 다기능 휴대용 장치
JP4260770B2 (ja) 2005-05-09 2009-04-30 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4832826B2 (ja) * 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
JP2007272067A (ja) * 2006-03-31 2007-10-18 Brother Ind Ltd 画像表示装置
CN102981678B (zh) 2006-06-09 2015-07-22 苹果公司 触摸屏液晶显示器
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
KR101424259B1 (ko) * 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
DE102007052008A1 (de) * 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
JP4557058B2 (ja) * 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
US8395587B2 (en) * 2007-12-21 2013-03-12 Motorola Mobility Llc Haptic response apparatus for an electronic device
JP4650543B2 (ja) * 2008-09-12 2011-03-16 コニカミノルタビジネステクノロジーズ株式会社 課金システム、課金方法、課金プログラム、記録媒体
US20100103115A1 (en) * 2008-10-24 2010-04-29 Sony Ericsson Mobile Communications Ab Display arrangement and electronic device
JP4633166B2 (ja) 2008-12-22 2011-02-16 京セラ株式会社 入力装置および入力装置の制御方法
US10019081B2 (en) * 2009-01-15 2018-07-10 International Business Machines Corporation Functionality switching in pointer input devices
JP4633184B1 (ja) 2009-07-29 2011-02-23 京セラ株式会社 入力装置および入力装置の制御方法
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
CN102025814A (zh) * 2009-09-11 2011-04-20 深圳富泰宏精密工业有限公司 便携式电子装置
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
JP2011177203A (ja) * 2010-02-26 2011-09-15 Nintendo Co Ltd オブジェクト制御プログラムおよびオブジェクト制御装置
EP2390772A1 (en) * 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB User interface with three dimensional user input
EP2395414B1 (en) * 2010-06-11 2014-08-13 BlackBerry Limited Portable electronic device including touch-sensitive display and method of changing tactile feedback
JP2012058896A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、プログラムおよび情報処理方法
US10013058B2 (en) 2010-09-21 2018-07-03 Apple Inc. Touch-based user interface with haptic feedback
US9569003B2 (en) * 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US8804056B2 (en) 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
JP5369087B2 (ja) * 2010-12-24 2013-12-18 京セラ株式会社 入力装置および入力装置の制御方法
JP2011060333A (ja) * 2010-12-24 2011-03-24 Kyocera Corp 入力装置および入力装置の制御方法
KR101763263B1 (ko) 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
US20120306849A1 (en) * 2011-05-31 2012-12-06 General Electric Company Method and system for indicating the depth of a 3d cursor in a volume-rendered image
JP5613126B2 (ja) * 2011-09-09 2014-10-22 Kddi株式会社 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム
JP5634462B2 (ja) * 2012-08-31 2014-12-03 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
US9178509B2 (en) 2012-09-28 2015-11-03 Apple Inc. Ultra low travel keyboard
WO2015020663A1 (en) 2013-08-08 2015-02-12 Honessa Development Laboratories Llc Sculpted waveforms with no or reduced unforced response
US9779592B1 (en) 2013-09-26 2017-10-03 Apple Inc. Geared haptic feedback element
CN105579928A (zh) 2013-09-27 2016-05-11 苹果公司 具有触觉致动器的带体
WO2015047343A1 (en) 2013-09-27 2015-04-02 Honessa Development Laboratories Llc Polarized magnetic actuators for haptic response
US10126817B2 (en) 2013-09-29 2018-11-13 Apple Inc. Devices and methods for creating haptic effects
US10236760B2 (en) 2013-09-30 2019-03-19 Apple Inc. Magnetic actuators for haptic response
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
US10019075B2 (en) * 2013-10-24 2018-07-10 Chunsheng ZHU Control input apparatus
WO2015088491A1 (en) 2013-12-10 2015-06-18 Bodhi Technology Ventures Llc Band attachment mechanism with haptic response
US9501912B1 (en) 2014-01-27 2016-11-22 Apple Inc. Haptic feedback device with a rotating mass of variable eccentricity
US20150253918A1 (en) * 2014-03-08 2015-09-10 Cherif Algreatly 3D Multi-Touch
WO2015163842A1 (en) 2014-04-21 2015-10-29 Yknots Industries Llc Apportionment of forces for multi-touch input devices of electronic devices
DE102015209639A1 (de) 2014-06-03 2015-12-03 Apple Inc. Linearer Aktuator
WO2016036671A2 (en) 2014-09-02 2016-03-10 Apple Inc. Haptic notifications
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
WO2016199309A1 (ja) * 2015-06-12 2016-12-15 パイオニア株式会社 電子機器
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
US20170068374A1 (en) * 2015-09-09 2017-03-09 Microsoft Technology Licensing, Llc Changing an interaction layer on a graphical user interface
CN109918004B (zh) * 2015-12-17 2021-04-23 网易(杭州)网络有限公司 虚拟角色控制方法及装置
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
CN112445406A (zh) * 2019-08-29 2021-03-05 中兴通讯股份有限公司 终端屏幕操作方法及终端和存储介质
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0595746A1 (en) * 1992-10-29 1994-05-04 International Business Machines Corporation Method and system for input device pressure indication in a data processing system
JPH096526A (ja) * 1995-06-21 1997-01-10 Toshiba Corp 3次元ポインティング装置
JPH0922330A (ja) * 1995-07-06 1997-01-21 Meidensha Corp タッチパネルの入力方法
JPH09297650A (ja) * 1996-05-01 1997-11-18 Smk Corp 感圧式3次元タブレットとその操作データ検出方法
JPH10275052A (ja) * 1997-03-31 1998-10-13 Mitsumi Electric Co Ltd 座標情報入力装置
JP2001195187A (ja) * 2000-01-11 2001-07-19 Sharp Corp 情報処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147684A (en) * 1998-02-06 2000-11-14 Sun Microysytems, Inc. Techniques for navigating layers of a user interface
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6452617B1 (en) * 2000-01-10 2002-09-17 International Business Machines Corporation Adjusting a click time threshold for a graphical user interface
US7034803B1 (en) * 2000-08-18 2006-04-25 Leonard Reiffel Cursor display privacy product
US20040109031A1 (en) * 2001-05-11 2004-06-10 Kenneth Deaton Method and system for automatically creating and displaying a customizable three-dimensional graphical user interface (3D GUI) for a computer system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0595746A1 (en) * 1992-10-29 1994-05-04 International Business Machines Corporation Method and system for input device pressure indication in a data processing system
JPH096526A (ja) * 1995-06-21 1997-01-10 Toshiba Corp 3次元ポインティング装置
JPH0922330A (ja) * 1995-07-06 1997-01-21 Meidensha Corp タッチパネルの入力方法
JPH09297650A (ja) * 1996-05-01 1997-11-18 Smk Corp 感圧式3次元タブレットとその操作データ検出方法
JPH10275052A (ja) * 1997-03-31 1998-10-13 Mitsumi Electric Co Ltd 座標情報入力装置
JP2001195187A (ja) * 2000-01-11 2001-07-19 Sharp Corp 情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068063B2 (en) 2015-01-23 2021-07-20 Sony Corporation Information processing apparatus and method for adjusting detection information based on movement imparted by a vibrator

Also Published As

Publication number Publication date
EP1513050A1 (en) 2005-03-09
US20040021663A1 (en) 2004-02-05
JP2004070920A (ja) 2004-03-04

Similar Documents

Publication Publication Date Title
WO2003104967A1 (ja) 3次元空間内の任意の点を指定する処理のための情報処理方法
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US8963882B2 (en) Multi-touch device having dynamic haptic effects
US9524097B2 (en) Touchscreen gestures for selecting a graphical object
JP3847641B2 (ja) 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
JP4990753B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
JPH11203044A (ja) 情報処理システム
JP5640486B2 (ja) 情報表示装置
JPH10149254A6 (ja) 座標入力装置
TW201109994A (en) Method for controlling the display of a touch screen, user interface of the touch screen, and electronics using the same
JP2011048686A (ja) 入力装置
JP2011048832A (ja) 入力装置
EP2075671A1 (en) User interface of portable device and operating method thereof
JPWO2010047339A1 (ja) 検知領域がディスプレイの表示領域よりも小さくても同等時のように動作するタッチパネル装置
JP2016015181A (ja) 押圧の度合いによって異なる機能を発動可能なユーザインタフェース装置、プログラム及び機能発動方法
JP5767148B2 (ja) 触覚対象画像の奥行き・高低に応じた触覚振動を付与可能なユーザインタフェース装置、触覚振動付与方法及びプログラム
JP2013196465A (ja) オブジェクト選択時に触覚応答が付与されるユーザインタフェース装置、触覚応答付与方法及びプログラム
JP5246974B2 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
WO2021075143A1 (ja) 制御装置、プログラム、及びシステム
JP2001195170A (ja) 携帯型電子機器、入力制御装置、及び記憶媒体
JP2016012376A (ja) 押圧の度合いに応じて異なる触覚応答を付与可能なユーザインタフェース装置、触覚応答付与方法及びプログラム
TW200941307A (en) Extended cursor generating method and device
JP6025920B2 (ja) 触覚対象画像の奥行き・高低に応じた触覚振動を付与可能なユーザインタフェース装置、触覚振動付与方法及びプログラム
JP2019101876A (ja) 入力装置、入力制御装置、操作対象機器、およびプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003733344

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003733344

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2003733344

Country of ref document: EP