WO2013168503A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2013168503A1
WO2013168503A1 PCT/JP2013/060717 JP2013060717W WO2013168503A1 WO 2013168503 A1 WO2013168503 A1 WO 2013168503A1 JP 2013060717 W JP2013060717 W JP 2013060717W WO 2013168503 A1 WO2013168503 A1 WO 2013168503A1
Authority
WO
WIPO (PCT)
Prior art keywords
pressing
light emitting
user
information processing
color
Prior art date
Application number
PCT/JP2013/060717
Other languages
English (en)
French (fr)
Inventor
芳徳 高木
聖子 前原
直之 廣田
向井 仁志
和政 田中
邦雄 川口
裕之 森崎
一郎 小方
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/397,907 priority Critical patent/US10114492B2/en
Publication of WO2013168503A1 publication Critical patent/WO2013168503A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Specified position in 3D space is done in various fields.
  • a color is designated by designating a position in a color space defined by RGB, HSV, or the like.
  • a color designation method is disclosed in, for example, Patent Document 1.
  • the designation of the position in the three-dimensional space has been performed by combining two-dimensional or one-dimensional information. That is, a technique for directly specifying a position in a three-dimensional space has not been proposed yet. For this reason, a technique that allows a user to directly specify a position in a three-dimensional space has been desired.
  • a pressing position which is a position of a pressing portion where a user performs a pressing operation and a pressing force which is a pressure at the time of the pressing operation, and a cylindrical pressure sensor, and a pressing position And a position specifying unit that specifies a position in the three-dimensional space according to the pressing force.
  • An information processing method includes specifying a position in a three-dimensional space according to the pressing position and the pressing force based on the information.
  • a pressing position that is a position of a pressing portion where a user performs a pressing operation and a pressing force that is a pressure at the time of the pressing operation on a computer, and from a cylindrical pressure sensor.
  • a program is provided that realizes a position specifying function for specifying a position in a three-dimensional space according to a pressing position and a pressing force based on given information.
  • the information processing apparatus specifies a position in the three-dimensional space according to the pressing position and the pressing force.
  • the user can find a portion corresponding to a desired position in the three-dimensional space, that is, a pressed portion, by looking around the cylindrical pressure sensor in the circumferential direction.
  • the user can designate the desired position in three-dimensional space by pressing the part.
  • the user can directly and intuitively specify the position in the three-dimensional space.
  • FIG. 1 is a block diagram illustrating a configuration of an information processing device according to a first embodiment of the present disclosure. It is a perspective view which shows the external appearance of information processing apparatus. 4 is an exploded perspective view showing a configuration example of a display unit 40.
  • FIG. It is explanatory drawing which shows the example of shape calculation of the light emission surface of the two-dimensional light emitting element array 1101. It is explanatory drawing which shows the example (the 1) of the locus
  • First embodiment (example using 360-degree display) 1-1.
  • Configuration of information processing device (example using flexible display)
  • the present embodiment discloses a technique capable of directly specifying a position in a color space by focusing on the color space as a three-dimensional space.
  • the color is designated by designating a position in a three-dimensional space called a color space.
  • a method for performing color designation a method using a color sample book or a Munsell chart expressed in one or two dimensions is disclosed.
  • the user has specified the color by combining a plurality of color sample books and Munsell charts, and thus cannot directly specify the position in the color space.
  • the present embodiment discloses a technique that can directly specify a position in the color space and can easily adjust the resolution.
  • the information processing apparatus 1 includes a press sensor 10, a position specifying unit 20, a control unit 30, and a display unit 40, as shown in FIGS.
  • the information processing apparatus 1 has a hardware configuration such as a CPU, a ROM, a RAM, and a communication device in addition to the press sensor and the display unit 40, and the position specifying unit 20 and the control unit 30 are configured by these hardware configurations. Realized. That is, in the ROM, a program for realizing the position specifying unit 20 and the control unit 30 in the information processing apparatus 1 is recorded, and when the CPU reads and executes the program, the position specifying unit 20 and the control unit are recorded. 30 is realized.
  • FIG. 3 is an exploded perspective view illustrating a configuration example of the display unit 40.
  • the display unit 40 is a so-called 360 degree display. Details of the 360 degree display are disclosed in, for example, Japanese Patent Application Laid-Open No. 2011-107665. Therefore, an outline of the configuration and operation principle of the display unit 40 will be described here.
  • the display unit 40 shown in FIG. 3 constitutes an example of a three-dimensional image display device of a light beam reproduction system, and includes a two-dimensional light emitting element array 1101, a rotating unit 1104 with a slit, and an installation base 1105 with a driving mechanism.
  • the display unit 40 captures an image of the subject over the entire periphery, or creates a stereoscopic image over the entire periphery of the subject based on 2D video information or the like (hereinafter simply referred to as video data Din) for stereoscopic image display created by a computer. Is to play.
  • 2D video information or the like hereinafter simply referred to as video data Din
  • the rotating part 1104 has an exterior body 1041 with a slit and a turntable 1042 with an air inlet.
  • An exterior body 1041 is attached on the turntable 1042.
  • the turntable 1042 has a disk shape, and a rotation shaft 1103 is provided at the center position.
  • the rotation shaft 1103 serves as the rotation center of the turntable 1042 and the rotation center of the exterior body 1041, and is also referred to as the rotation shaft 1103 of the rotation unit 1104 below.
  • An intake port 1106 is provided at a predetermined position of the turntable 1042 so as to take air into the exterior body 1041.
  • the two-dimensional light emitting element array 1101 has, for example, m rows ⁇ n columns of light emitting elements arranged in a matrix.
  • a self light emitting element such as a light emitting diode, a laser diode, or an organic EL is used.
  • the two-dimensional light emitting element array 1101 a plurality of light emitting elements emit light according to the rotation of the rotating unit 1104, and the light emission is controlled based on video data Din for stereoscopic images. This light emission control is performed by the control unit 30 described later.
  • the light-emitting element is not limited to a self-light-emitting element, and may be a light-emitting device that combines a light source and a modulation element. As long as the light emitting element can follow the modulation speed of the rotating unit 1104 during slit rotation scanning with respect to the viewpoint Pa (see FIG. 4), any type of light emitting element or light emitting device may be used.
  • a drive circuit for driving the light emitting elements is mounted in the two-dimensional light emitting element array 1101, in addition to the light emitting elements.
  • the two-dimensional light-emitting element array 1101 rotates, for example, a one-dimensional light-emitting element substrate in which a plurality of light-emitting elements are arranged (mounted) in a line shape on a small edge surface obtained by cutting a printed wiring board into a curved shape (for example, an arc)
  • a stacked structure in which a plurality of sheets are stacked along the axis 1103 is provided.
  • the two-dimensional light emitting element array 1101 having a light emitting surface having a curved surface shape (for example, an arc shape) can be easily configured.
  • the exterior body 1041 attached so as to cover the two-dimensional light emitting element array 1101 on the turntable 1042 has a cylindrical shape having a predetermined diameter ⁇ and a predetermined height Ha.
  • the outer diameter 1041 of the exterior body 1041 is about 100 mm to 200 mm, and its height Ha is about 400 mm to 500 mm.
  • a slit 1102 is provided at a predetermined position on the peripheral surface of the exterior body 1041.
  • the slit 1102 is formed in the peripheral surface of the exterior body 1041 in a direction parallel to the rotation axis 1103, is fixed in front of the light emitting surface of the two-dimensional light emitting element array 1101, and limits the light emission angle to a predetermined range. .
  • the slit 1102 is not limited to the opening portion, and may be a window portion made of a transparent member that transmits light.
  • the above-described two-dimensional light emitting element array 1101 has a curved portion, and the concave side of the curved shape is the light emitting surface.
  • the curved light emitting surface is disposed between the rotating shaft 1103 of the rotating unit 1104 and the slit 1102 so that the curved light emitting surface faces the slit 1102. With this configuration, it becomes easier to guide (condense) the light emitted from the curved light emitting surface to the slit 1102 as compared to the flat light emitting surface.
  • the exterior body 1041 an iron plate or an aluminum plate that is formed into a cylindrical body by pressing or rolling is used.
  • the exterior and interior of the exterior body 1041 are preferably applied in black so as to absorb light.
  • the opening part of the upper part of the slit 1102 of the exterior body 1041 is the hole part 1108 for sensors.
  • the top plate portion of the exterior body 1041 has a fan structure, and the cooling air taken from the air inlet 1106 of the turntable 1042 is exhausted to the outside.
  • a slight fan portion 1107 exhaust port
  • a blade that is an example of a cooling blade member
  • the fan unit 1107 may be cut out from the upper portion of the exterior body 1041 to also serve as a top plate part.
  • the exterior body 1041 is strengthened by also using the top plate portion.
  • the fan unit 1107 is not limited to the upper part of the rotating shaft 1103 of the rotating unit 1104, and may be attached near the rotating shaft 1103 at the lower part of the exterior body 1041. Depending on the direction of the blades of the blade member, when the rotating unit 1104 rotates, an air flow from the upper part to the lower part of the rotating unit 1104 or an air flow from the lower part to the upper part of the rotating unit 1104 can be created. . In either case, an air suction port or its exhaust port may be provided above or below the rotating unit 1104.
  • the blade member is attached to the rotating shaft 1103, the air flow can be created by using the rotating operation of the rotating unit 1104. Accordingly, the heat generated from the two-dimensional light emitting element array 1101 can be exhausted to the outside without newly adding a fan motor or the like. Since the fan motor by this becomes unnecessary, the cost of the display part 40 can be reduced.
  • the installation stand 1105 is a part that rotatably supports the turntable 1042.
  • a bearing unit (not shown) is provided on the upper part of the installation stand 1105.
  • the bearing unit rotatably engages the rotating shaft 1103 and supports the rotating unit 1104.
  • a motor 1052 is provided inside the installation base 1105 so that the turntable 1042 rotates at a predetermined rotation (modulation) speed.
  • a direct connection type AC motor or the like is engaged with the lower end of the rotating shaft 1103.
  • the motor 1052 directly transmits the rotational force to the rotating shaft 1103, and the rotating portion 1104 rotates at a predetermined modulation speed by rotating the rotating shaft 1103.
  • a method of sending via the slip ring 1051 is adopted.
  • the slip ring 1051 that transmits power and video data Din to the rotating shaft 1103 is provided.
  • the slip ring 1051 is divided into a stationary part and a rotating part.
  • the rotation side component is attached to the rotation shaft 1103.
  • a harness 1053 (wiring cable) is connected to the stationary part.
  • the two-dimensional light emitting element array 1101 is connected to the rotation side component via another harness 1054.
  • a slider (not shown) is in electrical contact with the annular body between the stationary part and the rotating part.
  • the slider constitutes a stationary part or a rotating part, and the annular body constitutes a rotating part or a stationary part.
  • FIG. 4 is an explanatory diagram showing an example of calculating the shape of the light emitting surface of the two-dimensional light emitting element array 1101.
  • the shape of the light emitting surface of the two-dimensional light emitting element array 1101 is a point represented by the following formula (xa ( ⁇ ) , Ya ( ⁇ )).
  • the distance of the line segment from the rotation axis 1103 of the rotation unit 1104 to the arbitrary viewpoint Pa is L1.
  • the shortest distance from the rotation axis 1103 to the two-dimensional light emitting element array 1101 is L2.
  • this all-around stereoscopic image display device 10 when the device is observed from an arbitrary viewpoint Pa, the locus of the light emission point by the two-dimensional light emitting element array 1101, that is, the observed image display surface becomes a flat surface, for example. An image is displayed.
  • L2 is equal to the distance from the rotation axis 1103 to the plane formed by the locus of the light emitting points by the plurality of light emitting elements.
  • the distance from the rotation axis 1103 of the rotation unit 1104 to the slit 1102 is r, and the angle formed by the line segment of the distance L1 and the line segment of the distance r is the slit 1102 for the line segment of the distance L1.
  • An angle ⁇ indicating the position of.
  • the xa-axis coordinate value forming the curved shape of the light-emitting surface of the two-dimensional light-emitting element array 1101 is xa ( ⁇ )
  • the ya-axis coordinate value forming the curved shape of the light-emitting surface of the two-dimensional light-emitting element array 1101 is ya ( ⁇ ).
  • the xa-axis coordinate value xa ( ⁇ ) is expressed by equation (10), that is,
  • the locus of the light emitting point observed from the viewpoint Paa through the slit 1102 can determine the shape of the light emitting surface of the two-dimensional light emitting element array 1101 that appears to form a plane.
  • the printed wiring board may be cut into a curved shape.
  • the control unit 30 uses, for example, a plurality of light emitting elements such that a planar image corresponding to an arbitrary viewpoint position is formed inside the rotating unit 1104 by the locus of the light emitting points by the plurality of light emitting elements. Perform light emission control.
  • a planar image having a parallax corresponding to the viewpoint position is observed. Therefore, when observed from any two viewpoint positions corresponding to the positions of both eyes, for example, planar images having parallax according to each viewpoint position are observed. Thereby, the observer can recognize a stereoscopic image at an arbitrary position around the rotating unit.
  • FIGS. 5 to 5D are explanatory diagrams showing examples of the locus of the light emission point observed from the viewpoint Paa.
  • the rotating unit 1104 having the light emitting unit U1 is rotated at a constant speed and rotationally scanned with respect to the viewpoint Paa
  • the light emitting elements observed from the viewpoint Paa emit light at intervals of time T. From the element 1201, the light emitting elements 1202, 1203,.
  • a third small circle mark in FIG. 5D indicates a light emitting point of the light emitting element 1203.
  • a fourth small circle mark in FIG. 6A indicates a light emitting point of the light emitting element 1204.
  • a fifth small circle mark in FIG. 6B indicates a light emitting point of the light emitting element 1205.
  • a sixth small circle mark in FIG. 6C indicates a light emitting point of the light emitting element 1206.
  • a seventh small circle mark in FIG. 6D indicates a light emitting point of the light emitting element 1207.
  • An eighth small circle mark in FIG. 7A indicates a light emitting point of the light emitting element 1208.
  • the ninth small circle mark in FIG. 7B indicates the light emitting point of the light emitting element 1209.
  • a tenth small circle mark in FIG. 7C indicates a light emitting point of the light emitting element 1210.
  • An eleventh small circle mark in FIG. 7D indicates a light emitting point of the light emitting element 1211.
  • a twelfth black small circle mark in FIG. 7D indicates a light emitting point of the light emitting element 1212.
  • This planar image is, for example, a plane in the color space (that is, a plane 103 to be described later).
  • the press sensor 10 has a cylindrical shape, and the display unit 40 is disposed in a hollow portion thereof.
  • the display unit 40 is a so-called 360 degree display, and displays different images depending on the display direction.
  • the reference surface 10b including the central axis 10a is set in the press sensor 10.
  • the height of the pressure sensor 10 is indicated by y max . Pressing sensor 10, when the user presses the point P1, the angle theta 1 between the reference plane 10b to the point P1, the position of the point P1 and a distance y from the upper end surface 10c to the point P1, i.e. detected as a pressing position To do.
  • angle ⁇ 1 is an angle formed between a perpendicular drawn from the point P1 to the central axis 10a and the reference plane. Further, the angle ⁇ 1 is a positive direction in the clockwise direction and takes a value of 0 to 360.
  • the press sensor 10 detects the pressing force P at the time of pressing operation.
  • the pressing sensor 10 generates pressing operation information related to the pressing position ( ⁇ 1 , y) and the pressing force P and outputs it to the position specifying unit 20.
  • the pressing operation information includes three-dimensional values such as the angle ⁇ 1 , the distance y, and the pressing force P. Therefore, the position specifying unit 20 can specify the point P2 in the color space based on the pressing operation information (see FIG. 11).
  • the position specifying unit 20 specifies the point P2 in the color space corresponding to the pressing position ( ⁇ 1 , y) and the pressing force P based on the pressing operation information.
  • the color space 100 is a space defined by H (hue), S (saturation), and V (lightness), and has a cylindrical shape.
  • a reference plane 102 is set in the color space 100.
  • the central axis 101 is disposed so as to be parallel to the central axis 10 a of the pressure sensor 10. Further, the reference surface 10b of the press sensor 10 and the reference surface 102 in the color space are set so as to overlap each other.
  • the hue is indicated by an angle from the reference plane 101 with the clockwise direction as the positive direction, and takes a value of 0 to 360. 0 and 360 indicate the same hue (red). Saturation is indicated by a distance from the central axis 101 and takes a value of 0 to 1. The brightness is indicated by a distance from the bottom surface 104 and takes a value of 0 to 1.
  • the position specifying unit 20 specifies the point P2 corresponding to the pressing position and the pressing force based on the following formulas (1) to (4).
  • An example of the point P2 is shown in FIG.
  • h1, s1, and v1 indicate the hue, saturation, and lightness of the point P2, respectively.
  • P max is the maximum value of the pressing force and is set in advance.
  • the position specifying unit 20 generates position information in the color space regarding the specified point P ⁇ b> 2 and outputs the position information to the control unit 30.
  • the user can also press the area
  • the position specifying unit 20 specifies the area pressed by the user, that is, the area in the color space corresponding to the pressed area, by performing the above-described processing for each point in the area. Thereby, the user can designate the position (point or area) in the color space.
  • the control unit 30 passes through the center point C1 of the color space 100 and the display unit 40 has a plane that is normal to the display direction vector of the display unit 40 (a vector indicating the direction in which the display unit 40 displays an image) A1. Display.
  • the control unit 30 performs the following processing when the display direction is the horizontal direction. That is, as shown in FIG. 11, the control unit 30 calculates an angle ⁇ 2 from the reference plane 102 to the display direction vector A1. Angle theta 2 is a clockwise direction is a positive direction, takes a value of 0 to 360. Then, the control unit 30 causes the display unit 40 to display the plane 103 on which the hue h2 represented by the following formulas (5) to (6) is drawn. That is, the control unit 30 performs light emission control of the two-dimensional light emitting element array 1101 so that the user can visually recognize the plane 103.
  • FIG. 12 shows how the plane 103 is displayed on the display unit 40.
  • the control unit 30 inclines the plane 103 about the center point C 1 by the angle ⁇ 4 and puts the plane 103 on the display unit 40. It may be displayed. In this case, a hue of h2 ⁇ 90 is drawn on the plane 103.
  • the plane 105 is a plane on which a hue of h2 ⁇ 90 is drawn.
  • the control unit 30 causes the display unit 40 to display a different plane 103 according to the display direction of the display unit 40.
  • the display direction vector A1 and the user's line-of-sight vector A2 are parallel to each other. Therefore, the control unit 30 causes the display unit 40 to display a plane having the normal line of sight of the user.
  • the user can visually recognize various planes 103 by arbitrarily shifting the line-of-sight direction, and thus can easily find a desired color from the color space.
  • the control unit 30 draws the icon B at the position indicated by the position information in the color space as shown in FIG.
  • the icon B is drawn on the plane 103 when the angle ⁇ 2 of the display direction vector coincides with the angle ⁇ 1 of the pressed position.
  • the icon B is drawn on the plane 103. Therefore, the user views the display section 40 at spaced from the reference plane 10b by the angle theta 1 position, and, when performing the pressing operation at that position, as shown in FIG. 15, it can visually recognize the icon B it can.
  • the user can find the icon B by shifting the viewing direction or the pressed position.
  • step S ⁇ b> 10 the control unit 30 causes the display unit 40 to display a different plane 103 depending on the display direction of the display unit 40.
  • the user can visually recognize various planes 103 by arbitrarily shifting the line-of-sight direction, and thus can easily find a desired color from the color space.
  • the user designates the color. Specifically, the user performs a pressing operation at the same position as the position where the plane 103 is visually recognized. That is, the user angle theta as 2 and match the pressing position of the angle theta 1 and the line-of-sight direction vector A2 (i.e. the display direction vector A1), performs a pressing operation.
  • the pressing sensor 10 detects the pressing position ( ⁇ 1 , y) and the pressing force P, and outputs the pressing operation information to the position specifying unit 20.
  • step S20 the position specifying unit 20 determines a point in the color space corresponding to the pressing position ( ⁇ 1 , y) and the pressing force P based on the pressing operation information and the above formulas (1) to (4). P2 is specified.
  • the position specifying unit 20 outputs position information in the color space regarding the position of the point P ⁇ b> 2 to the control unit 30.
  • step S30 the control unit 30 draws the icon B at the position indicated by the position information in the color space, as shown in FIG.
  • the user finds the icon B by appropriately adjusting the line-of-sight direction.
  • the user adjusts the pressing position ( ⁇ 1 , y) and the pressing force P until the icon B overlaps with a desired color.
  • the user can designate a desired color (position in the color space).
  • the information processing apparatus 1 ends the process.
  • control unit 30 When receiving an instruction to output color information from the user, the control unit 30 outputs color information regarding the position of the point P2, that is, hue, saturation, and brightness, to an external device, for example, a device for color correction. Also good.
  • the user can find the point P1 corresponding to a desired color by looking around the cylindrical pressure sensor 10 in the circumferential direction. And the user can designate a desired color by pressing the point P1. Therefore, the user can directly and intuitively specify the position in the three-dimensional space.
  • the information processing device 1 the angle theta 1 between the reference plane 10b to the pressurizing member, and the distance y and detects a pressed position, it is possible to accurately detect the pressing position.
  • the information processing apparatus 1 is provided in the hollow portion of the pressure sensor 10 and displays an area corresponding to the user's line of sight among the areas in the color space, the user easily finds a desired color. be able to.
  • the information processing apparatus 1 displays the plane 103 that passes through the center point of the color space 100 and has the user's line of sight as a normal line, the user can easily find a desired color.
  • the hue h2 corresponding to the angle from the reference plane 102 to the plane 103 is drawn on the plane 103, the user can easily find a desired color.
  • the information processing apparatus 200 according to the second embodiment mainly differs in that it includes a line-of-sight detection unit 250 and the display unit 40 is a flexible display. Therefore, the second embodiment will be described focusing on these differences.
  • the information processing apparatus 200 includes a press sensor 210, a position specifying unit 220, a control unit 230, a display unit 240, and a line-of-sight detection unit 250.
  • the display unit 240 is a flexible display, and is wound around the peripheral surface of the columnar base 300 as shown in FIG.
  • the pressure sensor 210 is the same as the pressure sensor 10 of the first embodiment, and is wound around the peripheral surface of the display unit 240.
  • the line-of-sight detection unit 250 is a so-called 360 degree camera, and is provided on the upper side of the pressure sensor 210 as shown in FIG.
  • the information processing apparatus 200 schematically performs the following processing.
  • the pressing sensor 210 detects the pressing position ( ⁇ 1 , y) and the pressing force P by performing the same processing as the pressing sensor 10.
  • the position specifying unit 220 specifies the position in the color space according to the pressing position ( ⁇ 1 , y) and the pressing force P by performing the same processing as in the first embodiment.
  • the gaze detection unit 250 detects the gaze direction of the user, and outputs gaze direction information regarding the detection result to the control unit 230. Based on the line-of-sight direction information, the control unit 230 displays on the display unit 240 a plane 103 that passes through the central axis 101 of the color space 100 and has the line-of-sight direction of the user as a normal.
  • the specific processing content is the same as in the first embodiment. According to the second embodiment, the same effect as that of the first embodiment can be obtained.
  • the present embodiment discloses a technique in which a user specifies a color space, but the user uses the technique according to the present disclosure to specify a position in another three-dimensional space, for example, a position in a human body. May be.
  • the HSV space is taken as an example of the color space 100, the present embodiment is a color space (for example, La * b * space) having the same cyclic hue and two degrees of freedom (two attribute values). Or xyz space).
  • the control unit 30 may change the color and shape of the icon according to the deviation between the position designated by the user and the target position. For example, the control unit 30 may display the icon in red if the deviation between the position designated by the user and the target position is within a predetermined value, and may display the icon in black otherwise. Moreover, the control part 30 may enlarge an icon, so that the deviation
  • control unit 30 may change the color displayed on the display unit 40 according to the degree of color blindness of the user in consideration of the universal design.
  • the information processing apparatus 1 stores a color table or a color conversion function corresponding to the degree of color blindness, and the control unit 30 selects a color desired by the user based on the color table or the color conversion function and a designation from the user. May be displayed on the display unit 40.
  • the control unit 30 may switch and display the normal color and the color blind color as time passes.
  • the control unit 30 may cause the display unit 40 to display a color that complements the color defined by each color table or color conversion function. Thereby, the user of color blindness can visually recognize the color according to his own color blindness degree. Further, a normal user without color blindness can grasp what color the color blind user recognizes.
  • control unit 30 may cause the display unit 40 to display a color in consideration of the transparency ⁇ . Further, the control unit 30 may change the resolution of the color space 100 (the number of pixels for displaying each color information in the color space) according to the pressing force P. For example, the control unit 30 may decrease the resolution (that is, increase the number of pixels that display one color information) as the pressing force P increases. Thereby, the user can specify a desired color more easily. Note that the resolution adjustment pressing operation is performed separately from the designation of the color information.
  • control unit 30 may display a color obtained by mixing these colors on the display unit 40 and output it to an external device.
  • the control unit 30 may delete colors other than the color designated by the user from the display unit 40.
  • control unit 30 may change the color display position based on an additional pressing operation by the user.
  • a pressing sensor that is capable of detecting a pressing position that is a position of a pressing portion where the user has performed a pressing operation and a pressing force that is a pressure at the time of the pressing operation, and has a cylindrical shape;
  • An information processing apparatus comprising: a position specifying unit that specifies a position in a three-dimensional space according to the pressing position and the pressing force.
  • the press sensor detects an angle from a reference plane including a central axis of the press sensor to the press portion and a position of the press portion in the central axis direction as the press position. Processing equipment.
  • the information processing apparatus further including a display unit that is provided in a hollow portion of the press sensor and displays a region corresponding to a user's line of sight among the regions in the three-dimensional space.
  • the three-dimensional space has a cylindrical shape, The information processing apparatus according to (3), wherein the display unit displays a plane that passes through a center point of the three-dimensional space and has a user's line of sight as a normal line.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが3次元空間内の位置を直接指定することができる技術が望まれていた。 【解決手段】本開示によれば、ユーザが押圧操作を行った押圧部分の位置である押圧位置と押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサと、押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 3次元空間内の位置を指定することは、様々な分野で行われている。例えば、カラーコレクションの分野では、RGBやHSV等で定義される色空間内の位置を指定することで、色の指定を行う。色の指定方法は例えば特許文献1に開示されている。
特開2007-096612号公報
 しかし、3次元空間内の位置の指定は、2次元または1次元の情報を組み合わせることにより行われていた。即ち、3次元空間内の位置を直接指定する技術は未だ提案されていなかった。このため、ユーザが3次元空間内の位置を直接指定することができる技術が望まれていた。
 本開示によれば、ユーザが押圧操作を行った押圧部分の位置である押圧位置と押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサと、押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定部と、を備える、情報処理装置が提供される。
 本開示によれば、ユーザが押圧操作を行った押圧部分の位置である押圧位置と押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、押圧位置及び押圧力に応じた3次元空間内の位置を特定することを含む、情報処理方法が提供される。
 本開示によれば、コンピュータに、ユーザが押圧操作を行った押圧部分の位置である押圧位置と押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定機能を実現させる、プログラムが提供される。
 本開示によれば、情報処理装置は、押圧位置及び押圧力に応じた3次元空間内の位置を特定する。これにより、ユーザは、円筒形状をなす押圧センサを円周方向に見渡すことで、3次元空間内の所望の位置に対応する部分、即ち押圧部分を発見することができる。そして、ユーザは、その部分を押圧することで、3次元空間内の所望の位置を指定することができる。
 以上説明したように本開示によれば、ユーザは、3次元空間内の位置を直接かつ直感的に指定することができる。
本開示の第1の実施形態に係る情報処理装置の構成を示すブロック図である。 情報処理装置の外観を示す斜視図である。 表示部40の構成例を示す分解斜視図である。 2次元発光素子アレイ1101の発光面の形状算出例を示す説明図である。 視点Paから観察される発光点の軌跡例(その1)を示す説明図である。 視点Paから観察される発光点の軌跡例(その2)を示す説明図である。 視点Paから観察される発光点の軌跡例(その3)を示す説明図である。 表示部及び押圧センサの平断面図である。 押圧センサの押圧位置を特定する方法を説明する斜視図である。 色空間の構成を示す斜視図である。 ユーザの視線と表示部に表示される色空間との対応関係等を示す斜視図である。 表示部に色空間が表示される様子を示す斜視図である。 ユーザの視線と表示部に表示される色空間との対応関係等を示す斜視図である。 ユーザの視線と表示部に表示される色空間との対応関係等を示す斜視図である。 表示部に色空間が表示される様子を示す斜視図である。 情報処理装置による処理の手順を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の構成を示すブロック図である。 情報処理装置の外観を示す斜視図である。 表示部及び押圧センサの平断面図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態(360度ディスプレイを使用する例)
  1-1.情報処理装置の構成
  1-2.情報処理装置による処理の手順
 2.第2の実施形態
  2-1.情報処理装置の構成(フレキシブルディスプレイを使用する例)
 <1-1.情報処理装置の構成>
 本実施形態は、3次元空間として色空間に着目し、色空間内の位置を直接指定することができる技術を開示する。色の指定は、色空間という3次元空間内の位置を指定することによって行われる。カラーコレクションなどの分野において、色指定を行う方法としては、1次元又は2次元で表現された色見本帳やマンセルチャートなどを使用する方法が開示されている。しかし、これらの方法では、ユーザは、複数の色見本帳やマンセルチャートを組み合わせることで色の指定を行なっていたので、色空間内の位置を直接指定することができなかった。さらに、これらの方法で色の分解能を上げようとすると、非常に多くの色見本やマンセルチャートの紙が必要になり、広い場所が必要であったり、所望の色を検索するのが困難になったりしてしまう。そこで、本実施形態では、色空間内の位置を直接指定することができ、かつ、分解能を容易に調整することができる技術を開示する。
 情報処理装置1は、図1及び図2に示すように、押圧センサ10と、位置特定部20と、制御部30と、表示部40とを備える。なお、情報処理装置1は、押圧センサ及び表示部40の他、CPU、ROM、RAM、通信装置等のハードウェア構成を有し、これらのハードウェア構成によって、位置特定部20及び制御部30が実現される。すなわち、ROMには、情報処理装置1に位置特定部20及び制御部30を実現させるためのプログラムが記録されており、CPUがプログラムを読みだして実行することで、位置特定部20及び制御部30が実現される。
 [表示部40の構成例]
 図3は、表示部40の構成例を示す分解斜視図である。表示部40は、いわゆる360度ディスプレイである。360度ディスプレイの詳細は、例えば特開2011-107665号に開示されている。そこで、ここでは、表示部40の構成及び動作原理の概要を説明する。図3に示す表示部40は光線再生方式の立体画像表示装置の一例を構成し、2次元発光素子アレイ1101、スリット付きの回転部1104及び駆動機構付きの設置架台1105を備えている。表示部40は、被写体を全周囲に渡って撮像したり、コンピュータにより作成された立体画像表示用の2次元映像情報等(以下単に映像データDinという)に基づいて被写体の全周囲に渡る立体画像を再生するものである。
 回転部1104はスリット付きの外装体1041及び、吸気口付きのターンテーブル1042を有する。ターンテーブル1042上には外装体1041が取り付けられる。ターンテーブル1042は円盤状を成しており、その中心位置には回転軸1103が設けられている。回転軸1103は、ターンテーブル1042の回転中心となされると共に、外装体1041の回転中心となされ、以下で、回転部1104の回転軸1103ともいう。ターンテーブル1042の所定の位置には吸気口1106が設けられ、外装体1041の内側へ空気を取り込むようになされる。
 ターンテーブル1042上の外装体1041の内側には、所定の形状を有した1以上の2次元発光素子アレイ1101が備えられている。2次元発光素子アレイ1101は、例えば、m行×n列個の発光素子をマトリクス状に配列したものである。発光素子には、発光ダイオードや、レーザダイオード、有機ELなどの自発光素子が使用される。2次元発光素子アレイ1101は、回転部1104の回転に応じて複数の発光素子が発光し、かつ、立体画像用の映像データDinに基づいて発光制御されるようになっている。この発光制御は、後述する制御部30によって行われる。
 もちろん、発光素子は、自発光素子に限られることはなく、光源と変調素子を組み合わせた発光装置でもよい。視点Pa(図4参照)に対するスリット回転走査時、回転部1104の変調速度に追従できる発光素子であれば、どんな形態の発光素子や発光装置であってもよい。2次元発光素子アレイ1101には、発光素子の他に、当該発光素子を駆動するための駆動回路(ドライバ)が実装されている。
 2次元発光素子アレイ1101は、例えば、プリント配線基板を湾曲状(例えば円弧状)に切り欠いた小口面に、複数の発光素子をライン状に配設(実装)した1次元発光素子基板を回転軸1103に沿って複数枚積層した積層構造を有する。このように構成すると、曲面形状(例えば円弧状)の発光面を有した2次元発光素子アレイ1101を容易に構成できるようになる。
 ターンテーブル1042上の2次元発光素子アレイ1101を覆うように取り付けられた外装体1041は、所定の口径φ及び所定の高さHaを有した円筒状を成している。外装体1041の口径φは100mm乃至200mm程度であり、その高さHaは400mm乃至500mm程度である。外装体1041の周面の所定の位置にはスリット1102が設けられる。スリット1102は、外装体1041の周面において、回転軸1103に平行する方向に穿設され、2次元発光素子アレイ1101の発光面の前方に固定され、光の放射角度を所定の範囲に制限する。
 もちろん、スリット1102は開孔部に限られることはなく、光が透過する透明部材から構成される窓部であってもよい。この例で、外装体1041の周面のスリット1102と、その内側の2次元発光素子アレイ1101とにより1組単位の発光ユニットUi(i=1,2,3・・・)が構成される。
 上述の2次元発光素子アレイ1101は曲面形状となっている部分を有し、その曲面形状の凹面側が発光面とされている。そして、その曲面形状の発光面がスリット1102に向くように回転部1104の回転軸1103とそのスリット1102との間に配置されている。このように構成すると、平坦状の発光面に比べて曲面形状の発光面から出射した光をスリット1102に導き(集光し)易くなる。外装体1041は、鉄板やアルミニウム板をプレス加工や、ロール加工等を施して筒状体に形成したものを使用する。外装体1041の内外部は、好ましくは、光を吸収するように黒色に塗布される。なお、外装体1041のスリット1102の上部の開孔部は、センサ用の孔部1108である。
 外装体1041の天板部位はファン構造となされ、ターンテーブル1042の吸気口1106から取り入れた冷却用の空気を外部へ排気するようになされる。例えば、外装体1041の天板部位(上部)に、冷却用の羽根部材の一例となるブレード等のわずかなファン部1107(排気口)を設け、回転動作を利用して空気の流れを作り出し、2次元発光素子アレイ1101やその駆動回路から発生する熱を強制排気する。ファン部1107は外装体1041の上部を切り欠いて天板部位と兼用するようにしてもよい。天板部位と兼用することで、外装体1041が強固になる。
 ファン部1107は、回転部1104の回転軸1103の上部に限られることはなく、その外装体1041の下部の回転軸1103の付近に取り付けてもよい。羽根部材の羽根の向きにもよるが、回転部1104が回転すると、回転部1104の上部から下部へ向かう空気の流れ、又は、回転部1104の下部から上部へ向かう空気の流れを作り出すことができる。いずれの場合も、回転部1104の上部又は下部に空気の吸い込み口や、その排気口を設けて置くとよい。
 このように、回転軸1103に羽根部材を取り付けたので、回転部1104の回転動作を利用して空気の流れを作り出すことができる。従って、ファンモータなどを新たに追加せずに、2次元発光素子アレイ1101から発生する熱を外部へ排気できるようになる。これによるファンモータが不要になることから、表示部40のコストダウンを図ることができる。
 設置架台1105は、ターンテーブル1042を回転自在に支持する部分である。設置架台1105の上部には、図示しない軸受け部が設けられる。軸受け部は回転軸1103を回転自在に係合する共に、回転部1104を支持する。設置架台1105の内部にはモータ1052が設けられ、ターンテーブル1042を所定の回転(変調)速度で回転するようになされる。例えば、回転軸1103の下端には、直結方式のACモータ等が係合される。モータ1052は回転力を回転軸1103に直接伝達し、回転軸1103が回転することで、回転部1104が所定の変調速度で回転する。
 この例で、回転部1104に対して電力や映像データDinを送る際に、スリップリング1051を介して送る方法が採られる。この方法によれば、回転軸1103に電力及び映像データDinを伝送するスリップリング1051が設けられる。スリップリング1051は固定側部品と回転側部品とに区分される。回転側部品は回転軸1103に取り付けられる。固定側部品にはハーネス1053(配線ケーブル)が接続される。
 回転側部品には他のハーネス1054を介して2次元発光素子アレイ1101が接続される。固定側部品と回転側部品との間は、図示しない摺動子が環状体に電気的に接触する構造となされている。摺動子は固定側部品又は回転側部品を構成し、環状体は回転側部品又は固定側部品を構成する。この構造により、設置架台1105内において、外部から供給される電力や映像データDinをスリップリング1051を介して2次元発光素子アレイ1101に伝送できるようになる。
 図4は、2次元発光素子アレイ1101の発光面の形状算出例を示す説明図である。この例では、図4に示すxa-ya座標平面(回転軸1103に直交する平面)において、2次元発光素子アレイ1101の発光面の形状は、以下の式で表される点(xa(θ),ya(θ))が描く曲線になる。2次元発光素子アレイ1101を形成する際に、回転部1104の回転軸1103から任意の視点Paに至る線分の距離をL1とする。回転軸1103から2次元発光素子アレイ1101までの最短距離をL2とする。なお、この全周囲立体画像表示装置10では、任意の視点Paから装置を観測したときに、2次元発光素子アレイ1101による発光点の軌跡、すなわち観測される画像表示面が例えば平面となるような画像表示がなされる。この場合、L2は、回転軸1103から複数の発光素子による発光点の軌跡によって形成される平面までの距離に等しい。
 更に、回転部1104の回転軸1103からスリット1102に至る線分の距離をrとし、距離L1の線分と距離rの線分とが成す角度であって、当該距離L1の線分に対するスリット1102の位置を示す角度θとする。そして、2次元発光素子アレイ1101の発光面の湾曲形状を成すxa軸座標値をxa(θ)とし、2次元発光素子アレイ1101の発光面の湾曲形状を成すya軸座標値をya(θ)とする。xa軸座標値xa(θ)は、(10)式、すなわち、
Figure JPOXMLDOC01-appb-M000001
 これにより、視点Paaからスリット1102を介して観測される発光点の軌跡が、平面を成して見える2次元発光素子アレイ1101の発光面の形状を決定できるようになる。発光面の形状が決定したら、プリント配線基板を湾曲形状に切り欠いて形成すればよい。
 [表示部40の動作原理]
 続いて、表示部40の動作原理、すなわち視点Paaから観察される発光点の軌跡例について説明する。この表示部40では、2次元発光素子アレイ1101において、回転軸1103に直交する平面内には、上述したように例えばm=12個の発光素子が互いに異なる位置に配置されている。m個の発光素子はそれぞれ、スリット1102を介して回転部1104の回転に応じてそれぞれ異なる視点位置用の光を外部に向けて放射する。ここで、回転部1104が回転している状態において、回転部1104の周囲における任意の1つの視点位置から回転軸1103の方向を観測したとする。このとき、後述する制御部30は、複数の発光素子による発光点の軌跡によって、回転部1104の内部に任意の視点位置に応じた例えば平面状の画像が形成されるように複数の発光素子の発光制御を行う。各視点位置ではその視点位置に応じた少しずつ視差のある例えば平面状の画像が観測される。従って、両眼の位置に相当する任意の2つの視点位置から観測したときには、各視点位置に応じた互いに視差のある例えば平面状の画像が観測される。これにより、観測者は回転部の周囲の任意の位置において、立体画像を認識することができる。
 図5~7は、視点Paaから観察される発光点の軌跡例を示す説明図である。図5A~Dに示すように、発光ユニットU1を有する回転部1104が等速で回転され、視点Paaに対して回転走査される場合、視点Paaから観測される発光素子が時間Tの間隔で発光素子1201から順に発光素子1202,1203,・・・1212と移って行く。
 発光点の軌跡(図中の黒小丸印)が例えば平面を成して見える構造は、2次元発光素子アレイ1101の発光面形状とスリット1102の位置を調整することで実現される。例えば、図5Aに示す時刻t=0において、視点Paaでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1201から漏れ出る光が観測される。
 図5Bに示す時刻t=Tにおいて、視点Paaでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1202から漏れ出る光が観測される。図中の右側から第1番目の白抜きの小丸印は、発光素子1201の発光点を示している。図5Cに示す時刻t=2Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1203から漏れ出る光が観測される。図5Cにおける第2番目の小丸印は、発光素子1202の発光点を示している。
 図5Dに示す時刻t=3Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1204から漏れ出る光が観測される。図5Dにおける第3番目の小丸印は、発光素子1203の発光点を示している。
 また、図6Aに示す時刻t=4Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1205から漏れ出る光が観測される。図6Aにおける第4番目の小丸印は、発光素子1204の発光点を示している。図6Bに示す時刻t=5Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1206から漏れ出る光が観測される。図6Bにおける第5番目の小丸印は、発光素子1205の発光点を示している。
 図6Cに示す時刻t=6Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1207から漏れ出る光が観測される。図6Cにおける第6番目の小丸印は、発光素子1206の発光点を示している。図6Dに示す時刻t=7Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1208から漏れ出る光が観測される。図6Dにおける第7番目の小丸印は、発光素子1207の発光点を示している。
 図7Aに示す時刻t=8Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1209から漏れ出る光が観測される。図7Aにおける第8番目の小丸印は、発光素子1208の発光点を示している。図7Bに示す時刻t=9Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1210から漏れ出る光が観測される。図7Bにおける第9番目の小丸印は、発光素子1209の発光点を示している。
 図7Cに示す時刻t=10Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1211から漏れ出る光が観測される。図7Cにおける第10番目の小丸印は、発光素子1210の発光点を示している。図7Dに示す時刻t=11Tにおいて、視点Paでスリット1102を介して2次元発光素子アレイ1101を観察すると、発光素子1212から漏れ出る光が観測される。図7Dにおける第11番目の小丸印は、発光素子1211の発光点を示している。図7Dにおける第12番目の黒小丸印は、発光素子1212の発光点を示している。したがって、ユーザは、スリット1102を介して平面画像を視認することができる。また、ユーザは、視点ごとに異なる平面画像を視認することができる。これにより、ユーザは、立体画像を視認することができる。この平面画像は、例えば色空間内の平面(すなわち、後述する平面103)となる。
 押圧センサ10は、図2及び図8に示すように、円筒形状をなし、その中空部分に表示部40が配置される。表示部40はいわゆる360度ディスプレイであり、表示方向に応じて異なる画像を表示する。また、図9に示すように、押圧センサ10には、中心軸10aを含む基準面10bが設定されている。押圧センサ10の高さはymaxで示される。押圧センサ10は、ユーザが点P1を押圧した場合に、基準面10bから点P1までの角度θと、上端面10cから点P1までの距離yとを点P1の位置、即ち押圧位置として検出する。なお、角度θは、点P1から中心軸10aに下ろした垂線と基準面とのなす角度である。また、角度θは右回り方向が正方向となり、0~360の値をとる。
 さらに、押圧センサ10は、押圧操作時の押圧力Pを検出する。押圧センサ10は、押圧位置(θ、y)及び押圧力Pに関する押圧操作情報を生成し、位置特定部20に出力する。押圧操作情報には、角度θ、距離y、及び押圧力Pという3次元の値が含まれる。したがって、位置特定部20は、押圧操作情報に基づいて、色空間内の点P2を特定することができる(図11参照)。
 位置特定部20は、押圧操作情報に基づいて、押圧位置(θ、y)及び押圧力Pに応じた色空間内の点P2を特定する。ここで、図10に基づいて、本実施形態の色空間100について説明する。色空間100は、H(色相)、S(彩度)、及びV(明度)で定義される空間であり、円柱形状をなす。色空間100には基準面102が設定されている。基準面102は、中心軸101及び中心点C1を含む面であり、赤色(H=0)を示す。中心軸101は押圧センサ10の中心軸10aに平行となるように配置される。また、押圧センサ10の基準面10bと色空間内の基準面102とは互いに重なるように設定される。
 色相は、右回り方向を正方向とした基準面101からの角度で示され、0~360の値を取る。0と360は同一の色相(赤)を示す。彩度は中心軸101からの距離で示され、0~1の値を取る。明度は底面104からの距離で示され、0~1の値を取る。
 位置特定部20は、以下の式(1)~(4)に基づいて、押圧位置及び押圧力に応じた点P2を特定する。点P2の例を図11に示す。
Figure JPOXMLDOC01-appb-M000002
 式(1)~(4)中、h1、s1、v1はそれぞれ点P2の色相、彩度、及び明度を示す。Pmaxは押圧力の最大値であり、予め設定される。位置特定部20は、特定した点P2に関する色空間内位置情報を生成し、制御部30に出力する。なお、ユーザは、点P1を押圧する代わりに、一定範囲の領域を押圧することもできる。この場合、位置特定部20は、領域内の各点について上述した処理を行うことで、ユーザが押圧した領域、即ち押圧領域に対応する色空間内の領域を特定する。これにより、ユーザは、色空間内の位置(点または領域)を指定することができる。
 制御部30は、色空間100の中心点C1を通り、かつ、表示部40の表示方向ベクトル(表示部40が画像を表示する方向を示すベクトル)A1を法線とする平面を表示部40に表示させる。例えば、制御部30は、表示方向が水平方向となる場合には、以下の処理を行なう。即ち、図11に示すように、制御部30は、基準面102から表示方向ベクトルA1までの角度θを算出する。角度θは右回り方向を正方向とし、0~360の値をとる。そして、制御部30は、以下の式(5)~(6)で示される色相h2が描かれた平面103を表示部40に表示させる。すなわち、制御部30は、ユーザが平面103を視認することができるように、2次元発光素子アレイ1101の発光制御等を行う。表示部40に平面103が表示される様子を図12に示す。
Figure JPOXMLDOC01-appb-M000003
 なお、制御部30は、図13に示すように、表示方向が水平方向から角度θだけ傾く場合、中心点C1を中心に平面103を角度θだけ傾け、この平面103を表示部40に表示させてもよい。この場合、平面103には、h2±90の色相が描かれる。平面105は、h2±90の色相が描かれた平面である。
 このように、制御部30は、表示部40の表示方向に応じて異なる平面103を表示部40に表示させる。なお、ユーザが平面103を視認している場合、表示方向ベクトルA1とユーザの視線方向ベクトルA2とは互いに平行になる。したがって、制御部30は、ユーザの視線を法線とする平面を表示部40に表示させることとなる。これにより、ユーザは、視線方向を任意にずらすことで、さまざまな平面103を視認することができ、ひいては、色空間から所望の色を容易に発見することができる。
 また、制御部30は、色空間内位置情報が与えられた場合には、図14に示すように、色空間内位置情報が示す位置にアイコンBを描く。なお、式(1)~(6)によれば、表示方向ベクトルの角度θが押圧位置の角度θに一致した場合、平面103上にアイコンBが描かれる。図14では、平面103上にアイコンBが描かれている。したがって、ユーザは、基準面10bから角度θだけ離れた位置で表示部40を視認し、かつ、その位置で押圧操作を行った場合、図15に示すように、アイコンBを視認することができる。一方、ユーザは、アイコンBを視認できない場合、視線方向または押圧位置をずらすことによって、アイコンBを発見することができる。
 <1-2.情報処理装置による処理の手順>
 次に、情報処理装置1による処理の手順を図16に示すフローチャートに沿って説明する。まず、ステップS10において、制御部30は、表示部40の表示方向に応じて異なる平面103を表示部40に表示させる。これにより、ユーザは、視線方向を任意にずらすことで、さまざまな平面103を視認することができ、ひいては、色空間から所望の色を容易に発見することができる。
 ユーザは、所望の色を発見した場合、その色を指定する。具体的には、ユーザは、平面103を視認している位置と同じ位置で押圧操作を行う。即ち、ユーザは、押圧位置の角度θと視線方向ベクトルA2(即ち表示方向ベクトルA1)の角度θとが一致するように、押圧操作を行なう。押圧センサ10は、押圧位置(θ、y)及び押圧力Pを検出し、押圧操作情報を位置特定部20に出力する。
 ステップS20において、位置特定部20は、押圧操作情報と、上述した式(1)~(4)とに基づいて、押圧位置(θ、y)及び押圧力Pに応じた色空間内の点P2を特定する。位置特定部20は、点P2の位置に関する色空間内位置情報を制御部30に出力する。
 ステップS30において、制御部30は、図14に示すように、色空間内位置情報が示す位置にアイコンBを描く。ユーザは、視線方向を適宜調整することで、アイコンBを発見する。そして、ユーザは、アイコンBが所望の色と重なるまで、押圧位置(θ、y)及び押圧力Pを調整する。これにより、ユーザは、所望の色(色空間内の位置)を指定することができる。その後、情報処理装置1は、処理を終了する。
 なお、制御部30は、ユーザから色情報の出力指示を受けた場合、点P2の位置、即ち色相、彩度、及び明度に関する色情報を外部の機器、例えばカラーコレクション用の機器に出力してもよい。
 以上により、第1の実施形態によれば、ユーザは、円筒形状をなす押圧センサ10を円周方向に見渡すことで、所望の色に対応する点P1を発見することができる。そして、ユーザは、その点P1を押圧することで、所望の色を指定することができる。したがって、ユーザは、3次元空間内の位置を直接かつ直感的に指定することができる。
 さらに、情報処理装置1は、基準面10bから押圧部分までの角度θと、距離yとを押圧位置として検出するので、押圧位置を正確に検出することができる。
 さらに、情報処理装置1は、押圧センサ10の中空部分に設けられ、色空間内の各領域のうち、ユーザの視線に応じた領域を表示するので、ユーザは、所望の色を容易に発見することができる。
 さらに、情報処理装置1は、色空間100の中心点を通り、かつ、ユーザの視線を法線とする平面103を表示するので、ユーザは、所望の色を容易に発見することができる。
 さらに、平面103には、基準面102から平面103までの角度に応じた色相h2が描かれるので、ユーザは、所望の色を容易に発見することができる。
 <2.第2の実施形態>
 次に、本開示の第2の実施形態について説明する。第2の実施形態に係る情報処理装置200は、視線検出部250を有する点と、表示部40がフレキシブルディスプレイである点とが主に異なる。そこで、これらの相違点を中心に第2の実施形態を説明する。
 図17に示すように、情報処理装置200は、押圧センサ210と、位置特定部220と、制御部230と、表示部240と、視線検出部250とを有する。表示部240は、フレキシブルディスプレイであり、図19に示すように、円柱状の基体300の周面に巻きつけられている。押圧センサ210は、第1の実施形態の押圧センサ10と同様のものであり、表示部240の周面に巻きつけられている。視線検出部250は、いわゆる360度カメラであり、図18に示すように、押圧センサ210の上側に設けられる。
 第2の実施形態に係る情報処理装置200は、概略的には以下の処理を行なう。押圧センサ210は、押圧センサ10と同様の処理を行うことで、押圧位置(θ、y)及び押圧力Pを検出する。位置特定部220は、第1の実施形態と同様の処理を行うことで、押圧位置(θ、y)及び押圧力Pに応じた色空間内の位置を特定する。
 一方、視線検出部250は、ユーザの視線方向を検出し、検出結果に関する視線方向情報を制御部230に出力する。制御部230は、視線方向情報に基づいて、色空間100の中心軸101を通り、かつユーザの視線方向を法線とする平面103を表示部240に表示する。具体的な処理内容は第1の実施形態と同様である。第2の実施形態によっても、第1の実施形態と同様の効果が得られる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、本実施形態は、ユーザが色空間の指定を行う技術を開示するが、ユーザが他の3次元空間内の位置、例えば人体内の位置を特定するために本開示に係る技術を利用してもよい。
 また、色空間100としてHSV空間を例に挙げたが、本実施形態は、同様のサイクリック的な色相と2自由度(2つの属性値)とを持つ色空間(例えば、La*b*空間やxyz空間)にも当然に適用可能である。
 また、色について目標位置が定まっている場合、制御部30は、ユーザが指定した位置と目標位置とのずれに応じて、アイコンの色や形状を変化させてもよい。例えば、制御部30は、ユーザが指定した位置と目標位置とのずれが所定値以内であればアイコンを赤色で表示し、それ以外の場合にはアイコンを黒色で表示してもよい。また、制御部30は、目標位置とのずれが大きいほど、アイコンを大きくしてもよい。
 また、制御部30は、ユニバーサルデザインを考慮し、表示部40に表示させる色をユーザの色盲度合いに応じて変化させてもよい。例えば、情報処理装置1に色盲度合いに応じた色テーブルまたは色変換関数を記憶させておき、制御部30は、色テーブルまたは色変換関数とユーザからの指定とに基づいて、ユーザが所望する色を表示部40に表示させてもよい。また、制御部30は、通常の色と色盲用の色とを時間の経過に応じて切り替えて表示してもよい。また、制御部30は、各色テーブルや色変換関数で定義される色を補完する色を表示部40に表示させてもよい。これにより、色盲のユーザは、自己の色盲度合いに応じた色を視認することができる。また、色盲のない通常のユーザは、色盲のユーザがどのような色を認識するのかを把握することができる。
 また、制御部30は、透明度αを考慮した色を表示部40に表示させてもよい。また、制御部30は、押圧力Pに応じて色空間100の分解能(色空間内の各色情報を表示させる画素の数)を変化させてもよい。例えば、制御部30は、押圧力Pが大きいほど、分解能を小さく(即ち、1つの色情報を表示させる画素の数を多く)してもよい。これにより、ユーザは、所望の色をより容易に指定することができる。なお、分解能調整の押圧操作は、色情報の指定とは別に行われる。
 また、制御部30は、ユーザによって複数の色が指定された場合、これらの色を混合させた色を表示部40に表示させ、外部の機器に出力してもよい。また、制御部30は、ユーザが指定した色以外の色を表示部40から消去してもよい。また、制御部30は、ユーザが色を指定した場合、ユーザによる追加の押圧操作に基づいて、色の表示位置を変更してもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサと、
 前記押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定部と、を備える、情報処理装置。
(2)
 前記押圧センサは、前記押圧センサの中心軸を含む基準面から前記押圧部分までの角度と、前記押圧部分の前記中心軸方向の位置とを前記押圧位置として検出する、前記(1)記載の情報処理装置。
(3)
 前記押圧センサの中空部分に設けられ、前記3次元空間内の各領域のうち、ユーザの視線に応じた領域を表示する表示部を備える、前記(2)記載の情報処理装置。
(4)
 前記3次元空間は円柱形状をなし、
 前記表示部は、前記3次元空間の中心点を通り、かつ、ユーザの視線を法線とする平面を表示する、前記(3)記載の情報処理装置。
(5)
 前記3次元空間は色空間である、前記(4)記載の情報処理装置。
(6)
 前記平面には、前記色空間内の基準面から前記平面までの角度に応じた色相が描かれる、前記(5)記載の情報処理装置。
(7)
 ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、前記押圧位置及び押圧力に応じた3次元空間内の位置を特定することを含む、情報処理方法。
(8)
 コンピュータに、
 ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、前記押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定機能を実現させる、プログラム。
 1,200   情報処理装置
 10,210  押圧センサ
 20,220  位置特定部
 30,230  制御部
 40,240  表示部
 250     視線検出部
 
 
 

Claims (8)

  1.  ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサと、
     前記押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定部と、を備える、情報処理装置。
  2.  前記押圧センサは、前記押圧センサの中心軸を含む基準面から前記押圧部分までの角度と、前記押圧部分の前記中心軸方向の位置とを前記押圧位置として検出する、請求項1記載の情報処理装置。
  3.  前記押圧センサの中空部分に設けられ、前記3次元空間内の各領域のうち、ユーザの視線に応じた領域を表示する表示部を備える、請求項2記載の情報処理装置。
  4.  前記3次元空間は円柱形状をなし、
     前記表示部は、前記3次元空間の中心点を通り、かつ、ユーザの視線を法線とする平面を表示する、請求項3記載の情報処理装置。
  5.  前記3次元空間は色空間である、請求項4記載の情報処理装置。
  6.  前記平面には、前記色空間内の基準面から前記平面までの角度に応じた色相が描かれる、請求項5記載の情報処理装置。
  7.  ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、前記押圧位置及び押圧力に応じた3次元空間内の位置を特定することを含む、情報処理方法。
  8.  コンピュータに、
     ユーザが押圧操作を行った押圧部分の位置である押圧位置と前記押圧操作時の圧力である押圧力とを検出可能であり、かつ、円筒形状をなす押圧センサから与えられた情報に基づいて、前記押圧位置及び押圧力に応じた3次元空間内の位置を特定する位置特定機能を実現させる、プログラム。
     
     
PCT/JP2013/060717 2012-05-07 2013-04-09 情報処理装置、情報処理方法、及びプログラム WO2013168503A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/397,907 US10114492B2 (en) 2012-05-07 2013-04-09 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012105731 2012-05-07
JP2012-105731 2012-05-07

Publications (1)

Publication Number Publication Date
WO2013168503A1 true WO2013168503A1 (ja) 2013-11-14

Family

ID=49550556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/060717 WO2013168503A1 (ja) 2012-05-07 2013-04-09 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10114492B2 (ja)
JP (1) JPWO2013168503A1 (ja)
WO (1) WO2013168503A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200085287A1 (en) * 2017-03-29 2020-03-19 Sony Corporation Medical imaging device and endoscope
EP3642798A4 (en) * 2017-06-20 2020-12-16 Hewlett-Packard Development Company, L.P. DETERMINATIONS OF SENSOR POSITIONS

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260776A (ja) * 1991-11-26 1998-09-29 Itu Res Inc 接触式入力機器および位置制御方法
JP2010244772A (ja) * 2009-04-03 2010-10-28 Sony Corp 静電容量式タッチ部材及びその製造方法、並びに静電容量式タッチ検出装置
WO2011005318A2 (en) * 2009-07-10 2011-01-13 Roel Vertegaal Interaction techniques for flexible displays

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5867169A (en) * 1996-04-17 1999-02-02 Pixar Method and apparatus for manipulating color values in a computer graphics system
US6236406B1 (en) * 1998-10-21 2001-05-22 Sony Corporation Three-dimensional color space display
US6697034B2 (en) * 1999-12-30 2004-02-24 Craig Stuart Tashman Volumetric, stage-type three-dimensional display, capable of producing color images and performing omni-viewpoint simulated hidden line removal
US7324085B2 (en) * 2002-01-25 2008-01-29 Autodesk, Inc. Techniques for pointing to locations within a volumetric display
US6753847B2 (en) * 2002-01-25 2004-06-22 Silicon Graphics, Inc. Three dimensional volumetric display input and output configurations
JP4033859B2 (ja) * 2004-12-28 2008-01-16 独立行政法人科学技術振興機構 立体画像表示方法
JP4837965B2 (ja) 2005-09-28 2011-12-14 ソニー株式会社 色調整装置、表示装置及び印刷装置
JP4438741B2 (ja) * 2005-11-30 2010-03-24 ソニー株式会社 色調整装置、印刷装置、画像処理装置、色調整方法、プログラム
US8189008B2 (en) * 2007-12-13 2012-05-29 Daniel John Julio Color control intuitive touchpad
JP4930503B2 (ja) * 2008-12-25 2012-05-16 ブラザー工業株式会社 画像処理装置と画像処理プログラム
JP5449342B2 (ja) * 2009-05-29 2014-03-19 独立行政法人科学技術振興機構 スリット視を利用した3次元情報提示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10260776A (ja) * 1991-11-26 1998-09-29 Itu Res Inc 接触式入力機器および位置制御方法
JP2010244772A (ja) * 2009-04-03 2010-10-28 Sony Corp 静電容量式タッチ部材及びその製造方法、並びに静電容量式タッチ検出装置
WO2011005318A2 (en) * 2009-07-10 2011-01-13 Roel Vertegaal Interaction techniques for flexible displays

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASAKI NAITO ET AL.: "Evaluate usability of one handed 3D pointing methods for Cylindrical Multi-Touch Interface", DAI 72 KAI (HEISEI 22 NEN) ZENKOKU TAIKAI KOEN RONBUNSHU (4), 8 March 2010 (2010-03-08), pages 4-403 - 4-404 *

Also Published As

Publication number Publication date
US10114492B2 (en) 2018-10-30
US20150130748A1 (en) 2015-05-14
JPWO2013168503A1 (ja) 2016-01-07

Similar Documents

Publication Publication Date Title
US8854439B2 (en) Stereoscopic picture display, method of manufacturing the same and stereoscopic picture display method
US8933998B2 (en) Three-dimensional image display device, method of manufacturing the same, and three-dimensional image display method
CN104205175B (zh) 信息处理装置,信息处理系统及信息处理方法
US9024872B2 (en) Head-mounted display
TW201214354A (en) Stereoscopic image display device and stereoscopic image display method
CA2599833C (en) Stereoscopic image display method
JP6123365B2 (ja) 画像表示システム及び頭部装着型表示装置
CN1934584A (zh) 显示控制方法及装置、程序以及便携设备
US9007401B1 (en) Head mounted display and method for controlling the same
CN104793809B (zh) 位置检测装置及位置检测方法
US11069104B1 (en) Display that uses a light sensor to generate environmentally matched artificial reality content
SG172529A1 (en) Three-dimensional image display device, method of manufacturing the same, and three-dimensional image display method
EP2725871A1 (en) Imaging device and wireless system
JP2011510469A (ja) 色選択入力デバイス及び方法
WO2013168503A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20130249811A1 (en) Controlling a device with visible light
JP2008145792A (ja) 立体表示装置
US10750080B2 (en) Information processing device, information processing method, and program
JP2014018454A (ja) 視標呈示装置
JP2017084136A (ja) ジェスチャ入力装置
CN112051919B (zh) 一种基于位置的交互方法和交互系统
KR20170098077A (ko) Led 입체 잔상 표시장치 및 그 방법
WO2022208600A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
JP2006343418A (ja) 表示装置,表示素子および表示装置の表示方法
CN211364895U (zh) 水下交互控制器与潜水员辅助系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13787072

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014514409

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14397907

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13787072

Country of ref document: EP

Kind code of ref document: A1