WO2023286366A1 - 情報処理装置、情報処理方法、記録媒体 - Google Patents

情報処理装置、情報処理方法、記録媒体 Download PDF

Info

Publication number
WO2023286366A1
WO2023286366A1 PCT/JP2022/012407 JP2022012407W WO2023286366A1 WO 2023286366 A1 WO2023286366 A1 WO 2023286366A1 JP 2022012407 W JP2022012407 W JP 2022012407W WO 2023286366 A1 WO2023286366 A1 WO 2023286366A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
information processing
target object
processing apparatus
information
Prior art date
Application number
PCT/JP2022/012407
Other languages
English (en)
French (fr)
Inventor
美友 岩船
惇一 清水
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202280047696.6A priority Critical patent/CN117616360A/zh
Priority to EP22841716.8A priority patent/EP4372678A1/en
Publication of WO2023286366A1 publication Critical patent/WO2023286366A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/11Supports for sets, e.g. incorporating armrests
    • H04M1/12Adjustable supports, e.g. extensible

Definitions

  • the present technology relates to an information processing device, its method, and a recording medium in which a program is recorded.
  • the present invention relates to a control technique for a shape-variable portion that has been shaped.
  • Patent Document 1 discloses an invention of a portable electronic terminal holder that can be adhered to the back surface of a portable electronic terminal such as a smart phone and that prevents the portable electronic terminal from falling when the portable electronic terminal is in use.
  • the portable electronic terminal holder disclosed in Patent Document 1 is capable of being deformed between the accommodated state and the expanded state. It is performed by applying an external force to , and is not performed automatically.
  • This technology is attached to a target object such as a portable electronic device, and performs appropriate deformation control according to the usage conditions of the target object, etc. for a shape-variable part that is capable of at least one of expansion and contraction and bending.
  • the object is to improve usability of the target object.
  • the information processing apparatus acquires recognition information related to the use of a target object to which a shape-changing part capable of at least one of expansion and contraction and bending is attached, and based on the acquired recognition information, determines the shape of the target object. It is provided with a control section that performs deformation control of the variable section.
  • the target object referred to here may be, for example, an object as an electronic device such as a smart phone, or an object as a non-electronic device such as a book or a mirror.
  • the expression "subject device to which the shape-variable section is attached” refers to the case where the shape-variable section is integrally attached to the target object, that is, the case where the target object and the shape-variable section are integrated.
  • the shape-variable portion may be elastically deformable or curvedly deformable.
  • the shape-variable portion is made stretchable and deformable, when the shape-variable portion is in the stretched state, it functions as a support portion that supports the target object and can maintain the target object in a self-sustaining state.
  • the length variable By making the length variable by expansion and contraction when functioning as a support, it is possible to adjust the inclination angle of the target object in the self-supporting state.
  • the shape-variable portion when it is bendable and deformable, it can function as a locking portion for the user's hand or other objects, and when the user is holding the target object, the user can drop the target object. It is possible to use the target object in a hands-free state by assisting to prevent the target object from being held by the hand, or by allowing the target object to be held by another object without being held by the hand.
  • the information processing device acquires recognition information related to the use of a target object to which a shape-variable part capable of at least one of expansion and contraction and bending is attached, and the acquired recognition information
  • the information processing method performs deformation control of the shape-variable portion based on the shape-variable portion.
  • the recording medium according to the present technology is a recording medium in which a program readable by a computer device is recorded, and is used for a target object to which a shape-variable part capable of at least one of expansion and contraction and bending is attached.
  • a program is recorded that causes the computer device to acquire such recognition information and perform deformation control of the shape-variable portion based on the acquired recognition information.
  • FIG. 1 is a perspective view of an information processing device and a cover device according to an embodiment
  • FIG. FIG. 4 is a side view of a mounting body formed by mounting the cover device on the information processing apparatus as the embodiment; It is a perspective view of the shape variable part in embodiment. It is a side view of a shape variable part in an embodiment.
  • FIG. 4 is an explanatory diagram of shape change of a shape-variable portion in the embodiment; 1 is a block diagram showing an internal configuration example of an information processing apparatus as an embodiment; FIG. It is a block diagram showing an example of an internal configuration of a cover device in an embodiment. It is explanatory drawing of the state which the information processing apparatus of embodiment was mounted in the mounting surface.
  • FIG. 10 is a diagram showing an example of bending deformation for locking the shape-variable portion to the user's hand; 4 is a flow chart showing a specific example of a processing procedure for realizing a control method as a first example of method; FIG. 10 is a diagram illustrating how the shape-variable portion is locked to the support; FIG. 11 is a flow chart showing a specific example of a processing procedure to be executed corresponding to the first case in the second method example; FIG. FIG. 11 is a flow chart showing a specific example of a processing procedure to be executed corresponding to the second case in the second method example; FIG. FIG.
  • FIG. 4 is an explanatory diagram of an independent function of an information processing device realized by a shape-changing part;
  • FIG. 11 is a flow chart showing a specific processing procedure example to be executed in order to implement a control method as a third method example;
  • FIG. 11 is an explanatory diagram of another example of tilt angle adjustment;
  • FIG. 11 is an explanatory diagram of another example of tilt angle adjustment;
  • FIG. 11 is a flowchart showing a specific processing procedure example to be executed in order to realize tilt angle adjustment as another example;
  • FIG. 10 is an explanatory diagram of an example in which the shape-variable part is used for various information notifications;
  • FIG. 11 is an explanatory diagram of another example in which the shape-variable part is used for various information notifications; It is explanatory drawing of the inclination-angle adjustment as a modification.
  • FIG. 1 is a perspective view of an information processing device 1 and a cover device 2
  • FIG. 2 is a side view of a mounting body formed by mounting the cover device 2 on the information processing device 1.
  • the information processing device 1 is configured as a portable electronic device, specifically a smart phone in this example, has a substantially plate-like outer shape, and has a display screen 17a on which various information is displayed on the front.
  • the cover device 2 has a case portion 3 as a part attached to the information processing device 1, and a shape-variable portion 4 configured to be capable of at least one of expansion and contraction and bending.
  • the case portion 3 has a substantially box-like shape and is formed as a portion to be attached to the information processing device 1 so as to cover the back and side surfaces of the information processing device 1 .
  • the shape-variable portion 4 has a substantially columnar outer shape, is provided on the back surface of the case portion 3, and extends rearward from the back surface (in the direction opposite to the side on which the information processing device 1 is mounted). Protruding.
  • the shape-variable portion 4 is provided at substantially the center of the back surface of the case portion 3 in the vertical and horizontal directions (see FIG. 2).
  • the shape-variable portion 4 in this example has a substantially octagonal prism shape, and is biased in the projecting direction indicated by the arrow X in FIG.
  • wires are respectively inserted through at least two of the eight side portions that are opposed to each other. One ends of these wires are fixed on the distal end side of the deformable portion 4 .
  • the shape-variable portion 4 By pulling both of the two wires to the opposite side of the shape-variable portion 4 by the same amount, the shape-variable portion 4 can be contracted as shown in FIG. 5A. At this time, the amount of shrinkage of the shape-variable portion 4 can be controlled by the amount of pulling the two wires. Since the shape-variable portion 4 is biased in the projecting direction X as described above, the shape-variable portion 4 can be stretched to the maximum by setting the pulling amount of the two wires to zero. . By adjusting the pulling amount of the two wires in this manner, the shape-variable portion 4 can be expanded and contracted to a desired length.
  • the shape-variable portion 4 can be curved as shown in FIG. 5B. Specifically, the shape-variable portion 4 can be curved toward the side portion on the side where the wire is pulled. At this time, the degree of bending of the shape-variable portion 4 can be controlled by adjusting the amount of wire pulling.
  • the specific configuration for realizing the shape-variable portion 4 that is capable of stretching and bending is not limited to the wire-type configuration illustrated above, but can be considered in various ways and is limited to a specific configuration. not to be For example, a configuration that enables expansion and contraction and bending using a shape memory alloy is also conceivable. Further, the shape of the shape-variable portion 4 is not limited to the illustrated octagonal prism shape, and may be other shapes such as a substantially cylindrical shape.
  • FIG. 6 is a block diagram showing an internal configuration example of the information processing apparatus 1.
  • the information processing apparatus 1 has a CPU (Central Processing Unit) 11 , a ROM (Read Only Memory) 12 , a RAM (Random Access Memory) 13 , and a nonvolatile memory section 14 .
  • the non-volatile memory unit 14 is composed of, for example, an EEP-ROM (Electrically Erasable Programmable Read-Only Memory).
  • the CPU 11 executes various processes according to programs stored in the ROM 12 and the nonvolatile memory section 14 or programs loaded from the storage section 19 to the RAM 13 to be described later.
  • the RAM 13 also stores data necessary for the CPU 11 to execute various processes.
  • the CPU 11 , ROM 12 , RAM 13 and nonvolatile memory section 14 are interconnected via a bus 23 .
  • the input/output interface 15 is also connected to this bus 23 .
  • the input/output interface 15 includes an input unit 16 for a user to perform an input operation, a display unit 17 such as a liquid crystal panel or an organic EL (Electroluminescence) panel, an audio output unit 18 such as a speaker, a storage unit 19, and a communication unit. 20 can be connected.
  • a display unit 17 such as a liquid crystal panel or an organic EL (Electroluminescence) panel
  • an audio output unit 18 such as a speaker
  • storage unit 19 such as a storage unit 19
  • a communication unit. 20 can be connected.
  • the input unit 16 means an input device used by the user who uses the information processing device 1 .
  • various operators and operating devices such as a keyboard, mouse, button, dial, touch panel, touch pad, remote controller, etc. are assumed.
  • a user's operation is detected by the input unit 16 , and a signal corresponding to the input operation is interpreted by the CPU 11 .
  • the display unit 17 has the aforementioned display screen 17a, and displays various information on the display screen 17a based on instructions from the CPU 11.
  • the display unit 17 can also display various operation menus, icons, messages, etc., that is, as a GUI (Graphical User Interface) based on instructions from the CPU 11 .
  • GUI Graphic User Interface
  • the storage unit 19 is composed of a storage medium such as an HDD (Hard Disk Drive) or solid-state memory.
  • the storage unit 19 can store various data such as captured image data obtained by an imaging unit 21, which will be described later.
  • the storage unit 19 can also be used to store program data for the CPU 11 to execute various processes.
  • the communication unit 20 performs communication processing via networks including the Internet, and wired or wireless communication with peripheral devices (for example, short-range wireless communication, etc.). Especially in this example, the communication unit 20 is configured to be able to communicate with the cover device 2 .
  • the input/output interface 15 is connected to an imaging unit 21 and a sensor unit 22 .
  • the imaging unit 21 is configured by having a solid-state imaging device of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type. 2. Description of the Related Art
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • a solid-state imaging device a plurality of pixels having photoelectric conversion elements such as photodiodes are arranged two-dimensionally.
  • the imaging unit 21 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc. on the electrical signal obtained by photoelectric conversion for each pixel, and further performs A/D (Analog/Digital) conversion processing. to obtain captured image data as digital data.
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • the imaging unit 21 may be composed of a plurality of cameras.
  • the cameras included in the imaging unit 21 are an outer camera provided on the back side of the information processing device 1 and a camera provided on the opposite side to the back side (that is, on the same side as the display screen 17a). ) and an inner camera.
  • the sensor unit 22 comprehensively represents various sensors for detecting user behavior.
  • the sensor unit 22 is provided with a motion sensor for detecting the motion of the information processing device 1, such as an acceleration sensor or an angular velocity sensor.
  • the sensor unit 22 is provided with a pressure sensor for detecting the gripping pressure of the information processing device 1 by the user, a proximity sensor for detecting proximity of an object to the information processing device 1, and the like.
  • a plurality of pressure sensors are provided in order to detect the gripping pressure for each surface of the information processing device 1 .
  • pressure sensors are provided on the back and side surfaces of the information processing apparatus 1 . In this embodiment, it is assumed that the information processing device 1 is held while the cover device 2 is attached. 1 gripping pressure can be detected.
  • FIG. 7 is a block diagram showing an example of the internal configuration of the cover device 2.
  • the cover device 2 includes an actuator 30 , a control section 31 , a communication section 32 and a sensor section 33 .
  • the actuator 30 functions as a power source for elastic deformation and bending deformation of the shape-changing portion 4 .
  • the actuator 30 in this example is configured to be able to pull the wire in the shape-variable portion 4 to the side opposite to the distal end side of the shape-variable portion 4 .
  • the controller 31 functions as a drive controller for the actuator 30 .
  • the control unit 31 is connected to a communication unit 32 configured to enable wired or wireless communication with the information processing apparatus 1 .
  • the communication unit 32 communicates with the information processing device 1 by, for example, short-range wireless communication.
  • the control unit 31 performs drive control of the actuator 30 based on instructions from the information processing device 1 (CPU 11) performed via the communication unit 32.
  • a sensor unit 33 is also connected to the control unit 31 .
  • the sensor section 33 has an external force detection sensor that detects an external force input to the shape-changing section 4 .
  • the external force detection sensor is a pressure sensor capable of detecting an external force that presses the distal end of the shape-variable portion 4 and an external force that stretches and contracts the shape-variable portion 4.
  • the control unit 31 transmits a detection signal from the external force detection sensor to the information processing apparatus 1 via the communication unit 32 in response to a request from the information processing apparatus 1 (CPU 11).
  • Shape-variable portion control method as an embodiment> (2-1. First method example) As described above, the shape-variable portion 4 is bendable. By curving and deforming the shape-variable portion 4 while the user holds the information processing apparatus 1 from the back, the shape-variable portion 4 is held by the user's hand (fingers). That is, the shape-variable portion 4 can function as a locking portion for the user's hand, and can assist the information processing device 1 to be less likely to fall from the user's hand.
  • the first method example relates to a function of curving and deforming the shape-variable portion 4 in this manner to assist the information processing device 1 with the cover device 2 attached thereto from falling out of the user's hand.
  • the mounting body in which the cover device 2 is mounted on the information processing device 1 is mounted on the mounting surface St as shown in FIG. (presumed to be in use).
  • the mounting surface St means a substantially horizontal surface on which the mounting body can be mounted, such as the surface of a desk or table.
  • an event occurring in the mounting object such as the mounting object being placed on the mounting surface St as described above can be treated as having the same meaning as an event occurring in the information processing apparatus 1 (the mounting object (because the information processing device 1 is integrated with the cover device 2). From this point, in the following description, events that occur in the wearable object are treated as events that occur in the information processing device 1 .
  • the storage state referred to here means a state in which the shape-variable portion 4 is contracted to a certain degree or more, such as a state in which the shape-variable portion 4 is most contracted.
  • the information processing apparatus 1 Assume that the information processing apparatus 1 is lifted from the non-use state shown in FIG. 8 and is held by the user's hand from the back as shown in FIG. 9 . In this way, when it is recognized that the information processing apparatus 1 has transitioned from the unused state to the state in which the user's hand grips the information processing apparatus 1 from the back side, the information processing apparatus 1 bends the shape-changing portion 4 as shown in FIG. Transform. Thereby, the shape-variable portion 4 can be locked to the user's hand.
  • the information processing device 1 can move the information processing device 1 based on the detection signal of the motion sensor in the sensor portion 22 described above. is likely to fall, control is performed to increase the bending force of the shape-variable portion 4 . Accordingly, it is possible to prevent the information processing device 1 from falling from the hand of the user who is holding and using the information processing device 1 .
  • the information processing apparatus 1 detects the placement prediction on the placement surface St based on the detection signal of the motion sensor in the sensor portion 22 . is recognized, control is performed to deform the shape-variable portion 4 into the accommodated state. Accordingly, when the information processing apparatus 1 is placed on the placement surface St, the deformable portion 4 can be prevented from becoming an obstacle.
  • FIG. 11 is a flow chart showing a specific processing procedure example for realizing the control technique as the first technique example described above. 11, 13, 14, 16, and 19 are executed by the CPU 11 according to programs stored in the ROM 12 and the storage unit 19. FIG.
  • the processing shown in FIG. 11 is started in a state in which the information processing device 1 is placed on the placement surface St as illustrated in FIG.
  • the CPU 11 starts acquiring detection signals from the motion sensor in step S101, and determines whether or not the information processing apparatus 1 has been lifted in the following step S102.
  • a determination as to whether or not the information processing device 1 has been lifted can be made, for example, based on a change in acceleration.
  • the CPU 11 performs the processing of step S102 again.
  • the first bending condition defines a condition under which the shape-variable portion 4 should be bent and deformed while the information processing apparatus 1 is gripped from the back side by the user's hand so as to be held by the user's hand. Specifically, as the first bending condition in this case, it can be determined whether or not the gripping force of the back surface or the side surface of the information processing device 1 is equal to or greater than a certain pressure. Information on the gripping pressure on the back and sides can be obtained based on the detection signal of the above-described pressure sensor in the sensor section 22 .
  • step S103 If it is determined in step S103 that the gripping pressure on the back surface or the side surface is not equal to or greater than the constant pressure and the first bending condition is not satisfied, the CPU 11 returns to step S102.
  • step S103 when it is determined in step S103 that the gripping pressure on the back surface or the side surface is equal to or higher than the constant pressure and the first bending condition is satisfied, the CPU 11 proceeds to step S104 and bends the shape-variable portion 4 .
  • the shape-variable portion 4 can be bent and deformed so as to be held by the user's hand.
  • step S105 the CPU 11 determines whether or not there is a sign of falling. That is, it is determined whether or not the information processing device 1 is likely to fall from the user's hand.
  • the fall sign determination is performed based on acceleration information acquired from the detection signal of the motion sensor. Specifically, if the amount of change in the acceleration of the information processing device 1 per unit time is greater than or equal to a predetermined threshold Th1, it is determined that there is a sign of falling, and if the amount of change is less than the threshold Th1, there is no sign of falling. and judgment.
  • step S105 When it is determined in step S105 that there is no sign of dropping, the CPU 11 proceeds to step S106 to determine whether or not there is a sign of placement. That is, it is determined whether or not there is a sign that the information processing device 1 is to be placed on the placement surface St.
  • the placement portent determination in step S106 is performed based on the acceleration information acquired from the detection signal of the motion sensor, similarly to the fall portent determination. Specifically, it is determined whether or not the amount of change in the acceleration of the information processing device 1 per unit time is greater than or equal to a threshold Th2 (threshold Th2 ⁇ threshold Th1) and less than the threshold Th1.
  • step S106 If it is determined in step S106 that there is no sign of placement, the CPU 11 returns to step S105. That is, after the bending control in step S104, loop processing is executed to wait until there is either a fall sign or a placement sign.
  • step S105 When it is determined in step S105 that there is a sign of falling, the CPU 11 proceeds to step S107, performs processing to increase the bending force, and ends the series of processing shown in FIG. This prevents the information processing device 1 from falling out of the hand of the user holding and using the information processing device 1 .
  • step S106 determines whether there is an indication of placement. If it is determined in step S106 that there is an indication of placement, the CPU 11 proceeds to step S108 and performs processing for bringing the deformable portion 4 into the retracted state. Accordingly, when the information processing apparatus 1 is placed on the placement surface St, the deformable portion 4 can be prevented from becoming an obstacle.
  • step S102 can be rephrased as a determination of starting to use from a non-use state, but this determination of starting to use is not a determination of lifting, but is performed as a determination of whether or not the display screen 17a is operated. can also
  • the information processing apparatus 1 is lifted (S102), dropped (S105), and placed (S106) based on the magnitude of the acceleration.
  • the shape can be changed based on the user's operation input (for example, an instruction operation input to put the information processing apparatus 1 in a sleep state: physical operation, GUI, or voice input). It is also conceivable to control the portion 4 to the retracted state.
  • the second method example relates to a locking function for an object other than the user's hand. Since the shape-variable portion 4 is bendable and deformable, the shape-variable portion 4 can be engaged with an object other than the user's hand as the support Os, as shown in FIG. 12, for example. Since the user can view the display screen 17a at an appropriate angle without holding the information processing device 1, the information processing device 1 can be used in a hands-free state.
  • the support Os is a plate-like object, but any object that has a portion that is locked by the deformable portion 4 in a curved state can function as the support Os.
  • first case a case in which the information processing apparatus 1 in the placed state as shown in FIG.
  • second case Another method is to attach the shape-variable portion 4 to the support Os as shown in FIG. This is a case in which the user wants to use the information processing apparatus 1 in a stopped state (hereinafter referred to as "second case").
  • the CPU 11 starts acquiring the detection signal of the motion sensor in step S101, and then determines whether or not the information processing apparatus 1 is lifted in step S102.
  • the CPU 11 determines in step S201 whether or not the second bending condition is satisfied.
  • This second bending condition defines a bending deformation execution condition of the shape-variable portion 4 for locking to the support Os, corresponding to the first case.
  • the condition is that the information processing apparatus 1 that has been lifted is held by the user's fingers on the sides thereof and is in a state close to the support Os.
  • step S201 the CPU 11 determines that the gripping pressure on the side surface is greater than the gripping pressure on the back surface by a certain value or more, and the proximity sensor detects the proximity to the support body Os within a predetermined distance, as determination that the second bending condition is established. It is determined whether or not the condition of being in a state of being set is satisfied. It should be noted that the second bending condition may be conditional on contact with the support Os instead of proximity to the support Os of the information processing device 1 within a predetermined distance.
  • step S201 When it is determined in step S201 that the second bending condition is not satisfied, the CPU 11 returns to step S102.
  • step S201 when it is determined in step S201 that the second bending condition is satisfied, the CPU 11 proceeds to step S104 and executes processing for bending the shape-changing portion 4 .
  • the shape-variable portion 4 is bent to support the support Os. so that the information processing apparatus 1 can be used in a hands-free state.
  • the CPU 11 advances the process to step S202 in response to bending the shape-variable portion 4 in step S104, and determines whether or not there is a sign of removal.
  • the sign of removal refers to the information processing apparatus 1 being used with the deformable portion 4 locked to the support Os, that is, the information processing apparatus 1 attached to the support Os. It means a sign of detachment from Os.
  • the removal sign condition is that, after bending for locking onto the support Os, the gripping pressure on the side surface of the information processing device 1 once decreases by a predetermined value and then increases by a predetermined value or more. is set, and the CPU 11 determines that there is a sign of removal if the condition is met, and that there is no sign of removal if the condition is not met.
  • step S202 When determining that there is no sign of removal, the CPU 11 executes the determination process of step S202 again. If it is determined that there is a sign of removal, the CPU 11 proceeds to step S203 and performs bending cancellation processing. That is, this is a process of canceling the bending of the shape-variable portion 4 (putting it in an upright state).
  • the information processing device 1 can be removed from the support Os by canceling the bending of the shape-variable portion 4 .
  • the CPU 11 finishes the series of processes shown in FIG. 13 in response to executing the bending cancellation process in step S203.
  • FIG. 14 is a flow chart showing a specific processing procedure example to be performed by the CPU 11 in response to the second case.
  • the CPU 11 waits in step S210 until the switching of the holding position of the information processing apparatus 1 is detected.
  • the user wishes to use the information processing apparatus 1 in a state in which the shape-variable portion 4 is engaged with the support Os as shown in FIG. is to change the way of holding the information processing apparatus 1 (changing the way of holding). That is, the side of the information processing device 1 is held by the hand opposite to the hand holding the information processing device 1 .
  • this change of holding is detected.
  • the gripping pressure on the side surface of the information processing device 1 has increased to a predetermined value or more, and if the gripping pressure on the side surface has increased to a predetermined value or more, it is determined that there is a change of grip. In this case, it is determined that there is no change of holding.
  • step S210 When it is determined in step S210 that there is a change of grip, the CPU 11 performs bending cancellation processing in step S211. As a result, the shape-variable portion 4 is released from the locking state of the hand holding the information processing device 1 from the back, and the shape-variable portion 4 can be newly locked to the support Os. becomes.
  • This third bending condition defines the conditions for executing bending deformation of the shape-variable portion 4 for engagement with the support Os, corresponding to the second case.
  • the third bending condition is that the gripping pressure on the side surface of the information processing device 1 is greater than the gripping pressure on the back surface by a certain value or more, and the proximity sensor is applied to the support Os, similarly to the above-described second bending condition. It is defined as a condition that proximity within a predetermined distance of is detected. A condition different from the second bending condition can be set as the third bending condition.
  • step S212 When it is determined in step S212 that the third bending condition is not satisfied, the CPU 11 finishes the series of processes shown in FIG.
  • step S212 if it is determined in step S212 that the third bending condition is satisfied, the CPU 11 bends the shape-variable portion 4 in step S104. Accordingly, when the user holds the information processing apparatus 1 from the back side and wants to use the shape-variable portion 4 by locking it to the support Os, the shape-variable portion 4 can be attached to the support Os. can be locked.
  • the bending of the shape-variable portion 4 for engagement with the support Os and the control of the unbending of the shape-variable portion 4 for detachment from the support Os are controlled by, for example, a user's operation input (for example, information processing). It is also conceivable to perform this operation based on an instruction operation input that puts the device 1 into a sleep state: physical operation, GUI, or voice input.
  • the determination (S202) of (S202) an example of performing the determination based on the gripping pressure has been given, but this is merely an example.
  • the waveform pattern of the acceleration and angular velocity when the information processing device 1 moves when the information processing device 1 is about to be removed from Os is learned, and the corresponding motion is determined by whether it matches the learned waveform pattern. It is also possible to determine whether or not there is a
  • the third method example relates to a function of allowing the information processing device 1 to stand on its own by causing the shape-changing portion 4 to function as a support portion for the information processing device 1 .
  • the shape-variable portion 4 When the shape-variable portion 4 is stretched to some extent, as illustrated in FIG. 15, it functions as a support portion that supports the information processing device 1, and the information processing device 1 can be maintained in an independent state. Become. Further, by extending and contracting the deformable portion 4 functioning as a support portion to change the length, it is possible to adjust the inclination angle of the information processing apparatus 1 in the independent state.
  • the third method example relates to the independent function and tilt angle adjustment function of the information processing apparatus 1 .
  • the state in which the user holds the information processing apparatus 1 from the back as shown in FIG. A case of switching to use in an independent state such as 15 will be exemplified. Further, in this case, the tilt angle adjustment in the independent state is performed based on the user's gesture. For example, a gesture of moving the user's hand upward indicates an instruction to increase the tilt angle (that is, to raise the information processing apparatus 1 more), and a gesture of moving the hand downward indicates an instruction to decrease the tilt angle (that is, to raise the information processing device 1). Let the device 1 lie down more). Note that these gestures are merely examples, and are not limited to specific gestures as long as they are gestures that can be recognized by image analysis processing on captured images.
  • FIG. 16 is a flow chart showing a specific processing procedure example of the CPU 11 for realizing the self-standing function and the tilt angle adjusting function as described above.
  • the user holds the information processing apparatus 1 from the back as shown in FIG. It is started in the state where
  • step S301 the CPU 11 waits until the independent function ON condition is established. That is, it is determined whether or not the user is trying to turn on the independent function while holding the information processing apparatus 1 from behind.
  • the self-supporting function ON condition is a condition that the gripping pressure on the sides of the information processing device 1 becomes greater than the gripping pressure on the front in a state in which a specific application such as a video viewing application or a video call application is activated. is set as
  • the condition may be that the information processing device 1 is placed at an inclination angle equal to or greater than a predetermined angle while a specific application such as a video viewing application or a video call application is activated.
  • the independent function ON condition may be a condition that a user performs a predetermined operation input (which may be a physical operator, a GUI, or a voice input).
  • the information processing apparatus 1 learns waveform patterns of acceleration and angular velocity when the information processing apparatus 1 is held by the user and is placed at an inclination angle equal to or greater than a predetermined angle. It is also possible to determine whether or not the user wishes to turn on the autonomous function.
  • step S301 When it is determined in step S301 that the self-sustaining function ON condition is established, the CPU 11 proceeds to step S302 and performs processing for changing the shape-changing portion 4 from the curved state to the upright state. That is, it controls the shape-variable portion 4 to be in a non-bending state.
  • step S303 following step S302 the CPU 11 determines whether or not there is an angle increase instruction. That is, in this example, it is determined whether or not the above-described gesture of moving the hand upward is detected. determine whether or not
  • step S304 determines whether or not there is an angle decrease instruction, that is, whether or not a gesture of moving the hand downward is detected in this example. If the CPU 11 determines that there is no angle reduction instruction, the CPU 11 returns to step S303. That is, depending on the processing in steps S303 and S304, a loop processing is formed to wait for either an angle increase instruction or an angle decrease instruction.
  • step S303 If it is determined in step S303 that the angle increase instruction has been given, the CPU 11 advances to step S305 and performs processing for extending the shape variable portion 4.
  • step S305 the tilt angle of the information processing device 1 is increased by a predetermined angle in response to the angle increase instruction.
  • step S305 After executing the process of step S305, the CPU 11 advances the process to step S307.
  • step S304 if it is determined in step S304 that the angle decrease instruction has been issued, the CPU 11 advances to step S306 to perform processing for contracting the shape variable portion 4 . As a result, the tilt angle of the information processing device 1 is reduced by a predetermined angle in response to the angle reduction instruction. After executing the process of step S306, the CPU 11 advances the process to step S307.
  • step S307 the CPU 11 determines whether or not the processing is completed, that is, whether or not a predetermined processing termination condition is satisfied.
  • processing end conditions here include termination of a specific application such as the above-described video viewing application or video call application, or transition of the information processing apparatus 1 to a sleep state.
  • step S307 If it is determined in step S307 that the processing has not ended, the CPU 11 returns to step S303. As a result, the processing for receiving instructions to increase or decrease the angle and adjusting the tilt angle according to those instructions is continued. On the other hand, if it is determined in step S307 that the process is finished, the CPU 11 finishes the series of processes shown in FIG.
  • the tilt angle adjustment may be performed as an automatic adjustment without depending on the instruction input from the user.
  • the tilt angle may be adjusted so that the user's face fits within the imaging field Fv of the inner camera.
  • FIG. 18 it is also possible to adjust the tilt angle ⁇ d of the information processing device 1 so that the tilt angle ⁇ f of the user's face and the tilt angle ⁇ d of the information processing device 1 match. is.
  • FIG. 19 is a flow chart showing a specific processing procedure example of the CPU 11 for realizing such inclination angle adjustment.
  • the CPU 11 determines the position of the user's face based on the captured image in response to setting the shape-changing portion 4 to the upright state in step S302 in response to the establishment of the independent function ON condition in step S301.
  • a process of detecting the inclination angle ⁇ f of the face is performed. Specifically, image analysis is performed on the captured image of the inner camera in the imaging unit 21 to detect the user's face position and the tilt angle ⁇ f.
  • step S311 the CPU 11 detects the tilt angle ⁇ d of the information processing device 1 based on the detection signal of the motion sensor. Then, in step S312 following step S311, the CPU 11 calculates a target device tilt angle for matching the device tilt angle with the face tilt angle with the user's face within the field of view. That is, the target apparatus tilt angle is calculated so that the entire image area of the user's face is positioned within the captured image of the inner camera and the tilt angle ⁇ d matches the tilt angle ⁇ f detected in step S310. At least the face position information and the tilt angle ⁇ f detected in step S310 and the tilt angle ⁇ d detected in step S311 are used to calculate the target device tilt angle.
  • step S313 following step S312, the CPU 11 controls the expansion/contraction state of the deformable portion 4 so that the tilt angle ⁇ d becomes the target device tilt angle.
  • step S313 After executing the process of step S313, the CPU 11 executes the process end determination process of step S307, and returns to step S310 if it determines that the process is not ended. As a result, the processing for adjusting the tilt angle ⁇ d based on the user's face position and the tilt angle ⁇ f is continued until it is determined that the processing is finished.
  • step S307 If it is determined in step S307 that the process has ended, the CPU 11 ends the series of processes shown in FIG.
  • the method of adjusting the tilt angle ⁇ d is not limited to the one exemplified above.
  • the shape variable portion 4 is configured to maintain the tilt angle ⁇ d after the change. It is conceivable to control the expansion and contraction state of
  • the expansion/contraction state of the shape-variable portion 4 when the user manually changes the length of the shape-variable portion 4, it is conceivable to control the expansion/contraction state of the shape-variable portion 4 so that the changed length is maintained. Such control can be performed, for example, based on the detection signal of the external force detection sensor included in the sensor section 33 shown in FIG. Specifically, when the detected value of the external force detection sensor changes by a predetermined value or more, the tension of the wire of the shape-variable portion 4 is changed so that the detected value becomes a predetermined value or less (for example, zero). Just do it.
  • a predetermined value or less for example, zero
  • the deformable portion 4 can be used for various information notifications. Specifically, as shown in FIG. 20, in a state in which the user holds the information processing apparatus 1 from the back, the bending force of the shape-changing portion 4 is adjusted so that the user's hand is clapped by the shape-changing portion 4. It is conceivable to perform the action as a notification action. Examples of the notification here include notifications related to incoming calls and email reception, various error notifications, and the like.
  • the shape in a state in which the information processing apparatus 1 is placed face down on the placement surface St (placed with the display screen 17a facing downward), the shape can be changed by adjusting the bending force of the shape-changing portion 4. It is conceivable that the action of swinging the variable part 4 may be used as the notification action.
  • such an action of swaying the shape-changing portion 4 may be performed under predetermined conditions, such as during music playback, to give relief to the user. At this time, it is conceivable to match the period of shaking of the shape-changing portion 4 with the rhythm of music or the like.
  • the balance is improved when the information processing device 1 supported by the deformable portion 4 is placed in an unbalanced state. It is also conceivable to perform expansion/contraction control of the shape-variable portion 4 as described above.
  • 22A and 22B show the support surface Ss of the information processing device 1 in a state where the deformable portion 4 functions as a support portion, and FIG. , respectively.
  • the balance is poor, that is, when the intersection of the vertical line Lv and the mounting surface St is far from the center of the support surface Ss
  • the balance is improved, that is, when the intersection of the vertical line Lv and the mounting surface St is located on the support surface Ss.
  • the expansion/contraction control of the shape-variable portion 4 may be performed so as to approach the center.
  • the CPU 11 of the information processing device 1 is the main control of the shape changing section 4, but for example, the control section 31 in the cover device 2 is provided in the information processing device 1.
  • the shape-changing portion 4 is controlled based on signals from various sensors.
  • a sensor required for controlling the shape-changing portion 4 is provided in the cover device 2 is also conceivable.
  • the shape-changing part 4 is provided in the cover device 2 that covers a target object such as a smart phone, the shape-changing part 4 may be configured integrally with the smart phone.
  • the target object may be a non-electronic device such as a book or a mirror. It is possible.
  • the controller 31 in the cover device 2 is the controlling body of the shape-changing part 4 . Further, it is conceivable to provide the sensor required for controlling the shape-changing portion 4 in the cover device 2 .
  • the shape-variable portion 4 may be at least one of expansion and contraction and bending.
  • expansion and contraction are allowed, control like the third method example is possible, and when bending is allowed, control like the first method example and the second method example is possible.
  • the information processing apparatus (same 1) of the embodiment acquires the recognition information related to the use of the target object to which the shape-changing part capable of at least one of expansion and contraction and bending is attached, and obtains the recognition information
  • a control unit (CPU 11) that performs deformation control of the deformable portion based on the above.
  • the shape-variable portion may be elastically deformable or curvedly deformable.
  • the shape-variable portion is made stretchable and deformable, when the shape-variable portion is in the stretched state, it functions as a support portion that supports the target object and can maintain the target object in a self-sustaining state.
  • the length variable By making the length variable by expansion and contraction when functioning as a support, it is possible to adjust the inclination angle of the target object in the self-supporting state. Furthermore, it is possible to make the target object contracted corresponding to the state in which it is not used, and it is possible to prevent the target object from being an obstacle when it is not in use. Further, when the shape-variable portion is bendable and deformable, it can function as a locking portion for the user's hand or other objects, and when the user is holding the target object, the user can drop the target object. It is possible to use the target object in a hands-free state by assisting to prevent the target object from being held by the hand, or by allowing the target object to be held by another object without being held by the hand.
  • the deformation of the shape-variable portion based on the recognition information related to the use of the target object as described above, it is possible to transform the shape-variable portion into an appropriate shape according to the usage conditions of the target object. As a result, it is possible to improve usability of the target object.
  • control unit acquires the recognition information based on the detection signal of the sensor attached to the target object. As a result, it is possible to appropriately identify the usage status of the target object based on the detection signal regarding the event occurring in the target object.
  • the recognition information includes motion information of the target object.
  • the usage status of the target object is reflected in the motion of the target object. Therefore, according to the above configuration, it is possible to appropriately specify the usage status of the target object, etc., and to improve the usability of the target object by deforming the shape-variable portion into an appropriate shape according to the usage status of the target object. can be planned.
  • the shape-variable section is configured to be capable of stretching and bending
  • the control section performs deformation control related to expansion and contraction of the shape-variable section and deformation control related to bending based on motion information. (See step S105 and subsequent steps in FIG. 11).
  • deformation control related to bending is performed to lock the shape-variable portion to the user's hand or the like, thereby assisting in preventing the target object from falling.
  • deformation control related to extension is performed to transform the shape-variable portion into a retracted state.
  • Deformation control related to extension and deformation control related to bending can be appropriately switched and executed.
  • the shape-variable section is configured to be bendable, and the control section detects a drop sign of the target object based on the motion information in the state in which the shape-variable section is curved.
  • control is performed to increase the bending force of the shape-variable portion (see FIG. 11).
  • the recognition information includes information related to gripping of the target object by the user.
  • the usage status of the target object is identified from the recognition information related to gripping the target object, such as when the user grips the target object from the back and when the user grips the target object from the front. It becomes possible. Therefore, it is possible to deform the shape-changing portion into an appropriate shape based on the usage status of the target object specified from the recognition information related to gripping of the target object, thereby improving usability of the target object.
  • the target object has a plurality of surfaces
  • the recognition information includes gripping pressure information for each surface of the target object. This makes it possible to recognize how the user is holding the target object. Therefore, depending on the usage situation of the target object specified from the gripping state of the target object by the user (for example, the situation where the target object is gripped from the back by the user, the situation where the gripped target object is likely to be placed, etc.) Based on this, it becomes possible to deform the shape-variable portion into an appropriate shape, and it is possible to improve usability of the target object.
  • the shape-variable section is configured to be capable of stretching and bending
  • the control section performs deformation related to the expansion and contraction of the shape-variable section based on the information of the gripping pressure for each surface of the target object.
  • Control and deformation control related to bending are switched and executed (see FIG. 11). For example, if the gripping pressure on the back of the target object is greater than the gripping pressure on the sides, it can be estimated that the user is gripping the target object from the back, and the gripping pressure on the sides of the target object is greater than the gripping pressure on the back. In this case, it can be estimated that the target object is about to be placed.
  • the user can grip the target object from the back.
  • the shape-variable part is curved to assist in preventing the target object from falling, and when it is specified that the target object is about to be placed, the shape-variable part is transformed into the stored state.
  • the user-friendliness of the target object can be improved, for example, by allowing the target object to move so as not to interfere with placement.
  • the recognition information includes recognition information related to user's hand gestures.
  • the recognition information related to the user's hand gesture can be rephrased as the recognition information related to the action instruction given by the user to the target object, and is the usage state in which the target object receives what kind of action instruction from the user. From the viewpoint of whether or not, it can be said to be one aspect of the recognition information related to the use of the target object. According to the above configuration, it is possible to deform the shape-changing portion into an appropriate shape based on the operation instruction from the user specified by the gesture of the user's hand, and it is possible to improve the usability of the target object.
  • the shape variable section is configured to be expandable, and the control section performs deformation control related to expansion and contraction of the shape variable section based on recognition information related to gestures.
  • the recognition information includes recognition information relating to the orientation of the target object.
  • Recognition information relating to the orientation of the target object makes it possible to specify the usage status of the target object in terms of the orientation in which the target object is used. Therefore, it is possible to deform the shape-changing part into an appropriate shape based on the usage status of the target object specified from the posture of the target object, and it is possible to improve usability of the target object.
  • the shape variable section is configured to be expandable, and the control section performs deformation control related to expansion and contraction of the shape variable section based on recognition information related to the tilt angle of the target object. ing.
  • the recognition information related to the tilt angle of the target object it is possible to specify at what tilt angle the user wants the target object to be maintained. Therefore, by performing deformation control related to expansion and contraction of the shape-variable portion based on the recognition information related to the tilt angle as described above, it is possible to adjust the length of the shape-variable portion so as to obtain the tilt angle that the user wants to maintain. This makes it possible to improve usability of the target object.
  • the shape changing section is configured to be expandable and contractible, and the control section displays the user's face within the field of view of the camera based on the image captured by the camera attached to the target object.
  • Deformation control related to the expansion and contraction of the shape variable portion is performed so that the As a result, the tilt angle of the target object is adjusted so that the user's face fits within the imaging field of view of the camera, in response to the case where the shape-changing part functions as a support part that supports the target object and makes the target object stand on its own.
  • the tilt angle of the target object can be adjusted so that the user can easily see the visual information, and the usability of the target object is improved. can be achieved.
  • the control unit determines the inclination angle of the face based on the inclination angle of the user's face detected from the captured image and information on the inclination angle of the target object acquired as the recognition information. and the tilt angle of the target object, deformation control related to expansion of the shape-variable portion is performed.
  • the information processing apparatus acquires recognition information related to the use of a target object to which a shape-changing part capable of at least one of expansion and contraction and bending is attached, and the acquired recognition information
  • An information processing method for performing deformation control of a shape-variable portion based on the information processing apparatus as the embodiment described above can be realized.
  • the processing by the information processing apparatus 1 described in FIGS. You can think of a program that you want to run. That is, the program of the embodiment is a program readable by a computer device, and acquires and acquires recognition information related to the use of a target object to which a shape-variable part capable of at least one of expansion and contraction and bending is attached. It is a program that causes a computer device to realize a function of performing deformation control of a shape-variable portion based on the recognition information obtained.
  • the recording medium of the embodiment is a recording medium in which a program readable by a computer device is recorded, and is used for a target object to which a shape-changing part capable of at least one of expansion and contraction and bending is attached. It is a recording medium recording a program for causing a computer device to acquire recognition information and perform deformation control of a deformable portion based on the acquired recognition information.
  • the functions of the information processing apparatus 1 described above can be realized by such programs and recording media.
  • the program described above can be recorded in advance in a HDD as a recording medium built in equipment such as a computer device, or in a ROM or the like in a microcomputer having a CPU.
  • flexible discs CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray discs (Blu-ray Discs (registered trademark)), magnetic discs, semiconductor memories, It can be temporarily or permanently stored (recorded) in a removable recording medium such as a memory card.
  • Such removable recording media can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the information processing apparatus 1 of the embodiment it is suitable for wide provision of the information processing apparatus 1 of the embodiment.
  • a program by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant), etc., the personal computer, etc. can be processed as the information processing device 1 of the present disclosure. can be made to function as a device for realizing
  • a control unit that acquires recognition information related to the use of a target object to which a shape-variable part capable of at least one of expansion and contraction and bending is attached, and performs deformation control of the shape-variable part based on the acquired recognition information.
  • Information processing device (2) The information processing apparatus according to (1), wherein the control unit acquires the recognition information based on a detection signal of a sensor attached to the target object.
  • the recognition information includes motion information of the target object.
  • the shape-variable portion is configured to be extendable and bendable, The information processing apparatus according to (3), wherein the control unit switches between deformation control related to expansion and contraction of the shape variable section and deformation control related to bending based on the movement information.
  • the shape-variable portion is configured to be bendable, The control unit performs control to increase the bending force of the shape-variable portion when a sign of falling of the target object is recognized based on the motion information in a state in which the shape-variable portion is curved.
  • the information processing device according to (4).
  • (6) The information processing apparatus according to any one of (1) to (5), wherein the recognition information includes information related to gripping of the target object by the user.
  • the target object has a plurality of faces
  • the information processing apparatus according to (6), wherein the recognition information includes grip pressure information for each surface of the target object.
  • the shape-variable portion is configured to be extendable and bendable,
  • Device (9) The information processing apparatus according to any one of (1) to (8), wherein the recognition information includes recognition information related to a user's hand gesture.
  • the shape variable part is configured to be expandable and contractible, The information processing apparatus according to (9), wherein the control unit performs deformation control related to expansion and contraction of the shape changing unit based on recognition information related to the gesture.
  • the shape variable part is configured to be expandable and contractible, The information processing apparatus according to (11), wherein the control unit performs deformation control related to expansion and contraction of the shape changing unit based on recognition information related to an inclination angle of the target object.
  • the shape variable part is configured to be expandable and contractible
  • the control unit performs deformation control related to expansion and contraction of the shape changing unit so that the user's face fits within the imaging field of view of the camera, based on the captured image of the camera attached to the target object.
  • the information processing apparatus according to any one of (12).
  • the controller controls the tilt angle of the face and the tilt angle of the target object based on the tilt angle of the user's face detected from the captured image and the tilt angle information of the target object obtained as the recognition information.
  • the information processing apparatus according to (13), wherein deformation control related to expansion of the shape-variable portion is performed so that the angles match.
  • the information processing device Acquiring recognition information related to use of a target object to which a shape-variable portion capable of at least one of expansion and contraction and bending is attached, and performing deformation control of the shape-variable portion based on the acquired recognition information Method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術に係る情報処理装置は、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した認識情報に基づいて、形状可変部の変形制御を行う制御部を備えている。

Description

情報処理装置、情報処理方法、記録媒体
  本技術は、情報処理装置とその方法、及びプログラムが記録された記録媒体に関するものであり、特には、例えば携帯型電子機器等の対象物体に取り付けられ、伸縮又は湾曲の少なくとも何れかが可能とされた形状可変部についての制御技術に関する。
 下記特許文献1には、スマートフォン等の携帯電子端末の背面に接着可能な、携帯電子端末の使用時における携帯電子端末の落下を防止する携帯電子端末保持具の発明が開示されている。
特開2020-174357号公報
 特許文献1に開示される携帯電子端末保持具は、収容・展開状態間の変形が可能とされているが、この変形はユーザが自ら携帯電子端末の使用状況を考慮して携帯電子端末保持具に外力を与えることで行われるもので、自動的に行われるものではない。
 本技術は、例えば携帯型電子機器等の対象物体に取り付けられ、伸縮又は湾曲の少なくとも何れかが可能とされた形状可変部について、対象物体の使用状況等に応じた適切な変形制御を行うことで、対象物体の使い勝手の向上を図ることを目的とする。
 本技術に係る情報処理装置は、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う制御部を備えたものである。
 ここで言う対象物体とは、例えばスマートフォン等の電子機器としての物体の場合もあれば、本や鏡等といった非電子機器としての物体の場合もあり得る。また、「形状可変部が取り付けられた対象装置」なる表現は、形状可変部が対象物体に一体に取り付けられている場合、すなわち、対象物体と形状可変部とが一体構成とされている場合を含み得る。
 上記構成においては、形状可変部が伸縮変形可能とされる場合と湾曲変形可能とされる場合とがある。形状可変部が伸縮変形可能とされた場合において、形状可変部が伸張状態では、対象物体を支持する支持部として機能して対象物体を自立状態で維持させることが可能となり、また、このように支持部として機能しているときに伸縮により長さが可変とされることで、自立状態の対象物体の傾斜角度調整を行うことが可能となる。さらには、対象物体が不使用とされた状態に対応して収縮状態となることが可能となり、対象物体の不使用時に邪魔にならないように図ることが可能となる。
 また、形状可変部が湾曲変形可能とされた場合には、ユーザの手やその他の物体に対する係止部として機能させることが可能となり、ユーザが対象物体を把持している際に対象物体を落下させないようにアシストしたり、或いは対象物体を手に持たなくとも他の物体に係止させて対象物体をハンズフリーの状態で使用させることが可能となる。
 本技術に係る情報処理方法は、情報処理装置が、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う情報処理方法である。
 また、本技術に係る記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う機能、を前記コンピュータ装置に実現させるプログラムが記録されたものである。
 これら情報処理方法や記録媒体により、上記した本技術に係る情報処理装置を実現することができる。
実施形態における情報処理装置とカバー装置の斜視図である。 実施形態としての情報処理装置にカバー装置が装着されて形成される装着体の側面図である。 実施形態における形状可変部の斜視図である。 実施形態における形状可変部の側面図である。 実施形態における形状可変部の形状変化についての説明図である。 実施形態としての情報処理装置の内部構成例を示したブロック図である。 実施形態におけるカバー装置の内部構成例を示したブロック図である。 実施形態の情報処理装置が被載置面に載置された状態の説明図である。 実施形態における第一手法例に対応した情報処理装置の把持状態を例示した図である。 形状可変部をユーザの手に係止させるための湾曲変形の例を示した図である。 第一手法例としての制御手法を実現するための具体的な処理手順例を示したフローチャートである。 形状可変部を支持体に係止させる際の様子を例示した図である。 第二手法例における第一ケースに対応して実行されるべき具体的な処理手順例を示したフローチャートである。 第二手法例における第二ケースに対応して実行されるべき具体的な処理手順例を示したフローチャートである。 形状可変部により実現される情報処理装置の自立機能の説明図である。 第三手法例としての制御手法を実現するために実行されるべき具体的な処理手順例を示したフローチャートである。 傾斜角度調整の別例についての説明図である。 傾斜角度調整のさらに別例についての説明図である。 別例としての傾斜角度調整を実現するために実行されるべき具体的な処理手順例を示したフローチャートである。 形状可変部を各種の情報通知に用いる例の説明図である。 形状可変部を各種の情報通知に用いる別例の説明図である。 変形例としての傾斜角度調整の説明図である。
 以下、実施形態を次の順序で説明する。
<1.実施形態としての情報処理装置及び形状可変部の構成例>
<2.実施形態としての形状可変部制御手法>
(2-1.第一手法例)
(2-2.第二手法例)
(2-3.第三手法例)
<4.変形例>
<5.実施形態のまとめ>
<6.本技術>
<1.実施形態としての情報処理装置及び形状可変部の構成例>
 図1から図7を参照し、本発明に係る実施形態としての情報処理装置1、及び実施形態としての形状可変部4を有するカバー装置2の構成例を説明する。
 図1は、情報処理装置1とカバー装置2の斜視図、図2は情報処理装置1にカバー装置2が装着されて形成される装着体の側面図である。
 情報処理装置1は、携帯型電子機器、具体的に本例ではスマートフォンとして構成され、略板状の外形形状を有し、正面に各種情報表示が行われる表示画面17aが形成されている。
 カバー装置2は、情報処理装置1に対する装着部分としてのケース部3と、伸縮又は湾曲の少なくとも何れかが可能に構成された形状可変部4とを有する。ケース部3は、略枡型の形状を有し、情報処理装置1の背面及び側面を覆うように情報処理装置1に対して装着される部分として形成されている。
 形状可変部4は、略柱状の外形形状を有し、ケース部3の背面上に設けられて、該背面からさらに後方(情報処理装置1が装着される側とは逆側方向)に向けて突出している。
本例において形状可変部4は、ケース部3の背面における上下左右の略中央部に設けられている(図2参照)。
 図3、図4は、それぞれ形状可変部4の斜視図、側面図である。
 図示のように本例における形状可変部4は略八角柱状の形状を有しており、図4の矢印Xで示す突出方向側に付勢されている。
 図示は省略するが、この場合の形状可変部4においては、八つの側面部のうち少なくとも対向関係にある二つの側面部の内部に、それぞれワイヤーが挿通されている。これらのワイヤーは、一端が形状可変部4の先端側において固定されている。
 2本のワイヤーの双方を形状可変部4の先端部とは逆側に同じ量引くことで、図5Aに示すように、形状可変部4を収縮状態とすることができる。このとき、形状可変部4の収縮量は、2本のワイヤーを引く量によりコントロール可能である。前述のように形状可変部4は突出方向Xに付勢されているため、2本のワイヤーの引き量をゼロとすることで、形状可変部4を最大に伸張させた状態とすることができる。
 このように2本のワイヤーの引き量の調整により、形状可変部4を所望の長さに伸縮させることが可能とされている。
 また、2本のワイヤーのうち何れか一方のみを引くことで、図5Bに示すように、形状可変部4を湾曲させることができる。具体的には、ワイヤーを引いた側の側面部の方に形状可変部4を湾曲させることができる。このとき、ワイヤーの引き量の調整により、形状可変部4の湾曲度合いをコントロールすることができる。
 ここで、伸縮や湾曲を可能とする形状可変部4を実現するための具体的な構成は上記で例示したワイヤー式の構成に限定されるものでなく、多様に考えられ、特定の構成に限定されるものではない。
 例えば、形状記憶合金を用いて伸縮や湾曲を可能とする構成等も考えられる。
 また、形状可変部4の形状は例示した八角柱形状に限らず、略円柱形状等の他の形状とすることもできる。
 図6は、情報処理装置1の内部構成例を示したブロック図である。
 図示のように情報処理装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、及び不揮発性メモリ部14を有している。不揮発性メモリ部14は、例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などで構成される。
 CPU11は、ROM12や不揮発性メモリ部14に記憶されているプログラム、または後述する記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13には、CPU11が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU11、ROM12、RAM13、及び不揮発性メモリ部14は、バス23を介して相互に接続されている。このバス23にはまた、入出力インタフェース15も接続されている。
 入出力インタフェース15には、ユーザが入力操作を行うための入力部16、液晶パネル或いは有機EL(Electroluminescence)パネルなどよりなる表示部17、スピーカなどよりなる音声出力部18、記憶部19、通信部20などが接続可能である。
 入力部16は、情報処理装置1を使用するユーザが用いる入力デバイスを意味する。例えば、入力部16としては、キーボード、マウス、ボタン、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。入力部16によりユーザの操作が検知され、入力された操作に応じた信号はCPU11によって解釈される。
 表示部17は、前述した表示画面17aを有し、CPU11の指示に基づいて表示画面17a上に各種の情報を表示する。また、表示部17はCPU11の指示に基づき、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行うことも可能とされる。
 記憶部19は、例えばHDD(Hard Disk Drive)や固体メモリなどの記憶媒体より構成される。記憶部19には、例えば後述する撮像部21により得られた撮像画像データ等の各種データを記憶可能とされる。また、記憶部19は、CPU11が各種処理を実行するためのプログラムデータの格納にも用いることが可能とされる。
 通信部20は、インターネットを含むネットワークを介しての通信処理や、周辺機器との間の有線又は無線による通信(例えば、近距離無線通信等)を行う。特に本例において通信部20は、カバー装置2との間で通信を行うことが可能に構成されている。
 また、入出力インタフェース15には、撮像部21、及びセンサ部22が接続される。
 撮像部21は、例えばCMOS(Complementary Metal Oxide Semiconductor)型やCCD(Charge Coupled Device)型などによる固体撮像素子を有して構成される。固体撮像素子においては、例えばフォトダイオード等とされた光電変換素子を有する画素が二次元に複数配列されている。撮像部21では、画素ごとの光電変換で得られた電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行うことでデジタルデータとしての撮像画像データを得る。
 撮像部21としては、複数のカメラで構成される場合もある。本例では、撮像部21が有するカメラとしては、情報処理装置1の背面側に設けられたアウターカメラと、背面とは逆側に設けられた(つまり表示画面17aと同面側に設けられた)インナーカメラとがあるものとする。
 センサ部22は、ユーザの行動を検出するための各種センサを包括的に示したものである。本例において、センサ部22には、例えば加速度センサや角速度センサ等、情報処理装置1の動きを検出するための動きセンサが設けられている。
 さらに、本例においてセンサ部22には、ユーザによる情報処理装置1の把持圧力を検出するための圧力センサ、及び情報処理装置1に対する物体の近接を検出するための近接センサ等も設けられている。
 本例において圧力センサは、情報処理装置1の面ごとの把持圧力を検出可能とするために複数個設けられている。具体的に本例において圧力センサは、情報処理装置1の背面及び側面に対して設けられている。
 なお、本実施形態では、情報処理装置1の把持は、カバー装置2の装着状態で行われることを前提とするが、上記の各圧力センサは、カバー装置2が装着された状態で情報処理装置1の把持圧力を検出可能とされている。
 図7は、カバー装置2の内部構成例を示したブロック図である。
 図示のようにカバー装置2は、アクチュエータ30、制御部31、通信部32、及びセンサ部33を備えている。
 アクチュエータ30は、形状可変部4の伸縮変形や湾曲変形の動力源として機能する。本例におけるアクチュエータ30は、形状可変部4における前述したワイヤーを形状可変部4の先端側とは逆側に引く動作を行うことが可能に構成されている。
 制御部31は、アクチュエータ30の駆動制御部として機能する。
 制御部31には、情報処理装置1との間で有線又は無線による通信を行うことが可能に構成された通信部32が接続されている。この通信部32は、例えば近距離無線通信により情報処理装置1との間の通信を行う。
 本実施形態において制御部31は、通信部32を介して行われる情報処理装置1(CPU11)からの指示に基づき、アクチュエータ30の駆動制御を行う。
 また、制御部31には、センサ部33が接続されている。
 センサ部33は、形状可変部4に入力される外力の検出を行う外力検出センサを有している。本例においてこの外力検出センサは、形状可変部4の先端部を押圧する外力の検出、及び形状可変部4を伸張させる外力並びに収縮させる外力の検出が可能に設けられた圧力センサで構成されている。
 制御部31は、情報処理装置1(CPU11)からの要求に応じて、上記外力検出センサによる検出信号を通信部32を介して情報処理装置1側に送信する。
<2.実施形態としての形状可変部制御手法>
(2-1.第一手法例)
 前述のように形状可変部4は、湾曲変形可能とされている。ユーザが情報処理装置1を背面から把持している状態において、形状可変部4を湾曲変形させることで、形状可変部4がユーザの手(指)に係止されることになる。すなわち、形状可変部4をユーザの手に対する係止部として機能させることができ、情報処理装置1がユーザの手から落下し難くなるようにアシストすることができる。
 第一手法例は、このように形状可変部4を湾曲変形させて、カバー装置2を装着された情報処理装置1がユーザの手から落下し難くなるようにアシストする機能に係るものである。
 先ず、ここでは、情報処理装置1にカバー装置2が装着されて成る装着体が、図8に示すように被載置面Stに載置されて、情報処理装置1が不使用の状態(不使用と推定される状態)にあることを前提とする。被載置面Stは、例えば机やテーブルの表面等、装着体が載置され得る略水平な面を意味する。
 ここで、上記のように装着体が被載置面Stに載置される等、装着体に生じる事象は、情報処理装置1に生じる事象と同義であるものと扱うことができる(装着体は情報処理装置1にカバー装置2が装着されて一体とされたものであるため)。この点より以下の説明では、装着体に生じる事象を、情報処理装置1に生じたものとして扱う。
 本例において、情報処理装置1が被載置面Stに載置されている場合には、図示のように形状可変部4は収納状態にあるとする。ここで言う収納状態とは、例えば形状可変部4が最も収縮した状態等、形状可変部4が一定度合い以上の収縮度合いで収縮された状態を意味する。
 情報処理装置1が不使用とされた状態に対応して形状可変部4が収納状態とされることで、情報処理装置1の不使用時に形状可変部4が邪魔にならないように図ることができる。
 なお、この収納機能は、後述するように情報処理装置1のCPU11の制御により実現される。
 図8に示す不使用状態から、情報処理装置1が持ち上げられて、図9に示すようにユーザの手によって背面から把持された状態となったとする。
 このように不使用状態からユーザの手により情報処理装置1が背面から把持された状態に遷移したことが認められた場合、情報処理装置1は、図10に示すように形状可変部4を湾曲変形させる。これにより、形状可変部4がユーザの手に係止されるようにすることができる。
 また、情報処理装置1は、上記のように形状可変部4が湾曲変形してユーザの手に係止されている状態において、前述したセンサ部22における動きセンサの検出信号に基づき情報処理装置1が落下しそうであることが認められた場合に、形状可変部4の湾曲力を高める制御を行う。
 これにより、情報処理装置1を把持して使用しているユーザの手から情報処理装置1が落下してしまうことの防止を図ることができる。
 さらに、情報処理装置1は、形状可変部4が湾曲変形してユーザの手に係止されている状態において、センサ部22における動きセンサの検出信号に基づき被載置面Stへの載置予兆が認められた場合に、形状可変部4を収納状態に変形させる制御を行う。
 これにより、情報処理装置1が被載置面Stに載置される場合に対応して、形状可変部4が邪魔にならないように図ることができる。
 図11は、上記により説明した第一手法例としての制御手法を実現するための具体的な処理手順例を示したフローチャートである。
 なお、この図11を始めとして、以降の図13、図14、図16、図19に示す処理は、CPU11がROM12や記憶部19に記憶されたプログラムに従って実行するものである。
 先ず、図11に示す処理は、情報処理装置1が図8で例示したように被載置面Stに載置された状態において開始されるものとする。
 CPU11は、ステップS101で動きセンサの検出信号の取得を開始し、続くステップS102で情報処理装置1が持ち上げられたか否かを判定する。情報処理装置1が持ち上げられたか否かの判定は、例えば加速度の変化に基づき行うことができる。
 なお、図8に示す状態から情報処理装置1を持ち上げる際、ユーザは、情報処理装置1の側面を少なくとも2本の指で狭持する可能性が高いため、ステップS102の持ち上げ判定としては、加速度の変化と、情報処理装置1の側面の把持圧力の大きさとに基づいて行うことも考えられる。
 ステップS102において、情報処理装置1が持ち上げられていないと判定した場合、CPU11は再度ステップS102の処理を行う。
 一方、ステップS102で情報処理装置1が持ち上げられたと判定した場合、CPU11はステップS103に進み、第一湾曲条件の成立有無を判定する。第一湾曲条件は、ユーザの手により情報処理装置1が背面から把持された状態で形状可変部4を湾曲変形させてユーザの手に係止させるべき条件を定めたものである。
 具体的に、この場合の第一湾曲条件としては、情報処理装置1の背面又は側面の把持力が一定圧力以上であるか否かの判定として行うことができる。背面や側面の把持圧力の情報は、センサ部22における前述した圧力センサの検出信号に基づき取得可能である。
 ステップS103において、背面又は側面の把持圧力が一定圧力以上でなく、第一湾曲条件が成立していないと判定した場合、CPU11はステップS102に戻る。
 一方、ステップS103において、背面又は側面の把持圧力が一定圧力以上であり、第一湾曲条件が成立したと判定した場合、CPU11はステップS104に進み、形状可変部4を湾曲させる。
 これにより、ユーザの手により情報処理装置1が背面から把持された状態において、形状可変部4を湾曲変形させて、ユーザの手に係止させることができる。
 ステップS104に続くステップS105でCPU11は、落下予兆の有無を判定する。すなわち、情報処理装置1がユーザの手から落下しそうであるか否かの判定である。
 本例において、この落下予兆判定は、動きセンサの検出信号から取得される加速度の情報に基づいて行う。具体的には、情報処理装置1の加速度の単位時間あたりの変化量が所定の閾値Th1以上であれば、落下予兆ありとの判定を行い、該変化量が閾値Th1未満であれば落下予兆なしとの判定を行う。
 ステップS105において、落下予兆なしと判定した場合、CPU11はステップS106に進んで載置予兆ありか否かを判定する。すなわち、情報処理装置1を被載置面Stに載置する予兆があるか否かの判定である。
 ステップS106の載置予兆判定としては、落下予兆判定と同様に、動きセンサの検出信号から取得される加速度の情報に基づいて行う。具体的には、情報処理装置1の加速度の単位時間あたりの変化量が、閾値Th2(ただし、閾値Th2<閾値Th1)以上、且つ閾値Th1未満であるか否かの判定として行う。これは、落下予兆時よりも急激ではない、一定以上の加速度変化があるか否かの判定を行っていることに相当する。
 上記変化量が閾値Th2以上且つ閾値Th1未満であれば、CPU11は載置予兆ありと判定し、上記変化量が閾値Th2以上且つ閾値Th1未満の条件を満たさない場合は載置予兆なしと判定する。
 ステップS106において、載置予兆なしと判定した場合、CPU11はステップS105に戻る。すなわち、ステップS104の湾曲制御後には、落下予兆と載置予兆の何れかがあるまで待機するループ処理が実行される。
 ステップS105において、落下予兆ありと判定した場合、CPU11はステップS107に進み、湾曲力を高める処理を行い、図11に示す一連の処理を終える。
 これにより、情報処理装置1を把持して使用しているユーザの手から情報処理装置1が落下してしまうことの防止が図られる。
 一方、ステップS106で載置予兆ありと判定した場合、CPU11はステップS108に進んで形状可変部4を収納状態とさせる処理を行う。
 これにより、情報処理装置1が被載置面Stに載置される場合に対応して、形状可変部4が邪魔にならないように図ることができる。
 なお、ステップS102の持ち上げ判定に関しては、不使用状態からの使用開始判定であるとも換言することができるが、この使用開始判定は、持ち上げ判定でなく、表示画面17aに対する画面操作有無の判定として行うこともできる。
 また、上記では、情報処理装置1の持ち上げ判定(S102)、落下予兆判定(S105)、及び載置予兆判定(S106)をそれぞれ加速度の大きさに基づく判定として行う例を挙げたが、これはあくまで一例に過ぎず、例えば情報処理装置1が持ち上げられる、手から落下しそうになる、把持状態から被載置面Stに載置される、といった動きが行われる際の加速度や角速度の波形パターンを学習し、学習した波形パターンに一致するか否かで、該当する動きがあったか否かの判定を行うようにすることも可能である。
 また、載置に係る制御については、例えばユーザの操作入力(例えば、情報処理装置1をスリープ状態とする指示操作入力:物理操作子、GUI、音声入力の何れでもよい)に基づいて、形状可変部4を収納状態に制御することも考えられる。
(2-2.第二手法例)
 続いて、第二手法例について説明する。
 第二手法例は、ユーザの手以外の物体に対する係止機能に係るものである。
 形状可変部4が湾曲変形可能とされていることで、例えば図12に例示するように、形状可変部4をユーザの手以外の支持体Osとしての物体に係止させることも可能となる。情報処理装置1を手に持たなくともユーザが表示画面17aを適度な角度で見ることができるため、情報処理装置1をハンズフリーの状態で使用させることができる。
 図12では、支持体Osは板状の物体としているが、湾曲状態の形状可変部4によって係止される部分を有する物体であれば、支持体Osとして機能し得る。
 第二手法例としては、二つのケースが考えられる。
 一つは、先の図8に示したような載置状態の情報処理装置1を、図12のように支持体Osに形状可変部4を係止させた状態で使用したいというケース(以下「第一ケース」と表記する)である。
 もう一つは、第一手法例で説明したようにユーザが情報処理装置1を背面から把持している状態(図10参照)から、図12のように支持体Osに形状可変部4を係止させた状態で情報処理装置1を使用したいというケース(以下「第二ケース」と表記する)である。
 先ず、第一ケースに対応してCPU11が行うべき具体的な処理手順例を、図13のフローチャートに示す。
 なお以下の説明において、既に説明済みとなった処理と同様となる処理については同一ステップ番号を付して説明を省略する。
 図13において、この場合もCPU11は、ステップS101で動きセンサの検出信号の取得を開始した上で、ステップS102で情報処理装置1が持ち上げられたか否かを判定する。
 そして、情報処理装置1が持ち上げられたと判定した場合、CPU11はステップS201で、第二湾曲条件が成立しているか否かを判定する。この第二湾曲条件は、第一ケースに対応して、支持体Osへの係止のための形状可変部4の湾曲変形実行条件を定めたものである。
 具体的に、ここでは、持ち上げられた情報処理装置1が、側面をユーザの指により狭持され、且つ支持体Osに近接した状態であることが条件とされる。このため、ステップS201でCPU11は、第二湾曲条件の成立判定として、側面の把持圧力が背面の把持圧力よりも一定値以上大きく、且つ近接センサにより支持体Osへの所定距離以内の近接が検出されている状態にある、との条件が成立したか否かの判定を行う。
 なお、第二湾曲条件については、情報処理装置1の支持体Osに対する所定距離以内への近接ではなく、支持体Osへの接触を条件とすることもできる。
 ステップS201において、第二湾曲条件が成立していないと判定した場合、CPU11はステップS102に戻る。
 一方、ステップS201で第二湾曲条件が成立したと判定した場合、CPU11はステップS104に進んで形状可変部4を湾曲させる処理を実行する。
 これにより、ユーザが載置状態の情報処理装置1を持ち上げて支持体Osに形状可変部4を係止させることを望んでいる場合に対応して、形状可変部4を湾曲させて支持体Osに係止させ、情報処理装置1をハンズフリー状態で使用させることができる。
 またこの場合、CPU11は、ステップS104で形状可変部4を湾曲させたことに応じ、ステップS202に処理を進めて、取り外し予兆の有無を判定する。
 ここで言う取り外し予兆とは、形状可変部4が支持体Osに係止された状態で使用されている情報処理装置1、すなわち支持体Osに取り付けられた状態の情報処理装置1を、支持体Osから取り外す予兆のことを意味する。
 本例では、取り外し予兆の条件としては、支持体Osに対する係止のための湾曲を行った以降、情報処理装置1の側面の把持圧力が一旦所定値低下した後、一定値以上増加する、との条件が設定され、CPU11は該条件を満たす場合は取り外し予兆ありと判定し、該条件を満たさない場合は取り外し予兆なしと判定する。
 CPU11は、取り外し予兆なしと判定した場合は、再度ステップS202の判定処理を実行する。
 そして、取り外し予兆ありと判定した場合、CPU11はステップS203に進み、湾曲解除処理を行う。すなわち、形状可変部4の湾曲を解除させる(直立状態とする)処理である。
 形状可変部4の湾曲が解除されることで、情報処理装置1を支持体Osから取り外すことが可能となる。
 CPU11は、ステップS203の湾曲解除処理を実行したことに応じて図13に示す一連の処理を終える。
 図14は、第二ケースに対応してCPU11が行うべき具体的な処理手順例を示したフローチャートである。
 この場合のCPU11は、ステップS210で、情報処理装置1の持ち替えが検出されるまで待機する。
 ここで、ユーザは、情報処理装置1を背面から把持している状態(図10参照)から、図12のように支持体Osに形状可変部4を係止させた状態で使用したいとしたときは、情報処理装置1を持ち替える(持ち方を変える)ことになる。すなわち、情報処理装置1を把持している手とは逆側の手で、情報処理装置1の側面を把持することになる。ステップS210ではこの持ち替えを検出する。
 具体的には、情報処理装置1の側面の把持圧力が一定値以上に上昇したか否かを判定し、側面の把持圧力が一定値以上に上昇した場合には持ち替え有りと判定し、そうでない場合は持ち替えなしと判定する。
 ステップS210で持ち替えありと判定した場合、CPU11はステップS211で湾曲解除処理を行う。これにより、情報処理装置1を背面から把持している側の手への形状可変部4の係止状態が解除され、形状可変部4を新たに支持体Osに係止させることが可能な状態となる。
 ステップS211の湾曲解除処理を行ったことに応じ、CPU11はステップS212に処理を進めて、第三湾曲条件が成立しているか否かを判定する。
 この第三湾曲条件は、第二ケースに対応して、支持体Osへの係止のための形状可変部4の湾曲変形実行条件を定めたものである。本例では、この第三湾曲条件は、前述した第二湾曲条件と同様に、情報処理装置1の側面の把持圧力が背面の把持圧力よりも一定値以上大きく、且つ近接センサにより支持体Osへの所定距離以内の近接が検出されている状態にある、との条件として定められている。
 なお、第三湾曲条件としては、第二湾曲条件とは異なる条件を定めることもできる。
 ステップS212において、第三湾曲条件が成立してないと判定した場合、CPU11は図14に示す一連の処理を終える。
 一方、ステップS212で第三湾曲条件が成立したと判定した場合、CPU11はステップS104で形状可変部4を湾曲させる。
 これにより、ユーザが情報処理装置1を背面から把持している状態から形状可変部4を支持体Osに係止させて使用したいとする場合に対応して、形状可変部4を支持体Osに係止させることができる。
 ここで、第二ケースにおいても、ステップS104で形状可変部4を湾曲させたことに応じては、ステップS202の取り外し予兆の待機処理と、取り外し予兆があった場合のステップS203の湾曲解除処理が行われるが、これらは既に説明済みであるため重複説明は避ける。
 なお、支持体Osへの係止のための形状可変部4の湾曲や、支持体Osからの取り外しのための形状可変部4の湾曲解除の制御は、例えばユーザの操作入力(例えば、情報処理装置1をスリープ状態とする指示操作入力:物理操作子、GUI、音声入力の何れでもよい)に基づいて行うことも考えられる。
 また、上記では、ユーザが支持体Osに形状可変部4を係止させようとしているか否かの判定(S201、S212)や、支持体Osへの係止状態からの情報処理装置1の取り外し予兆の判定(S202)について、把持圧力に基づく判定を行う例を挙げたが、これはあくまで一例に過ぎず、例えばユーザが支持体Osに形状可変部4を係止させようとしているときや支持体Osから情報処理装置1を取り外そうとするときの情報処理装置1の動きが行われる際の加速度や角速度の波形パターンを学習し、学習した波形パターンに一致するか否かで、該当する動きがあったか否かの判定を行うようにすることも可能である。
(2-3.第三手法例)
 第三手法例は、形状可変部4を情報処理装置1の支持部として機能させて情報処理装置1を自立させる機能に係るものである。
 形状可変部4が或る程度伸張された状態では、図15に例示するように、情報処理装置1を支持する支持部として機能させて、情報処理装置1を自立状態で維持させることが可能となる。また、このように支持部として機能している形状可変部4を伸縮変形させて長さを変化させれば、自立状態の情報処理装置1の傾斜角度調整を行うことが可能となる。
 第三手法例は、これら情報処理装置1の自立機能や傾斜角度調整の機能に関するものである。
 本例では、ユーザが図10のように背面から情報処理装置1を把持している状態(このとき、形状可変部4は湾曲してユーザの手に係止されているとする)から、図15のような自立状態での使用に切り替える場合を例示する。
 また、この場合、自立状態での傾斜角度調整は、ユーザのジェスチャに基づき行う。例えば、ユーザが手を上方向に移動させるジェスチャが傾斜角度を増加させる(つまり情報処理装置1をより起こす)指示を表し、手を下方向に移動させるジェスチャが傾斜角度を減少させる(つまり情報処理装置1をより寝かせる)指示を表すものとする。
 なお、これらのジェスチャはあくまで一例であり、撮像画像についての画像解析処理で認識可能なジェスチャであれば特定のジェスチャに限定されない。
 図16は、上記のような自立機能及び傾斜角度調整機能を実現するためのCPU11の具体的な処理手順例を示したフローチャートである。
 なお、この図に示す処理は、ユーザが図10のように背面から情報処理装置1を把持しており、これに応じて形状可変部4がユーザの手に係止されるように湾曲している状態において開始されるものである。
 図16において、CPU11はステップS301で、自立機能ON条件の成立を待機する。すなわち、ユーザが背面から情報処理装置1を把持している状態から自立機能をONさせようとしているか否かの判定である。
 本例において自立機能ON条件は、動画視聴アプリやビデオ通話アプリ等の特定アプリが起動された状態で、情報処理装置1の側面の把持圧力が、正面の把持圧力よりも大きくなる、との条件として設定されている。
 なお、自立機能ON条件は多様に考えられる。例えば、動画視聴アプリやビデオ通話アプリ等の特定アプリが起動された状態で、情報処理装置1が所定角度以上の傾斜角度で載置されたことを条件とする等が考えられる。
 或いは、自立機能ON条件は、ユーザから所定の操作入力(物理操作子、GUI、音声入力の何れでもよい)が行われたとの条件とすることもできる。
 さらには、情報処理装置1が、ユーザにより把持された状態で所定角度以上の傾斜角度で載置される際の加速度や角速度の波形パターンを学習し、学習した波形パターンに一致するか否かで、ユーザが自立機能ONを望んでいるか否かの判定を行うこともできる。
 ステップS301において、自立機能ON条件が成立したと判定した場合、CPU11はステップS302に進んで形状可変部4を湾曲状態から直立状態とさせる処理を行う。すなわち、形状可変部4を非湾曲状態に制御するものである。
 ステップS302に続くステップS303でCPU11は、角度増指示の有無を判定する。つまり本例では、上述した手を上方向に移動させるジェスチャの検出有無を判定するものであり、具体的にCPU11は、撮像部21における前述したインナーカメラの撮像画像に基づき、当該ジェスチャが検出されたか否かを判定する。
 角度増指示がなかったと判定した場合、CPU11はステップS304に進んで角度減指示の有無、つまり本例では手を下方向に移動させるジェスチャの検出有無を判定する。
 角度減指示がなかったと判定した場合、CPU11はステップS303に戻る。つまりステップS303とS304の処理によっては、角度増指示と角度減指示の何れかを待機するループ処理が形成されている。
 ステップS303で角度増指示があったと判定した場合、CPU11はステップS305に進み、形状可変部4を伸張させる処理を行う。これにより、角度増指示に応じて、情報処理装置1の傾斜角度が所定角度増大される。
 ステップS305の処理を実行したことに応じ、CPU11はステップS307に処理を進める。
 一方、ステップS304で角度減指示があったと判定した場合、CPU11はステップS306に進み、形状可変部4を収縮させる処理を行う。これにより、角度減指示に応じて、情報処理装置1の傾斜角度が所定角度減少される。
 ステップS306の処理を実行したことに応じ、CPU11はステップS307に処理を進める。
 ステップS307でCPU11は、処理終了か否か、すなわち、予め定められた処理終了条件の成立有無を判定する。ここでの処理終了条件としては、例えば、上述した動画視聴アプリやビデオ通話アプリ等の特定アプリの終了や、情報処理装置1がスリープ状態に遷移したこと等を挙げることができる。
 ステップS307において、処理終了でないと判定した場合、CPU11はステップS303に戻る。これにより、角度増や角度減の指示の受け付けや、それらの指示に応じた傾斜角度調整のための処理が継続される。
 一方、ステップS307で処理終了であると判定した場合、CPU11は図16に示す一連の処理を終える。
 ここで、傾斜角度調整については、ユーザからの指示入力に依らず自動調整として行うことも可能である。
 一例として、図17に例示するように、インナーカメラの撮像視野Fv内にユーザの顔が収まるように傾斜角度を調整することが挙げられる。
 また、このとき、図18に例示するように、ユーザの顔の傾斜角度θfと情報処理装置1の傾斜角度θdとが一致するように、情報処理装置1の傾斜角度θdを調整することも可能である。
 図19は、このような傾斜角度調整を実現するためのCPU11の具体的な処理手順例を示したフローチャートである。
 この場合、CPU11は、ステップS301での自立機能ON条件の成立に応じてステップS302で形状可変部4を直立状態とさせたことに応じて、ステップS310で、撮像画像に基づきユーザの顔位置と顔の傾斜角度θfを検出する処理を行う。具体的には、撮像部21におけるインナーカメラの撮像画像について画像解析を行って、ユーザの顔位置と傾斜角度θfとを検出する。
 ステップS310に続くステップS311でCPU11は、動きセンサの検出信号に基づき情報処理装置1の傾斜角度θdを検出する。
 そして、ステップS311に続くステップS312でCPU11は、ユーザの顔を視野内とし装置傾斜角度を顔傾斜角度と一致させるための目標装置傾斜角度を算出する。すなわち、インナーカメラの撮像画像内にユーザの顔の画像領域全体が位置し、且つ傾斜角度θdをステップS310で検出した傾斜角度θfと一致させるための目標装置傾斜角度を算出する。この目標装置傾斜角度の算出には、少なくともステップS310で検出した顔位置の情報及び傾斜角度θfと、ステップS311で検出した傾斜角度θdとを用いる。
 ステップS312に続くステップS313でCPU11は、傾斜角度θdが目標装置傾斜角度となるように形状可変部4の伸縮状態を制御する。
 ステップS313の処理を実行したことに応じ、CPU11はステップS307の処理終了判定処理を実行し、処理終了でないと判定した場合はステップS310に戻る。これにより、処理終了と判定されるまでの間、上記したユーザの顔位置と傾斜角度θfとに基づく傾斜角度θdの調整のための処理が継続される。
 ステップS307で処理終了と判定した場合、CPU11は図19に示す一連の処理を終える。
 ここで、傾斜角度θdの調整手法については上記で例示したものに限定されない。
 例えば、動画視聴アプリやビデオ通話アプリを起動中において、ユーザが情報処理装置1を手動で動かして傾斜角度θdを変化させたとき、変化後の傾斜角度θdが維持されるように形状可変部4の伸縮状態を制御することが考えられる。
 或いは、ユーザが手動で形状可変部4の長さを変化させたとき、変化後の長さが維持されるように形状可変部4の伸縮状態を制御することも考えられる。
 このような制御は、例えば図7に示したセンサ部33が有する外力検出センサの検出信号に基づき行うことができる。具体的には、この外力検出センサが検出値が所定値以上変化したときに、該検出値が所定値以下(例えばゼロ)となるように形状可変部4のワイヤーの張力を変化させるようにすればよい。
<4.変形例>
 以上、本技術に係る実施形態について説明したが、実施形態としては上記した具体例に限定されるものでなく、多様な変形例としての構成を採り得る。
 例えば、形状可変部4を各種の情報通知に用いることもできる。
 具体的には、図20に示すように、ユーザが情報処理装置1を背面から把持している状態において、形状可変部4の湾曲力を調整することで形状可変部4によりユーザの手を叩く動作を通知動作として行うことが考えられる。ここでの通知としては、例えば電話着信やメール受信に係る通知や、各種のエラー通知等を挙げることができる。
 或いは、図21に示すように情報処理装置1が被載置面Stに伏せ置き(表示画面17aを下向きとした載置)された状態において、形状可変部4の湾曲力を調整することで形状可変部4をゆらゆらと揺らす動作を通知動作とすることが考えられる。
 また、このように形状可変部4をゆらゆらと揺らす動作は、音楽再生中等、所定の条件下で行って、ユーザにいやしを与えるようなことも考えられる。このとき、形状可変部4の揺れの周期を音楽のリズム等に合わせたものとすることも考えられる。
 また、第三手法例として説明した情報処理装置1の傾斜角度調整について、形状可変部4により支持された情報処理装置1がバランスの悪い状態で載置されているときに、バランスが改善されるように形状可変部4の伸縮制御を行うことも考えられる。
 図22はその説明図であり、図22Aは、形状可変部4が支持部として機能している状態での情報処理装置1の支持面Ssを、図22Bは情報処理装置1の重心位置Cからの垂線Lvをそれぞれ示している。
 バランスが悪いとき、つまり垂線Lvと被載置面Stとの交点が支持面Ssの中心から遠いときに、バランスが良くなる、すなわち垂線Lvと被載置面Stとの交点が支持面Ssの中心に近づくように、形状可変部4の伸縮制御を行えばよい。
 また、これまでの説明では、情報処理装置1のCPU11が主体となって形状可変部4の制御を行う例としたが、例えば、カバー装置2における制御部31が、情報処理装置1に設けられた各種センサからの信号に基づいて形状可変部4の制御を行う構成も考えられる。
 或いは、形状可変部4の制御に必要とされるセンサをカバー装置2に設けた構成も考えられる。
 さらに、形状可変部4は、スマートフォン等の対象物体を覆うカバー装置2に設けられる例としたが、形状可変部4はスマートフォンと一体に構成されてもよい。
 また、これまでの説明では、本技術に係る「対象物体」の例としてスマートフォン等の携帯型電子機器を例示したが、「対象物体」としては、例えば本や鏡等の非電子機器とされる場合もあり得る。対象物体が本や鏡等とされる場合、形状可変部4の制御主体は、カバー装置2における制御部31とすることが考えられる。また、形状可変部4の制御に必要とされるセンサはカバー装置2に設けることが考えられる。
 また、形状可変部4としては、伸縮、湾曲の少なくとも何れかが可能であればよい。伸縮が可能とされた場合には第三手法例のような制御が可能となり、湾曲が可能とされた場合には第一手法例や第二手法例のような制御が可能となる。
<5.実施形態のまとめ>
 上記のように実施形態の情報処理装置(同1)は、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した認識情報に基づいて、形状可変部の変形制御を行う制御部(CPU11)を備えたものである。
 上記構成においては、形状可変部が伸縮変形可能とされる場合と湾曲変形可能とされる場合とがある。形状可変部が伸縮変形可能とされた場合において、形状可変部が伸張状態では、対象物体を支持する支持部として機能して対象物体を自立状態で維持させることが可能となり、また、このように支持部として機能しているときに伸縮により長さが可変とされることで、自立状態の対象物体の傾斜角度調整を行うことが可能となる。さらには、対象物体が不使用とされた状態に対応して収縮状態となることが可能となり、対象物体の不使用時に邪魔にならないように図ることが可能となる。
 また、形状可変部が湾曲変形可能とされた場合には、ユーザの手やその他の物体に対する係止部として機能させることが可能となり、ユーザが対象物体を把持している際に対象物体を落下させないようにアシストしたり、或いは対象物体を手に持たなくとも他の物体に係止させて対象物体をハンズフリーの状態で使用させることが可能となる。
 従って、上記のように対象物体の使用に係る認識情報に基づいて形状可変部の変形制御を行うことにより、対象物体の使用状況等に応じて形状可変部を適切な形状に変形させることが可能となり、対象物体の使い勝手の向上を図ることができる。
 また、実施形態の情報処理装置においては、制御部は、対象物体に取り付けられたセンサの検出信号に基づいて認識情報を取得している。
 これにより、対象物体に生じた事象についての検出信号に基づき、対象物体の使用状況等を適切に特定することができる。
 さらに、実施形態の情報処理装置においては、認識情報は、対象物体の動き情報を含んでいる。
 対象物体の使用状況等は対象物体の動きに反映される。
 従って、上記構成によれば、対象物体の使用状況等を適切に特定することができ、対象物体の使用状況等に応じて形状可変部を適切な形状に変形させて対象物体の使い勝手の向上を図ることができる。
 さらにまた、実施形態の情報処理装置においては、形状可変部は、伸縮及び湾曲が可能に構成され、制御部は、動き情報に基づき、形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行している(図11のステップS105以降参照)。
 これにより、動き情報に基づき、例えば対象物体の落下予兆が認められる場合は湾曲に係る変形制御を行うことで形状可変部をユーザの手等に係止させて対象物体の落下防止をアシストしたり、対象物体の載置予兆が認められる場合は伸張に係る変形制御を行うことで形状可変部を収納状態に変形させる等といったように、動き情報から特定される対象物体の使用状況に応じて、伸張に係る変形制御と湾曲に係る変形制御とを適切に切り替えて実行することができる。
 また、実施形態の情報処理装置においては、形状可変部は湾曲が可能に構成され、制御部は、形状可変部が湾曲された状態において、動き情報に基づき対象物体の落下予兆が認められた場合に形状可変部の湾曲力を高める制御を行っている(図11参照)。
 これにより、例えば形状可変部が湾曲して対象物体を把持するユーザの手に係止している状態において、落下予兆が認められた場合に湾曲力が高められる。
 従って、対象物体を把持しているユーザの手から対象物体が落下してしまうことの防止を図ることができる。
 さらに、実施形態の情報処理装置においては、認識情報は、ユーザによる対象物体の把持に係る情報を含んでいる。
 例えば、ユーザが対象物体を背面から把持している場合と正面から把持している場合とで対象物体の使用状況が異なる等、対象物体の把持に係る認識情報から、対象物体の使用状況を特定可能となる。
 従って、対象物体の把持に係る認識情報から特定される対象物体の使用状況に基づいて形状可変部を適切な形状に変形させることが可能となり、対象物体の使い勝手の向上を図ることができる。
 さらにまた、実施形態の情報処理装置においては、対象物体は複数の面を有し、認識情報は、対象物体の面ごとの把持圧力の情報を含んでいる。
 これにより、ユーザが対象物体をどのように把持しているかの認識が可能となる。
 従って、ユーザによる対象物体の把持状態から特定される対象物体の使用状況(例えば、ユーザにより対象物体が背面から把持されている状況や、把持された対象物体が載置されそうな状況等)に基づいて、形状可変部を適切な形状に変形させることが可能となり、対象物体の使い勝手の向上を図ることができる。
 また、実施形態の情報処理装置においては、形状可変部は、伸縮及び湾曲が可能に構成され、制御部は、対象物体の面ごとの把持圧力の情報に基づき、形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行している(図11参照)。
 例えば、対象物体における背面の把持圧力が側面の把持圧力よりも大きければユーザが対象物体を背面から把持していると推定可能であり、対象物体の側面の把持圧力が背面の把持圧力よりも大きい場合には対象物体が載置されようとしていると推定可能である。
 従って、上記のように対象物体の面ごとの把持圧力に基づいて形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて行うことで、例えばユーザが対象物体を背面から把持していることが特定された場合は形状可変部を湾曲させて対象物体の落下防止をアシストしたり、対象物体が載置されようとしていることが特定された場合は形状可変部の収納状態に変形させて載置の邪魔にならないようにする等、対象物体の使い勝手の向上を図ることができる。
 さらに、実施形態の情報処理装置においては、認識情報は、ユーザの手のジェスチャに係る認識情報を含んでいる。
 ユーザの手のジェスチャに係る認識情報は、ユーザが対象物体に対して行う動作指示に係る認識情報と換言できるものであり、対象物体がユーザからどのような動作指示を受けている使用状態であるかという観点で、対象物体の使用に係る認識情報の一態様と言える。
 上記構成によれば、ユーザの手のジェスチャから特定されるユーザからの動作指示に基づいて形状可変部を適切な形状に変形させることが可能となり、対象物体の使い勝手の向上を図ることができる。
 さらにまた、実施形態の情報処理装置においては、形状可変部は、伸縮が可能に構成され、制御部は、ジェスチャに係る認識情報に基づき、形状可変部の伸縮に係る変形制御を行っている。
 これにより、形状可変部が対象物体の支持部として機能し対象物体を自立させている場合に対応して、ユーザの手のジェスチャに応じて形状可変部の長さを変化させることが可能となる。
 従って、ユーザの手のジェスチャに応じた対象物体の傾斜角度調整を実現することができる。
 また、実施形態の情報処理装置においては、認識情報は、対象物体の姿勢に係る認識情報を含んでいる。
 対象物体の姿勢に係る認識情報により、対象物体がどのような姿勢で使用されているかという観点での対象物体の使用状況の特定が可能である。
 従って、対象物体の姿勢から特定される対象物体の使用状況に基づいて形状可変部を適切な形状に変形させることが可能となり、対象物体の使い勝手の向上を図ることができる。
 さらに、実施形態の情報処理装置においては、形状可変部は、伸縮が可能に構成され、制御部は、対象物体の傾斜角度に係る認識情報に基づいて形状可変部の伸縮に係る変形制御を行っている。
 対象物体の傾斜角度に係る認識情報によっては、ユーザが対象物体をどのような傾斜角度で維持させたいかの特定が可能となる。
 従って、上記のように傾斜角度に係る認識情報に基づき形状可変部の伸縮に係る変形制御を行うことで、ユーザが維持させたい傾斜角度となるように形状可変部の長さ調整を行うことが可能となり、対象物体の使い勝手の向上を図ることができる。
 さらにまた、実施形態の情報処理装置においては、形状可変部は、伸縮が可能に構成され、制御部は、対象物体に取り付けられたカメラの撮像画像に基づき、カメラの撮像視野内にユーザの顔が収まるように形状可変部の伸縮に係る変形制御を行っている。
 これにより、形状可変部が対象物体を支持する支持部として機能して対象物体を自立させている場合に対応して、対象物体の傾斜角度を、カメラの撮像視野内にユーザの顔が収まるように調整することが可能とされる。
 従って、カメラが対象物体における視覚情報提示面と同面に設けられる場合に対応して、ユーザが視覚情報を見やすくなるように対象物体の傾斜角度調整を行うことができ、対象物体の使い勝手の向上を図ることができる。
 また、実施形態の情報処理装置においては、制御部は、撮像画像から検出されるユーザの顔の傾斜角度と、認識情報として取得される対象物体の傾斜角度の情報とに基づき、顔の傾斜角度と対象物体の傾斜角度とが一致するように形状可変部の伸張に係る変形制御を行っている。
 これにより、カメラが対象物体における視覚情報提示面と同面に設けられる場合に対応して、ユーザが視覚情報をより見やすくなるように対象物体の傾斜角度調整を行うことができ、対象物体の使い勝手のさらなる向上を図ることができる。
 また、実施形態の情報処理方法は、情報処理装置が、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した認識情報に基づいて、形状可変部の変形制御を行う情報処理方法である。
 このような情報処理方法により、上記した実施形態としての情報処理装置を実現することができる。
 ここで、実施形態としては、図11、図13、図14、図16、図19等で説明した情報処理装置1による処理を、例えばCPU、DSP(Digital Signal Processor)等、或いはこれらを含むデバイスに実行させるプログラムを考えることができる。
 すなわち、実施形態のプログラムは、コンピュータ装置が読み取り可能なプログラムであって、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した認識情報に基づいて、形状可変部の変形制御を行う機能を、コンピュータ装置に実現させるプログラムである。
 また、実施形態の記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した認識情報に基づいて、形状可変部の変形制御を行う機能を、コンピュータ装置に実現させるプログラムが記録された記録媒体である。
 このようなプログラムや記録媒体により、上述した情報処理装置1としての機能を実現できる。
 上記したプログラムは、コンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。或いはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 また上記のようなプログラムによれば、実施形態の情報処理装置1の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該パーソナルコンピュータ等を、本開示の情報処理装置1としての処理を実現する装置として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<6.本技術>
 なお本技術は以下のような構成も採ることができる。
(1)
 伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う制御部を備えた
 情報処理装置。
(2)
 前記制御部は、前記対象物体に取り付けられたセンサの検出信号に基づいて前記認識情報を取得する
 前記(1)に記載の情報処理装置。
(3)
 前記認識情報は、前記対象物体の動き情報を含む
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記形状可変部は、伸縮及び湾曲が可能に構成され、
 前記制御部は、前記動き情報に基づき、前記形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行する
 前記(3)に記載の情報処理装置。
(5)
 前記形状可変部は湾曲が可能に構成され、
 前記制御部は、前記形状可変部が湾曲された状態において、前記動き情報に基づき前記対象物体の落下予兆が認められた場合に前記形状可変部の湾曲力を高める制御を行う
 前記(3)又は(4)に記載の情報処理装置。
(6)
 前記認識情報は、ユーザによる前記対象物体の把持に係る情報を含む
 前記(1)から(5)の何れかに記載の情報処理装置。
(7)
 前記対象物体は複数の面を有し、
 前記認識情報は、前記対象物体の面ごとの把持圧力の情報を含む
 前記(6)に記載の情報処理装置。
(8)
 前記形状可変部は、伸縮及び湾曲が可能に構成され、
 前記制御部は、前記対象物体の面ごとの把持圧力の情報に基づき、前記形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行する
 前記(7)に記載の情報処理装置。
(9)
 前記認識情報は、ユーザの手のジェスチャに係る認識情報を含む
 前記(1)から(8)の何れかに記載の情報処理装置。
(10)
 前記形状可変部は、伸縮が可能に構成され、
 前記制御部は、前記ジェスチャに係る認識情報に基づき、前記形状可変部の伸縮に係る変形制御を行う
 前記(9)に記載の情報処理装置。
(11)
 前記認識情報は、前記対象物体の姿勢に係る認識情報を含む
 前記(1)から(10)の何れかに記載の情報処理装置。
(12)
 前記形状可変部は、伸縮が可能に構成され、
 前記制御部は、前記対象物体の傾斜角度に係る認識情報に基づいて前記形状可変部の伸縮に係る変形制御を行う
 前記(11)に記載の情報処理装置。
(13)
 前記形状可変部は、伸縮が可能に構成され、
 前記制御部は、前記対象物体に取り付けられたカメラの撮像画像に基づき、前記カメラの撮像視野内にユーザの顔が収まるように前記形状可変部の伸縮に係る変形制御を行う
 前記(1)から(12)の何れかに記載の情報処理装置。
(14)
 前記制御部は、前記撮像画像から検出されるユーザの顔の傾斜角度と、前記認識情報として取得される前記対象物体の傾斜角度の情報とに基づき、前記顔の傾斜角度と前記対象物体の傾斜角度とが一致するように前記形状可変部の伸張に係る変形制御を行う
 前記(13)に記載の情報処理装置。
(15)
 情報処理装置が、
 伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う
 情報処理方法。
(16)
 コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
 伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う機能を、前記コンピュータ装置に実現させるプログラムが記録された
 記録媒体。
1 情報処理装置
2 カバー装置
3 ケース部
4 形状可変部
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ部
15 入出力インタフェース
16 入力部
17 表示部
17a 表示画面
18 音声出力部
19 記憶部
20 通信部
21 撮像部
22 センサ部
23 バス
30 アクチュエータ
31 制御部
32 通信部
33 センサ部
St 被載置面
Os 支持体
Ss 支持面
C 重心位置
Lv 垂線

Claims (16)

  1.  伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う制御部を備えた
     情報処理装置。
  2.  前記制御部は、前記対象物体に取り付けられたセンサの検出信号に基づいて前記認識情報を取得する
     請求項1に記載の情報処理装置。
  3.  前記認識情報は、前記対象物体の動き情報を含む
     請求項1に記載の情報処理装置。
  4.  前記形状可変部は、伸縮及び湾曲が可能に構成され、
     前記制御部は、前記動き情報に基づき、前記形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行する
     請求項3に記載の情報処理装置。
  5.  前記形状可変部は湾曲が可能に構成され、
     前記制御部は、前記形状可変部が湾曲された状態において、前記動き情報に基づき前記対象物体の落下予兆が認められた場合に前記形状可変部の湾曲力を高める制御を行う
     請求項3に記載の情報処理装置。
  6.  前記認識情報は、ユーザによる前記対象物体の把持に係る情報を含む
     請求項1に記載の情報処理装置。
  7.  前記対象物体は複数の面を有し、
     前記認識情報は、前記対象物体の面ごとの把持圧力の情報を含む
     請求項6に記載の情報処理装置。
  8.  前記形状可変部は、伸縮及び湾曲が可能に構成され、
     前記制御部は、前記対象物体の面ごとの把持圧力の情報に基づき、前記形状可変部の伸縮に係る変形制御と湾曲に係る変形制御とを切り替えて実行する
     請求項7に記載の情報処理装置。
  9.  前記認識情報は、ユーザの手のジェスチャに係る認識情報を含む
     請求項1に記載の情報処理装置。
  10.  前記形状可変部は、伸縮が可能に構成され、
     前記制御部は、前記ジェスチャに係る認識情報に基づき、前記形状可変部の伸縮に係る変形制御を行う
     請求項9に記載の情報処理装置。
  11.  前記認識情報は、前記対象物体の姿勢に係る認識情報を含む
     請求項1に記載の情報処理装置。
  12.  前記形状可変部は、伸縮が可能に構成され、
     前記制御部は、前記対象物体の傾斜角度に係る認識情報に基づいて前記形状可変部の伸縮に係る変形制御を行う
     請求項11に記載の情報処理装置。
  13.  前記形状可変部は、伸縮が可能に構成され、
     前記制御部は、前記対象物体に取り付けられたカメラの撮像画像に基づき、前記カメラの撮像視野内にユーザの顔が収まるように前記形状可変部の伸縮に係る変形制御を行う
     請求項1に記載の情報処理装置。
  14.  前記制御部は、前記撮像画像から検出されるユーザの顔の傾斜角度と、前記認識情報として取得される前記対象物体の傾斜角度の情報とに基づき、前記顔の傾斜角度と前記対象物体の傾斜角度とが一致するように前記形状可変部の伸張に係る変形制御を行う
     請求項13に記載の情報処理装置。
  15.  情報処理装置が、
     伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う
     情報処理方法。
  16.  コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
     伸縮又は湾曲の少なくとも何れかが可能な形状可変部が取り付けられた対象物体についての使用に係る認識情報を取得し、取得した前記認識情報に基づいて、前記形状可変部の変形制御を行う機能を、前記コンピュータ装置に実現させるプログラムが記録された
     記録媒体。
PCT/JP2022/012407 2021-07-13 2022-03-17 情報処理装置、情報処理方法、記録媒体 WO2023286366A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280047696.6A CN117616360A (zh) 2021-07-13 2022-03-17 信息处理装置、信息处理方法和记录介质
EP22841716.8A EP4372678A1 (en) 2021-07-13 2022-03-17 Information processing device, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021115787 2021-07-13
JP2021-115787 2021-07-13

Publications (1)

Publication Number Publication Date
WO2023286366A1 true WO2023286366A1 (ja) 2023-01-19

Family

ID=84919959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012407 WO2023286366A1 (ja) 2021-07-13 2022-03-17 情報処理装置、情報処理方法、記録媒体

Country Status (3)

Country Link
EP (1) EP4372678A1 (ja)
CN (1) CN117616360A (ja)
WO (1) WO2023286366A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573170A (ja) * 1991-09-13 1993-03-26 Toshiba Corp 画像入力装置
JP2003018272A (ja) * 2000-09-19 2003-01-17 Masanobu Kujirada 撮像部付き携帯型無線端末
JP2010109409A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 携帯端末
JP2012256019A (ja) * 2011-06-08 2012-12-27 Pantech Co Ltd アクティブフレキシブルディスプレイ、アクティブフレキシブルディスプレイの制御装置及び方法
JP2013061682A (ja) * 2012-12-21 2013-04-04 Casio Comput Co Ltd カメラ、カメラのレンズ鏡筒制御方法及びカメラのレンズ鏡筒制御プログラム
JP2015061309A (ja) * 2013-09-20 2015-03-30 カシオ計算機株式会社 投影装置、投影方法及び投影プログラム
JP2019120983A (ja) * 2017-12-28 2019-07-22 トッパン・フォームズ株式会社 撮像制御装置および撮像制御方法
JP2020174357A (ja) 2020-06-15 2020-10-22 株式会社グルマンディーズ 携帯電子端末保持具

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573170A (ja) * 1991-09-13 1993-03-26 Toshiba Corp 画像入力装置
JP2003018272A (ja) * 2000-09-19 2003-01-17 Masanobu Kujirada 撮像部付き携帯型無線端末
JP2010109409A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 携帯端末
JP2012256019A (ja) * 2011-06-08 2012-12-27 Pantech Co Ltd アクティブフレキシブルディスプレイ、アクティブフレキシブルディスプレイの制御装置及び方法
JP2013061682A (ja) * 2012-12-21 2013-04-04 Casio Comput Co Ltd カメラ、カメラのレンズ鏡筒制御方法及びカメラのレンズ鏡筒制御プログラム
JP2015061309A (ja) * 2013-09-20 2015-03-30 カシオ計算機株式会社 投影装置、投影方法及び投影プログラム
JP2019120983A (ja) * 2017-12-28 2019-07-22 トッパン・フォームズ株式会社 撮像制御装置および撮像制御方法
JP2020174357A (ja) 2020-06-15 2020-10-22 株式会社グルマンディーズ 携帯電子端末保持具

Also Published As

Publication number Publication date
EP4372678A1 (en) 2024-05-22
CN117616360A (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
KR102269526B1 (ko) 정보 처리 장치 및 제어 방법
US8908083B2 (en) Dynamic autofocus operations
WO2016035421A1 (ja) パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法
US9720302B2 (en) Continuous autofocus mechanisms for image capturing devices
US9998665B2 (en) Camera mode selection based on context
US10375312B2 (en) Imaging device and video generation method by imaging device
JP5994328B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US9485413B2 (en) Imaging device, display device, control method, and method for controlling area change
US20200393898A1 (en) Electronic apparatus, method for controlling the electronic apparatus, and storage medium
JP2020518897A (ja) タッチ感知及びタッチ圧力感知が可能な装置及び制御方法
EP3855713A1 (en) Mobile terminal
JP2022554129A (ja) 撮影方法及び電子機器
WO2023286366A1 (ja) 情報処理装置、情報処理方法、記録媒体
JP6587918B2 (ja) 電子機器、電子機器の制御方法、電子機器の制御装置、制御プログラム及び電子機器システム
JPWO2018168357A1 (ja) 撮像装置、撮像方法、及び撮像プログラム
US9679391B2 (en) Image pickup system and image pickup method
JP2022162409A (ja) 電子機器及びその制御方法
US20150036026A1 (en) Parameter adjustment device, parameter adjustment method, and recording medium
JP2007159038A (ja) 撮像装置及びその制御方法
WO2019183807A1 (zh) 增稳程度调节方法、设备及存储介质
JP2015139124A (ja) 画像生成装置、画像生成システム、画像生成方法、及びプログラム
JP2000231142A (ja) カメラ
KR101530517B1 (ko) 촬영 기능을 수행하는 사용자 단말기 및 사용자 단말기의 촬영 아이콘 위치 조정 방법
JP6233471B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP5740975B2 (ja) 撮像装置、撮像制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22841716

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280047696.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022841716

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022841716

Country of ref document: EP

Effective date: 20240213