WO2019087495A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- WO2019087495A1 WO2019087495A1 PCT/JP2018/028920 JP2018028920W WO2019087495A1 WO 2019087495 A1 WO2019087495 A1 WO 2019087495A1 JP 2018028920 W JP2018028920 W JP 2018028920W WO 2019087495 A1 WO2019087495 A1 WO 2019087495A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- response
- information processing
- operation control
- control unit
- recognition
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 136
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000008569 process Effects 0.000 claims abstract description 62
- 230000033001 locomotion Effects 0.000 claims abstract description 43
- 230000009471 action Effects 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 29
- 230000004424 eye movement Effects 0.000 claims description 24
- 230000008451 emotion Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 17
- 210000003128 head Anatomy 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 5
- 230000010391 action planning Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/542—Event management; Broadcasting; Multicasting; Notifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Definitions
- the present disclosure relates to an information processing device, an information processing method, and a program.
- Patent Document 1 discloses a legged mobile robot that performs an autonomous operation and an emotional expression according to the situation.
- the present disclosure proposes a novel and improved information processing apparatus, information processing method, and program capable of realizing feedback related to the execution of recognition processing with a more natural operation.
- the operation control unit performs operation control of an operating body that performs an action based on recognition processing, and the operation control unit executes a response operation to the operating body based on input of recognition target information.
- An information processing apparatus is provided, wherein the response operation is implicit feedback relating to the execution of the recognition process.
- the processor includes performing operation control of an operating body that performs an action based on recognition processing, and performing the operation control is performed based on an input of recognition target information.
- the information processing method is provided, further comprising: performing a response operation, wherein the response operation is implicit feedback regarding the execution of the recognition process.
- the computer includes: an operation control unit that performs operation control of an operating body that performs an action based on recognition processing, and the operation control unit controls the operation body based on an input of recognition target information.
- a program for causing a computer to function as an information processing apparatus is provided, which causes the computer to execute a response operation, and the response operation is implicit feedback related to the execution of the recognition process.
- the autonomous mobile body 10 is an information processing device that performs situation estimation based on collected sensor information, and autonomously selects and executes various operations according to the situation.
- the autonomous mobile unit 10 is characterized in that it autonomously executes an operation presumed to be optimum for each situation, unlike a robot which simply performs an operation according to a user's instruction command.
- the autonomous mobile body 10 may not execute the operation corresponding to the user's instruction or may execute another behavior different from the operation depending on the situation.
- the autonomous mobile body 10 may not execute the operation corresponding to the user's instruction or may execute another behavior different from the operation depending on the situation.
- the safety of the user or the autonomous mobile body 10 or the surrounding environment is impaired, or the autonomous mobile body 10 performs charging processing etc. It corresponds to the case where priority is given to other desires (instinct).
- the autonomous mobile body 10 may try to trigger the user's interest or try to convey the user's emotions or the state of hardware to the user by not intentionally following the user's instruction.
- the autonomous mobile body 10 has a strong desire (instinct) to be loved by the user. Therefore, the autonomous mobile body 10 repeatedly executes an operation corresponding to the user's instruction to please the user, or learns an operation the user likes, and spontaneously executes the operation even when no instruction is given.
- the autonomous mobile body 10 determines and executes an autonomous operation by comprehensively judging desires, emotions, surrounding environments, and the like, similarly to animals including humans.
- the autonomous mobile body 10 is clearly different from the passive device that executes the corresponding operation or process based on the instruction.
- the autonomous mobile body 10 may be an autonomous mobile robot that autonomously moves in space and performs various operations.
- the autonomous mobile body 10 may be, for example, an autonomous mobile robot having a shape imitating an animal such as a human or a dog, or an operation capability.
- the autonomous mobile body 10 may be, for example, a vehicle or other device having a communication capability with the user.
- the shape, ability, and level of desire of the autonomous mobile body 10 according to an embodiment of the present disclosure may be appropriately designed according to the purpose or role.
- FIG. 1 is a diagram illustrating an example of a hardware configuration of an autonomous mobile body 10 according to an embodiment of the present disclosure.
- the autonomous mobile body 10 is a dog-type four-legged robot having a head, a torso, four legs, and a tail.
- the autonomous mobile body 10 also has two displays 510 on the head.
- the autonomous mobile body 10 is provided with various sensors.
- the autonomous mobile body 10 includes, for example, a microphone 515, a camera 520, a ToF (Time of Flight) sensor 525, a human sensor 530, a distance measuring sensor 535, a touch sensor 540, an illuminance sensor 545, a sole button 550, and an inertia sensor 555.
- a microphone 515 a camera 520, a ToF (Time of Flight) sensor 525, a human sensor 530, a distance measuring sensor 535, a touch sensor 540, an illuminance sensor 545, a sole button 550, and an inertia sensor 555.
- the microphone 515 has a function of collecting ambient sound.
- the above-mentioned sounds include, for example, the user's speech and surrounding environmental sounds.
- the autonomous mobile body 10 may include, for example, four microphones in the head. By providing a plurality of microphones 515, it is possible to collect sounds generated in the surroundings with high sensitivity and to realize localization of a sound source.
- the camera 520 has a function of imaging the user and the surrounding environment.
- the autonomous mobile body 10 may include, for example, two wide-angle cameras at the nose tip and the waist.
- the wide-angle camera disposed at the nose tip captures an image corresponding to the forward visual field (that is, the visual field of a dog) of the autonomous mobile body
- the wide-angle camera at the waist captures an image of a surrounding area centered on the upper side Do.
- the autonomous mobile body 10 can extract a feature point of a ceiling or the like based on, for example, an image captured by a wide-angle camera disposed in the waist, and can realize SLAM (Simultaneous Localization and Mapping).
- SLAM Simultaneous Localization and Mapping
- the ToF sensor 525 has a function of detecting the distance to an object present in front of the head.
- the ToF sensor 525 is provided at the nose of the head. According to the ToF sensor 525, the distances to various objects can be detected with high accuracy, and it is possible to realize an operation according to the relative position with an object including the user, an obstacle, or the like.
- the human sensor 530 has a function of detecting the location of the user or a pet or the like reared by the user.
- the human sensor 530 is disposed, for example, on the chest. According to the human sensor 530, it is possible to realize various actions on the moving object, for example, actions corresponding to emotions such as interest, fear and surprise, by detecting the moving object present in front. .
- the distance measurement sensor 535 has a function of acquiring the condition of the front floor of the autonomous mobile body 10.
- the ranging sensor 535 is disposed, for example, on the chest. According to the distance measurement sensor 535, the distance to the object present on the front floor of the autonomous mobile body 10 can be detected with high accuracy, and an operation according to the relative position to the object can be realized.
- the touch sensor 540 has a function of detecting a touch by the user.
- the touch sensor 540 is disposed, for example, at a site where the user is likely to touch the autonomous mobile body 10, such as the top of the head, the lower chin, and the back.
- the touch sensor 540 may be, for example, a capacitive or pressure sensitive touch sensor.
- the touch sensor 540 can detect a touch act such as a user's touch, stroke, strike, or push, and can perform an operation according to the touch act.
- the illuminance sensor 545 detects the illuminance of the space where the autonomous mobile body 10 is located.
- the illumination sensor 545 may be disposed, for example, at the base of the tail or the like on the back of the head. According to the illuminance sensor 545, it is possible to detect ambient brightness and execute an operation according to the brightness.
- the foot sole button 550 has a function of detecting whether or not the bottom surface of the leg of the autonomous mobile body 10 is in contact with the floor.
- the foot sole buttons 550 are respectively arranged at the portions corresponding to the flesh balls of the four legs. According to the foot sole button 550, contact or non-contact between the autonomous mobile body 10 and the floor surface can be detected. For example, it becomes possible to grasp that the autonomous mobile body 10 is held up by the user, etc. .
- the inertial sensor 555 is a six-axis sensor that detects physical quantities such as the speed, acceleration, and rotation of the head and torso. That is, the inertial sensor 555 detects the acceleration and angular velocity of the X axis, the Y axis, and the Z axis. Inertial sensors 555 are disposed on the head and the torso, respectively. According to the inertial sensor 555, it is possible to detect the movement of the head and body of the autonomous mobile body 10 with high accuracy, and to realize the operation control according to the situation.
- the autonomous mobile body 10 may further include various communication devices including a temperature sensor, a geomagnetic sensor, a GNSS (Global Navigation Satellite System) signal receiver, and the like, in addition to the above configuration.
- the configuration of the sensor provided in the autonomous mobile body 10 can be flexibly deformed in accordance with the specification and operation.
- Drawing 2 shows an example of composition of actuator 570 with which autonomous mobile object 10 concerning one embodiment of this indication is provided.
- the autonomous mobile body 10 according to an embodiment of the present disclosure has a total of 22 rotational degrees of freedom, two in the ear and the tail, and one in the mouth, in addition to the rotational points shown in FIG.
- the autonomous mobile body 10 can achieve both the motion of tilting and tilting the neck.
- the autonomous mobile body 10 can realize a natural and flexible motion closer to a real dog by reproducing the swing motion of the waist by the actuator 570 provided on the waist.
- the autonomous mobile body 10 which concerns on one Embodiment of this indication may implement
- a single-axis actuator may be employed at the elbow or knee portion of the leg, and a two-axis actuator may be employed at the base of the shoulder or thigh.
- FIG. 3 and FIG. 4 are diagrams for explaining the operation of the actuator 570 included in the autonomous mobile body 10 according to an embodiment of the present disclosure.
- the actuator 570 can drive the movable arm 590 at an arbitrary rotational position and rotational speed by rotating the output gear with the motor 575.
- an actuator 570 includes a rear cover 571, a gear BOX cover 572, a control substrate 573, a gear BOX base 574, a motor 575, a first gear 576, a second gear 577, and an output gear. 578, a detection magnet 579, and two bearings 580 are provided.
- the actuator 570 may be, for example, a magnetic svGMR (spin-valve Giant Magnetoresistive). Power is transmitted to output gear 578 through first gear 576 and second gear 577 by control substrate 573 rotating motor 575 based on control by the main processor to drive movable arm 590. It is possible.
- a magnetic svGMR spin-valve Giant Magnetoresistive
- the position sensor provided on the control substrate 573 detects the rotation angle of the detection magnet 579 rotating in synchronization with the output gear 578, thereby detecting the rotation angle of the movable arm 590, that is, the rotation position with high accuracy.
- the magnetic svGMR is a non-contact type and is excellent in durability, and by using it in the GMR saturation region, it has the advantage of being less affected by signal fluctuation due to distance fluctuation of the detection magnet 579 or position sensor.
- the configuration example of the actuator 570 included in the autonomous mobile object 10 according to the embodiment of the present disclosure has been described above. According to the above configuration, it is possible to control the bending and stretching operations of the joint provided in the autonomous mobile body 10 with high accuracy and to detect the rotational position of the joint accurately.
- FIG. 5 is a diagram for describing the function of the display 510 provided in the autonomous mobile body 10 according to an embodiment of the present disclosure.
- the display 510 has a function of visually expressing the eye movement and emotion of the autonomous mobile body 10. As shown in FIG. 5, the display 510 can express the movement of the eyeball, the pupil, and the eyelid in accordance with emotions and movements.
- the display 510 produces natural motion similar to an actual dog such as a real dog by not displaying characters and symbols, and an image unrelated to eye movement and the like.
- the autonomous mobile body 10 includes two displays 510 r and 510 l respectively corresponding to the right eye and the left eye.
- the displays 510 r and 510 l are realized by, for example, two independent OLEDs (Organic Light Emitting Diodes). According to the OLED, it is possible to reproduce the curved surface of the eyeball, and it is compared with the case where a pair of eyeballs is expressed by one plane display, or the two eyeballs are respectively expressed by two independent plane displays. Can provide a more natural exterior.
- the displays 510 r and 510 l it is possible to express the line of sight and emotion of the autonomous mobile body 10 as shown in FIG. 5 with high accuracy and flexibility. Also, the user can intuitively grasp the state of the autonomous mobile body 10 from the operation of the eyeball displayed on the display 510.
- FIG. 6 is a diagram showing an operation example of the autonomous mobile body 10 according to an embodiment of the present disclosure
- FIG. 6 will be described focusing on the operation of the joint portion and the eyeball of the autonomous mobile body 10. Therefore, the external structure of the autonomous mobile body 10 is simplified and shown.
- the hardware configuration and the exterior of the autonomous mobile body 10 according to an embodiment of the present disclosure are not limited to the examples shown by the drawings, and may be appropriately designed.
- the autonomous mobile body 10 (also referred to as an operating body) according to an embodiment of the present disclosure may be a dog-type information processing apparatus.
- the autonomous mobile body 10 according to an embodiment of the present disclosure is characterized in that it does not have a means for outputting visual information excluding emotion expression by eye movement or a means for transmitting speech by voice. According to this feature, it is possible to realize a more natural motion closer to an actual dog, and reduce the user's discomfort with respect to the function and the exterior of the autonomous mobile body 10.
- the autonomous mobile body 10 which does not have an explicit information transfer means for the user, it may be difficult for the user to clearly grasp the state of the apparatus.
- the autonomous mobile body 10 has a function of recognizing the user's speech and performing an action based on the result of the recognition.
- the voice recognition function installed in a smartphone or the like
- voice recognition by the autonomous mobile body 10 the user does not explicitly instruct start of recognition by a button or the like. For this reason, it is difficult for the user to determine whether recognition processing is being performed until an action based on the recognition result is displayed.
- the autonomous mobile body 10 performs, depending on the situation, the case where the operation corresponding to the user's instruction is not executed intentionally or the other behavior different from the operation. There is also a case. For this reason, when the recognition processing is normally performed and the autonomous mobile body 10 performs an action that does not conform to the user's intention, the user misunderstands that the recognition processing has failed or the recognition processing itself has not been performed. The possibility of doing so is also assumed.
- the autonomous mobile body 10 that implements the information processing method according to the present embodiment executes a response operation that is implicit feedback related to the execution of recognition processing based on the input of recognition target information. It is one of the features.
- FIG. 7 is a functional block diagram showing an example of a functional configuration of the autonomous mobile body 10 according to the present embodiment.
- the autonomous mobile body 10 according to the present embodiment includes an input unit 110, a recognition unit 120, a learning unit 130, an action planning unit 140, an operation control unit 150, a drive unit 160, and an output unit 170.
- the input unit 110 has a function of collecting various information related to the user and the surrounding environment.
- the input unit 110 collects, for example, user's speech and environmental sound generated in the surroundings, image information related to the user and the surrounding environment, and various sensor information.
- the input unit 110 includes various sensors shown in FIG.
- the recognition unit 120 has a function of performing various recognition related to the user, the surrounding environment, and the state of the autonomous mobile object 10 based on various information collected by the input unit 110.
- the recognition unit 120 may perform human identification, facial expression or visual line recognition, object recognition, color recognition, shape recognition, marker recognition, obstacle recognition, step recognition, brightness recognition, and the like.
- the recognition unit 120 also performs speech recognition based on the user's speech, word understanding, emotion recognition, sound source localization, and the like. In addition, the recognition unit 120 can recognize contact by a user or the like, ambient temperature, the presence of an animal body, the posture of the autonomous mobile body 10 and the like.
- the recognition unit 120 has a function of estimating and understanding the surrounding environment or situation in which the autonomous mobile body 10 is placed, based on the above-mentioned recognized information. At this time, the recognition unit 120 may comprehensively estimate the situation using environmental knowledge stored in advance.
- the learning unit 130 has a function of learning an environment (a situation), an action, and an action of the action on the environment.
- the learning unit 130 implements the above learning using, for example, a machine learning algorithm such as deep learning.
- the learning algorithm adopted by the learning unit 130 is not limited to the above example, and can be designed as appropriate.
- the action planning unit 140 has a function of planning an action performed by the autonomous mobile body 10 based on the situation estimated by the recognition unit 120 and the knowledge learned by the learning unit 130.
- the action plan unit 140 according to the present embodiment executes, for example, an action according to the user's intention to speak or an action not to properly follow the user's intention based on the user's utterance recognized by the recognition unit 120. decide.
- the operation control unit 150 has a function of controlling the operation of the drive unit 160 and the output unit 170 based on the recognition process by the recognition unit 120 and the action plan by the action plan unit 140.
- the operation control unit 150 performs, for example, rotation control of the actuator 570, display control of the display 510, audio output control by a speaker, and the like based on the above-described action plan.
- the operation control unit 150 is characterized in that control of execution of a response operation which is implicit feedback relating to execution of recognition processing is controlled based on input of recognition target information.
- the functional details of the operation control unit 150 according to the present embodiment will be separately described in detail.
- the drive unit 160 has a function of bending and stretching a plurality of joints of the autonomous mobile body 10 based on control by the operation control unit 150. More specifically, the drive unit 160 drives the actuator 570 included in each joint based on the control by the operation control unit 150.
- the output unit 170 has a function of outputting visual information and sound information based on control by the operation control unit 150. To this end, the output unit 170 includes a display 510 and a speaker. As described above, the output unit 170 according to the present embodiment does not output explicit language transfer information, which is one of the features.
- the functional configuration of the autonomous mobile body 10 according to the present embodiment has been described above.
- the structure shown in FIG. 7 is an example to the last, and the function structure of the autonomous mobile body 10 which concerns on this embodiment is not limited to the example which concerns.
- the autonomous mobile body 10 according to the present embodiment may include, for example, a communication unit that communicates with an information processing server or another autonomous mobile body.
- the recognition unit 120, the learning unit 130, the action planning unit 140, the operation control unit 150, and the like according to the present embodiment may be realized as a function of the above-described information processing server (operation control apparatus).
- the operation control unit 150 controls the drive unit 160 and the output unit 170 of the autonomous mobile body 10 based on the action plan determined based on the sensor information collected by the input unit 110 of the autonomous mobile body 10. It is possible.
- the functional configuration of the autonomous mobile body 10 according to the present embodiment can be flexibly deformed according to the specification and the operation.
- the operation control unit 150 controls the execution of the response operation, which is implicit feedback related to the execution of the recognition process, based on the input of the recognition target information. To be According to the feature, it is possible for the user to intuitively grasp the progress of the recognition process by the autonomous mobile body 10.
- the function of the operation control part 150 is demonstrated to an example the case where the autonomous mobile body 10 which concerns on this embodiment performs speech recognition.
- the recognition process according to the present embodiment is not limited to such an example, and the technical idea according to the present embodiment is applicable to various recognition processes and estimation processes.
- the operation control unit 150 according to the present embodiment can control, for example, implicit feedback related to object recognition, speaker recognition or voiceprint recognition, marker recognition, emotion estimation and the like.
- the autonomous mobile body 10 may perform an action that does not conform to the user's intention. In such a case, it is difficult for the user to determine whether voice recognition has been performed, and there is a possibility that the action may be mistaken as a failure of the autonomously moving body.
- FIG. 8 is a diagram showing an example of operation control by the comparison method.
- FIG. 8 shows time-series state changes when the operation body 90 according to the comparison method executes the speech recognition process according to the user's speech.
- speech recognition processing is realized by signal processing, speech detection, pattern recognition, and speech comprehension, and speech comprehension will be described using dictionary matching of acquired patterns as an example.
- the above is merely an example, and the information processing method according to the present embodiment can be applied to various speech recognition methods.
- FIG. 8 The left side of FIG. 8 shows the state of the operating body 90 when detecting the start of the user's speech, and the center of FIG. 8 shows the state of the operating body 90 when the end of the user's speech is detected and matching is started. However, on the right side of FIG. 8, the state of the operation body 90 when the matching is completed is shown.
- the operation body 90 when the matching is completed, the operation body 90 is caused to execute an operation to move the ear to feedback that the voice recognition process is completed to the user. According to the control, the user can grasp that the speech recognition process has been executed even if the operation body 90 subsequently performs an action that does not conform to his intention.
- the operation control unit 150 causes the autonomous mobile body 10 to execute the first response based on the detection of the input start of the recognition target information, and the input end of the recognition target information is detected.
- the above point is solved by causing the autonomous mobile body 10 to execute the second response on the basis of.
- the above-mentioned recognition target information indicates the user's speech.
- FIG. 9 is a diagram showing an outline of operation control according to the present embodiment. Similar to FIG. 8, FIG. 9 shows the state of the autonomous mobile body 10 in time series at the time of speech start detection, speech completion detection, and matching completion.
- the operation control unit 150 may cause the output unit 170 to execute a first response using eye movement.
- the above-described eye movement is realized by the display 510.
- the user can grasp that the autonomous mobile body 10 has reacted to the user's speech with less delay.
- silent feedback can be provided to the user, and the accuracy of the voice recognition can be effectively prevented from being degraded by the driving sound of the actuator 570 or the sound output from the speaker. It becomes possible.
- the implicit feedback by the output of the visual information related to the eye movement has a high effect on the voice recognition device including the drive unit.
- the operation control unit 150 may cause the drive unit 160 to perform an operation of raising the ear when the end of the speech is detected by the recognition unit 120 and the matching is started. According to the second response, it is possible to produce an action in which the autonomous mobile body 10 responds to the user's speech and listens, and the user intuitively grasps that the speech recognition process is being performed. Is possible.
- the operation control unit 150 causes the autonomous mobile body 10 to execute the third response which is feedback indicating the completion of the recognition process, based on the completion of the matching, that is, the recognition process.
- the operation control unit 150 may cause the drive unit 160 to execute an operation to lower the ear and an operation to open the mouth, and may cause the output unit 170 to output a sound corresponding to a cry.
- the operation control unit 150 may cause the autonomous mobile body 10 to execute an operation corresponding to the action planned by the action plan unit 140 based on the voice recognition result after the execution of the third response.
- the above-mentioned action may be an action that does not conform to the user's speech intention.
- FIG. 10 is a diagram for explaining the difference between the information processing method according to the present embodiment and the comparison method in the speech recognition process and the response operation.
- FIG. 10 shows the correspondence between voice recognition processing and response operation in each of the information processing method and the comparison method according to the present embodiment in time series. Note that Method 1 in the figure corresponds to the comparison method, and Method 2 corresponds to the information processing method according to the present embodiment.
- the comparison method requires about 800 ms to perform the response operation for the user. For this reason, although the user can grasp that the process has been executed by the response operation indicating the completion of the speech recognition process, the user may feel discomfort that the action body is unresponsive for about 800 ms. .
- the first response is issued shortly after the user's "Good morning” utterance is started, and the second response is executed without delay at the start of matching in accordance with the end of the utterance. Ru.
- the information processing method according to the present embodiment it is possible to perform a plurality of feedback in stages immediately after the user's speech starts. According to this method, it is possible for the user to grasp that the autonomous mobile body 10 is trying to understand the user's speech even at the stage before the matching is completed.
- the first response according to the present embodiment may be eye movement.
- FIG. 11 is a diagram showing an example of the first response according to the present embodiment.
- FIG. 1 shows changes in the time series of the display 510 controlled by the operation control unit 150.
- the operation control unit 150 may cause the display 510 to display an image corresponding to a blink when the recognition unit 120 detects the start of the user's speech.
- operation control unit 150 may cause the display 510 to output an expression that matches the user's gaze, an expression such as wink, or the like in addition to blinking as illustrated.
- the operation control unit 150 causes the output unit 170 to display the eye movement as the first response, thereby preventing the speech recognition process from being interrupted and further delaying the user's speech. Less feedback can be realized.
- the movement control unit 150 causes the autonomous mobile body 10 to execute, as the first response, the body movement accompanied by the drive of the actuator 570 or the emotion expression operation using sound.
- the emotion expression operation using the above-mentioned sound widely includes non-verbal operations such as a cry, a sound and applause.
- the accuracy of voice recognition may be reduced due to the driving sound of the actuator 570 or the sound output from the speaker, but for example, when the positional relationship between the speaker and the microphone is constant, the reference signal It is possible to suppress the decrease in recognition accuracy by performing the used echo cancellation or the like. Further, as will be described later, there is also a situation where the convenience of the user is enhanced by not adopting the eye movement in the first response.
- the second response according to the present embodiment may be any one or a combination of eye movement, body movement, and emotion expression operation using sound.
- FIG. 12 is a diagram showing an example of the second response according to the present embodiment.
- the motion control unit 150 may control a physical motion such as lifting an ear.
- the operation control unit 150 may control the operation of the tail portion, the leg portion, etc. in addition to the ear.
- the operation control unit 150 may control the eye movement such as turning the line of sight obliquely upward.
- the operation control unit 150 can also control emotion expression operation such as lightening.
- a more natural operation according to the type of organism serving as a model of the autonomous mobile body 10 may be adopted.
- the third response according to the present embodiment may be any one or a combination of eye movement, body movement, and emotion expression operation using sound.
- the operation control unit 150 according to the present embodiment can dynamically determine the operation of the third response based on the reliability associated with the recognition process.
- FIG. 13 is a diagram showing an example of the third response according to the present embodiment.
- the operation control unit 150 autonomously moves the positive third response indicating that the user's speech has been understood, for example, as shown on the left side of FIG. It may be performed by the body 10.
- the above-mentioned positive behavior includes, for example, an expression operation of emotion corresponding to pleasure, excitement, interest or the like.
- the operation control unit 150 when the reliability degree related to the recognition process is low, the operation control unit 150 according to the present embodiment, for example, as shown in the right side of FIG. It may be performed by
- the third response for prompting the user to re-speech includes, for example, an expression operation of emotion equivalent to question, anxiety and the like.
- the operation control unit 150 may cause the drive unit 160 to perform an operation of raising the ear while tilting the neck.
- the user can intuitively understand that the result of the speech recognition process is not good and can speak again.
- the first response, the second response, and the third response according to the present embodiment have been described using specific examples.
- the first response, the second response, and the third response according to the present embodiment may be realized by any one or a combination of eye movement, body movement, and emotion expression operation using sound.
- the operation control unit 150 can also dynamically determine the operation type according to the first response, the second response, and the third response based on the situation estimated from the sensor information. is there.
- the situation estimated from the above sensor information includes various states / conditions related to the user, the autonomous mobile body 10, and the surrounding environment.
- FIG. 14 is a diagram for describing dynamic control of the operation type based on the situation according to the present embodiment.
- FIG. 14 shows a situation in which the user U1 is speaking from behind the autonomous mobile body 10. In this case, there is a high possibility that the display 510 of the autonomous mobile body 10 can not be viewed from the position of the user U1.
- the operation control unit 150 when a speech is detected from behind the autonomous mobile body 10, the operation control unit 150 according to the present embodiment performs, for example, a response operation that does not use an eye movement such as a body motion that shakes the tail. May be run on 10
- the motion control unit 150 may give priority to the eye movement or the body movement when the surrounding environmental sound is large, and when the surroundings are dark, the eye movement or the eye movement is difficult to confirm. Priority may be given to emotion expression using sounds.
- the operation control unit 150 may dynamically determine the operation type according to the first response, the second response, and the third response based on the user state. For example, when it is detected that the user wearing the vision correction tool normally does not wear the vision correction tool, the operation control unit 150 does not adopt the response operation by the eye movement and uses the sound. Emotional expression may be prioritized.
- the recognition unit 120 can perform the above estimation from, for example, a white stick held by the user.
- the recognition unit 120 may perform the above estimation from the reaction of the user to the behavior of the autonomous mobile body 10. The same is true for hearing aids and hearing impairments.
- the operation control unit 150 may perform operation control based on the user's utterance target.
- FIG. 15 is a diagram for describing operation control based on recognition of an utterance target according to the present embodiment.
- FIG. 15 shows a user U1 who is conducting a conversation by telephone and an autonomous mobile body 10 which is in the middle of performing an autonomous action.
- the operation control unit 150 selects any one of the first response, the second response, and the third response based on the determination that the utterance target of the user U1 is not the autonomous mobile body 10. Control may be performed so that all or all executions are not performed.
- the operation control unit 150 it is possible to perform the response operation only in accordance with the user's intention, and an effect of improving the user's evaluation on the autonomous mobile body 10 is expected. Ru. Further, according to the above-described function, it is possible to suppress power consumption due to unnecessary operation control.
- the recognition unit 120 may determine that the user's speech target is not the autonomous mobile body 10 because the user is holding the phone or that the line of sight of the user is not directed to the autonomous mobile body 10 it can.
- the operation control unit 150 may cause the autonomous mobile body 10 to execute the response operation until the accuracy of the determination becomes equal to or more than a predetermined value. For example, if it is determined that the utterance target is not the autonomous mobile object 10 after executing the second response, the operation control unit 150 returns to the control of the autonomous behavior without executing the third response. You may
- FIG. 16 is a diagram for describing transition control to the response operation according to the present embodiment.
- FIG. 16 shows an example of the case where the start of the user's speech is detected while the autonomous mobile body 10 is playing with the ball.
- the motion control unit 150 may gently stop the action of the autonomous mobile body 10, that is, the action of following the ball.
- the operation control unit 150 performs control so that the autonomous mobile body 10 does not generate a sound.
- the action is suddenly stopped without giving a sense of incongruity to the user, and the actuator 570 is not operated after the stop, thereby preventing the voice recognition accuracy from being degraded by the driving sound. be able to.
- the operation control unit 150 prompts re-uttering as shown on the right side of FIG.
- the third response may be executed by the autonomous mobile body 10, and after completion of the third response, the autonomous mobile body 10 may be controlled not to generate a sound.
- the operation control unit 150 it is possible to increase the accuracy of the second speech recognition process while causing the autonomous mobile body 10 to perform a more natural operation.
- the operation control according to the present embodiment has been described above by giving a specific example. According to the function of the operation control unit 150 described above, it is possible for the user to intuitively grasp the progress of the recognition process by the autonomous mobile body 10 while performing a more natural operation close to an actual living thing.
- the operation control according to the present embodiment is It may be appropriately modified in accordance with the recognition process and the characteristics of the autonomous mobile body 10.
- the recognition unit 120 recognizes the touch pattern of the user based on the sensor information collected by the touch sensor 540
- the operation control unit 150 performs a response operation using vibration by a piezoelectric element or the like as an autonomous mobile body. 10 may be executed.
- the autonomous mobile object 10 according to the present embodiment may be an operating object (also referred to as a virtual operating object) in a virtual space.
- FIG. 17 is a diagram for describing control of a virtual operation body according to the present embodiment.
- FIG. 17 shows the field of view FV of the user U2 wearing the information processing terminal 30, and the virtual operation body VO displayed in the field of view FV.
- the information processing terminal 30 may be, for example, a head mounted display or a glasses-type wearable device.
- the operation control unit 150 is realized as a function of the information processing terminal 30 or an information processing server that communicates with the information processing terminal 30.
- the information processing terminal 30 and the above-described information processing server correspond to an operation control device described later.
- the operation control unit 150 controls the display of the virtual operation body VO using a technology such as AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality), for example.
- AR Augmented Reality
- VR Virtual Reality
- MR Mated Reality
- the virtual acting body VO may be visual information corresponding to a living thing such as a dog that does not have a means of speech transmission. Even when the control target is a virtual object as described above, according to the above-mentioned control by the operation control unit 150, feedback relating to the progress of the recognition processing while realizing more natural behavior closer to an actual living thing Can be presented to the user.
- FIG. 18 is a flowchart showing a flow of operation control according to the present embodiment.
- the input unit 110 collects sensor information (S1101).
- the collection of sensor information in step S1101 is realized by the various sensors described in FIG.
- the recognition unit 120 estimates a situation based on the sensor information collected in step S1102 (S1102). Note that collection of sensor information in step S1101 and situation estimation in step S1102 may be performed continuously at all times.
- the recognition unit 120 detects the start of the user's speech (S1103), and the operation control unit 150 controls the execution of the first response (S1104).
- the operation control unit 150 controls the execution of the third response indicating the understanding of the utterance (S1109), and also executes the operation based on the matching result. Are controlled (S1110).
- the recognition unit 120 may determine whether the target of the speech is the autonomous mobile body 10 (S1111).
- the operation control unit 150 ends the control related to the response operation.
- the operation control unit 150 controls the execution of the third response for prompting the user to speak again (S1112).
- the autonomous mobile unit 10 is caused to stand by so as not to generate a sound for the re-speech (S1113).
- FIG. 19 is a block diagram showing an example of the hardware configuration of the operation control apparatus 20 according to an embodiment of the present disclosure.
- the operation control device 20 includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, and an output device 879.
- Storage 880, drive 881, connection port 882, and communication device 883 Note that the hardware configuration shown here is an example, and some of the components may be omitted. In addition, components other than the components shown here may be further included.
- the CPU 871 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation or a part of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901.
- the ROM 872 is a means for storing a program read by the CPU 871, data used for an operation, and the like.
- the RAM 873 temporarily or permanently stores, for example, a program read by the CPU 871 and various parameters appropriately changed when the program is executed.
- the CPU 871, the ROM 872, and the RAM 873 are mutually connected via, for example, a host bus 874 capable of high-speed data transmission.
- host bus 874 is connected to external bus 876, which has a relatively low data transmission speed, via bridge 875, for example.
- the external bus 876 is connected to various components via an interface 877.
- Input device 8708 For the input device 878, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, and the like are used. Furthermore, as the input device 878, a remote controller (hereinafter, remote control) capable of transmitting a control signal using infrared rays or other radio waves may be used.
- the input device 878 also includes a voice input device such as a microphone.
- the output device 879 is a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, a speaker, an audio output device such as a headphone, a printer, a mobile phone, or a facsimile. It is a device that can be notified visually or aurally. Also, the output device 879 according to the present disclosure includes various vibration devices capable of outputting haptic stimulation.
- the storage 880 is a device for storing various data.
- a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
- the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901, for example.
- a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
- the removable recording medium 901 is, for example, DVD media, Blu-ray (registered trademark) media, HD DVD media, various semiconductor storage media, and the like.
- the removable recording medium 901 may be, for example, an IC card equipped with a non-contact IC chip, an electronic device, or the like.
- connection port 882 is, for example, a port for connecting an externally connected device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
- an externally connected device 902 such as a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.
- the external connection device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.
- the communication device 883 is a communication device for connecting to a network.
- a communication card for wired or wireless LAN Bluetooth (registered trademark) or WUSB (Wireless USB), a router for optical communication, ADSL (Asymmetric Digital) (Subscriber Line) router, or modem for various communications.
- Bluetooth registered trademark
- WUSB Wireless USB
- ADSL Asymmetric Digital
- Subscriber Line Subscriber Line
- the autonomous mobile object 10 that realizes the information processing method according to an embodiment of the present disclosure responds to the action of implicit feedback related to the execution of the recognition process based on the input of the recognition target information.
- the recognition target information To be one of the features. According to such a configuration, it is possible to realize feedback related to the execution of the recognition process with a more natural operation.
- each step related to the processing of the autonomous mobile body 10 in the present specification does not necessarily have to be processed chronologically in the order described in the flowchart.
- the steps involved in the processing of the autonomous mobile body 10 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
- An operation control unit that performs operation control of an operating body that performs an action based on recognition processing; Equipped with The operation control unit causes the operation body to execute a response operation based on an input of recognition target information.
- the response operation is implicit feedback regarding execution of the recognition process.
- Information processing device (2)
- the operation control unit causes the operating body to execute the first response based on the detection of the start of input of the recognition target information, and the operation body performs the first response based on the detection of the input completion of the recognition target information. 2 execute the response,
- the first response and the second response are implicit feedback related to the execution of the recognition process,
- the information processing apparatus according to (1).
- the operation control unit causes the operating body to execute a third response, which is feedback related to the execution of the recognition process, based on the completion of the recognition process.
- the operation control unit causes the operation body to execute an action based on the recognition process after the execution of the third response.
- the operating body has a form and ability imitating an organism,
- the first response, the second response, and the third response include any of body movement, eye movement, or emotion expression operation using sound.
- the operation control unit dynamically determines an operation type according to the first response, the second response, and the third response based on a situation estimated from sensor information.
- the information processing apparatus according to any one of the above (3) to (5).
- the operation control unit dynamically determines an operation type according to the first response, the second response, and the third response based on a user state.
- the operation control unit dynamically determines the operation of the third response based on the reliability of the recognition process.
- the recognition process is a speech recognition process.
- the first response is eye movement.
- the operating body is a device having a drive unit, The information processing apparatus according to (9) or (10).
- the operation control unit executes at least one of the first response, the second response, and the third response to the moving body based on the determination that the user's speech target is not the moving body. Do not let The information processing apparatus according to any one of the above (9) to (11). (13) The operation control unit gradually stops the action when the user's speech start is detected during the action of the moving body. The information processing apparatus according to any one of the above (9) to (12). (14) The operation control unit controls the operation body not to generate a sound after the action is stopped. The information processing apparatus according to (13). (15) The operation control unit causes the operating body to execute the third response for prompting the user to re-utter when the reliability associated with the voice recognition process is low.
- the information processing apparatus controls the operation body not to generate a sound after completion of the third response prompting the re-speech.
- the information processing apparatus according to (15).
- the operating body is an autonomous mobile body that does not have a language communication means.
- the information processing apparatus according to any one of the above (1) to (6).
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】認識処理の実行に係るフィードバックをより自然な動作で実現する。 【解決手段】認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、を備え、前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、情報処理装置が提供される。また、プロセッサが、認識処理に基づいて行動を行う動作体の動作制御を行うこと、を含み、前記動作制御を行うことは、認識対象情報の入力に基づいて前記動作体に応答動作を実行させること、をさらに含み、前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、情報処理方法が提供される。
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、認識処理に基づく動作を行う種々の装置が開発されている。上記の装置には、認識した状況に基づいて自律行動を行うロボットなどの動作体が含まれる。例えば、特許文献1には、状況に応じた自律動作や感情表出を行う脚式移動ロボットが開示されている。
ところで、認識処理に基づく動作を実行する装置では、ユーザに対し、当該認識処理が実行されていることを示すことが重要となる。しかし、特許文献1に記載される脚式移動ロボットのようにランプを用いたフィードバックを行う場合、動作体の趣旨に反する不自然な表現となる場合も想定される。
そこで、本開示では、認識処理の実行に係るフィードバックをより自然な動作で実現することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、を備え、前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、情報処理装置が提供される。
また、本開示によれば、プロセッサが、認識処理に基づいて行動を行う動作体の動作制御を行うこと、を含み、前記動作制御を行うことは、認識対象情報の入力に基づいて前記動作体に応答動作を実行させること、をさらに含み、前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、情報処理方法が提供される。
また、本開示によれば、コンピュータを、認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、を備え、前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、情報処理装置、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、認識処理の実行に係るフィードバックをより自然な動作で実現することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.自律移動体10の概要
2.自律移動体10のハードウェア構成例
3.第1の実施形態
3.1.概要
3.2.機能構成例
3.3.動作制御の具体例
3.4.制御の流れ
4.動作制御装置のハードウェア構成例
5.まとめ
1.自律移動体10の概要
2.自律移動体10のハードウェア構成例
3.第1の実施形態
3.1.概要
3.2.機能構成例
3.3.動作制御の具体例
3.4.制御の流れ
4.動作制御装置のハードウェア構成例
5.まとめ
<1.自律移動体10の概要>
まず、本開示の一実施形態に係る自律移動体10の概要について説明する。本開示の一実施形態に係る自律移動体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律移動体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
まず、本開示の一実施形態に係る自律移動体10の概要について説明する。本開示の一実施形態に係る自律移動体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律移動体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
このため、本開示の一実施形態に係る自律移動体10は、状況によっては、ユーザの指示に対応する動作を敢えて実行しない場合や、当該動作とは異なる他の挙動を実行する場合もある。上記の状況には、例えば、ユーザの指示に対応する動作を行った場合、ユーザや自律移動体10、または周囲環境の安全性が損なわれる場合や、自律移動体10が例えば、充電処理などの他の欲求(本能)を優先する場合などが相当する。
また、自律移動体10は、ユーザの指示に敢えて従わないことで、当該ユーザの興味の誘因を試みることや、自身の感情やハードウェアの状態をユーザに伝達しようと試みる場合もある。
一方で、自律移動体10は、ユーザに愛されたいという強い欲求(本能)を有する。このため、自律移動体10は、ユーザを喜ばせるためにユーザの指示に対応する動作を繰り返し実行したり、ユーザが気に入った動作を学習し、指示がない場合でも自発的に当該動作を実行したりする。
このように、本開示の一実施形態に係る自律移動体10は、ヒトを含む動物と同様に、欲求や感情、また周囲の環境などを総合的に判断して自律動作を決定、実行する。上記の点において、自律移動体10は、指示に基づいて対応する動作や処理を実行する受動的な装置とは明確に相違する。
本開示の一実施形態に係る自律移動体10は、空間内を自律的に移動し、種々の動作を実行する自律移動型ロボットであってよい。自律移動体10は、例えば、ヒトやイヌなどの動物を模した形状や、動作能力を有する自律移動型ロボットであってもよい。また、自律移動体10は、例えば、ユーザとのコミュニケーション能力を有する車両やその他の装置であってもよい。本開示の一実施形態に係る自律移動体10の形状、能力、また欲求などのレベルは、目的や役割に応じて適宜設計され得る。
<2.自律移動体10のハードウェア構成例>
次に、本開示の一実施形態に係る自律移動体10のハードウェア構成例について説明する。なお、以下では、自律移動体10がイヌ型の四足歩行ロボットである場合を例に説明する。
次に、本開示の一実施形態に係る自律移動体10のハードウェア構成例について説明する。なお、以下では、自律移動体10がイヌ型の四足歩行ロボットである場合を例に説明する。
図1は、本開示の一実施形態に係る自律移動体10のハードウェア構成例を示す図である。図1に示すように、自律移動体10は、頭部、胴部、4つの脚部、および尾部を有するイヌ型の四足歩行ロボットである。また、自律移動体10は、頭部に2つのディスプレイ510を備える。
また、自律移動体10は、種々のセンサを備える。自律移動体10は、例えば、マイクロフォン515、カメラ520、ToF(Time of Flight)センサ525、人感センサ530、測距センサ535、タッチセンサ540、照度センサ545、足裏ボタン550、慣性センサ555を備える。
(マイクロフォン515)
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
(カメラ520)
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律移動体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律移動体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
(ToFセンサ525)
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
(人感センサ530)
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
(測距センサ535)
測距センサ535は、自律移動体10の前方床面の状況を取得する機能を有する。測距センサ535は、例えば、胸部に配置される。測距センサ535によれば、自律移動体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
測距センサ535は、自律移動体10の前方床面の状況を取得する機能を有する。測距センサ535は、例えば、胸部に配置される。測距センサ535によれば、自律移動体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
(タッチセンサ540)
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律移動体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律移動体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
(照度センサ545)
照度センサ545は、自律移動体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
照度センサ545は、自律移動体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
(足裏ボタン550)
足裏ボタン550は、自律移動体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律移動体10と床面との接触または非接触を検知することができ、例えば、自律移動体10がユーザにより抱き上げられたことなどを把握することが可能となる。
足裏ボタン550は、自律移動体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律移動体10と床面との接触または非接触を検知することができ、例えば、自律移動体10がユーザにより抱き上げられたことなどを把握することが可能となる。
(慣性センサ555)
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律移動体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律移動体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
以上、本開示の一実施形態に係る自律移動体10が備えるセンサの一例について説明した。なお、図1を用いて説明した上記の構成はあくまで一例であり、自律移動体10が備え得るセンサの構成は係る例に限定されない。自律移動体10は、上記の構成のほか、例えば、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。自律移動体10が備えるセンサの構成は、仕様や運用に応じて柔軟に変形され得る。
続いて、本開示の一実施形態に係る自律移動体10の関節部の構成例について説明する。図2は、本開示の一実施形態に係る自律移動体10が備えるアクチュエータ570の構成例である。本開示の一実施形態に係る自律移動体10は、図2に示す回転箇所に加え、耳部と尾部に2つずつ、口に1つの合計22の回転自由度を有する。
例えば、自律移動体10は、頭部に3自由度を有することで、頷きや首を傾げる動作を両立することができる。また、自律移動体10は、腰部に備えるアクチュエータ570により、腰のスイング動作を再現することで、より現実のイヌに近い自然かつ柔軟な動作を実現することが可能である。
なお、本開示の一実施形態に係る自律移動体10は、例えば、1軸アクチュエータと2軸アクチュエータを組み合わせることで、上記の22の回転自由度を実現してもよい。例えば、脚部における肘や膝部分においては1軸アクチュエータを、肩や大腿の付け根には2軸アクチュエータをそれぞれ採用してもよい。
図3および図4は、本開示の一実施形態に係る自律移動体10が備えるアクチュエータ570の動作について説明するための図である。図3を参照すると、アクチュエータ570は、モータ575により出力ギアを回転させることで、可動アーム590を任意の回転位置および回転速度で駆動させることができる。
図4を参照すると、本開示の一実施形態に係るアクチュエータ570は、リアカバー571、ギアBOXカバー572、制御基板573、ギアBOXベース574、モータ575、第1ギア576、第2ギア577、出力ギア578、検出用マグネット579、2個のベアリング580を備える。
本開示の一実施形態に係るアクチュエータ570は、例えば、磁気式svGMR(spin-valve Giant Magnetoresistive)であってもよい。制御基板573が、メインプロセッサによる制御に基づいて、モータ575を回転させることで、第1ギア576および第2ギア577を介して出力ギア578に動力が伝達され、可動アーム590を駆動させることが可能である。
また、制御基板573に備えられる位置センサが、出力ギア578に同期して回転する検出用マグネット579の回転角を検出することで、可動アーム590の回転角度、すなわち回転位置を精度高く検出することができる。
なお、磁気式svGMRは、非接触方式であるため耐久性に優れるとともに、GMR飽和領域において使用することで、検出用マグネット579や位置センサの距離変動による信号変動の影響が少ないという利点を有する。
以上、本開示の一実施形態に係る自律移動体10が備えるアクチュエータ570の構成例について説明した。上記の構成によれば、自律移動体10が備える関節部の屈伸動作を精度高く制御し、また関節部の回転位置を正確に検出することが可能となる。
続いて、図5を参照して、本開示の一実施形態に係る自律移動体10が備えるディスプレイ510の機能について説明する。図5は、本開示の一実施形態に係る自律移動体10が備えるディスプレイ510の機能について説明するための図である。
(ディスプレイ510)
ディスプレイ510は、自律移動体10の目の動きや感情を視覚的に表現する機能を有する。図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
ディスプレイ510は、自律移動体10の目の動きや感情を視覚的に表現する機能を有する。図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
また、図5に示すように、自律移動体10は、右眼および左眼にそれぞれ相当する2つのディスプレイ510rおよび510lを備える。ディスプレイ510rおよび510lは、例えば、独立した2つのOLED(Organic Light Emitting Diode)により実現される。OLEDによれば、眼球の曲面を再現することが可能となり、1枚の平面ディスプレイにより一対の眼球を表現する場合や、2枚の独立した平面ディスプレイにより2つの眼球をそれぞれ表現する場合と比較して、より自然な外装を実現することができる。
以上述べたように、ディスプレイ510rおよび510lによれば、図5に示すような自律移動体10の視線や感情を高精度かつ柔軟に表現することが可能となる。また、ユーザはディスプレイ510に表示される眼球の動作から、自律移動体10の状態を直観的に把握することが可能となる。
以上、本開示の一実施形態に係る自律移動体10のハードウェア構成例について説明した。上記の構成によれば、図6に示すように、自律移動体10の関節部や眼球の動作を精度高くまた柔軟に制御することで、より実在の生物に近い動作および感情表現を実現することが可能となる。なお、図6は、本開示の一実施形態に係る自律移動体10の動作例を示す図であるが、図6では、自律移動体10の関節部および眼球の動作について着目して説明を行うため、自律移動体10の外部構造を簡略化して示している。本開示の一実施形態に係る自律移動体10のハードウェア構成および外装は、図面により示される例に限定されず、適宜設計され得る。
<3.第1の実施形態>
<<3.1.概要>>
次に、本開示の第1の実施形態について説明する。上述したように、本開示の一実施形態に係る自律移動体10(動作体、とも称する)は、イヌ型の情報処理装置であってよい。本開示の一実施形態に係る自律移動体10は、眼球運動による感情表現を除いた視覚情報の出力手段や、音声による言語伝達手段を有しないことを特徴の一つとする。当該特徴によれば、実際のイヌに近いより自然な動作を実現するとともに、自律移動体10が有する機能や外装に対するユーザの違和感を低減することが可能となる。
<<3.1.概要>>
次に、本開示の第1の実施形態について説明する。上述したように、本開示の一実施形態に係る自律移動体10(動作体、とも称する)は、イヌ型の情報処理装置であってよい。本開示の一実施形態に係る自律移動体10は、眼球運動による感情表現を除いた視覚情報の出力手段や、音声による言語伝達手段を有しないことを特徴の一つとする。当該特徴によれば、実際のイヌに近いより自然な動作を実現するとともに、自律移動体10が有する機能や外装に対するユーザの違和感を低減することが可能となる。
しかし、自律移動体10のようにユーザに対する明示的な情報伝達手段を有しない装置の場合、ユーザが装置の状態を明確に把握することが困難な場合がある。例えば、自律移動体10は、ユーザの発話を認識し、当該認識の結果に基づく行動を実行する機能を有する。しかし、スマートフォンなどに搭載される音声認識機能とは異なり、自律移動体10による音声認識では、ユーザが明示的に認識の開始をボタンなどにより指示することがない。このため、ユーザは、認識結果に基づく行動が表出されるまでは、認識処理が実行されているのか否かを判断することが困難である。
さらには、本開示の一実施形態に係る自律移動体10は、上述したように、状況によっては、ユーザの指示に対応する動作を敢えて実行しない場合や、当該動作とは異なる他の挙動を実行する場合もある。このため、認識処理が正常に実行し、かつ自律移動体10がユーザの意図に沿わない行動を行った場合、ユーザが、認識処理が失敗した、あるいは認識処理自体が行われなかった、と誤認する可能性も想定される。
一方、上記のような可能性を排除するためには、例えば、「認識中です」などの文言を音声または視覚情報により出力することや、ランプの点灯などにより、認識処理の実行に係るフィードバックを明示的に行うことも考えられる。
しかし、上述したように、上記のような明示的なフィードバックは、自律移動体10の挙動を不自然なものとし、自律移動体10に対するユーザの興味や熱中度を低下させる可能性がある。
本実施形態に係る技術思想は上記の点に着目して発想されたものであり、認識処理の実行に係るより自然なフィードバックを実現することを可能とする。このために、本実施形態に係る情報処理方法を実現する自律移動体10は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作を実行すること、を特徴の一つとする。
以下、本実施形態に係る自律移動体10が有する上記の特徴と、当該特徴が奏する効果について詳細に説明する。
<<3.2.機能構成例>>
まず、本実施形態に係る自律移動体10の機能構成例について説明する。図7は、本実施形態に係る自律移動体10の機能構成例を示す機能ブロック図である。図7を参照すると、本実施形態に係る自律移動体10は、入力部110、認識部120、学習部130、行動計画部140、動作制御部150、駆動部160、および出力部170を備える。
(入力部110)
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、図1に示す各種のセンサを備える。
まず、本実施形態に係る自律移動体10の機能構成例について説明する。図7は、本実施形態に係る自律移動体10の機能構成例を示す機能ブロック図である。図7を参照すると、本実施形態に係る自律移動体10は、入力部110、認識部120、学習部130、行動計画部140、動作制御部150、駆動部160、および出力部170を備える。
(入力部110)
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、図1に示す各種のセンサを備える。
(認識部120)
認識部120は、入力部110が収集した種々の情報に基づいて、ユーザや周囲環境、また自律移動体10の状態に係る種々の認識を行う機能を有する。一例としては、認識部120は、人識別、表情や視線の認識、物体認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行ってよい。
認識部120は、入力部110が収集した種々の情報に基づいて、ユーザや周囲環境、また自律移動体10の状態に係る種々の認識を行う機能を有する。一例としては、認識部120は、人識別、表情や視線の認識、物体認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行ってよい。
また、認識部120は、ユーザの発話に基づく音声認識、単語理解、感情認識、音源定位などを行う。また、認識部120は、ユーザなどによる接触や、周囲の温度、動物体の存在、自律移動体10の姿勢などを認識することができる。
さらには、認識部120は、認識した上記の情報に基づいて、自律移動体10が置かれた周囲環境や状況を推定し、理解する機能を有する。この際、認識部120は、事前に記憶される環境知識を用いて総合的に状況推定を行ってもよい。
(学習部130)
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部130が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部130が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
(行動計画部140)
行動計画部140は、認識部120が推定した状況と学習部130が学習した知識に基づいて、自律移動体10が行う行動を計画する機能を有する。本実施形態に係る行動計画部140は、例えば、認識部120が認識したユーザの発話に基づいて、ユーザの発話意図に応じた行動や、ユーザの発話意図に敢えて従わない行動を実行することを決定する。
行動計画部140は、認識部120が推定した状況と学習部130が学習した知識に基づいて、自律移動体10が行う行動を計画する機能を有する。本実施形態に係る行動計画部140は、例えば、認識部120が認識したユーザの発話に基づいて、ユーザの発話意図に応じた行動や、ユーザの発話意図に敢えて従わない行動を実行することを決定する。
(動作制御部150)
動作制御部150は、認識部120による認識処理および行動計画部140による行動計画に基づいて、駆動部160および出力部170の動作を制御する機能を有する。動作制御部150は、例えば、上記の行動計画に基づいて、アクチュエータ570の回転制御や、ディスプレイ510の表示制御、スピーカによる音声出力制御などを行う。
動作制御部150は、認識部120による認識処理および行動計画部140による行動計画に基づいて、駆動部160および出力部170の動作を制御する機能を有する。動作制御部150は、例えば、上記の行動計画に基づいて、アクチュエータ570の回転制御や、ディスプレイ510の表示制御、スピーカによる音声出力制御などを行う。
また、本実施形態に係る動作制御部150は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作の実行を制御すること、を特徴の一つとする。本実施形態に係る動作制御部150の機能詳細については別途詳細に説明する。
(駆動部160)
駆動部160は、動作制御部150による制御に基づいて、自律移動体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部160は、動作制御部150による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
駆動部160は、動作制御部150による制御に基づいて、自律移動体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部160は、動作制御部150による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
(出力部170)
出力部170は、動作制御部150による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部170は、ディスプレイ510やスピーカを備える。なお、本実施形態に係る出力部170は、上述したように、明示的な言語伝達情報を出力しないことを特徴の一つとする。
出力部170は、動作制御部150による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部170は、ディスプレイ510やスピーカを備える。なお、本実施形態に係る出力部170は、上述したように、明示的な言語伝達情報を出力しないことを特徴の一つとする。
以上、本実施形態に係る自律移動体10の機能構成について説明した。なお、図7に示す構成はあくまで一例であり、本実施形態に係る自律移動体10の機能構成は係る例に限定されない。本実施形態に係る自律移動体10は、例えば、情報処理サーバや他の自律移動体と通信を行う通信部などを備えてよい。
また、本実施形態に係る認識部120、学習部130、行動計画部140、および動作制御部150などは、上記の情報処理サーバ(動作制御装置)の機能として実現されてもよい。この場合、動作制御部150は、自律移動体10の入力部110が収集したセンサ情報に基づいて決定された行動計画に基づいて、自律移動体10の駆動部160と出力部170の制御を行うことが可能である。本実施形態に係る自律移動体10の機能構成は仕様や運用に応じて柔軟に変形可能である。
<<3.3.動作制御の具体例>>
続いて、本実施形態に係る動作制御の具体例について詳細に説明する。上述したように、本実施形態に係る動作制御部150は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作の実行を制御すること、を特徴の一つとする。当該特徴によれば、自律移動体10による認識処理の進捗をユーザが直観的に把握することが可能となる。
続いて、本実施形態に係る動作制御の具体例について詳細に説明する。上述したように、本実施形態に係る動作制御部150は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作の実行を制御すること、を特徴の一つとする。当該特徴によれば、自律移動体10による認識処理の進捗をユーザが直観的に把握することが可能となる。
なお、以下においては、本実施形態に係る自律移動体10が音声認識を実行する場合を例に動作制御部150の機能について説明する。しかし、本実施形態に係る認識処理は係る例に限定されず、本実施形態に係る技術思想は、種々の認識処理や推定処理に適用可能である。本実施形態に係る動作制御部150は、例えば、物体認識、話者認識もしくは声紋認識、マーカー認識、感情推定などに係る暗示的なフィードバックを制御することが可能である。
ここで、まず、本実施形態に係る情報処理方法に対する比較手法による動作制御について説明する。上述したように、自律移動体10は、ユーザの発話を正しく認識した場合でも、ユーザの意図に沿わない行動を行う場合がある。このような場合、ユーザは、音声認識が実行されたか否かを判断することが困難であり、当該行動を自律移動体の不具合と誤認する可能性がある。
上記の可能性を排除するため、認識に基づく行動とは別途に、音声認識の完了を示すフィードバックを行うことも想定される。
図8は、比較手法による動作制御の一例を示す図である。図8には、比較手法に係る動作体90がユーザの発話に係る音声認識処理を実行する際の状態変化が時系列に示されている。
なお、本実施形態では、音声認識処理が、信号処理、発話検出、パターン認識、発話理解により実現され、発話理解については、取得パターンの辞書マッチングが採用される場合を例に説明する。しかし、上記はあくまで一例であり、本実施形態に係る情報処理方法は、種々の音声認識手法に適用され得る。
図8の左側には、ユーザの発話の開始を検出した際の動作体90の状態が、図8の中央には、ユーザの発話の終了を検出しマッチングを開始した際の動作体90の状態が、図8の右側には、マッチングが完了した際の動作体90の状態がそれぞれ示されている。
図示するように、比較手法では、マッチングが完了した際に、動作体90に耳を動かす動作を実行させることで、ユーザに対し音声認識処理が完了したことをフィードバックしている。当該制御によれば、この後に動作体90が意図に沿わない行動を行った場合であっても、音声認識処理が実行されたことをユーザが把握できる。
しかし、ユーザは、マッチング完了時における耳の動きを確認するまでは、音声認識処理が開始されたことや、実行中であることを把握することが困難である。
そこで、本実施形態に係る動作制御部150は、認識対象情報の入力開始が検知されたことに基づいて自律移動体10に第1応答を実行させ、認識対象情報の入力終了が検知されたことに基づいて自律移動体10に第2応答を実行させることで、上記の点を解決する。なお、上記の認識対象情報とは、本例の場合、ユーザの発話を指す。
図9は、本実施形態に係る動作制御の概要を示す図である。図9には、図8と同様に、発話開始検出時、発話完了検出時、マッチング完了時における自律移動体10の状態が時系列に示されている。
まず、本実施形態に係る動作制御部150は、認識部120により発話の開始が検出された際、眼球動作を用いた第1応答を出力部170に実行させてよい。上記の眼球動作は、ディスプレイ510により実現される。当該第1応答によれば、ユーザが、自律移動体10がユーザの発話に反応したことを、より少ない遅延で把握することができる。また、当該第1応答によれば、無音のフィードバックをユーザに対し行うことができ、アクチュエータ570の駆動音やスピーカからの音出力により音声認識の精度が低下することを効果的に防止することが可能となる。このように、眼球動作に係る視覚情報の出力による暗示的なフィードバックは、駆動部を備える音声認識装置に対し高い効果を奏する。
次に、動作制御部150は、認識部120により発話の終了が検出され、マッチングが開始される際、駆動部160に耳を上げる動作を実行させてよい。当該第2応答によれば、自律移動体10がユーザの発話に反応し耳を傾けている動作を演出することができ、音声認識処理が実行されていることをユーザが直観的に把握することが可能となる。
また、本実施形態に係る動作制御部150は、マッチング、すなわち認識処理が完了したことに基づいて、当該認識処理の完了を示すフィードバックである第3応答を自律移動体10に実行させる。動作制御部150は、例えば、耳を下げる動作と口を開口する動作を駆動部160に実行させ、鳴き声に相当する音を出力部170に出力させてもよい。
上記の第3応答によれば、音声認識処理が実行されたことをユーザが明確に把握することができる。なお、動作制御部150は、第3応答の実行後、行動計画部140が音声認識結果に基づいて計画した行動に相当する動作を自律移動体10に実行させてよい。なお、上述したように上記の行動は、ユーザの発話意図に沿わない行動である場合もある。
図10は、音声認識処理および応答動作における本実施形態に係る情報処理方法と比較手法との差異について説明するための図である。図10には、本実施形態に係る情報処理方法および比較手法のそれぞれにおける声認識処理および応答動作の対応関係が時系列に示されている。なお、図中におけるMethod 1は上記比較手法に、Method 2は本実施形態に係る情報処理方法にそれぞれ対応する。
図10を参照すると、比較手法では、ユーザに対する応答動作が行われるまで、約800msの時間を要することがわかる。このため、ユーザは、音声認識処理の完了を示す応答動作により当該処理が実行されたことを把握できるものの、約800msの間は、動作体が無反応であることに違和感を覚える可能性がある。
一方、本実施形態に係る情報処理方法では、ユーザの「おはよう」という発話が開始されてから程なく第1応答が行われ、発話の終了検出に伴うマッチングの開始時に第2応答が遅滞なく実行される。このように、本実施形態に係る情報処理方法によれば、ユーザの発話開始直後から、段階的に複数のフィードバックを行うことができる。当該手法によれば、ユーザが、マッチングが完了する前の段階であっても、自律移動体10がユーザの発話を理解しようとしていることを把握することが可能となる。
次に、本実施形態に係る第1応答の具体例について詳細に説明する。上述したように、本実施形態に係る第1応答は、眼球動作であってもよい。
図11は、本実施形態に係る第1応答の一例を示す図である。図1には、動作制御部150により制御されるディスプレイ510の時系列における変化が示されている。具体的には、本実施形態に係る動作制御部150は、認識部120によりユーザの発話開始が検出された場合、ディスプレイ510に瞬きに相当する画像を表示させてもよい。
なお、動作制御部150は、図示するような瞬きのほか、ユーザに視線を合わせる表現や、ウィンクなどの表現をディスプレイ510に出力させてもよい。
このように、本実施形態に係る動作制御部150は、第1応答として眼球動作に係る表示を出力部170に実行させることで、音声認識処理を妨げることなく、またユーザの発話に対するより遅滞の少ないフィードバックを実現することができる。
なお、本実施形態に係る動作制御部150は、眼球動作のほか、アクチュエータ570の駆動を伴う身体動作や、音を用いた情動表出動作を第1応答として自律移動体10に実行させてもよい。なお、上記の音を用いた情動表出動作には、鳴き声、羽音、拍手などのノンバーバル動作が広く含まれる。
この場合、アクチュエータ570の駆動音やスピーカから出力される音により音声認識の精度が低下する可能性も想定されるが、例えば、スピーカとマイクロフォンの位置関係が一定である場合には、リファレンス信号を用いたエコーキャンセルなどを行うことで、認識精度の低下を抑えることが可能である。また、後述するように、第1応答に眼球動作を採用しないことで、ユーザの利便性が高まる状況も存在する。
次に、本実施形態に係る第2応答の具体例について詳細に説明する。本実施形態に係る第2応答は、眼球動作、身体動作、音を用いた情動表出動作のいずれか、または組み合わせであってもよい。図12は、本実施形態に係る第2応答の一例を示す図である。
本実施形態に係る動作制御部150は、例えば、図12の左側に示すように、耳を持ち上げるなどの身体動作を制御してもよい。なお、動作制御部150は、耳の他、尾部や脚部などの動作を制御してもよい。
一方、動作制御部150は、図12の右側に示すように、視線を斜め上方に向かせるなどの眼球動作を制御してもよい。また、動作制御部150は、軽くうなる、などの情動表出動作を制御することもできる。本実施形態に係る第2応答は、例えば、自律移動体10のモデルとなる生物種類に応じた、より自然な動作が採用されてよい。
次に、本実施形態に係る第3応答の具体例について詳細に説明する。本実施形態に係る第3応答は、眼球動作、身体動作、音を用いた情動表出動作のいずれか、または組み合わせであってもよい。また、本実施形態に係る動作制御部150は、認識処理に係る信頼度に基づいて、第3応答の動作を動的に決定することができる。図13は、本実施形態に係る第3応答の一例を示す図である。
認識処理に係る信頼度が高い場合、本実施形態に係る動作制御部150は、例えば、図13の左側に示すように、ユーザの発話を理解したことを示す肯定的な第3応答を自律移動体10に実行させてもよい。上記肯定的な挙動には、例えば、喜びや興奮、興味などに相当する情動の表出動作が含まれる。
一方、認識処理に係る信頼度が低い場合、本実施形態に係る動作制御部150は、例えば、図13の右側に示すように、ユーザの再発話を促すための第3応答を自律移動体10に実行させてもよい。ユーザの再発話を促すための第3応答には、例えば、疑問、不安などに相当する情動の表出動作が含まれる。動作制御部150は、例えば、首を傾げながら耳を上げる動作を駆動部160に実行させてもよい。
動作制御部150が有する上記の機能によれば、音声認識処理の結果が芳しくないことをユーザが直観的に把握し、再度発話を行うことが可能となる。
以上、本実施形態に係る第1応答、第2応答、および第3応答について具体例を挙げて説明した。上述したように、本実施形態に係る第1応答、第2応答、および第3応答は、眼球動作、身体動作、音を用いた情動表出動作のいずれか、または組み合わせにより実現されてよい。
また、本実施形態に係る動作制御部150は、センサ情報から推定される状況に基づいて、第1応答、第2応答、および第3応答に係る動作種別を動的に決定することも可能である。なお、上記のセンサ情報から推定される状況には、ユーザ、自律移動体10、周囲環境に係る種々の状態・状況が含まれる。
図14は、本実施形態に係る状況に基づく動作種別の動的制御について説明するための図である。図14には、ユーザU1が自律移動体10の背後から発話を行っている状況が示されている。この場合、ユーザU1の位置からは、自律移動体10のディスプレイ510を視認できない可能性が高い。
このため、本実施形態に係る動作制御部150は、自律移動体10の背後から発話が検出された場合には、例えば、尾部を振る身体動作など、眼球動作を用いない応答動作を自律移動体10に実行させてよい。
また、例えば、動作制御部150は、周囲の環境音が大きい場合には、眼球動作または身体動作を優先してもよいし、周囲が暗い状況では、身体動作が確認しづらいことから眼球動作や音を用いた情動表出動作を優先してもよい。
また、動作制御部150は、特に、ユーザ状態に基づいて、第1応答、第2応答、および第3応答に係る動作種別を動的に決定してもよい。例えば、普段は視力矯正具を着用しているユーザが、視力矯正具を着用していないことが検出された場合、動作制御部150は、眼球動作による応答動作を採用せず、音を用いた情動表出動作を優先してよい。
また、ユーザが視覚に障害を有すると推定された場合も同様である。認識部120は、例えば、ユーザが所持する白杖などから上記の推定を行うことが可能である。また、認識部120は、自律移動体10の行動に対するユーザの反応から、上記の推定を行ってもよい。なお、聴覚矯正器具や聴覚障がいについても同様のことが言える。
このように、本実施形態に係る動作制御部150によれば、種々の状況に対応した、より利便性の高いフィードバックを実現することが可能である。
また、本実施形態に係る動作制御部150は、ユーザの発話対象に基づく動作制御を行ってよい。図15は、本実施形態に係る発話対象の認識に基づく動作制御について説明するための図である。
図15には、電話で会話を行っているユーザU1と、自律的な行動を行っている最中の自律移動体10とが示されている。この際、本実施形態に係る動作制御部150は、ユーザU1の発話対象が自律移動体10ではないと判定されたことに基づいて、第1応答、第2応答、および第3応答のいずれか、またはすべての実行が行われないよう制御を行ってよい。
本実施形態に係る動作制御部150が有する上記の機能によれば、ユーザの意図に沿う場合にのみ応答動作を行うことが可能となり、自律移動体10に対するユーザの評価を向上させる効果が期待される。また、上記機能によれば、不必要な動作制御による電力消費を抑えることも可能である。
なお、認識部120は、ユーザが電話を把持していることや、ユーザの視線が自律移動体10に向いていないことなどから、ユーザの発話対象が自律移動体10ではないと判定することができる。
また、動作制御部150は、上記判定の確度が所定以上となるまでは、応答動作を自律移動体10に実行させてよい。例えば、第2応答を実行させた後に、発話対象が自律移動体10ではないと判定された場合には、動作制御部150は、第3応答を実行させずに、自律行動の制御に復帰してよい。
次に、自律移動体が何らかの行動を行っている際にユーザの発話が検出された場合の動作制御例について説明する。図16は、本実施形態に係る応答動作への移行制御について説明するための図である。図16には、自律移動体10がボールで遊んでいる際に、ユーザの発話の開始が検出された場合の一例が示されている。
この際、本実施形態に係る動作制御部150は、自律移動体10の行動、すなわちボールを追う行動を緩やかに停止させてよい。また、動作制御部150は、当該行動の停止後、自律移動体10が音を発生しないように制御を行う。
動作制御部150による上記の制御によれば、突然に行動を停止することでユーザに違和感を与えることなく、かつ停止後にはアクチュエータ570を動作させないことで、駆動音による音声認識精度の低下を防ぐことができる。
なお、行動の停止が間に合わず、アクチュエータ570の駆動音の影響により音声認識結果の確信度が低くなった場合には、動作制御部150は、図16の右側に示すように、再発話を促す第3応答を自律移動体10に実行させ、第3応答の完了後には、自律移動体10が音を発生しないように制御してよい。
動作制御部150による上記の制御によれば、自律移動体10に、より自然な動作を実行させながらも、再度の音声認識処理に係る精度を高めることができる。
以上、本実施形態に係る動作制御について具体例を挙げながら説明した。上記で述べた動作制御部150の機能によれば、実際の生物に近いより自然な動作を行いながら、自律移動体10による認識処理の進捗をユーザが直観的に把握することが可能となる。
なお、上記では、自律移動体10が眼球動作、身体動作、音を用いた情動表出動作のいずれか、または組み合わせを制御する場合を例に述べたが、本実施形態に係る動作制御は、認識処理や自律移動体10の特性に応じて適宜変形され得る。例えば、認識部120がタッチセンサ540が収集したセンサ情報に基づいてユーザの接触パターンの認識などを行う場合には、動作制御部150は、圧電素子などによる振動を用いた応答動作を自律移動体10に実行させてもよい。
また、本実施形態に係る自律移動体10は、仮想空間上における動作体(仮想動作体、とも称する)であってもよい。図17は、本実施形態に係る仮想動作体の制御について説明するための図である。
図17には、情報処理端末30を装着するユーザU2の視野FVと、視野FVに表示される仮想動作体VOが示されている。情報処理端末30は、例えば、ヘッドマウントディスプレイや眼鏡型のウェアラブル装置であってよい。この際、動作制御部150は、情報処理端末30や、情報処理端末30と通信する情報処理サーバの機能として実現される。情報処理端末30や上記の情報処理サーバは、後述する動作制御装置に相当する。
この場合、動作制御部150は、例えば、AR(Augmented Reality)、VR(Virtual Reality)、MR(Mixed Reality)などの技術を用いて仮想動作体VOの表示を制御する。
ここで、仮想動作体VOは、イヌなどの言語伝達手段を有しない生物に相当する視覚情報であってよい。制御対象が上記のような仮想物体である場合であっても、動作制御部150による上述の制御によれば、実際の生物に近いより自然な挙動を実現しながら、認識処理の進捗に係るフィードバックをユーザに提示することが可能である。
また、仮想動作体VOが言語伝達手段を有するキャラクターなどに相当する視覚情報である場合であっても、ユーザの発話開始が検出された際には頷く動作を、マッチングが開始された際には考える動作をさせることなどにより、より現実に近い動作を実現し、没入感を高めることが可能である。
<<3.4.制御の流れ>>
次に、本実施形態に係る動作制御の流れについて詳細に説明する。図18は、本実施形態に係る動作制御の流れを示すフローチャートである。
次に、本実施形態に係る動作制御の流れについて詳細に説明する。図18は、本実施形態に係る動作制御の流れを示すフローチャートである。
図18を参照すると、まず、入力部110がセンサ情報を収集する(S1101)。ステップS1101におけるセンサ情報の収集は、図1で説明した各種のセンサにより実現される。
次に、認識部120が、ステップS1102において収集されたセンサ情報に基づいて状況推定を行う(S1102)。なお、ステップS1101におけるセンサ情報の収集と、ステップS1102における状況推定は、常時継続的に実行されてよい。
次に、認識部120によりユーザの発話の開始が検出され(S1103)、動作制御部150が第1応答の実行を制御する(S1104)。
次に、認識部120によりユーザの発話の終了が検出され(S1105)、動作制御部150が第2応答の実行を制御する(S1106)。
次に、認識部120によりマッチング処理が実行される(S1107)。
ここで、マッチング処理に係る確信度が高い場合(S1108:高)、動作制御部150は、発話に対する理解を示す第3応答の実行を制御し(S1109)、また、マッチング結果に基づく動作の実行を制御する(S1110)。
一方、マッチング処理に係る確信度が低い場合(S1108:低)、認識部120は、発話の対象が自律移動体10であるか否かを判定してよい(S1111)。
ここで、認識部120が発話の対象が自律移動体10ではないと判定した場合(S1111:NO)、動作制御部150は、応答動作に係る制御を終了する。
一方、認識部120が発話の対象が自律移動体10であると判定した場合(S1111:YES)、動作制御部150は、ユーザに対し再発話を促す第3応答の実行を制御し(S1112)、当該再発話にむけて自律移動体10が音を発生させないように待機させる(S1113)。
<4.動作制御装置のハードウェア構成例>
次に、本開示の一実施形態に係る動作制御部150の機能が自律移動体10とは別途の動作制御装置として実現される場合のハードウェア構成例について説明する。図19は、本開示の一実施形態に係る動作制御装置20のハードウェア構成例を示すブロック図である。図19を参照すると、動作制御装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
次に、本開示の一実施形態に係る動作制御部150の機能が自律移動体10とは別途の動作制御装置として実現される場合のハードウェア構成例について説明する。図19は、本開示の一実施形態に係る動作制御装置20のハードウェア構成例を示すブロック図である。図19を参照すると、動作制御装置20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<5.まとめ>
以上説明したように、本開示の一実施系形態に係る情報処理方法を実現する自律移動体10は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作を実行すること、を特徴の一つとする。係る構成によれば、認識処理の実行に係るフィードバックをより自然な動作で実現することが可能となる。
以上説明したように、本開示の一実施系形態に係る情報処理方法を実現する自律移動体10は、認識対象情報の入力に基づいて、認識処理の実行に係る暗示的なフィードバックである応答動作を実行すること、を特徴の一つとする。係る構成によれば、認識処理の実行に係るフィードバックをより自然な動作で実現することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、本明細書における自律移動体10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、自律移動体10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置。
(2)
前記動作制御部は、認識対象情報の入力開始が検知されたことに基づいて前記動作体に第1応答を実行させ、認識対象情報の入力完了が検知されたことに基づいて前記動作体に第2応答を実行させ、
前記第1応答および前記第2応答は、前記認識処理の実行に係る暗示的なフィードバックである、
前記(1)に記載の情報処理装置。
(3)
前記動作制御部は、前記認識処理が完了したことに基づいて、前記動作体に前記認識処理の実行に係るフィードバックである第3応答を実行させる、
前記(2)に記載の情報処理装置。
(4)
前記動作制御部は、前記第3応答の実行後、前記動作体に前記認識処理に基づく行動を実行させる、
前記(3)に記載の情報処理装置。
(5)
前記動作体は、生物を模した形態および能力を有し、
前記第1応答、前記第2応答、および前記第3応答は、身体動作、眼球動作、または音を用いた情動表出動作のいずれかを含む、
前記(3)または(4)に記載の情報処理装置。
(6)
前記動作制御部は、センサ情報から推定される状況に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
前記(3)~(5)のいずれかに記載の情報処理装置。
(7)
前記動作制御部は、ユーザ状態に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
前記(3)~(6)のいずれかに記載の情報処理装置。
(8)
前記動作制御部は、前記認識処理に係る信頼度に基づいて、前記第3応答の動作を動的に決定する、
前記(3)~(7)のいずれかに記載の情報処理装置。
(9)
前記認識処理は、音声認識処理である、
前記(3)~(8)のいずれかに記載の情報処理装置。
(10)
前記第1応答は、眼球動作である、
前記(9)に記載の情報処理装置。
(11)
前記動作体は、駆動部を有する装置である、
前記(9)または(10)に記載の情報処理装置。
(12)
前記動作制御部は、ユーザの発話対象が前記動作体ではないと判定されたことに基づいて、前記動作体に前記第1応答、前記第2応答、または第3応答のうち少なくともいずれかを実行させない、
前記(9)~(11)のいずれかに記載の情報処理装置。
(13)
前記動作制御部は、前記動作体の行動中にユーザの発話開始が検出された場合、前記行動を緩やかに停止させる、
前記(9)~(12)のいずれかに記載の情報処理装置。
(14)
前記動作制御部は、前記行動の停止後、前記動作体が音を発生しないよう制御する、
前記(13)に記載の情報処理装置。
(15)
前記動作制御部は、前記音声認識処理に係る信頼度が低い場合、前記動作体にユーザの再発話を促す前記第3応答を実行させる、
前記(9)~(14)のいずれかに記載の情報処理装置。
(16)
前記動作制御部は、前記再発話を促す前記第3応答の完了後、前記動作体が音を発生しないよう制御する、
前記(15)に記載の情報処理装置。
(17)
前記動作体は、言語伝達手段を持たない自律移動体である、
前記(1)~(6)のいずれかに記載の情報処理装置。
(18)
前記動作体である、
前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、認識処理に基づいて行動を行う動作体の動作制御を行うこと、
を含み、
前記動作制御を行うことは、認識対象情報の入力に基づいて前記動作体に応答動作を実行させること、
をさらに含み、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理方法。
(20)
コンピュータを、
認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置、
として機能させるためのプログラム。
(1)
認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置。
(2)
前記動作制御部は、認識対象情報の入力開始が検知されたことに基づいて前記動作体に第1応答を実行させ、認識対象情報の入力完了が検知されたことに基づいて前記動作体に第2応答を実行させ、
前記第1応答および前記第2応答は、前記認識処理の実行に係る暗示的なフィードバックである、
前記(1)に記載の情報処理装置。
(3)
前記動作制御部は、前記認識処理が完了したことに基づいて、前記動作体に前記認識処理の実行に係るフィードバックである第3応答を実行させる、
前記(2)に記載の情報処理装置。
(4)
前記動作制御部は、前記第3応答の実行後、前記動作体に前記認識処理に基づく行動を実行させる、
前記(3)に記載の情報処理装置。
(5)
前記動作体は、生物を模した形態および能力を有し、
前記第1応答、前記第2応答、および前記第3応答は、身体動作、眼球動作、または音を用いた情動表出動作のいずれかを含む、
前記(3)または(4)に記載の情報処理装置。
(6)
前記動作制御部は、センサ情報から推定される状況に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
前記(3)~(5)のいずれかに記載の情報処理装置。
(7)
前記動作制御部は、ユーザ状態に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
前記(3)~(6)のいずれかに記載の情報処理装置。
(8)
前記動作制御部は、前記認識処理に係る信頼度に基づいて、前記第3応答の動作を動的に決定する、
前記(3)~(7)のいずれかに記載の情報処理装置。
(9)
前記認識処理は、音声認識処理である、
前記(3)~(8)のいずれかに記載の情報処理装置。
(10)
前記第1応答は、眼球動作である、
前記(9)に記載の情報処理装置。
(11)
前記動作体は、駆動部を有する装置である、
前記(9)または(10)に記載の情報処理装置。
(12)
前記動作制御部は、ユーザの発話対象が前記動作体ではないと判定されたことに基づいて、前記動作体に前記第1応答、前記第2応答、または第3応答のうち少なくともいずれかを実行させない、
前記(9)~(11)のいずれかに記載の情報処理装置。
(13)
前記動作制御部は、前記動作体の行動中にユーザの発話開始が検出された場合、前記行動を緩やかに停止させる、
前記(9)~(12)のいずれかに記載の情報処理装置。
(14)
前記動作制御部は、前記行動の停止後、前記動作体が音を発生しないよう制御する、
前記(13)に記載の情報処理装置。
(15)
前記動作制御部は、前記音声認識処理に係る信頼度が低い場合、前記動作体にユーザの再発話を促す前記第3応答を実行させる、
前記(9)~(14)のいずれかに記載の情報処理装置。
(16)
前記動作制御部は、前記再発話を促す前記第3応答の完了後、前記動作体が音を発生しないよう制御する、
前記(15)に記載の情報処理装置。
(17)
前記動作体は、言語伝達手段を持たない自律移動体である、
前記(1)~(6)のいずれかに記載の情報処理装置。
(18)
前記動作体である、
前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、認識処理に基づいて行動を行う動作体の動作制御を行うこと、
を含み、
前記動作制御を行うことは、認識対象情報の入力に基づいて前記動作体に応答動作を実行させること、
をさらに含み、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理方法。
(20)
コンピュータを、
認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置、
として機能させるためのプログラム。
10 自律移動体
110 入力部
120 認識部
130 学習部
140 行動計画部
150 動作制御部
160 駆動部
170 出力部
510 ディスプレイ
570 アクチュエータ
110 入力部
120 認識部
130 学習部
140 行動計画部
150 動作制御部
160 駆動部
170 出力部
510 ディスプレイ
570 アクチュエータ
Claims (20)
- 認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置。 - 前記動作制御部は、認識対象情報の入力開始が検知されたことに基づいて前記動作体に第1応答を実行させ、認識対象情報の入力完了が検知されたことに基づいて前記動作体に第2応答を実行させ、
前記第1応答および前記第2応答は、前記認識処理の実行に係る暗示的なフィードバックである、
請求項1に記載の情報処理装置。 - 前記動作制御部は、前記認識処理が完了したことに基づいて、前記動作体に前記認識処理の実行に係るフィードバックである第3応答を実行させる、
請求項2に記載の情報処理装置。 - 前記動作制御部は、前記第3応答の実行後、前記動作体に前記認識処理に基づく行動を実行させる、
請求項3に記載の情報処理装置。 - 前記動作体は、生物を模した形態および能力を有し、
前記第1応答、前記第2応答、および前記第3応答は、身体動作、眼球動作、または音を用いた情動表出動作のいずれかを含む、
請求項3に記載の情報処理装置。 - 前記動作制御部は、センサ情報から推定される状況に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
請求項3に記載の情報処理装置。 - 前記動作制御部は、ユーザ状態に基づいて、前記第1応答、前記第2応答、および前記第3応答に係る動作種別を動的に決定する、
請求項3に記載の情報処理装置。 - 前記動作制御部は、前記認識処理に係る信頼度に基づいて、前記第3応答の動作を動的に決定する、
請求項3に記載の情報処理装置。 - 前記認識処理は、音声認識処理である、
請求項3に記載の情報処理装置。 - 前記第1応答は、眼球動作である、
請求項9に記載の情報処理装置。 - 前記動作体は、駆動部を有する装置である、
請求項9に記載の情報処理装置。 - 前記動作制御部は、ユーザの発話対象が前記動作体ではないと判定されたことに基づいて、前記動作体に前記第1応答、前記第2応答、または第3応答のうち少なくともいずれかを実行させない、
請求項9に記載の情報処理装置。 - 前記動作制御部は、前記動作体の行動中にユーザの発話開始が検出された場合、前記行動を緩やかに停止させる、
請求項9に記載の情報処理装置。 - 前記動作制御部は、前記行動の停止後、前記動作体が音を発生しないよう制御する、
請求項13に記載の情報処理装置。 - 前記動作制御部は、前記音声認識処理に係る信頼度が低い場合、前記動作体にユーザの再発話を促す前記第3応答を実行させる、
請求項9に記載の情報処理装置。 - 前記動作制御部は、前記再発話を促す前記第3応答の完了後、前記動作体が音を発生しないよう制御する、
請求項15に記載の情報処理装置。 - 前記動作体は、言語伝達手段を持たない自律移動体である、
請求項1に記載の情報処理装置。 - 前記動作体である、
請求項1に記載の情報処理装置。 - プロセッサが、認識処理に基づいて行動を行う動作体の動作制御を行うこと、
を含み、
前記動作制御を行うことは、認識対象情報の入力に基づいて前記動作体に応答動作を実行させること、
をさらに含み、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理方法。 - コンピュータを、
認識処理に基づいて行動を行う動作体の動作制御を行う動作制御部、
を備え、
前記動作制御部は、認識対象情報の入力に基づいて前記動作体に応答動作を実行させ、
前記応答動作は、前記認識処理の実行に係る暗示的なフィードバックである、
情報処理装置、
として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019549861A JPWO2019087495A1 (ja) | 2017-10-30 | 2018-08-01 | 情報処理装置、情報処理方法、およびプログラム |
US16/755,617 US20200269421A1 (en) | 2017-10-30 | 2018-08-01 | Information processing device, information processing method, and program |
CN201880061649.0A CN111108463A (zh) | 2017-10-30 | 2018-08-01 | 信息处理装置、信息处理方法和程序 |
JP2023184256A JP2024023193A (ja) | 2017-10-30 | 2023-10-26 | 情報処理装置及び情報処理方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017209311 | 2017-10-30 | ||
JP2017-209311 | 2017-10-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019087495A1 true WO2019087495A1 (ja) | 2019-05-09 |
Family
ID=66331728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/028920 WO2019087495A1 (ja) | 2017-10-30 | 2018-08-01 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200269421A1 (ja) |
JP (2) | JPWO2019087495A1 (ja) |
CN (1) | CN111108463A (ja) |
WO (1) | WO2019087495A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021097765A (ja) * | 2019-12-20 | 2021-07-01 | 株式会社東海理化電機製作所 | 制御装置およびプログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP1622873S (ja) * | 2017-12-29 | 2019-01-28 | ロボット | |
CN112530256A (zh) * | 2020-12-17 | 2021-03-19 | 潍坊医学院附属医院 | 一种急救训练与考核用的电子标准化人体模型系统 |
USD985645S1 (en) * | 2021-04-16 | 2023-05-09 | Macroact Inc. | Companion robot |
USD1030917S1 (en) * | 2022-07-15 | 2024-06-11 | Shenzhen Tbz Technology Co., Ltd. | Artificial intelligence robot dog |
WO2024163484A1 (en) * | 2023-01-31 | 2024-08-08 | Universal City Studios Llc | Interaction system for animated figures |
USD1038280S1 (en) * | 2023-12-08 | 2024-08-06 | Muying Du | Toy |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001345906A (ja) * | 2000-05-31 | 2001-12-14 | Sanyo Electric Co Ltd | 電話対応型ロボット |
JP2013041580A (ja) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | 電子装置及びその制御方法 |
JP2013086226A (ja) * | 2011-10-20 | 2013-05-13 | Kyoto Sangyo Univ | コミュニケーションロボット |
JP2014203208A (ja) * | 2013-04-03 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP2015055718A (ja) * | 2013-09-11 | 2015-03-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017084177A (ja) * | 2015-10-29 | 2017-05-18 | シャープ株式会社 | 電子機器およびその制御方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9623336D0 (en) * | 1996-11-08 | 1997-01-08 | Philips Electronics Nv | Autonomous compound agents |
JP2004192653A (ja) * | 1997-02-28 | 2004-07-08 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2002018146A (ja) * | 2000-07-04 | 2002-01-22 | Tomy Co Ltd | 対話型玩具、反応行動パターン生成装置および反応行動パターン生成方法 |
JP2004283927A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP4239635B2 (ja) * | 2003-03-20 | 2009-03-18 | ソニー株式会社 | ロボット装置、その動作制御方法、及びプログラム |
JP2006149805A (ja) * | 2004-11-30 | 2006-06-15 | Asahi Kasei Corp | Nam音対応玩具装置、nam音対応玩具システム |
US20060122837A1 (en) * | 2004-12-08 | 2006-06-08 | Electronics And Telecommunications Research Institute | Voice interface system and speech recognition method |
JP4204541B2 (ja) * | 2004-12-24 | 2009-01-07 | 株式会社東芝 | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2007069302A (ja) * | 2005-09-07 | 2007-03-22 | Hitachi Ltd | 動作表出装置 |
JP2007156561A (ja) * | 2005-11-30 | 2007-06-21 | Canon Inc | 複合現実感提示方法および複合現実感提示システム |
JP2007155985A (ja) * | 2005-12-02 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | ロボットおよび音声認識装置ならびにその方法 |
CN101653662A (zh) * | 2008-08-21 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | 机器人 |
US20110230114A1 (en) * | 2008-11-27 | 2011-09-22 | Stellenbosch University | Toy exhibiting bonding behavior |
CN101590323B (zh) * | 2009-07-08 | 2012-10-31 | 北京工业大学 | 独轮机器人系统及其控制方法 |
CN101786272A (zh) * | 2010-01-05 | 2010-07-28 | 深圳先进技术研究院 | 一种用于家庭智能监控服务的多感知机器人 |
JP2015038525A (ja) * | 2011-03-31 | 2015-02-26 | 株式会社東芝 | 音声認識装置及び音声認識方法 |
KR101311972B1 (ko) * | 2011-08-05 | 2013-09-30 | 삼성전자주식회사 | 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
KR20160051020A (ko) * | 2014-10-31 | 2016-05-11 | 얄리주식회사 | 사용자와의 상호작용이 가능한 완구 및 그 완구의 사용자와의 상호작용 수행 방법 |
US9558734B2 (en) * | 2015-06-29 | 2017-01-31 | Vocalid, Inc. | Aging a text-to-speech voice |
CN106779047B (zh) * | 2016-12-30 | 2019-06-18 | 纳恩博(北京)科技有限公司 | 一种信息处理方法和装置 |
-
2018
- 2018-08-01 JP JP2019549861A patent/JPWO2019087495A1/ja active Pending
- 2018-08-01 WO PCT/JP2018/028920 patent/WO2019087495A1/ja active Application Filing
- 2018-08-01 US US16/755,617 patent/US20200269421A1/en not_active Abandoned
- 2018-08-01 CN CN201880061649.0A patent/CN111108463A/zh active Pending
-
2023
- 2023-10-26 JP JP2023184256A patent/JP2024023193A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001345906A (ja) * | 2000-05-31 | 2001-12-14 | Sanyo Electric Co Ltd | 電話対応型ロボット |
JP2013041580A (ja) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | 電子装置及びその制御方法 |
JP2013086226A (ja) * | 2011-10-20 | 2013-05-13 | Kyoto Sangyo Univ | コミュニケーションロボット |
JP2014203208A (ja) * | 2013-04-03 | 2014-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP2015055718A (ja) * | 2013-09-11 | 2015-03-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017084177A (ja) * | 2015-10-29 | 2017-05-18 | シャープ株式会社 | 電子機器およびその制御方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021097765A (ja) * | 2019-12-20 | 2021-07-01 | 株式会社東海理化電機製作所 | 制御装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019087495A1 (ja) | 2020-12-10 |
CN111108463A (zh) | 2020-05-05 |
JP2024023193A (ja) | 2024-02-21 |
US20200269421A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
JP7120254B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7363809B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
JP7259843B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
US20230195401A1 (en) | Information processing apparatus and information processing method | |
WO2019123744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US12122039B2 (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18874602 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019549861 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18874602 Country of ref document: EP Kind code of ref document: A1 |