WO2013121653A1 - 自走式電子機器 - Google Patents

自走式電子機器 Download PDF

Info

Publication number
WO2013121653A1
WO2013121653A1 PCT/JP2012/081374 JP2012081374W WO2013121653A1 WO 2013121653 A1 WO2013121653 A1 WO 2013121653A1 JP 2012081374 W JP2012081374 W JP 2012081374W WO 2013121653 A1 WO2013121653 A1 WO 2013121653A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
voice
self
function
electronic device
Prior art date
Application number
PCT/JP2012/081374
Other languages
English (en)
French (fr)
Inventor
雅倫 坪井
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201280068257.XA priority Critical patent/CN104080386B/zh
Publication of WO2013121653A1 publication Critical patent/WO2013121653A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/02Nozzles
    • A47L9/04Nozzles with driven brushes or agitators
    • A47L9/0461Dust-loosening tools, e.g. agitators, brushes
    • A47L9/0488Combinations or arrangements of several tools, e.g. edge cleaning tools
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Definitions

  • the present invention relates to a self-propelled electronic device, and more particularly to a self-propelled electronic device that executes various functions in response to voice.
  • a self-propelled cleaner that autonomously travels and cleans a predetermined floor area such as a room is used.
  • a self-propelled cleaner which further includes a camera and a human body detection function in a self-propelled cleaner, and has a surveillance camera that performs security such as intrusion detection of a suspicious person has been proposed (for example, Patent Documents). 1).
  • the self-propelled cleaner described in Patent Document 1 has a so-called security function when the housekeeper is absent in addition to the original cleaning function. Only when an object such as a suspicious person is detected by a human body sensor. Therefore, if there is a large obstacle between the suspicious person and the self-propelled cleaner, and the suspicious person cannot be detected by the human body sensor, the suspicious person cannot be photographed. Further, even if there is an instruction from a householder who is not a suspicious person, for example, a shooting instruction by voice, it is not possible to perform desired shooting. That is, in a self-propelled cleaner provided with a camera and a human body sensor, it is difficult to perform desired cleaning or photographing based on an instruction input from a user.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a self-propelled electronic device capable of executing a function desired by a user based on an instruction input from the user. It is to provide.
  • a voice input unit that inputs voice, a casing, a travel control unit that moves the casing, a voice recognition unit that recognizes the input voice, and the voice recognition unit are input.
  • a self-propelled electronic device comprising a function execution unit that executes a predetermined response function based on a result of recognizing voice is provided.
  • the image capturing apparatus may further include an image capturing unit that captures an image, and the response function is a function that causes the image capturing unit to capture an image.
  • a voice input unit, a shooting unit, a travel control unit, and a voice recognition unit are provided and an image is shot based on the input voice recognition result, a self-propelled electronic device is used. Even when the vehicle is traveling autonomously at a position away from the user, a desired image corresponding to the user's voice can be easily captured.
  • the function executing unit executes the predetermined function when the voice recognized by the voice recognition unit includes a predetermined word that requests execution of the response function. . According to this, the user can shoot an image by uttering a predetermined word requesting to shoot an image.
  • a storage unit that stores recognition operation information that associates a word with the response function to be executed when the word is input by speech
  • the speech recognition unit is obtained by recognizing the input speech.
  • the function execution unit executes the response function of the recognition action information stored in association with the matchable word. It is characterized by that. According to this, since the word that can be matched with the input voice and the response function to be executed are stored in the storage unit in association with each other, even when the self-propelled electronic device is located away from the user, When the user utters a voice recognized as the word, the response function stored in association with the word, which is the recognition result of the input voice, can be easily executed.
  • the response function moves the casing to the predetermined position by the travel control unit.
  • the image capturing unit has a function of capturing an image. According to this, since the response function that the image is taken after moving to the position where the self-propelled electronic device moves is performed, the user associates the response function with the response function in the recognition operation information. By uttering the stored words by voice, it is possible to easily perform shooting at a preset position.
  • a communication unit that communicates with an external device via a network is further provided, and an image captured by the imaging unit is transmitted to the external device. According to this, since the photographed image is transmitted to the external device, for example, in the external device such as a portable terminal owned by the user, the user can photograph even in a place away from the self-propelled electronic device. Confirmed images can be confirmed.
  • the voice input unit includes a microphone disposed in a front part of the casing in the traveling direction
  • the photographing unit includes a camera disposed in a front part of the casing in the traveling direction. According to this, it is possible to photograph the space where the person spreading forward in the traveling direction is based mainly on the sound uttered by the person in front of the traveling direction of the self-propelled electronic device.
  • the self-propelled electronic device of the present invention may further include a dust collection unit that performs a cleaning function, and may further include an ion generation unit that generates ions.
  • a dust collection unit that performs a cleaning function
  • an ion generation unit that generates ions.
  • a self-propelled electronic device capable of executing a function desired by a user based on an instruction input from the user.
  • This self-propelled cleaner is a housing having an air inlet on the bottom and a dust collecting portion inside, a drive wheel for running the housing, a control unit for controlling rotation, stop and rotation direction of the drive wheel, etc. And a vacuum cleaner that autonomously performs a cleaning operation after leaving the user's hand, and an example is shown by an embodiment using the drawings described later.
  • the self-propelled electronic device of the present invention not only a self-propelled cleaner, but also an air purifier that self-propels an air cleaner that sucks air and exhausts purified air, an ion generator that generates ions It includes those that run on their own, those that present necessary information to the user, robots that can satisfy the user's desires, and the like that run on their own.
  • the apparatus main body is equipped with the storage battery (rechargeable battery), and when charging is required, the apparatus which self-propells and can return to a charging stand is also included.
  • the self-propelled means mainly moving autonomously to an instructed position or a target position by an instruction input by a user.
  • FIG. 1 shows a schematic block diagram of an embodiment of a self-propelled electronic device according to the present invention.
  • the self-propelled electronic device 1 of the present invention mainly includes a control unit 11, a travel control unit 12, wheels 13, a failure detection unit 14, a rechargeable battery 15, a battery remaining amount detection unit 16, an operation input unit 17, A voice input unit 18, a voice recognition unit 19, a voice output unit 20, a function execution unit 21, a photographing unit 22, a lighting unit 23, a communication unit 24, and a storage unit 51 are provided.
  • the self-propelled electronic device 1 of the present invention has a three-dimensional housing such as a disk shape, a cylindrical shape, or a rectangular parallelepiped shape, and various components are arranged on the surface or inside of the housing.
  • the wheel 13, the failure detection unit 14, the operation input unit 17, the imaging unit 22, and the illumination unit 23 are provided at positions that can be viewed from the outside of the housing surface, and other portions are provided inside the housing.
  • the control unit 11 in FIG. 1 is a part that controls the operation of each component of the self-propelled electronic device 1, and is mainly realized by a microcomputer including a CPU, a ROM, a RAM, an I / O controller, a timer, and the like. .
  • the CPU organically operates each hardware based on a control program stored in advance in a ROM or the like, and executes a photographing function, a traveling function, a sound source detection function and the like according to the present invention as described later. .
  • the rechargeable battery 15 is a part that supplies power to each functional element of the self-propelled electronic device 1, and is a part that mainly supplies power for performing a photographing function, travel control, and the like.
  • a rechargeable battery such as a lithium ion battery, a nickel metal hydride battery, or a Ni—Cd battery is used.
  • the rechargeable battery 15 is charged in a state where the self-propelled electronic device 1 and a charging stand (not shown) are connected.
  • the connection between the self-propelled electronic device 1 and the charging stand may be performed by bringing exposed charging terminals that are connecting portions to each other into contact with each other.
  • the remaining battery capacity detection unit 16 is a part that detects the remaining capacity (remaining battery capacity) of the rechargeable battery, and outputs, for example, a numerical value representing the current remaining capacity as a percentage with respect to the fully charged state. As an example, based on the remaining battery level (%) detected by the remaining battery level detection unit 16, it is determined whether to return to the charging stand or shift to a mode in which the operation is stopped and stopped on the spot. And the control part 11 mentioned later performs the control based on it.
  • the obstacle detection unit 14 is a part for detecting that the self-propelled electronic device 1 is in contact with or approaching an obstacle such as an indoor desk or chair while traveling.
  • a contact sensor or an obstacle sensor made up of a distance sensor or the like is used, and is arranged in the front part in the traveling direction of the main body.
  • the front is the traveling direction of the self-propelled electronic device 1, and is illustrated by an arrow in FIG.
  • the direction opposite to the traveling direction of the self-propelled electronic device 1 is defined as the rear.
  • the CPU related to the control unit 11 recognizes the position where the obstacle exists based on the signal output from the obstacle detection unit 14. Based on the position information of the recognized obstacle, a direction to travel next is determined while avoiding the obstacle.
  • the wheel 13 is a part which is arrange
  • the traveling control unit 12 is a part that controls the autonomous traveling of the self-propelled electronic device 1, and is a part that mainly controls the rotation of the wheel 13 and moves the housing automatically.
  • the traveling control unit 12 drives or stops the wheels 13 to cause the self-propelled electronic device 1 to perform operations such as forward movement, backward movement, rotation, and stationary.
  • the operation input unit 17 is a part where the user inputs an instruction for the operation of the self-propelled electronic device 1.
  • the operation input unit 17 is a rear surface with respect to the traveling direction as shown in FIG. On the top panel, it is provided as an operation panel or an operation button.
  • a remote control unit is provided separately from the main body, and by pressing an operation button provided on the remote control unit, an infrared ray or a radio wave signal is transmitted, and an operation instruction input is performed by wireless communication. May be.
  • a power switch, a start switch, a charge request switch, other switches (operation mode switch, timer switch), and the like are provided.
  • the voice input unit 18 is a part for inputting so-called acoustic data such as a human voice (hereinafter referred to as “speech”) or a simple sound (hereinafter simply referred to as “sound”), and a microphone is used.
  • acoustic data such as a human voice (hereinafter referred to as “speech”) or a simple sound (hereinafter simply referred to as “sound”)
  • a microphone is used as shown in FIGS. 6 and 7, as will be described later, for example, one voice input unit 18 is disposed in the front casing in the traveling direction during normal traveling. Or in order to detect the direction (sound generation source direction) from which a sound is heard, you may provide two or more.
  • the four voice input units 18 may be provided at positions that are shifted 90 degrees forward, left side, right side, and rear, respectively.
  • the same voice input by each of the plurality of voice input units 18 is analyzed, and in particular, the direction of the sound source is analyzed from the difference in volume (volume difference) time difference and / or phase difference based on the input signal of the input voice.
  • a conventionally used method may be used as a method for detecting the direction and distance of the sound source.
  • the travel control unit moves the casing in a direction in which the detected sound source is detected, and the photographing unit detects the detected sound. You may image
  • the voice input from the voice input unit 18 is, for example, AD converted and stored in the storage unit 51 as input voice data 54 in a predetermined digital voice format.
  • the voice recognition unit 19 is a part that recognizes the input voice. That is, it is a part for recognizing a word or a short sentence included in the voice from the voice (input voice data 54) input from the voice input unit 18. It is also a part for specifying the person who uttered the sound.
  • voice registration information 53 is stored in the storage unit 51 in advance. As will be described later with reference to FIG. 3, the voice registration information 53 includes, for example, a word (or letters, numbers), a sample of voice data, the name of the person who issued the voice data, and the like.
  • Pattern matching between the input voice data 54 and a large number of voice data stored in the voice registration information 53 is performed, and the voice data of the voice registration information 53 includes voice data having a high degree of coincidence satisfying a predetermined determination criterion. For example, a word corresponding to the voice data is selected as the recognized word 55.
  • voice data 54 “Good morning” is input from the voice input unit 18
  • pattern matching is performed between the input voice data 54 and a plurality of voice data stored in the voice registration information 53 in advance.
  • a word (good morning) corresponding to the voice data determined to match the data 54 is selected as the recognized word 55. That is, the recognition word 55 is a word obtained by the voice recognition unit 19 recognizing the input voice.
  • the recognition word 55 is collated with a word in the recognition operation information 52, and if there is a matchable word in the recognition operation information 52, an operation corresponding to the word.
  • Viice reply, recognition operation, response function execution For example, when the recognition word 55 is “observation”, the recognition word of the uttered voice is a word included in the word “observation” registered in the recognition operation information 52, and therefore FIG. As shown in a), a response voice “I understand” is output from the speaker and the LED is blinked. Further, as a response function, several still images are taken by the camera while rotating.
  • the audio output unit 20 is a part that outputs the sound for response as described above, the sound necessary for traveling, the sound for communication with the user, and the sound such as the pseudo sound.
  • a speaker is used.
  • a preset response voice or the like is output from the voice output unit 20.
  • the audio output unit 20 is provided on the side surface of the front surface of the housing of the self-propelled electronic device and at a position below the failure detection unit 14. This is merely an example and can be provided at any position.
  • the function execution unit 21 is a part that executes a response function associated in advance with a word that can match the word 55 recognized from the input voice. That is, this is a part for executing the response function stored in the recognition operation information 52 of FIG. 3 in association with the matchable word. Specifically, a moving function, a rotating function, a photographing function, a cleaning function, a light lighting function, and the like are executed. For example, the function execution unit 21 executes a function of photographing an image by the photographing unit 22 based on the result of recognition of the input voice by the voice recognition unit 19. As an example, when the voice recognized by the voice recognition unit includes a predetermined word or a short sentence requesting to take an image (for example, a short sentence “take a picture” shown in FIG. 3 described later). Execute the function to take an image.
  • the photographing unit 22 is a part for photographing an image, and a camera is used.
  • the image to be photographed is mainly a still image, but a moving image may be photographed.
  • the captured still image is stored in the storage unit 51 as a captured image 56.
  • the captured image 56 is transmitted to the user's personal computer 102 or the server 112 when necessary based on a request from the user or a category of a recognition word by an input voice.
  • the illumination unit 23 is a part that brightens the periphery of the self-propelled electronic device, and an LED is used. For example, the LED 23 is lit in conjunction with the activation of the camera 22 that is a photographing unit, and is turned on before photographing by the camera 22.
  • the communication unit 24 is a part that communicates with an external device via a network. That is, it is a part that transmits various information to an external device other than the self-propelled electronic device 1, and a part that receives data such as an operation request from the external device.
  • a network any network such as a wide area network (WAN) such as a LAN or the Internet, or a dedicated communication line may be used.
  • WAN wide area network
  • the communication unit 24 transmits the image captured by the capturing unit 22 to the requesting external device. To do.
  • Examples of the external device include a personal computer (PC) 102, a portable terminal (TE) 103, and a server (SV) 112.
  • PC personal computer
  • TE portable terminal
  • SV server
  • the self-propelled electronic device 1 is self-propelled and normally moves autonomously in an area such as a room, it is preferable to communicate with an external device wirelessly. It is preferable to have wireless communication means that can be connected to the wireless LAN 101 or a wireless wide area network (WAN) 111.
  • WAN wireless wide area network
  • FIG. 1 shows a form in which a network (WAN) 111 such as the Internet is connected via the LAN 101 and communicates with the server SV 112, the communication unit 24 has a wireless communication function similar to that of a mobile phone and is directly connected. You may make it connect with the network (WAN) 111.
  • the server SV112 is a device operated by a provider or the like, and information on users who have contracted with the provider is stored in this server. The user information stored in the server can be easily read out from the PC or TE owned by the user at any time and place.
  • Examples of information communicated with an external device via the communication unit 24 include the following.
  • Examples of information transmitted from the self-propelled electronic device 1 to the PC 102 or the TE 103 include, for example, captured images and videos, audio information input from the audio input unit 18, and the remaining battery level of the self-propelled electronic device 1.
  • There are information on the equipment such as the state of the sensor and sensor, a report on the cleaning situation when cleaning is performed, a report on an emergency when the charge amount is low and it is not possible to return to the charging stand, and the like.
  • examples of information transmitted from the PC 102 or the TE 103 to the self-propelled electronic device 1 include, for example, input voice, photographing request, video, voice information input from the voice input unit 18, and the self-propelled electronic device 1.
  • information on the device such as the remaining battery level and sensor status, operation requests, operation requests, requests for monitoring and security, and the like.
  • Examples of information transmitted from the self-propelled electronic device 1 to the server SV 112 include, for example, captured images and videos, audio information input from the audio input unit 18, and the remaining battery level of the self-propelled electronic device 1.
  • the information that the device has such as the state of the sensor and sensor can be considered.
  • the storage unit 51 is a part that stores information and programs necessary for realizing various functions of the self-propelled electronic device 1, and is used by a semiconductor element such as a RAM or a ROM, a storage medium such as a hard disk or a flash memory. It is done.
  • the storage unit 51 mainly stores recognition operation information 52, voice registration information 53, input voice data 54, a recognition word 55, a captured image 56, and the like.
  • the storage unit 61 temporarily stores information necessary for executing functions such as voice recognition, photographing, communication, and other functions.
  • the input voice data 54 is voice or sound data input from the voice input unit 18, and is, for example, digitized acoustic data.
  • the recognized word 55 is a word recognized by the voice recognition unit 19. Alternatively, it may be a single character or number, or a character string (short text) or a number string registered in advance by the user.
  • the captured image 56 is an image captured by the camera 22. The image may be either a still image or a moving image.
  • the recognition operation information 52 is information stored in advance by associating a word 55 recognized from an input voice with a response function to be executed when the recognition word 55 is input by voice.
  • the voice registration information 53 is information stored in advance in association with a word to be recognized, voice data of the word, and information for specifying the name of the person who issued the voice data when performing voice recognition.
  • FIG. 3 is an explanatory diagram of an embodiment of the recognition operation information 52 and the voice registration information 53.
  • FIG. 3A shows an example of the recognition operation information 52.
  • a category a word, a reply voice, a recognition operation, and a response function are stored in association with each other.
  • the category indicates the type of recognition content.
  • the word is a target for determining whether or not the recognition word 55 can be matched. Not only one word but also a short sentence including the word may be used. If any of these words (short sentences) completely matches the recognized word 55, a response function or the like associated with the matched word is executed. Alternatively, even if they do not completely match, if the recognized word 55 is included in the word of FIG. 3A, it may be determined that the word has been input by voice.
  • the response voice is a voice that informs the user that the input voice has been recognized as a predetermined word. For example, it is sufficient to repeat the recognized word itself, such as “I understand” or “Yes”, which is a word meaning a reply, and use it as a reply voice.
  • the synthesized voice is stored in the storage unit 51 in advance.
  • the recognition operation notifies the user that the input voice has been recognized by the operation of the self-propelled electronic device. For example, blinking operation of the LED 23, dancing operation of the main body itself, displaying a message by providing a display device, a screen for communication with the user, a mood operation of a self-propelled electronic device, a side brush operation, voice May be used as the recognition operation. Also, if it was detected that some sound was input but could not be recognized as speech, or if it was recognized that it was human speech but did not match a pre-registered word A reply voice or a recognition operation for informing the user of this may be set in advance.
  • the response function is a function to be executed associated with the recognized word, and indicates the operation content associated in advance with the voice uttered by the user. This response function is executed by the function execution unit 21 based on a program stored in the storage unit 51 in advance.
  • a response voice “I understand” is output from the voice output unit, A recognition operation of blinking the LED is performed, and further, as a response function, an operation of photographing a still image of the person who has emitted the sound is performed.
  • the function execution unit executes the response function, first, the travel control unit
  • the image may be taken by the photographic unit.
  • the first to seventh are pre-registered actions to be executed based on the recognized word, but the eighth is the input acoustic data recognized as speech or word. It is an example showing an operation for the purpose of crime prevention to be executed when it is not possible. For example, if any sound that cannot be recognized as voice is detected in the surveillance mode at night or when you are away, this 8th information is selected, and as a corresponding response function, the movement in the direction that the sound was made, A still image is taken for the space in the direction of the object sound.
  • FIG. 3B shows an example of the voice registration information 53.
  • a registered word, voice data, and the name of the person who uttered the voice data are stored in association with each other.
  • the voice data for example, digital information such as a voice analog waveform itself, waveform information, frequency information, a voice library, and registered word information is stored as one voice file.
  • FIG. 2 shows a schematic block diagram of an embodiment of the self-propelled cleaner according to the present invention.
  • the self-propelled cleaner 201 of the present invention mainly includes a control unit 11, a travel control unit 12, a wheel 13, a failure detection unit 14, a rechargeable battery 15, a remaining battery level detection unit 16, a dust collection unit 31, Ion generator 32, air blow controller 33, air inlet 35, air outlet 34, operation input unit 17, voice input unit 18, voice recognition unit 19, voice output unit 20, function execution unit 21, photographing unit 22, lighting unit 23
  • the communication unit 24 and the storage unit 51 are provided.
  • a charging stand is installed in the predetermined position of the room which cleans.
  • the place where the charging stand is installed may be any place near the outlet of the commercial power supply, near the wall of the room, next to the desk, etc., where power supply can be received.
  • the self-propelled cleaner 1 By connecting the charging stand and the self-propelled cleaner 1, the self-propelled cleaner 1 is supplied with electric power from the charging stand in contact with the charging stand, and the rechargeable battery 15 of the self-propelled cleaner 1 is connected. Charge.
  • the self-propelled cleaner 1 performs the cleaning function while automatically traveling away from the charging stand.
  • the self-propelled cleaner 1 of the present invention cleans the floor surface by sucking air containing dust on the floor surface and exhausting the air from which the dust is removed while self-propelled on the floor surface at the place where it is installed. It is a cleaning robot.
  • the self-propelled cleaner 1 of the present invention has a function of autonomously returning to the charging stand when cleaning is completed.
  • FIG. 6 the schematic perspective view of one Example of the self-propelled cleaner of this invention is shown.
  • FIG. 7 is an explanatory view of an embodiment of members arranged in the front part of the housing.
  • a self-propelled cleaner 201 of the present invention includes a disk-shaped housing 2, and an obstacle detection unit (obstacle sensor) 14, a voice input unit (microphone) inside and outside the housing 2. 18. Audio output unit (speaker) 20, imaging unit (camera) 22, illumination unit (LED) 23, rotating brush, side brush 10, dust collector 31 housed in the main body of self-propelled cleaner 1, ion A generator 32, an electric blower, a plurality of driven wheels 13 for self-propelled driving, driven wheels including rear and front wheels, a communication unit 24, and other components shown in FIG.
  • the obstacle sensor 14 the voice input part (microphone) 18, the imaging part (camera) 22, the illumination part (LED) 23, and the part where the front wheels are arranged are the front part and the rear wheels are arranged.
  • the part is referred to as a rear part, and the part where the communication part 24, the dust collecting part 31 and the like are disposed is referred to as an intermediate part.
  • the housing 2 is provided with a circular bottom plate in plan view having an air inlet (35 shown in FIG. 2) provided on the back surface (lower surface) and provided with a rotating brush, and a dust collecting portion 31 accommodated in the housing 2
  • a top plate 2b having a lid 3 that opens and closes at the center
  • a bottom plate and a side plate 2c having an annular shape in plan view provided along the outer periphery of the top plate 2b.
  • the bottom plate is formed with a plurality of holes for projecting the front wheels, the pair of drive wheels 13 and the lower portions of the rear wheels from the inside of the housing 2 to the outside, and in the vicinity of the boundary between the front portion and the middle portion of the top plate 2b
  • An exhaust port 34 is formed at the end.
  • the side plate 2c is divided into two in the front and rear directions, and the front side portion of the side plate functions as a bumper.
  • the self-propelled cleaner 201 turns in a stationary state by a pair of drive wheels 13 rotating forward in the same direction, moving forward, moving backward in the same direction, moving backward, and rotating in opposite directions.
  • the pair of drive wheels rotate in opposite directions to rotate or rotate after reversing. And change the direction.
  • the self-propelled cleaner 201 self-propels while avoiding an obstacle over the entire installation place or the entire desired range.
  • the self-propelled cleaner 201 detects a signal emitted from the transmission unit of the charging stand by a receiving unit (not shown) to recognize the direction of the charging stand. For example, when cleaning is completed, the rechargeable battery 15 When the remaining charge level is low, or when the set time of the set cleaning timer has elapsed, the vehicle automatically proceeds along the shortest route in the direction of the charging stand and returns to the charging stand. However, if there are obstacles, move to the charging stand while avoiding them.
  • the dust collection unit 31 is a part that performs a cleaning function for collecting indoor dust and dust, and mainly includes a dust collection container (not shown), a filter unit, and an openable / closable cover unit that covers the dust collection container and the filter unit.
  • the air intake passage 35 has an inflow passage communicating with the intake port 35 and an exhaust passage communicating with the exhaust port 34, and the air sucked from the intake port 35 is guided into the dust collection container through the inflow passage. The air is exhausted through the filter unit, and the air after dust collection is discharged to the outside through the exhaust port through the exhaust path.
  • the ion generation part 32 is a part which is accommodated in a housing
  • the ion generation part 32 has each ion discharge
  • This ion emission part consists of the opening part which opened a part of the resin-like housing
  • Each ion emission part is provided with, for example, a common counter electrode and two needle-like discharge electrodes.
  • the discharge electrode is a needle electrode having a pointed tip
  • the counter electrode is a common grounded electrode opened so as to surround the discharge electrode.
  • the ion generator 32 includes a high-voltage electricity generation circuit therein, and is operated by being supplied with electric power from the rechargeable battery 15 via two terminals provided on one side surface.
  • the high-voltage electricity generation circuit supplies a positive or negative high voltage having an AC waveform or an impulse waveform to each discharge electrode.
  • a high voltage having a positive impulse waveform is applied to one discharge electrode.
  • ions generated by ionization are combined with moisture in the air to generate positive cluster ions mainly composed of H + (H 2 O) m described above.
  • a high voltage with a negative impulse waveform is applied to the other discharge electrode, and ions generated by ionization combine with moisture in the air to generate negative cluster ions mainly composed of O 2 ⁇ (H 2 O) n. Is done.
  • the ions to be generated are not particularly limited, and examples thereof include ions capable of purifying air, ions having a skin beautifying effect and an effect of suppressing bacterial growth on the skin surface, and the like.
  • plasma cluster ions registered trademark
  • the ion generator 32 is provided as a small rectangular parallelepiped ion generator, for example.
  • the generated ions may be either negative ions or positive ions.
  • you may include the charged fine particle water droplet obtained using an electrostatic atomization phenomenon. In particular, when negative ions are generated, the user can be given a relaxing effect.
  • the blower control unit 33 mainly controls driving of a blower fan for performing intake from the intake port.
  • the ions generated by the ion generation unit 32 are moved in the direction of the exhaust port 34 by clean air that has passed through the filter unit of the dust collection unit 31 together with the air flowing through the inside of the apparatus by the blower fan driven by the blow control unit 33. In the middle of being sent, it is blown out from the exhaust port 34.
  • the exhaust port 34 is an opening that is provided, for example, at a position on the upper surface of the housing, and discharges air containing ions generated by driving the ion generator 32 to the outside. Moreover, you may make it discharge
  • the self-propelled cleaner 201 mainly sucks external air through the air inlet 35 and exhausts air containing ions through the air outlet 34 mainly using the air blowing fan of the air blowing control unit 33. This is done by rotating. Thereby, air containing dust can be sucked from the air inlet 35 and ions can be released together with the air from which dust has been removed from the air outlet 34.
  • the air inlet 35 is provided on the top plate 2 b side instead of the bottom plate. In this case, there is provided a filter unit for removing dust contained in the air in the path from the intake port to the exhaust port without the dust collection unit 31.
  • the intake port 35 is provided at a position different from the exhaust port 34.
  • an exhaust opening / closing lid is provided at the exhaust port 34 in order to prevent foreign matter, dust, etc. from entering the inside from at least the exhaust port 34 except when ions are generated. Yes.
  • An intake opening / closing lid that opens and closes the intake port 35 is also provided in the intake port 35 as necessary. Therefore, the opening / closing lid for exhaust and the opening / closing lid for intake are provided with an opening / closing mechanism (consisting of a transmission member including a motor that performs opening / closing driving and a cam that transmits rotation of the motor) in order to change the opening / closing state.
  • An open / close control unit for controlling is separately provided. That is, when ions are released, the open / close lids of the intake port 35 and the exhaust port 34 are opened, and when no ions are released, the open / close lids of the intake port 35 and the exhaust port 34 are closed. By performing such opening / closing control, it is possible to prevent dust and foreign matter from entering from the suction port and the exhaust port when ions are not released. In addition, by controlling the opening and closing of the exhaust port and the intake port in accordance with a predetermined operation mode, ions are generated and released into the room when necessary, thereby sterilizing and deodorizing or deodorizing the room with ions. May be performed appropriately.
  • the opening / closing degree (open / closed state) of the opening / closing lids of the exhaust port and the intake port can be adjusted as appropriate, the amount of released ions can be controlled.
  • the ion discharge amount can also be controlled by controlling the rotational speed of the blower fan by the blower control unit 33. Therefore, it is possible to finely control the discharge of ions and the control of the discharge amount based on the control by the air blowing control unit 33 and the opening / closing lid control unit.
  • movement of the ion generation part 32 it functions as a self-propelled air cleaner which plays the role of the air cleaner which purifies air by driving a ventilation fan. Needless to say, these are included in the present invention in terms of functions and roles.
  • FIG. 4 shows a flowchart of the schematic operation of one embodiment of the self-propelled electronic device of the present invention.
  • the voice input by the voice input unit 18 is recognized, and there is a word that matches the recognized word 55 in the recognition operation information 52, a process of executing a function associated with the word Show about.
  • step S ⁇ b> 1 the control unit 11 checks whether any sound is input from the voice input unit 18. If a sound is detected, the process proceeds to step S2, and if not, step S1 is looped. Whether or not any sound is input may be determined, for example, when a signal having an intensity of a predetermined level or higher is continuously detected for a predetermined time or longer. Or what is necessary is just to judge that the sound was input, when the signal of the intensity
  • step S2 the control unit 11 checks whether or not the detected sound is a voice. That is, it is determined whether it is not a simple sound but a human voice (voice). Whether or not the sound is sound may be determined by analyzing the frequency component of the detected sound and determining whether or not acoustic data in a frequency band that can be emitted mainly by humans is included. For example, if most of the frequency components of the detected sound are in a band of about 100 Hz to several kiloHz, it is determined that the input sound is a human voice. If it is determined that a voice has been input, the process proceeds to step S3, and if not, the process proceeds to step S4.
  • step S4 since the input sound is not a voice, if an operation corresponding to the sound is set in advance, the corresponding operation is executed. For example, if sound is detected by multiple microphones when the absence monitoring mode is set, if the direction of the sound is detected and shooting a still image is set in advance, A direction detection process, a movement process in the sound direction, and a still image shooting process in a space in the sound direction are performed. In addition, the detected sound may be analyzed, the type of sound and the object that emits the sound may be specified, and operations such as photographing processing may be performed. After executing the corresponding operation, the process returns to step S1.
  • step S3 the voice recognition unit 19 performs a voice recognition process on the input voice.
  • a word that matches the input voice is selected and stored as a recognized word 55.
  • step S5 it is checked whether or not there is a word that can match the stored recognition word 55 in the recognition operation information 52. If there is a word that can be matched in step S6, the process proceeds to step S7, and if not, the process proceeds to step S9.
  • step S ⁇ b> 7 a recognition operation associated with a word that can be matched in the recognition operation information 52 is executed. For example, when LED blinking is set as the recognition operation, the setting operation is performed. At this time, if there is a reply voice stored in association with the recognition operation, the voice reply unit outputs the reply voice.
  • the function execution unit 21 executes the corresponding function associated with the matchable word. For example, a rotation function, a movement function, or a photographing function is executed. As the corresponding function, as shown in FIG. 3A, different operations are set depending on the content of the recognized word. After executing this corresponding function, the process returns to step S1.
  • step S9 a word that can be matched with the recognized word 55 is not set in the recognition operation information 52, and therefore the unrecognition operation is executed.
  • Unrecognized actions include, for example, an outsider (other than a resident), a suspicious person, other unrecognized person, etc., performing a shooting function in the sense of crime prevention and monitoring, LED lighting different from the recognition action, and a dancing action It is an operation like voice output or alarm output indicating unrecognition. However, when there is no operation preset as the unrecognized operation, no particular operation is required. After performing the unrecognized operation, the process returns to step S1.
  • the above is the schematic operation performed based on the speech recognition, but the processing executed as the corresponding function in step S8 differs depending on the content of the recognized word 55.
  • FIG. 5 shows a flowchart of an embodiment of the execution process of the corresponding function in step S8.
  • a specific example of the corresponding function to be executed when the first word “observed” (short sentence) in the recognition operation information 52 shown in FIG. 3A is recognized as a recognition word is shown. ing. That is, a rotation operation and a still image shooting process are performed, and several still images are shot in front and rear spaces viewed from the current position.
  • step S21 the camera 22 is activated.
  • step S23 it is checked whether m ⁇ the set number of times n.
  • step S23 if m ⁇ n, the number m of current shots is already the set number n, so the shooting process is terminated and the process proceeds to step S28. On the other hand, if m ⁇ n, the current shooting count has not yet reached the set count n, and the process proceeds to step S24.
  • step S24 the camera 22 captures a still image in a space in front of the current movement direction.
  • step S ⁇ b> 25 the captured still image is stored in the storage unit 51 as a captured image 56.
  • step S26 in order to capture a still image in another direction, a rotation operation at a certain angle is performed. For example, when photographing four images, the image is rotated right (or left) by 90 degrees. Alternatively, based on the set corresponding function, an operation of moving a predetermined distance in a predetermined direction may be performed instead of the rotation operation.
  • the image transmission condition means a condition for determining whether a captured image is to be transmitted to a terminal operated by the user or to an external device such as a server.
  • the communication unit 24 of the self-propelled electronic device 1 is communicable with a PC, TE, or SV, it is determined to transmit.
  • a command for requesting transmission of the captured image 56 stored in the storage unit 51 is received from the server SV, it is determined to transmit to the server.
  • a transmission request is received from a PC owned by a user in the same building, it is determined that the captured image is transmitted.
  • the image transmission conditions may include the current operation status of the self-propelled electronic device, the connection state with the network, the presence / absence of a transmission request from an external device, etc., but are not limited thereto.
  • Various conditions can be set according to the actual operation state. Also, the type and number of images to be sent, whether to send all shot images or only a part of the images, whether to send the image size or the number of pixels converted, or whether to send immediately or later Various conditions such as whether to send at a specified date and time can be set.
  • step S29 when the image transmission conditions as described above are satisfied, the captured still image is transmitted to a predetermined external device (PC, TE, or SV). Thereafter, the process is terminated, and the process returns to step S1 in FIG.
  • a predetermined external device PC, TE, or SV.
  • this self-propelled electronic device has a voice input, a photographing function, and a self-propelled function, so that a user can take a picture of a desired space after moving autonomously by emitting a voice. is there.
  • a user in a remote location cleans the self-propelled cleaner.
  • the self-propelled cleaner recognizes the word and then moves autonomously to the position to check, It is possible to take an image at a desired position and transmit the image to a portable terminal owned by the user.
  • the user can easily confirm the situation after the cleaning by the self-propelled cleaner at that position even if the user does not go to the desired position by emitting a predetermined sound. it can.
  • voice recognition can be performed by providing a camera and a microphone separately from the original cleaning function. Can be cleaned easily. In addition, you can capture the environment of the room by taking a camera while cleaning, move the room efficiently, focus on cleaning the area by recognizing the garbage, or check the garbage image later can do. Moreover, the role and function as a crime prevention robot and a self-propelled robot for communication can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Disinfection, Sterilisation Or Deodorisation Of Air (AREA)
  • Alarm Systems (AREA)

Abstract

音声を入力する音声入力部(18)と、筐体(2)と、前記筐体(2)を移動させる走行制御部(12)と、前記入力された音声を認識する音声認識部(19)と、前記音声認識部(19)が前記入力された音声を認識した結果に基づいて、予め定められた応答機能を実行する機能実行部(21)とを備えたことを特徴とする。

Description

自走式電子機器
 この発明は、自走式電子機器に関し、特に、音声に応答して種々の機能を実行する自走式電子機器に関する。
 今日、自走式電子機器の一例として、自律走行し、部屋等の所定の床領域を掃除する自走式掃除機が利用されている。
 また、自走式掃除機に、カメラと人体検知機能をさらに備えて、不審者の侵入検知等の警備を実行する監視カメラを備えた自走式掃除機も提案されている(たとえば、特許文献1参照)。
 この特許文献1では、人体センサにより不審者の可能性がある人体を検知したときに、照明を点灯させて、複数の人体センサの検知結果に基づいて、検知物体と自走式掃除機本体との相対角度を検出し、検出した相対角度の方向を撮影できるように回転動作をした後、カメラによって検知物体があると検出された方向の画像を撮影し、撮影した画像を外部にいる家人に送信して家人の指示に従って段階的な警備を実行するものが記載されている。
特開2005-296510号公報
 しかし、特許文献1に記載された自走式掃除機は、本来の掃除機能に加えて、家人が不在時のいわゆる警備機能を有するものであるが、カメラで画像を撮影するトリガとなる条件は、人体センサにより不審者等の物体を検知したときに限られる。
 したがって、不審者と自走式掃除機との間に大きな障害物があり人体センサによってその不審者を検出できない場合は、不審者を撮影することはできない。また、不審者でない家人からの指示、たとえば音声による撮影指示があったとしても、所望の撮影を行うことはできない。
 すなわち、カメラと人体センサを備えた自走式掃除機では、利用者からの指示入力に基づいて、所望の掃除や撮影を行わせることは困難である。
 本発明は、上記の事情に鑑みてなされたものであり、その目的は、利用者からの指示入力に基づいて、利用者が所望する機能を実行させることが可能である自走式電子機器を提供することにある。
 この発明は、音声を入力する音声入力部と、筐体と、前記筐体を移動させる走行制御部と、前記入力された音声を認識する音声認識部と、前記音声認識部が前記入力された音声を認識した結果に基づいて、予め定められた応答機能を実行する機能実行部とを備えたことを特徴とする自走式電子機器を提供するものである。
 また、画像を撮影する撮影部をさらに備え、前記応答機能は、前記撮影部によって画像を撮影させる機能であることを特徴とする。
 これによれば、音声入力部と、撮影部と、走行制御部と、音声認識部とを備え、入力された音声の認識結果に基づいて、画像を撮影するので、自走式電子機器が利用者から離れた位置を自律走行中の場合でも、利用者の音声に対応した所望の画像を容易に撮影することができる。
 また、前記音声認識部が認識した音声に、前記応答機能を実行することを要求する所定の単語が含まれている場合に、前記機能実行部が前記所定の機能を実行することを特徴とする。
 これによれば、利用者が、画像を撮影することを要求する所定の単語を音声で発することにより、画像を撮影することができる。
 また、単語と、単語が音声入力された場合に実行すべき前記応答機能とを対応づけた認識動作情報を記憶した記憶部をさらに備え、前記音声認識部が入力音声を認識することによって得られた認識単語と一致可能な単語が、前記認識動作情報に記憶されている場合、前記機能実行部が、前記一致可能な単語に対応づけて記憶されている認識動作情報の前記応答機能を実行することを特徴とする。
 これによれば、入力音声と一致可能な単語と、実行すべき応答機能とを対応づけて記憶部に記憶しているので、自走式電子機器が利用者から離れた位置にある場合でも、その利用者がその単語として認識される音声を発することにより、入力音声の認識結果であるその単語に対応づけて記憶されていた応答機能を、容易に実行させることができる。
 また、前記応答機能として、所定の位置へ移動して撮影を行うという機能が予め設定されている場合に、前記応答機能は、前記走行制御部によって、前記筐体を前記所定の位置へ移動させた後、前記撮影部によって、画像を撮影させる機能であることを特徴とする。
 これによれば、自走式電子機器が撮影する位置へ移動した後に画像の撮影を行わせるという、応答機能が実行されるので、利用者が、認識動作情報の中にその応答機能に対応づけて記憶されている単語を音声で発することにより、予め設定された位置での撮影を、容易に行わせることができる。
 また、ネットワークを介して外部装置と通信する通信部をさらに備え、前記撮影部によって撮影された画像を前記外部装置へ送信することを特徴とする。
 これによれば、撮影された画像が外部装置へ送信されるので、たとえば、利用者が所有する携帯端末などの外部装置において、利用者が、自走式電子機器とは離れた場所においても撮影された画像を確認できる。
 また、前記音声入力部が、筐体の進行方向の前方部に配置されたマイクからなり、前記撮影部が、筐体の進行方向の前方部に配置されたカメラからなることを特徴とする。
 これによれば、主として、自走式電子機器の進行方向の前方にいる人の発する音声に基づいて、進行方向の前方に広がるその人がいる空間の撮影が可能となる。
 また、この発明の自走式電子機器は、掃除機能を実行する集塵部をさらに備えてもよく、イオンを発生するイオン発生部をさらに備えてもよい。
 これにより、自走しながら、画像撮影と掃除機能とを実行でき、さらに、イオンを発生することにより、除菌と消臭もできる。
 本発明によれば、利用者からの指示入力に基づいて、利用者が所望する機能を実行させることが可能である自走式電子機器を提供することができる。
この発明の自走式電子機器の一実施例の概略構成ブロック図である。 この発明の自走式掃除機の一実施例の概略構成ブロック図である。 この発明の記憶部に記憶される情報の一実施例の説明図である。 この発明の自走式電子機器における概略動作のフローチャートである。 この発明の自走式電子機器における対応機能の実行処理のフローチャートである。 この発明の自走式掃除機の一実施例の概略斜視図である。 この発明の自走式掃除機の筐体の前方部の一実施例の説明図である。
 以下、図面を使用して本発明の実施の形態を説明する。なお、以下の実施例の記載によって、この発明が限定されるものではない。
 以下の実施形態では、主として、自走式電子機器の概略構成と動作の一実施例に加えて、本発明の自走式電子機器の一つの形態である「自走式掃除機」の構成と動作について説明する。
 この自走式掃除機とは、底面に吸気口を有すると共に内部に集塵部を有する筐体、筐体を走行させる駆動輪、駆動輪の回転、停止および回転方向等を制御する制御部などを備え、ユーザの手を離れて自律的に掃除動作する掃除機を意味し、後述の図面を用いた実施形態によって一例が示される。
 また、本発明の自走式電子機器としては、自走式掃除機だけでなく、空気吸引を行い清浄化した空気を排気する空気清浄機が自走するもの、イオン発生を行うイオン発生機が自走するもの、ユーザに対して必要な情報等を提示するもの、あるいはユーザが欲する要求を満足できるロボット等が自走するもの等を含む。さらに、装置本体に蓄電池(充電池)を備え、充電を必要とする際に、自走して充電台へ帰還することができる装置も含む。
 この発明において、自走式とは、主として、利用者の指示入力により、指示された位置や目的とする位置へ、また、自律的に移動することを意味する。
<自走式電子機器の構成>
 図1に、この発明の自走式電子機器の一実施例の概略構成ブロック図を示す。
 図1において、この発明の自走式電子機器1は、主として、制御部11、走行制御部12、車輪13、障害検知部14、充電池15、電池残量検出部16、操作入力部17、音声入力部18、音声認識部19、音声出力部20、機能実行部21、撮影部22、照明部23、通信部24、記憶部51を備える。
 以下、図1に示す各構成要素を説明する。
 この発明の自走式電子機器1は、円盤形、円柱形、あるいは直方体形等の立体形状の筐体を有し、その筐体の表面や内部に、各種構成要素が配置される。
 たとえば、上記した車輪13、障害検知部14、操作入力部17、撮影部22、照明部23は、筐体表面の外部から視認できる位置に設けられ、その他の部分は筐体内部に設けられる。
 図1の制御部11は、自走式電子機器1の各構成要素の動作を制御する部分であり、主として、CPU、ROM、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
 CPUは、ROM等に予め格納された制御プログラムに基づいて、各ハードウェアを有機的に動作させて、後述するようなこの発明の撮影機能、走行機能、音声発生源の検出機能などを実行する。
 充電池15は、自走式電子機器1の各機能要素に対して電力を供給する部分であり、主として、撮影機能および走行制御等を行うための電力を供給する部分である。たとえば、リチウムイオン電池、ニッケル水素電池、Ni-Cd電池、などの充電池が用いられる。 充電池15の充電は、自走式電子機器1と図示しない充電台とを接続した状態で行われる。
 自走式電子機器1と充電台との接続は、互いの接続部である露出した充電端子どうしを接触させることにより行えばよい。
 電池残量検出部16は、充電池の残りの容量(電池残量)を検出する部分であり、たとえば、フル充電状態に対して、現在の残容量をパーセントで表した数値を出力する。
 一例として、電池残量検出部16で検出された電池残量(%)に基づいて、充電台の方へ帰還するか、あるいはその場で静止して動作も終了するモードに移行するかを判断し、それに基づく制御を後述する制御部11が実行する。
 障害検知部14は、自走式電子機器1が走行中に、室内の机やいすなどの障害物に接触又は近づいたことを検知する部分であり、たとえば、マイクロスイッチ、超音波センサ、赤外線測距センサなどからなる接触センサ又は障害物センサが用いられ、本体の進行方向の前方部に配置される。障害検知部14は、1つでなく、図6に示すように複数個設けてもよい。ここで、前方とは、自走式電子機器1の進行方向であり、図6において、矢印で図示する。また、自走式電子機器1の進行方向と逆方向を後方とする。
 制御部11にかかるCPUは、障害検知部14から出力された信号に基づいて、障害物の存在する位置を認識する。認識された障害物の位置情報に基づいて、その障害物を避けて次に走行すべき方向を決定する。
 車輪13は、例えば図7に示すように筐体の下部に配置され、筐体を移動させる部分である。
 走行制御部12は、自走式電子機器1の自律走行の制御をする部分であり、主として上記した車輪13の回転を制御して筐体を自動的に移動させる部分である。
 走行制御部12は、車輪13を駆動又は停止させることにより、自走式電子機器1の前進、後退、回転、静止などの動作を行わせる。
 操作入力部17は、ユーザが、自走式電子機器1の動作を指示入力する部分であり、自走式電子機器1の筐体表面、例えば図6に示すように走行方向に対して後部の上面パネル上に、操作パネル、あるいは操作ボタンとして設けられる。
 あるいは、操作入力部17としては、本体とは別に、リモコンユニットを設け、このリモコンユニットに設けられた操作ボタンを押すことにより、赤外線や無線電波信号を送出し、無線通信により動作の指示入力をしてもよい。
 操作入力部17としては、たとえば、電源スイッチ、起動スイッチ、充電要求スイッチ、その他のスイッチ(運転モードスイッチ,タイマスイッチ)などが設けられる。
 音声入力部18は、人の声(以下、音声と呼ぶ)、あるいは単なる物音(以下、単に音と呼ぶ)などのいわゆる音響データを入力する部分であり、マイクが利用される。
 音声入力部18は、後述するよう図6や図7に示すように、たとえば、通常走行の前進時に、進行する方向の前方部の筐体内に1つ配置する。あるいは、音声が聞こえてくる方向(音声発生源方向)を検出するために、複数個設けてもよい。音声入力部18を複数個設ける場合は、たとえば、4つの音声入力部18を、それぞれ、前方、左側面、右側面、後方に90度ずらせるような位置に設ければよい。
 複数個の音声入力部18のそれぞれによって入力された同一の音声を分析し、特に入力された音声の入力信号により、音量の差(音量差)時間差および/または位相差から音源の方向を分析することにより、入力された音声の発生源のある方向、またその距離を検出することができる。
 このように音声の発生源のある方向、また距離を検出する方法は、従来から用いられている方法を用いればよい。
 また、入力された音声の発生源のある方向が検出された場合は、走行制御部が、検出された音声の発生源のある方向に筐体を移動させ、撮影部によって、検出された音声の発生源のある方向を撮影してもよい。
 音声入力部18から入力された音声は、たとえば、AD変換され、所定のデジタル音声フォーマットで、入力音声データ54として記憶部51に記憶される。
 音声認識部19は、入力された音声を認識する部分である。すなわち、音声入力部18から入力された音声(入力音声データ54)からその音声に含まれる単語あるいは短文を認識する部分である。また、その音声を発した人物を特定する部分でもある。音声認識をするために、記憶部51に、予め音声登録情報53を記憶しておく。音声登録情報53は、図3に後述するように、たとえば、単語(あるいは文字、数字)、音声データのサンプル、その音声データを発した人物名などから構成される。
 入力音声データ54と、音声登録情報53に記憶された多数の音声データとのパターンマッチングを行い、音声登録情報53の音声データの中に、所定の判定基準を満たす一致度の高い音声データがあれば、その音声データに対応する単語が、認識単語55として選択される。
 たとえば、音声入力部18から、「おはよう」という音声データ54が入力された場合、その入力音声データ54と音声登録情報53に予め記憶されている複数の音声データとのパターンマッチングを行い、入力音声データ54と一致すると判定された音声データに対応する単語(おはよう)が認識単語55として選択される。
 すなわち、認識単語55は、音声認識部19が入力音声を認識することによって得られた単語である。
 この認識単語55は、図3(a)に後述するように、認識動作情報52の中の単語と照合され、認識動作情報52の中に一致可能な単語があれば、その単語に対応する動作(音声返答、認識動作、応答機能実行)を行う。
 たとえば、認識単語55が「観察」であった場合、発せられた音声の認識単語は、認識動作情報52の中に登録された単語「観察して」に含まれる単語であるので、図3(a)に示すように、「分かりました」という返答音声をスピーカから出力し、LEDを点滅させるという認識動作を行う。さらに、応答機能として、回転動作をしながら、カメラにより数枚の静止画の撮影を行う。
 音声出力部20は、本発明においては上述したような応答のための音声や、走行等において必要な音声、その他ユーザとのコミュニケーションのための音声、また疑似音などの音を出力する部分であり、スピーカが利用される。上記したように、音声出力部20から、予め設定された返答音声などが出力される。音声出力部20は、たとえば、図7に示すように、自走式電子機器の筐体前面の側面であって、障害検知部14の下部の位置に設けられている。これは単なる一例で、任意の位置に設けることができる。
 機能実行部21は、入力された音声から認識された単語55と一致可能な単語に予め対応づけられた応答機能を実行する部分である。
 すなわち、図3の認識動作情報52の中に、上記一致可能な単語に対応づけて記憶されている応答機能を実行する部分である。具体的には、移動機能、回転機能、撮影機能、掃除機能、ライト点灯機能などを実行する。
 たとえば、機能実行部21は、音声認識部19が入力された音声を認識した結果に基づいて、撮影部22によって画像を撮影する機能を実行する。
 一例として、音声認識部が認識した音声に、画像を撮影することを要求する所定の単語あるいは短文(たとえば、後述する図3に示す「写真を撮って」という短文)が含まれている場合に、画像を撮影する機能を実行する。
 撮影部22は、画像を撮影する部分であり、カメラが利用される。撮影する画像は、主として静止画であるが、動画を撮影してもよい。撮影された静止画は、撮影画像56として記憶部51に記憶される。この撮影画像56は、利用者からの要求、あるいは入力された音声による認識単語のカテゴリー等に基づいて、必要なときに、利用者のパソコン102や、サーバ112に送信される。
 照明部23は、自走式電子機器の周囲を明るくする部分であり、LEDが利用される。このLED23は、たとえば、撮影部であるカメラ22の起動と連動され、カメラ22による撮影を行う前に、点灯される。
 カメラ22とLED23は、たとえば、自走式電子機器の筐体の進行方向に対して、自走式電子機器の筐体の前方部に配置すればよい(図6、図7参照)。
 通信部24は、ネットワークを介して、外部装置と通信する部分である。すなわち、自走式電子機器1以外の外部装置に対して、種々の情報を送信する部分であり、その外部装置から動作要求等のデータを受信する部分である。
 ネットワークとしては、LAN、インターネットなどの広域ネットワーク(WAN)、専用の通信回線などいずれのネットワークを利用してもよい。
 たとえば、外部装置から画像撮影要求が受信された場合など、所定の画像送信条件が満たされた場合に、通信部24が、撮影部22によって撮影された画像を、要求をしてきた外部装置へ送信する。
 外部装置としては、たとえば、パソコン(PC)102、携帯端末(TE)103、サーバ(SV)112などがある。
 同一家屋や建物内に、有線LANや無線LANが設置されている場合は、そのLAN101を介して、その家屋内にいる利用者が所有するPC102やTE103と通信を行う。
 この自走式電子機器1は、自走式であって、通常は室内などの領域を自律的に移動しているので、外部装置との通信は、無線で行うことが好ましく、通信部24は、無線LAN101や無線の広域ネットワーク(WAN)111と接続することのできる無線通信手段を有することが好ましい。
 携帯端末TE103としては、携帯電話、スマートフォン、タブレット端末、ゲーム機など、無線通信が可能な端末を利用することができる。また、パソコンPC102は、ネットワーク接続可能なTVであってもよい。
 図1では、LAN101を介して、インターネットなどのネットワーク(WAN)111と接続し、サーバSV112と通信する形態を示しているが、通信部24に、携帯電話と同様な無線通信機能を備え、直接ネットワーク(WAN)111と接続するようにしてもよい。サーバSV112は、プロバイダ等が運用する装置であり、このサーバの中に、プロバイダと契約した利用者の情報が格納される。サーバに格納された利用者の情報は、利用者の所有するPCやTEから、任意の時間と場所で、容易に読み出すことが可能である。
 通信部24を介して、外部装置と通信される情報としては、たとえば、次のようなものがある。
 この自走式電子機器1からPC102やTE103へ送信される情報としては、たとえば、撮影された画像、映像や、音声入力部18から入力された音声情報、自走式電子機器1の電池残量やセンサの状態といった機器の持つ情報、掃除を行う場合の掃除状況の報告、充電量の低下で充電台へと帰還できない場合の非常時等の報告などがある。逆に、PC102やTE103から自走式電子機器1へ送信される情報としては、たとえば、入力音声、撮影要求、映像や、音声入力部18から入力された音声情報、自走式電子機器1の電池残量やセンサの状態といった機器の持つ情報、運転要求、動作要求、監視や警備等の要求などがある。
 また、自走式電子機器1からサーバSV112へ送信される情報としては、たとえば、撮影された画像、映像や、音声入力部18から入力された音声情報、自走式電子機器1の電池残量やセンサの状態といった機器の持つ情報などが考えられる。
 記憶部51は、自走式電子機器1の各種機能を実現するために必要な情報や、プログラムを記憶する部分であり、RAMやROM等の半導体素子、ハードディスク、フラッシュメモリ等の記憶媒体が用いられる。
 記憶部51には、主として、認識動作情報52、音声登録情報53、入力音声データ54、認識単語55、撮影画像56などが記憶される。
 記憶部61には、この他にも、音声認識、撮影、通信などの機能、その他の機能を実行するときに必要な情報が一時的に記憶される。
 入力音声データ54は、音声入力部18から入力された音声あるいは音のデータであり、たとえば、デジタル化された音響データである。
 認識単語55は、音声認識部19によって認識された単語である。あるいは、1つの文字や数字であってもよく、利用者が予め登録した文字列(短文)や数字列でもよい。
 撮影画像56は、カメラ22によって撮影された画像である。画像としては、静止画あるいは動画のどちらでもよい。
 認識動作情報52は、入力された音声から認識された単語55と、その認識単語55が音声によって入力された場合に実行すべき応答機能とを対応づけて予め記憶した情報である。
 音声登録情報53は、音声認識をする場合に、認識すべき単語と、その単語の音声データと、その音声データを発した人物名を特定する情報とを対応づけて予め記憶した情報である。
 図3に、認識動作情報52と、音声登録情報53の一実施例の説明図を示す。
 図3(a)は、認識動作情報52の一実施例を示している。
 ここでは、1つの認識動作情報52としては、カテゴリー、単語、返答音声、認識動作および応答機能とを対応づけて記憶したものを示している。
 カテゴリーは、認識内容の種類を示している。
 単語は、認識単語55と一致可能か否かを判断する対象である。1つの単語だけでなく、その単語を含む短文であってもよい。この単語(短文)のうちいずれかが認識単語55と完全一致すれば、その一致した単語に対応づけられた応答機能等が実行される。
 あるいは、完全一致しなくても、図3(a)の単語の中に、認識単語55が含まれていれば、その単語が音声入力されたと判断してもよい。
 返答音声は、入力された音声を所定の単語として認識できたことを、利用者に知らせる音声である。たとえば、返答を意味することばである「分かりました」、「はい」などや、認識した単語そのものを反復して、返答音声として用いればよい。このような返答音声を音声出力部20から出力するために、合成音声を予め記憶部51に記憶しておく。
 認識動作は、入力された音声が認識できたことを、自走式電子機器の動作で知らせるものである。たとえば、LED23の点滅動作や、本体自体のダンシング動作、表示装置を備えることでメッセージ表示、ユーザとのコミュニケーションを図るために画面、や自走式電子機器の機嫌状態動作、サイドブラシ動作、音声での返答などを、認識動作として用いてもよい。
 また、何らかの音が入力されたことは検出できたが、音声としては認識できなかった場合や、人の音声であることは認識できたが予め登録された単語に一致するものでなかった場合は、そのことを利用者に知らせる返答音声や認識動作を予め設定しておいてもよい。
 応答機能は、認識単語に対応付けられた実行すべき機能であり、利用者が発した音声に予め対応づけられた動作内容を示したものである。
 この応答機能は、予め記憶部51に記憶されたプログラムに基づいて、機能実行部21によって実行される。
 図3(a)において、たとえば、2番目の「写真を撮って」という単語(短文)に一致する音声が入力された場合は、「分かりました」という返答音声を音声出力部から出力し、LED点滅させる認識動作を行い、さらに、応答機能として、その音声を発した人物の静止画を撮影する動作を行う。
 また、認識動作情報の応答機能として、所定の撮影する位置へ移動して撮影を行うという機能が予め設定されていた場合において、機能実行部がその応答機能を実行するとき、まず、走行制御部によって、筐体を撮影する位置へ移動させた後、撮影部によって画像を撮影するようにすればよい。
 このような機能がある単語と対応づけて記憶されている場合、利用者がその単語を音声で発することによって、容易に所望の位置の画像を撮影することができる。
 図3(a)において、1番目から7番目は、いずれも認識単語に基づいて、実行される動作を予め登録したものであるが、8番目は、入力された音響データが音声や単語として認識できなかった場合に、実行すべき防犯目的の動作を示した一例である。
 たとえば、夜間あるいは留守中の監視モードにおいて、音声とは認識できない何らかの物音が検出された場合、この8番目の情報が選択され、対応する応答機能として、その物音がした方向への移動と、その物音方向の空間に対する静止画の撮影が行われる。
 図3(b)は、音声登録情報53の一実施例を示している。
 1つの音声登録情報53は、登録単語と、音声データと、その音声データを発声した人物名とが、予め対応づけられて記憶される。
 ただし、人物を特定する場合は、人物名を登録しておく必要があるが、不特定多数の人が発声した単語認識のみを行い、人物の特定をしない場合は、人物名は登録しなくてもよい。
 音声データとしては、たとえば、音声のアナログ波形そのものや、波形情報、周波数情報、音声ライブラリ、登録単語情報などのデジタル情報が、1つの音声ファイルとして記憶される。
<自走式掃除機の構成>
 図2に、この発明の自走式掃除機の一実施例の概略構成ブロック図を示す。
 図2において、この発明の自走式掃除機201は、主として、制御部11、走行制御部12、車輪13、障害検知部14、充電池15、電池残量検出部16、集塵部31、イオン発生部32、送風制御部33、吸気口35、排気口34、操作入力部17、音声入力部18、音声認識部19、音声出力部20、機能実行部21、撮影部22、照明部23、通信部24、記憶部51を備える。
 また、掃除を行う部屋の所定の位置に充電台を設置する。充電台の設置場所は、商用電源のコンセント近辺、部屋の壁際、机の脇などで、電源電力の供給を受けられる場所であればよい。充電台と自走式掃除機1を接続することにより、自走式掃除機1は充電台と接触した状態で充電台からの電力の供給を受け、自走式掃除機1の充電池15を充電する。また、自走式掃除機1は、充電台から離れ自動走行しながら掃除機能を実行する。
 この発明の自走式掃除機1は、設置された場所の床面を自走しながら、床面上の塵埃を含む空気を吸い込み、塵埃を除去した空気を排気することにより床面上を掃除する掃除ロボットである。この発明の自走式掃除機1は、掃除が終了すると、自律的に充電台に帰還する機能を有する。
 図6に、この発明の自走式掃除機の一実施例の概略斜視図を示す。
 また、図7に、筐体の前方部に配置される部材の一実施例の説明図を示す。
 図6において、本発明の自走式掃除機201は、円盤形の筐体2を備え、この筐体2の内部および外部に、障害検知部(障害物センサ)14、音声入力部(マイク)18、音声出力部(スピーカ)20、撮像部(カメラ)22、照明部(LED)23、回転ブラシ、サイドブラシ10、自走式掃除機1本体内に収容されている集塵部31、イオン発生部32、電動送風機、自走のための複数の駆動される車輪13、後輪および前輪からなる従動する車輪、通信部24、図2に示したその他の構成要素が設けられている。
 図6において、障害物センサ14、音声入力部(マイク)18、撮像部(カメラ)22、照明部(LED)23および前車輪が配置されている部分を前方部、後車輪が配置されている部分を後方部、通信部24や集塵部31などが配置されている部分を中間部と呼ぶ。
 筐体2は、裏面側(下面)に設けられ回転ブラシが設けられている吸気口(図2で示す35)を有する平面視円形の底板と、筐体2に収容する集塵部31を出し入れする際に開閉する蓋部3を中央部分に有している天板2bと、底板および天板2bの外周部に沿って設けられた平面視円環形の側板2cとを備えている。また、底板には、前車輪、一対の駆動車輪13および後車輪の下部を筐体2内から外部へ突出させる複数の孔部が形成され、天板2bにおける前方部と中間部との境界付近には排気口34が形成されている。なお、側板2cは、前後に二分割されており、側板前部はバンパーとして機能する。
 また、自走式掃除機201は、一対の駆動車輪13が同一方向に正回転して前進し、同一方向に逆回転して後退し、互いに逆方向に回転することにより静止した状態で旋回する。例えば、自走式掃除機201は、掃除領域の周縁に到達した場合および進路上の障害物に衝突した場合、一対の駆動輪を互いに逆方向に回転して向きを変えたり、後退した後に回転して向きを変えたりする。これにより、自走式掃除機201は、設置場所全体あるいは所望範囲全体に障害物を避けながら自走する。
 また、自走式掃除機201は、図示しない受信部によって、充電台の送信部から出射される信号を検出して充電台のある方向を認識し、たとえば掃除が終了した場合、充電池15の充電残量が少なくなった場合、あるいは設定された掃除タイマーの設定時間が経過した場合に、自動的に、充電台のある方向に最短ルートで進行して、充電台まで帰還する。ただし、障害物があれば、それを避けながら、充電台の方向へ移動する。
 以下に、すでに図1に示した自走式電子機器の各構成要素以外の構成で、図2の自走式掃除機に特有の構成について、説明する。
 集塵部31は、室内のゴミやちりを集める掃除機能を実行する部分であり、主として、図示しない集塵容器と、フィルタ部と、集塵容器およびフィルタ部を覆う開閉可能なカバー部とを備える。
 また、吸気口35と連通する流入路と、排気口34と連通する排出路とを有し、吸気口35から吸い込まれた空気を流入路を介して集塵容器内に導き、集塵容器内の空気をフィルタ部を介して排気し、集塵後の空気を排出路を介して排気口34から外部へ放出する。
 イオン発生部32は、筐体内部に収容され、イオンを発生する部分である。
 具体的には、放電により空気中の水分子を電離し、正イオンとしてH+(H2O)m(mは任意の自然数)、負イオンとしてO2 -(H2O)n(nは任意の自然数)を生成する。
 イオン発生部32は、排気経路に臨む部分に、正負のイオンを生成する場合、それぞれのイオン放出部を有している。このイオン放出部は、イオン発生部32の樹脂性の筺体の一部を、例えば円形状に開口した開口部からなり、その開口部に対応してイオン発生のための電極が設けられている。
 各々のイオン放出部には、たとえば、共通の対向電極と針状の2つの放電電極が各々設けられる。放電電極は先端が尖った針電極であり、対向電極は放電電極の周囲を囲うように開口された共通の接地された電極である。
 イオン発生部32は、内部に高圧電気発生回路が内蔵されており、一側面に設けられた2つの端子を介して充電池15から電力が供給され、作動する。
 高圧電気発生回路は、各放電電極に、交流波形またはインパルス波形から成る正または負の高電圧を供給するものである。例えば一方の放電電極には、正のインパルス波形の高電圧が印加される。これにより、電離により発生するイオンが空気中の水分と結合して主として先に説明したH+(H2O)mから成る正のクラスタイオンが生成される。
 他方の放電電極には、負のインパルス波形の高電圧が印加され、電離により発生するイオンが空気中の水分と結合して主としてO2 -(H2O)nから成る負のクラスタイオンが生成される。
 発生するイオンとしては、特に限定されないが、たとえば、空気を浄化することの可能なイオン、美肌効果と肌表面の菌増殖を抑制する効果のあるイオンなどがあげられ、特に、従来から用いられている例えば上述したようなプラズマクラスターイオン(登録商標)を用いることができる。イオン発生部32は、たとえば、小型の直方体形状のイオン発生装置として提供される。
 なお、発生するイオンは、負イオン又は正イオンのどちらかでもよい。また、静電霧化現象を利用して得られる帯電した微粒子水滴を含んでもよい。特に、負イオンを発生する場合には、ユーザにリラックス効果を与えることができるとされる。
 送風制御部33は、主として、吸気口より吸気を行うための送風ファンを駆動制御するものである。
 イオン発生部32によって発生されたイオンは、送風制御部33によって駆動された送風ファンにより装置内部を流通する空気とともに、集塵部31のフィルタ部を通過した清浄な空気が排気口34の方向へ送られる途中で、排気口34から外部へ吹き出される。
 排気口34は、たとえば筐体の上面の位置に設けられ、イオン発生部32が駆動されることで発生されたイオンが含まれる空気を外部へ放出する開口である。また、イオンを含む空気は、走行方向の後方であってやや斜め上方に放出されるようにしてもよい。
 上述したように自走式掃除機201は、吸気口35を介した外部の空気の吸い込みと、排気口34を介したイオンを含んだ空気の排気は、主として、送風制御部33の送風ファンを回転させることによって行われる。これにより、吸気口35から塵埃を含む空気を吸気し、排気口34より塵埃が取り除かれた空気と共に、イオンを放出することができる。
 以上は、自走式掃除機201であり、掃除機能を備えない自走式のイオン発生機については、吸気口35としては底板でなく天板2b側に設けられる。この場合、集塵部31がなく吸気口から排気口への経路中に空気中に含まれる塵埃を除去するフィルタ部が設けられる。排気口34は、図6に示す位置に設けられている場合、吸気口35は排気口34とは別の位置に設けられる。
 このイオン発生機によれば、イオン発生時以外には、少なくとも排気口34から異物、ほこり等、塵埃等が内部に入り込むのを避けるために、排気口34には排気用開閉蓋が設けられている。また必要に応じて吸気口35にも、吸気口35を開閉する吸気用開閉蓋が設けられる。
 そこで、排気用開閉蓋および吸気用開閉蓋は、開閉状態を変えるために開閉機構(開閉駆動を行うモータ、およびモータの回転を伝えるカム等を含む伝達部材等からなる)が設けられ、開閉機構を制御する開閉制御部が別途設けられている。
 すなわち、イオンを放出する場合は、吸気口35および排気口34の開閉蓋を開放し、イオンを放出しない場合は、吸気口35および排気口34の開閉蓋を閉鎖させる。このような開閉制御をすることによって、イオンを放出しない場合に、ほこりや異物が吸込口および排気口から侵入することが防止できる。
 また、所定の動作モードに対応させて排気口と吸気口の開閉を制御して、必要なときにイオンを発生して室内に放出することにより、イオンによる室内の除菌と消臭または脱臭等を、適確に行うようにしてもよい。
 さらに、排気口と吸気口の開閉蓋の開閉度合い(開閉状態)を適宜調節できるようにすれば、イオンの放出量を制御することができる。このイオンの放出量を制御する例としては、送風制御部33による送風ファンの回転速度を制御することでもイオン放出量を制御できる。したがって、送風制御部33および開閉蓋制御部による制御に基づき、イオンの放出、その放出量の制御を細かく制御することができる。
 なお、イオン発生部32の動作を停止した状態で、送風ファンを駆動することで空気を浄化する空気清浄機の役割を担う、自走式の空気清浄機として機能する。これらは、機能、役割を果たす装置は本発明に含まれることは言うまでもない。
<自走式電子機器の音声認識に基づく動作の説明>
 図4に、この発明の自走式電子機器の一実施例の概略動作のフローチャートを示す。 ここでは、主として、音声入力部18により入力された音声を認識して、認識動作情報52の中に認識単語55と一致する単語がある場合に、その単語に対応づけられた機能を実行する処理について示す。
 ステップS1において、制御部11は、音声入力部18から何らかの音が入力されているか否かをチェックする。音が検出された場合はステップS2へ進み、そうでない場合はステップS1をループする。
 何らかの音が入力されているか否かは、たとえば、所定レベル以上の強度の信号が、所定の時間以上継続して検出された場合に、音が入力されたと判断すればよい。あるいは、所定レベル以上の強度の信号が検出され、その後無音状態が一定時間以上検出された場合に、音が入力されたと判断すればよい。検出された音は、入力音声データ54として、一時的に記憶される。
 ステップS2において、制御部11は、検出された音が、音声か否かチェックする。すなわち、単なる物音ではなく、人の声(音声)か否かを判断する。
 音声であるか否かは、検出された音の周波数成分を解析し、主として人間が発することのできる周波数帯域の音響データが含まれているか否かで判断すればよい。
 たとえば、検出された音の周波数成分のほとんどが、100Hzから数キロHz程度の帯域であれば、入力された音は人の声であると判断する。
 音声が入力されたと判断された場合は、ステップS3へ進み、そうでない場合は、ステップS4へ進む。
 ステップS4において、入力された音は音声ではないので、その音に対応した動作が予め設定されていれば、その対応動作を実行する。たとえば、留守による監視モードが設定されている状態で、複数のマイクにより音が検出された場合は、その音の方向を検知し、静止画を撮影することが予め設定されていたとすると、音の方向検知処理と、その音の方向への移動処理と、音の方向の空間の静止画の撮影処理とを行う。
 その他にも、検出された音を解析して、音の種類や音を発した物体を特定して、撮影処理などの動作をしてもよい。
 対応動作を実行した後は、ステップS1へ戻る。
 ステップS3において、音声認識部19が、入力された音声に対して、音声認識処理を実行する。ここでは、上記したように、音声登録情報53を用いて、入力された音声と一致する単語を選択し、認識単語55として記憶する。
 ステップS5において、認識動作情報52の中に、記憶された認識単語55と、一致可能な単語があるか否かをチェックする。
 ステップS6において、一致可能な単語がある場合は、ステップS7へ進み、そうでない場合はステップS9へ進む。
 ステップS7において、認識動作情報52の中で一致可能な単語と対応づけられている認識動作を実行する。たとえば、認識動作として、LED点滅が設定されている場合は、その設定動作を行う。このとき、認識動作とともに、対応づけられて記憶されている返答音声があれば、その返答音声を音声出力部から出力する。
 ステップS8において、機能実行部21が、一致可能な単語と対応づけられている対応機能を実行する。たとえば、回転機能、移動機能、あるいは撮影機能を実行する。対応機能としては、図3(a)に示したように、認識単語の内容によって異なる動作が設定されている。この対応機能を実行した後、ステップS1へ戻る。
 ステップS9において、認識動作情報52の中に、認識単語55と一致可能な単語が設定されていなかったので、不認識動作を実行する。不認識動作とは、たとえば、部外者(住居人以外)、不審者、その他不認識者等として、防犯、監視の意味で撮影機能を実行したり、認識動作と異なるLEDの点灯、ダンシング動作、不認識を示す音声出力やアラーム出力のような動作である。ただし、不認識動作として予め設定されている動作がない場合は、特に何の動作を行わなくてもよい。不認識動作を実行した後、ステップS1へ戻る。
 以上が、音声認識に基づいて行われる概略動作であるが、認識単語55の内容によって、ステップS8の対応機能として実行する処理が異なる。
 図5に、ステップS8の対応機能の実行処理の一実施例のフローチャートを示す。
 ここでは、図3(a)に示す認識動作情報52のうち、1番目の「観察して」という単語(短文)が認識単語として認識された場合に、実行される対応機能の具体例を示している。
 すなわち、回転動作と、静止画撮影処理が行われ、現在位置から見た前方や後方の空間に対する数枚の静止画が撮影される。
 ステップS21において、カメラ22を起動させる。
 ステップS22において、撮影した回数を示す変数mを初期化する。すなわち、変数m=0に設定する。
 ステップS23において、m≧設定回数nか否かをチェックする。ここで、設定回数nは、予め設定された撮影回数であり、この設定回数nだけ、静止画を撮影して保存するものとする。たとえば、4回の撮影を行う場合は、n=4に設定しておく。
 また、4回の撮影を行う場合において、たとえば、現在の移動方向に対して前方、後方、左方向、右方向の4つの方向を撮影する場合は、1つの撮影が終了した後、90度だけ回転する動作を行い、その方向の撮影を行うようにすればよい。
 ステップS23において、m≧nである場合、現在撮影した回数mは、すでに設定回数nとなっているので、撮影処理を終了し、ステップS28へ進む。
 一方、m<nの場合は、まだ現在の撮影回数が設定回数nに達していないので、ステップS24へ進む。
 ステップS24において、カメラ22によって、現在の移動方向の前方にある空間の静止画を撮影する。
 ステップS25において、撮影された静止画を撮影画像56として、記憶部51に保存する。
 ステップS26において、別の方向の静止画を撮影するために、一定角度の回転動作を行う。たとえば、4枚の画像撮影を行う場合は、90度だけ右回転(あるいは左回転)を行う。あるいは、設定された対応機能に基づいて、回転動作ではなく、所定方向へ所定の距離だけ移動する動作を行ってもよい。
 ステップS27において、1回の撮影が終了したので、現在の撮影回数mに、1を加算する(m=m+1)。
 その後、次の撮影をするために、ステップS23へ戻り、撮影回数mが設定回数nに等しくなるまで、ステップS24からS27までの処理を繰り返す。
 ステップS28において、所定の設定回数nの撮影が終了したので、画像送信条件を満たしているかどうかをチェックする。画像送信条件を満たしている場合は、ステップS29へ進み、そうでない場合は処理を終了し、図4のステップS1へ戻る。
 ここで、画像送信条件とは、撮影した画像を、たとえば、ユーザの操作している端末へ送信するかどうか、サーバ等の外部装置へ送信するかどうかを決定する条件を意味する。
 たとえば、自走式電子機器1の通信部24を介して、PC、TEあるいはSVと通信可能な状態にある場合は、送信すると判断する。
 また、サーバSVから記憶部51に保存された撮影画像56を送ることを要求する命令が受信されている場合は、サーバに送信すると判断する。
 あるいは、同じ建物にいる利用者が所有するPCからの送信要求が受信されている場合も、撮影画像を送信すると判断する。
 したがって、画像送信条件としては、自走式電子機器の現在の動作状況やネットワークとの接続状態、外部装置からの送信要求の有無などが考えられるが、これらに限るものではなく、この他にも実際の運用状態に対応して、さまざまな条件が設定可能である。
 また、送信される画像の種類や枚数、すべての撮影画像を送るのか一部分の画像のみを送るのか、画像のサイズや画素数を変換して送るのかなどの条件、あるいは即座に送るのか後ほど送るのか指定された日時に送るのか、等の種々の条件が設定可能である。
 ステップS29において、上記したような画像送信条件を満たす場合は、撮影した静止画を、所定の外部装置(PC、TEあるいはSV)へ送信する。その後、処理を終了し、図4のステップS1へ戻る。
 このように、音声認識された人の音声に対応づけて、撮影機能などの種々の対応機能を予め登録しておくことにより、利用者は、直接自走式電子機器に備えられた操作スイッチを入力しなくても、あるいは、遠隔リモコンを操作しなくても、さらに近くに自走式電子機器がいない場合やリモコンが見つからない場合や、リモコンからの指示信号が自走式電子機器に届かない場合などにおいても、利用者の音声に基づいて、容易に自走式電子機器に対して所望の動作をさせることができる。
 特に、この自走式電子機器は、音声入力と撮影機能と自走機能とを備えているので、利用者が音声を発することにより、自律的に移動した後に所望の空間の画像撮影が可能である。
 また、自走式電子機器の1つである自走式掃除機においては、たとえば、所定の領域の掃除が終了した後に、離れた場所にいる利用者が自走式掃除機に対して、掃除後の状況を確認したい位置の画像を撮影することを意味する単語を音声で発生することにより、自走式掃除機がその単語を認識した後、確認すべき位置へ自律的に移動して、所望の位置の画像を撮影して、利用者の所有する携帯端末へその画像を送信させることができる。
 すなわち、利用者は、所定の音声を発することにより、利用者が所望の位置に出向かなくても、その位置の自走式掃除機による掃除後の状況を、画像で容易に確認することができる。
 また、自走式掃除機の場合は、本来の掃除機能とは別に、カメラとマイクを備えることにより、音声認識を行うことができるので、自走式掃除機を音声で操作し、ユーザの任意の場所を簡単に掃除させることができる。さらに、掃除中のカメラ撮影によって部屋の環境を把握し、部屋を効率的に移動したり、ゴミを認識してその個所を重点的に掃除したり、ゴミの映像を撮影して後ほど確認したりすることができる。また、防犯用ロボット、コミュニケーションを図るための自走式ロボットとしての役割、機能を達成できる。
  1 自走式電子機器
  2 筐体
 2b 天板
 2c 側板
  3 蓋部
 10 サイドブラシ
 11 制御部
 12 走行制御部
 13 車輪
 14 障害検知部
 15 充電池
 16 電池残量検出部
 17 操作入力部
 18 音声入力部
 19 音声認識部
 20 音声出力部
 21 機能実行部
 22 撮影部
 23 照明部
 24 通信部
 31 集塵部
 32 イオン発生部
 33 送風制御部
 34 排気口
 35 吸気口
 51 記憶部
 52 認識動作情報
 53 音声登録情報
 54 入力音声データ
 55 認識単語
 56 撮影画像
101 LAN
102 パソコンPC
103 携帯端末TE
111 ネットワーク(WAN)
112 サーバSV
201 自走式掃除機

Claims (7)

  1.  音声を入力する音声入力部と、
     筐体と、
     前記筐体を移動させる走行制御部と、
     前記入力された音声を認識する音声認識部と、
     前記音声認識部が前記入力された音声を認識した結果に基づいて、予め定められた応答機能を実行する機能実行部とを備えたことを特徴とする自走式電子機器。
  2.  画像を撮影する撮影部をさらに備え、
     前記応答機能は、前記撮影部によって画像を撮影させる機能であることを特徴とする請求項1に記載の自走式電子機器。
  3.  前記音声認識部が認識した音声に、前記応答機能を実行することを要求する所定の単語が含まれている場合に、前記機能実行部が前記所定の機能を実行することを特徴とする請求項1又は2に記載の自走式電子機器。
  4.  単語と、単語が音声入力された場合に実行すべき前記応答機能とを対応づけた認識動作情報を記憶した記憶部をさらに備え、
     前記音声認識部が入力音声を認識することによって得られた認識単語と一致可能な単語が、前記認識動作情報に記憶されている場合、
     前記機能実行部が、前記一致可能な単語に対応づけて記憶されている認識動作情報の前記応答機能を実行することを特徴とする請求項1ないし3のいずれかに記載の自走式電子機器。
  5.  前記応答機能として、所定の位置へ移動して撮影を行うという機能が予め設定されている場合に、
     前記応答機能は、
     前記走行制御部によって、前記筐体を前記所定の位置へ移動させた後、
     前記撮影部によって、画像を撮影させる機能であることを特徴とする請求項4に記載の自走式電子機器。
  6.  ネットワークを介して外部装置と通信する通信部をさらに備え、前記撮影部によって撮影された画像を前記外部装置へ送信することを特徴とする請求項1ないし5のいずれかに記載の自走式電子機器。
  7.  掃除機能を実行する集塵部、またはイオンを発生するイオン発生部をさらに備えたことを特徴とする請求項1ないし6のいずれかに記載の自走式電子機器。
PCT/JP2012/081374 2012-02-17 2012-12-04 自走式電子機器 WO2013121653A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201280068257.XA CN104080386B (zh) 2012-02-17 2012-12-04 自走式电子设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-032941 2012-02-17
JP2012032941A JP2013169222A (ja) 2012-02-17 2012-02-17 自走式電子機器

Publications (1)

Publication Number Publication Date
WO2013121653A1 true WO2013121653A1 (ja) 2013-08-22

Family

ID=48983795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/081374 WO2013121653A1 (ja) 2012-02-17 2012-12-04 自走式電子機器

Country Status (3)

Country Link
JP (1) JP2013169222A (ja)
CN (1) CN104080386B (ja)
WO (1) WO2013121653A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106175603A (zh) * 2015-04-30 2016-12-07 青岛海高设计制造有限公司 地面清洁器及其控制方法
US11380319B2 (en) * 2017-07-24 2022-07-05 Kyocera Corporation Charging stand, mobile terminal, communication system, method, and program

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208215B4 (de) * 2015-05-04 2024-05-02 Stabilus Gmbh Elektromechanische Steuerungsanordnung für einen Stuhl
JP2017127595A (ja) * 2016-01-22 2017-07-27 シャープ株式会社 ロボット掃除機
CN106264336A (zh) * 2016-08-18 2017-01-04 苏州凯丽达电器有限公司 一种具有语音识别功能的家庭多功能吸尘器
CN106308686A (zh) * 2016-08-30 2017-01-11 苏州凯丽达电器有限公司 一种用于处理家庭角落的移动清理吸尘车
CN106388713A (zh) * 2016-10-31 2017-02-15 南昌大学 智能扫地机器人
JP6348947B2 (ja) * 2016-11-07 2018-06-27 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器、移動撮影システム、移動撮影方法及び移動撮影指示方法
CN107736037A (zh) * 2017-08-30 2018-02-23 万魔声学科技有限公司 声音播放方法、设备及可读存储介质
JP7124280B2 (ja) * 2017-09-13 2022-08-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN107638137A (zh) * 2017-09-14 2018-01-30 广东格兰仕集团有限公司 一种声音识别的机器人及其识别方法
CN110263601A (zh) * 2018-03-12 2019-09-20 杭州萤石软件有限公司 一种充电座识别方法及移动机器人
JP7358051B2 (ja) * 2019-01-28 2023-10-10 株式会社日立製作所 移動型空気清浄機
WO2020250984A1 (ja) * 2019-06-11 2020-12-17 Tradfit株式会社 プログラム、情報処理方法、情報処理装置およびロボット
WO2020250473A1 (ja) * 2019-06-11 2020-12-17 Tradfit株式会社 プログラム、情報処理方法および情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135186A (ja) * 1998-10-30 2000-05-16 Ym Creation:Kk 掃除玩具
JP2005046616A (ja) * 2003-07-29 2005-02-24 Samsung Kwangju Electronics Co Ltd 陰イオン発生器を具備するロボット掃除機
JP2006007368A (ja) * 2004-06-25 2006-01-12 Funai Electric Co Ltd 自走式掃除機
JP2006231447A (ja) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 指示位置または特定物の確認方法及び座標獲得方法並びに装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100476427B1 (ko) * 2002-10-07 2005-03-16 엘지전자 주식회사 청소기의 제어장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135186A (ja) * 1998-10-30 2000-05-16 Ym Creation:Kk 掃除玩具
JP2005046616A (ja) * 2003-07-29 2005-02-24 Samsung Kwangju Electronics Co Ltd 陰イオン発生器を具備するロボット掃除機
JP2006007368A (ja) * 2004-06-25 2006-01-12 Funai Electric Co Ltd 自走式掃除機
JP2006231447A (ja) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd 指示位置または特定物の確認方法及び座標獲得方法並びに装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106175603A (zh) * 2015-04-30 2016-12-07 青岛海高设计制造有限公司 地面清洁器及其控制方法
US11380319B2 (en) * 2017-07-24 2022-07-05 Kyocera Corporation Charging stand, mobile terminal, communication system, method, and program

Also Published As

Publication number Publication date
CN104080386B (zh) 2017-03-08
CN104080386A (zh) 2014-10-01
JP2013169222A (ja) 2013-09-02

Similar Documents

Publication Publication Date Title
WO2013121653A1 (ja) 自走式電子機器
WO2014162782A1 (ja) 自走式掃除機
US7789951B2 (en) Method and system for moving air purifier
JP6109477B2 (ja) 自走式電子機器、端末装置、および操作システム
RU2279244C2 (ru) Робот-чиститель, оснащенный генератором отрицательных ионов
JP2013230294A (ja) 自走式掃除機
JP2013169221A (ja) 自走式掃除機
WO2014167896A1 (ja) 電子機器および自走式掃除機
JP2013242738A (ja) ロボット装置、端末装置、ロボット装置の遠隔操作システム及びプログラム
JP6081060B2 (ja) ロボット装置、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014018562A (ja) 自走式電子機器および自走式電子機器の充電台への帰還方法
JP2013171314A (ja) 自走式電子機器
JP2015142328A (ja) 学習リモコン装置およびこれを備える自走式電子機器ならびにリモコン学習方法
JP6106490B2 (ja) 自走式電子機器および自走式電子機器の走行領域指定システム
JP2012002461A (ja) 空気調節機
KR102001782B1 (ko) 인공지능을 이용하여 입력된 소리에 기반하여 공기청정기의 동작을 제어하는 방법 및 이를 구현하는 공기청정기
JP2013233222A (ja) 充電台及び自走式電子機器に蓄積した静電気の除電方法
JP2013250747A (ja) 自走式電子機器
WO2013108497A1 (ja) 自走式電子機器および自走式イオン発生機
JP6397974B2 (ja) 自走式掃除機
JP2015156107A (ja) 自走式電子機器
KR102093710B1 (ko) 로봇 청소기 및 그 동작방법
JP2020150814A (ja) 捕虫装置
JP2013233230A (ja) 自走式イオン放出装置
JP2014154011A (ja) 自走式電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12868472

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12868472

Country of ref document: EP

Kind code of ref document: A1