WO2019193979A1 - 電動工具 - Google Patents

電動工具 Download PDF

Info

Publication number
WO2019193979A1
WO2019193979A1 PCT/JP2019/011787 JP2019011787W WO2019193979A1 WO 2019193979 A1 WO2019193979 A1 WO 2019193979A1 JP 2019011787 W JP2019011787 W JP 2019011787W WO 2019193979 A1 WO2019193979 A1 WO 2019193979A1
Authority
WO
WIPO (PCT)
Prior art keywords
power tool
user
control unit
unit
voice recognition
Prior art date
Application number
PCT/JP2019/011787
Other languages
English (en)
French (fr)
Inventor
和生 土橋
格 無類井
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP19781003.9A priority Critical patent/EP3778128A4/en
Priority to CN201980023070.XA priority patent/CN111989190B/zh
Priority to US17/045,134 priority patent/US20210149626A1/en
Publication of WO2019193979A1 publication Critical patent/WO2019193979A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25FCOMBINATION OR MULTI-PURPOSE TOOLS NOT OTHERWISE PROVIDED FOR; DETAILS OR COMPONENTS OF PORTABLE POWER-DRIVEN TOOLS NOT PARTICULARLY RELATED TO THE OPERATIONS PERFORMED AND NOT OTHERWISE PROVIDED FOR
    • B25F5/00Details or components of portable power-driven tools not particularly related to the operations performed and not otherwise provided for
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Definitions

  • the present invention relates to an electric tool.
  • Patent Document 1 discloses a power tool system including a power tool and an operation plate that can be attached to and detached from the power tool.
  • a user attaches an operation plate corresponding to the work content to the electric tool, and sets the mode changeover switch of the operation plate to a desired mode.
  • the communication unit of the electric tool receives mode information for determining drive control of the motor from the operation plate and outputs it to the microcomputer, and the microcomputer performs drive control of the motor based on the input mode information.
  • Patent Document 1 in order to change the drive control mode of the motor, the user must attach the operation plate to the electric tool and operate the mode changeover switch, which takes some time and effort. For example, when it is necessary to change the drive control mode during work at a high place, it is not preferable to cause the user to perform a troublesome operation. Thus, it is required to realize a mechanism that allows the user to easily set the drive control mode. In recent years, interest in work traceability has increased, and there has been a demand for a mechanism that can efficiently record work results using a power tool. In addition to these requirements, the present inventor has focused on an approach for improving the information input interface as one means for meeting various requirements.
  • an object of the present invention is to provide a technology related to an information input interface excellent in usability.
  • an electric tool includes an operation switch that can be operated by a user, an output shaft to which a tip tool can be attached, a drive unit that drives the output shaft, and operation of the operation switch. And a control unit that controls the operation of the drive unit.
  • the control unit can execute processing related to the electric power tool based on the sound input to the microphone.
  • FIG. 1 shows an outline of a portable electric tool according to an embodiment of the present invention.
  • the electric power tool 1 includes a housing 2 in which a drive unit 3, a control unit 10, an information output unit 11, a microphone 12, a communication unit 13, a sensor 14, a memory 17, and a battery 18 are arranged.
  • the battery 18 is provided on the lower end side of the housing 2 and supplies power to each component in the electric power tool 1.
  • the lower end side of the housing 2 may be formed as a battery pack separate from the tool body, and may be detachable from the tool body.
  • the information output unit 11 is an output interface that outputs information to the user, and may include a speaker that outputs information as a voice and / or a display that outputs information as a screen.
  • the microphone 12 is an input interface for inputting a sound signal generated by collecting ambient sounds. Some configurations of the information output unit 11 and the microphone 12 may be provided to be exposed to the outside of the housing 2.
  • the communication unit 13 is a module that wirelessly communicates with an external device.
  • the sensor 14 includes a motion sensor 15 and a touch sensor 16.
  • the motion sensor 15 includes a triaxial angular velocity sensor and a triaxial acceleration sensor, and the sensor value of the motion sensor 15 is used to detect the posture and movement of the electric power tool 1.
  • the sensor value of the motion sensor 15 may be used to detect a hit by the impact mechanism.
  • the touch sensor 16 is a resistive film type or capacitance type sensor, and detects a user's contact.
  • the touch sensor 16 may be provided in the grip portion of the housing 2 and used to detect whether the sensor value of the touch sensor 16 is holding the electric tool 1 by the user.
  • the touch sensor 16 may be provided on the upper portion of the housing 2, and the sensor value of the touch sensor 16 may be used to detect an instruction from the user.
  • the drive unit 3 includes a motor 4 that is a drive source and a drive block 6 that is connected to a motor shaft 5 of the motor 4 to drive the output shaft 7.
  • a chuck mechanism 8 is connected to the output shaft 7 so that a tip tool such as a driver or a drill can be attached.
  • the drive block 6 has a transmission mechanism that transmits the rotational output of the motor 4 to the tip tool.
  • the drive block 6 includes a power transmission mechanism that transmits the rotational torque of the motor shaft 5 to the output shaft 7, and the power transmission mechanism includes a planetary gear reduction mechanism that meshes with a pinion gear attached to the motor shaft 5.
  • the power transmission mechanism includes an impact mechanism that generates an intermittent rotary impact force on the output shaft 7.
  • the control unit 10 is realized by a microcomputer mounted on a control board.
  • the control unit 10 has a function of comprehensively controlling the electric tool 1 and executes various processes related to the electric tool 1.
  • An operation switch 9 that can be operated by the user is provided on the front side of the grip portion of the housing 2.
  • the operation switch 9 may be a trigger switch that can be pulled.
  • the control unit 10 controls on / off of the motor 4 by operating the operation switch 9 and controls the voltage applied to the motor 4 according to the operation amount of the operation switch 9 to adjust the motor rotation speed.
  • the microphone 12 functions as an information input interface for inputting a sound signal to the control unit 10, and the control unit 10 relates to the electric tool 1 based on the sound input to the microphone 12.
  • the process can be executed. Since the power tool 1 is equipped with the microphone 12, the user can control the operation of the power tool 1 by speaking operation information instead of operating the operation button.
  • the user sets a parameter value for controlling the operation of the motor 4 in the electric tool 1 for torque management.
  • the user utters a parameter setting value for torque management, so that the control unit 10 can register the parameter value in the memory 17 based on the user voice input to the microphone 12.
  • the operation control of the motor 4 for torque management is put into practical use by various methods depending on the type of the electric tool 1.
  • the tightening torque value is estimated, the seating of the screw member is determined from the estimated tightening torque value, and the number of striking after the seating is set Then, shut-off control for automatically stopping the motor rotation is performed.
  • the electric power tool 1 is an impact rotary tool, the user sets a “seating determination level” and a “torque setting step number” as parameters for torque management in the electric power tool 1 before starting the work.
  • the seating determination level is a parameter that determines a torque value for determining the seating of the screw member. For example, the user sets one of nine options (L1 to L9). It is preferable that a high seating determination level is set when paint or the like is attached to the work target and the midway load is high, and a low seating determination level is set when the midway load is low.
  • the number of torque setting steps is a parameter that determines the number of striking after shutting down (shutoff striking number) for automatically stopping the motor 4.
  • shutoff striking number For example, the user sets one of 100 options (N00 to N99).
  • Each set stage number is associated with the number of shut-off hits after sitting, for example, N00 10 times, N01 12 times, N02 14 times, N03 16 times, May be associated.
  • the seating determination level and the parameter value of the torque setting step number are stored in the master table in the memory 17.
  • the user sets each parameter value in the electric tool 1 by speaking “sitting determination level” and “torque setting step number” for obtaining the target torque value before starting the work.
  • the user speaks the “seating determination level” and the “torque setting step number” for obtaining the target torque value according to the changed work target, and thereby each parameter value. Is set to the electric tool 1.
  • the set parameter value is stored in the memory 17 and used for driving control of the motor 4 by the control unit 10.
  • FIG. 2 shows functional blocks of the control unit 10.
  • the control unit 10 includes an operation reception unit 30, a drive control unit 31, an execution function determination unit 32, a sound processing unit 33, an input reception unit 36, a parameter processing unit 37, a tool state determination unit 38, a user authentication unit 39, and work information processing.
  • the unit 40 is provided to execute various processes related to the electric power tool 1.
  • the sound processing unit 33 has a function of processing sound input to the microphone 12, and includes a sound analysis unit 34 that performs frequency analysis of the input sound, and a speech recognition unit 35 that recognizes speech uttered by the user. .
  • each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
  • the operation accepting unit 30 accepts an operation of the operation switch 9 by the user and provides it to the drive control unit 31.
  • the drive control unit 31 controls the operation of the drive unit 3 by supplying electric power to the motor 4 according to the ON operation of the operation switch 9.
  • the user sets parameter values for torque management before starting work, and the drive control unit 31 is based on the parameter values stored in the memory 17.
  • the rotation of the motor 4 is controlled.
  • the control unit 10 can execute various processes related to the electric power tool 1 based on the sound input to the microphone 12.
  • the voice recognition unit 35 has a function of performing voice recognition processing on the user's utterance, and each function in the control unit 10 is obtained as a result of the voice recognition unit 35 performing voice recognition processing on the sound input to the microphone 12. Based on the above, it is possible to execute processing related to the electric power tool 1. That is, the user can cause the control unit 10 to execute various processes by speaking into the microphone 12.
  • the voice recognition unit 35 plays an important role in realizing voice input by the user, but its power consumption is large compared to other components. Since the power tool 1 is driven by the battery 18, unnecessary power consumption is not preferable. If the voice recognition function by the voice recognition unit 35 is always on (active), the voice recognition unit 35 may recognize an irrelevant voice, and the power tool 1 may malfunction based on the recognized voice. Therefore, the execution function determination unit 32 monitors the state of the electric power tool 1 and determines whether or not the voice recognition function can be executed so that the voice recognition function by the voice recognition unit 35 is turned on only when necessary.
  • FIG. 3 is a flowchart for determining whether to execute the voice recognition function.
  • the execution function determination unit 32 determines whether or not the operation switch 9 is in the ON state (S10).
  • the on state of the operation switch 9 is a state in which the user is operating the operation switch 9, and the off state of the operation switch 9 is a state in which the user is not operating the operation switch 9.
  • the execution function determination unit 32 sets the voice recognition function to off (S16).
  • the voice recognition function is set to OFF, the voice recognition unit 35 does not perform voice recognition processing.
  • the operation switch 9 is in the ON state, the operation noise of the drive unit 3 is generated from the electric power tool 1, but the user's utterance is erroneously recognized even if the voice recognition unit 35 performs voice recognition processing under the situation. There is a high possibility of doing. Therefore, in order to avoid wasteful power consumption, when the operation switch 9 is in the on state, the speech recognition unit 35 is prohibited from performing speech recognition processing.
  • the execution function determination unit 32 determines whether or not the power tool 1 is gripped by the user (S12). The execution function determination unit 32 determines from the sensor value of the motion sensor 15 whether or not the power tool 1 is gripped by the user. When the touch sensor 16 is provided in the grip unit, the execution function determination unit 32 may determine whether or not the electric tool 1 is gripped by the user from the sensor value of the touch sensor 16.
  • the execution function determination unit 32 sets the voice recognition function to off (S16).
  • the electric power tool 1 of the embodiment is portable, and is always held by a user when used. The fact that it is not gripped by the user indicates that it is in a state of being placed on the floor or a desk while the power is on, and it is unclear whether there is a future use plan. Therefore, when the power tool 1 is not gripped by the user, the execution function determination unit 32 sets the voice recognition function off to avoid unnecessary power consumption. That is, if the power tool 1 is not gripped by the user, the voice recognition unit 35 does not perform voice recognition processing.
  • the execution function determination unit 32 sets the voice recognition function to on (S14). Since the gripping by the user indicates that the electric tool 1 is likely to be used for work from now on, the voice recognition unit 35 performs a voice recognition process on the user utterance, and displays the result of the voice recognition process. It is preferably provided as a voice input for the processing function of the control unit 10.
  • FIG. 3 shows the determination steps of S10 and S12, but the execution function determination unit 32 determines whether or not the voice recognition function can be executed by only one of the determination steps, and the operation of the voice recognition unit 35 is performed. You may control.
  • the execution function determination unit 32 uses only the determination step of S10, the voice recognition unit 35 does not perform voice recognition processing when the operation switch 9 is in the on state, and does not perform voice recognition processing when the operation switch 9 is in the off state. Perform recognition processing.
  • the execution function determination unit 32 may set the voice recognition function to ON only for a predetermined time (for example, 30 seconds) after the operation switch 9 is turned off.
  • the voice recognition unit 35 does not perform the voice recognition process when the power tool 1 is not gripped by the user, and the power tool 1 is When it is in a state of being gripped by the voice recognition processing, voice recognition processing is performed. In any case, it is preferable that the execution function determination unit 32 restricts unnecessary power recognition processing opportunities by the voice recognition unit 35 and suppresses unnecessary power consumption.
  • the execution function determination unit 32 may determine whether or not the voice recognition function can be executed by employing an additional determination step in the determination step of S12. For example, the execution function determination unit 32 sets the voice recognition function to ON when the power tool 1 is gripped by the user and the power tool 1 assumes a predetermined posture or is allowed to move in a predetermined manner. It's okay.
  • the predetermined posture may be, for example, a posture with the tip tool side facing upward
  • the predetermined motion may be, for example, a motion that draws a circle with the electric tool 1 in the air.
  • the predetermined posture or movement is consciously performed by the user in order to turn on the voice recognition function, and the voice recognition unit 35 causes the electric tool 1 to take a predetermined posture or perform a predetermined movement. May be configured to perform voice recognition processing.
  • the execution function determination unit 32 may set the voice recognition function to ON only for a predetermined time (for example, 30 seconds) after the electric tool 1 takes a predetermined posture or after a predetermined movement. This mechanism can greatly limit the time during which the voice recognition function of the voice recognition unit 35 is turned on, which contributes to the suppression of power consumption.
  • the execution function determination unit 32 manages on / off of the voice recognition function by the voice recognition unit 35.
  • the processing function of the control unit 10 executes processing related to the electric tool 1 based on a result of the voice recognition unit 35 performing voice recognition processing on the sound input to the microphone 12.
  • the user since the control unit 10 has various processing functions, the user utters information specifying the processing function and calls the processing function, and then sets the content to be processed by the processing function. Speak. For example, when the user sets the parameter value, the user utters “set parameter” and an activation word for activating the parameter processing unit 37. When the user registers the history of work information, the user utters “register work information” and an activation word for activating the work information processing unit 40. In the embodiment, after the user utters information specifying the processing function of the control unit 10 and activates the corresponding processing function, the user utters the processing content.
  • the voice recognition unit 35 converts the user's utterance into text data by voice recognition processing
  • the input reception unit 36 receives the text data as voice input by the user.
  • the input reception unit 36 provides the execution function determination unit 32 with the text data of the activation word received before the processing function is activated.
  • the execution function determination unit 32 identifies the processing function to be activated from the text data of the activation word. For example, if the text data is “set parameter”, the execution function determination unit 32 activates the parameter processing unit 37. If the text data is “register work information”, the execution function determination unit 32 activates the work information processing unit 40. If the text data is “perform user authentication”, the execution function determination unit 32 activates the user authentication unit 39.
  • the correspondence relationship between the activation word and the processing function to be activated is stored in the memory 17, and the execution function determination unit 32 refers to the correspondence relationship stored in the memory 17 and identifies the processing function to be executed.
  • the input reception unit 36 when receiving the text data from the voice recognition unit 35, provides the text data to the activated processing function.
  • the processing function receives the voice input by the user and executes the corresponding processing.
  • the processing function processes a user's voice input in a state where the processing function is activated by the activation word.
  • ⁇ Parameter value setting process> The user sets a parameter value for controlling the operation of the drive unit 3 in the electric tool 1 for the purpose of torque management.
  • the electric tool 1 is an impact rotary tool
  • the user sets a “seating determination level” and a “torque setting step number”.
  • the input receiving unit 36 receives the text data of the parameter value as a result of the voice recognition processing performed by the voice recognition unit 35 and provides it to the parameter processing unit 37.
  • the parameter processing unit 37 overwrites and updates the parameter value stored in the memory 17 with the parameter value provided from the input receiving unit 36. Accordingly, the parameter processing unit 37 sets the parameter value provided from the input receiving unit 36 as a parameter value used by the drive control unit 31 for driving control of the motor 4.
  • the parameter processing unit 37 sets a parameter value for torque management based on the result of the speech recognition processing by the speech recognition unit 35. Since the parameter value is reflected in the drive control of the motor 4, it may not be appropriate to update the parameter value depending on the state of the electric power tool 1. Therefore, the execution function determination unit 32 monitors the state of the electric power tool 1 and determines whether or not the parameter setting function by the parameter processing unit 37 can be executed.
  • FIG. 4 shows a flowchart for determining whether to execute the parameter value setting function.
  • 3 shows a flowchart for determining whether or not to execute the voice recognition function.
  • the execution function determining unit 32 determines whether or not to execute the voice recognition function shown in FIG. 3 and whether or not to execute the parameter setting function shown in FIG. Are implemented as separate determination processes. In the embodiment, the execution function determination unit 32 determines whether to execute both the voice recognition function and the parameter setting function. However, in another example, only one of the execution permission determinations may be performed.
  • the execution function determination unit 32 determines whether or not the operation switch 9 is in an ON state (S20). When the operation switch 9 is in the ON state (Y in S20), the execution function determination unit 32 sets the parameter setting function to OFF (S26). When the parameter setting function is set to OFF, the parameter processing unit 37 does not perform parameter value setting processing. When the operation switch 9 is in the ON state, the drive control unit 31 controls the drive of the motor 4 based on the parameter value registered in the memory 17, and the parameter value being used is being driven. It is not preferable to change to. Therefore, when the operation switch 9 is in the ON state, the parameter processing unit 37 is prohibited from setting parameter values.
  • the execution function determination unit 32 determines whether or not the electric tool 1 is gripped by the user (S22).
  • the execution function determination unit 32 may determine whether or not the power tool 1 is gripped by the user from the sensor value of the motion sensor 15 or the sensor value of the touch sensor 16.
  • the execution function determination unit 32 sets the parameter setting function to off (S26).
  • the fact that the user is holding the power tool 1 is a condition for changing the parameter value in the power tool 1 by the utterance voice. Therefore, if the power tool 1 is not gripped by the user, parameter processing is performed.
  • the unit 37 does not perform parameter value setting processing.
  • the execution function determination unit 32 sets the parameter setting function to on (S24). Being gripped by the user indicates that the power tool 1 is likely to be used for work from now on. Therefore, the parameter processing unit 37 registers the parameter value provided from the input receiving unit 36 in the memory 17 and uses it as a parameter value for future motor drive control. If the operation switch 9 is turned on when the parameter processing unit 37 registers the parameter value in the memory 17, the drive unit 3 ignores the on operation of the operation switch 9 and does not operate the drive unit 3.
  • the execution function determination unit 32 determines whether or not the parameter setting function can be executed only in one of the determination steps, and the operation of the parameter processing unit 37 is performed. You may control.
  • the execution function determination unit 32 uses only the determination step of S20, the parameter processing unit 37 does not perform parameter value setting processing when the operation switch 9 is in the on state, and when the operation switch 9 is in the off state.
  • the parameter value setting process is performed.
  • the execution function determination unit 32 uses only the determination step of S22, the parameter processing unit 37 does not perform the parameter value setting process when the power tool 1 is not gripped by the user, and the power tool 1 Is in a state of being gripped by the user, parameter value setting processing is performed.
  • the execution function determination unit 32 determines whether or not the parameter setting function can be executed by the parameter processing unit 37 so that the parameter setting function is executed at an appropriate timing.
  • the user speaks the parameter value when setting the parameter value, and the parameter processing unit 37 sets the parameter value based on the parameter value provided from the input receiving unit 36.
  • the user speaks one of nine seating determination level options (L1 to L9), and speaks one of 100 torque setting step number options (N00 to N99).
  • the parameter processing unit 37 sets the parameter value in the memory 17 based on the voice input of “L5 N50”.
  • the user may utter information related to the work when setting the parameter value, and the parameter processing unit 37 may set the parameter value based on the information related to the work provided from the input receiving unit 36.
  • the parameter processing unit 37 can acquire the parameter value associated with the work place from the memory 17 and set the acquired parameter value.
  • the parameter processing unit 37 can acquire the parameter value associated with the work target from the memory 17 and set the acquired parameter value.
  • the parameter processing unit 37 can acquire the parameter value associated with the work target from the memory 17 and set the acquired parameter value.
  • the user can set the parameter value corresponding to the work content in the electric tool 1 by speaking the information related to the work.
  • the parameter processing unit 37 When the parameter processing unit 37 is provided with the text data subjected to the voice recognition processing from the input receiving unit 36, the parameter processing unit 37 does not immediately set the parameter value but instead changes the parameter value to the user via the information output unit 11. Is preferably notified.
  • the information output unit 11 may output information on the parameter value to be updated from a speaker or output it from a display.
  • the user receives the notification of the information regarding the parameter value, if the user agrees, the user speaks to that effect, and the parameter processing unit 37 acquires the text data indicating that the user has agreed from the input receiving unit 36.
  • the parameter processing unit 37 changes the parameter value after obtaining the text data. Note that the intention display of consent by the user may be received by the input receiving unit 36 by performing a predetermined touch operation on the touch sensor 16.
  • the parameter processing unit 37 performs the parameter value setting process after notifying the user that the parameter value is set via the information output unit 11 and obtaining consent from the user.
  • the user can recognize that the parameter value will be changed before the parameter value is changed. If the notified parameter value is different from the uttered parameter value due to erroneous recognition by the voice recognition unit 35, the user may utter the correct parameter value.
  • the user utters information related to work, and records information related to work in the memory 17.
  • the work information processing unit 40 is provided with text data of the work place from the input receiving unit 36 and stores information indicating the work place in the memory 17.
  • the work information processing unit 40 acquires information indicating the work result from the sensor 14.
  • the sensor 14 includes a torque measurement sensor, and the work information processing unit 40 acquires the tightening torque value of the work target measured by the torque measurement sensor as information indicating the work result.
  • the work information processing unit 40 acquires the tightening torque values of all work objects from the sensor 14 and stores them in the memory 17 as information indicating work results.
  • the work information processing unit 40 stores information indicating the work place and information indicating the work result in the memory 17 in association with each other in order to realize work traceability. This information can be used to determine whether the work at the work place has been performed properly.
  • the work information processing unit 40 may cause the communication unit 13 to transmit information indicating the associated work location and information indicating the work result to an external server. By collecting the work results at each work place on the external server, it is possible to determine whether an appropriate work has been performed for each work place.
  • the power tool 1 may include a user authentication function that uses a user's speech. For example, a password for authentication is registered in the memory 17, and the user speaks the password set in the power tool 1.
  • the user authentication unit 39 compares the text data of the spoken password with the password provided from the input receiving unit 36 and registered in the memory 17. At this time, if the passwords match, the user authentication unit 39 authenticates that the user who spoke is an appropriate user, and enables the user to use the power tool 1. On the other hand, if the passwords do not match, the user authentication unit 39 does not authenticate that the user who has spoken is an appropriate user, and therefore does not allow the user to use the tool.
  • the electric tool 1 can also execute user authentication using the sound analysis result by the sound analysis unit 34.
  • the voice print data of the registered user of the electric power tool 1 is stored in the memory 17.
  • the sound analysis unit 34 performs frequency analysis of the uttered user voice
  • the user authentication unit 39 compares the voice print data of the registered user stored in the memory 17 to determine whether the uttered user is a registered user. . Since the power tool 1 has a user authentication function, an unauthenticated user cannot use the power tool 1, and thus can reduce the theft risk of the power tool 1.
  • the electric tool 1 may have a determination function of analyzing the operation sound of the electric tool 1 input to the microphone 12 and self-determining the state of the electric tool 1.
  • the sound analysis unit 34 performs a frequency analysis of the operation sound of the power tool 1, and the tool state determination unit 38 compares the analyzed frequency characteristic with the reference frequency characteristic of the operation sound of the power tool 1.
  • the reference frequency characteristic is, for example, a frequency characteristic of operation sound generated in the electric tool 1 at the time of shipment, and is registered in the memory 17.
  • the tool state determination unit 38 determines abnormality or wear of the drive unit 3 when a frequency component that does not exist in the reference frequency characteristic is generated in the analyzed frequency characteristic. When the tool state determination unit 38 determines the occurrence of an abnormality or the like, it is preferable to notify the user via the information output unit 11.
  • the tool state determination unit 38 executes a state determination function based on the operation sound when the operation switch 9 is in the on state, and does not execute the state determination function when the operation switch 9 is in the off state. Note that when the occurrence of an abnormality or the like is determined, the tool state determination unit 38 may notify the occurrence of the abnormality or the like from the communication unit 13 to an external server.
  • the electric power tool 1 includes the microphone 12 and the sound processing unit 33.
  • the microphone 12 may be provided in another terminal device having a communication function, and the terminal device may transmit the sound signal collected by the microphone 12 to the electric tool 1.
  • the terminal device may further have the function of the sound processing unit 33, and the result of processing the sound signal collected by the microphone 12 may be transmitted to the electric tool 1.
  • the control part 10 in the electric tool 1 can perform the process regarding the electric tool 1 based on the sound input into the microphone 12 provided in another terminal device.
  • the terminal device may be a portable terminal device such as a smartphone or a tablet having a microphone and a wireless communication module.
  • the execution function determination unit 32 activates the corresponding processing function when the user speaks the processing function activation word.
  • the sound processing unit 33 may have a natural language processing function, and the natural language processing function may analyze a user's utterance and specify a processing function to be activated.
  • the user does not have to utter an activation word for activating a specific processing function, and the execution function determination unit 32 activates the processing function according to the content of the user's utterance. For example, when the user utters “L5 N50”, the natural language processing function may specify that the utterance is related to a parameter, and the execution function determination unit 32 may activate the parameter processing unit 37.
  • An electric tool (1) includes an operation switch (9) that can be operated by a user, an output shaft (7) to which a tip tool can be attached, and a drive unit (3) that drives the output shaft (7). ) And a control unit (10) for controlling the operation of the drive unit (3) according to the operation of the operation switch (9).
  • a control part (10) enables the process regarding the said electric tool (1) to be performed based on the sound input into the microphone (12).
  • the control unit (10) may be able to execute processing related to the electric tool (1) based on the result of performing voice recognition processing on the input sound.
  • the controller (10) may not perform the voice recognition process when the operation switch (9) is in the on state, and may perform the voice recognition process when the operation switch (9) is in the off state.
  • the control unit (10) does not perform voice recognition processing when the power tool (1) is not gripped by the user, and does not perform voice recognition processing when the power tool (1) is gripped by the user. Recognition processing may be performed.
  • the control unit (10) may perform a voice recognition process when the electric tool (1) is gripped by the user and takes a predetermined posture or when a predetermined movement is performed.
  • the control unit (10) may set a parameter value for controlling the operation of the drive unit (3) based on the result of voice recognition processing on the input sound.
  • the control unit (10) may set the parameter value based on the information regarding the work.
  • the control unit (10) may not set the parameter value when the operation switch (9) is in the on state, and may set the parameter value when the operation switch (9) is in the off state.
  • the control unit (10) does not set parameter values, and when the power tool (1) is gripped by the user, Parameter values may be set.
  • the control unit (10) may set the parameter value after notifying the user of setting the parameter value.
  • the control unit (10) may receive input of information indicating the work place and store the information indicating the work place and the information indicating the work result in association with each other.
  • the control unit (10) may transmit information indicating the associated work location and information indicating the work result to the outside.
  • the control unit (10) may have a determination function of analyzing the operation sound input to the microphone (12) and determining the state of the power tool (1). The determination function may be executed when the operation switch (9) is in an on state.
  • the control unit (10) may have a user authentication function based on sound input to the microphone (12).
  • the present invention can be used in the field of electric tools.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Portable Power Tools In General (AREA)
  • Manipulator (AREA)

Abstract

制御部10は、マイク12に入力された音にもとづいて、電動工具1に関する処理を実行可能とする。制御部10は、入力された音を音声認識処理した結果または音分析した結果にもとづいて、当該電動工具1に関する処理を実行する。制御部10は、操作スイッチ9がオン状態にあるとき、音声認識処理を行わず、操作スイッチ9がオフ状態にあるとき、音声認識処理を行う。また制御部10は、当該電動工具1がユーザにより把持されていない状態にあるとき、音声認識処理を行わず、当該電動工具1がユーザにより把持された状態にあるとき、音声認識処理を行う。

Description

電動工具
 本発明は、電動工具に関する。
 特許文献1は、電動工具と、電動工具に対して着脱可能な操作プレートとを備えた電動工具システムを開示する。特許文献1の電動工具システムでは、ユーザが、作業内容に応じた操作プレートを電動工具に装着し、操作プレートのモード切替スイッチを所望のモードに合わせる。電動工具の通信部は、操作プレートからモータの駆動制御を決めるモード情報を受信してマイコンに出力し、マイコンは、入力されるモード情報に基づいてモータの駆動制御を行う。
特開2016-120577号公報
 特許文献1によると、モータの駆動制御モードを変更するために、ユーザは操作プレートを電動工具に装着して、モード切替スイッチを操作しなければならず、若干の手間がかかる。たとえば高所での作業時に、駆動制御モードを変更する必要が生じた場合、ユーザに手間のかかる操作をさせることは好ましくない。そこで駆動制御モードをユーザが簡易に設定できる仕組みの実現が要求されている。また近年では、作業のトレーサビリティへの関心が高まり、電動工具を使用した作業結果を効率的に記録できる仕組みの実現が要求されている。これら以外にも電動工具に対して様々な要求が存在している中で、本発明者は、様々な要求に応える1つの手段として、情報入力インタフェースを改善するアプローチに注目した。
 そこで本発明の目的は、ユーザビリティに優れた情報入力インタフェースに関する技術を提供することにある。
 上記課題を解決するために、本発明のある態様の電動工具は、ユーザが操作可能な操作スイッチと、先端工具を取付可能な出力軸と、出力軸を駆動する駆動部と、操作スイッチの操作に応じて、駆動部の動作を制御する制御部と、を備える。制御部は、マイクに入力された音にもとづいて、当該電動工具に関する処理を実行可能とする。
実施形態に係る可搬式の電動工具の概要を示す図である。 制御部の機能ブロックを示す図である。 音声認識機能の実行可否判断のフローチャートを示す図である。 パラメータ設定機能の実行可否判断のフローチャートを示す図である。
 図1は、本発明の実施形態に係る可搬式の電動工具の概要を示す。電動工具1はハウジング2を備え、ハウジング2内には、駆動部3、制御部10、情報出力部11、マイク12、通信部13、センサ14、メモリ17およびバッテリ18が配置される。バッテリ18は、ハウジング2の下端側に設けられ、電動工具1における各構成要素に電力を供給する。なおハウジング2の下端側は、工具本体とは別体のバッテリパックとして形成されて、工具本体に着脱可能とされてもよい。
 情報出力部11は、ユーザに対して情報を出力する出力インタフェースであって、情報を音声出力するスピーカおよび/または情報を画面出力するディスプレイを含んでよい。マイク12は、周囲の音を集音して生成した音信号を入力する入力インタフェースである。情報出力部11およびマイク12の一部の構成は、ハウジング2の外部に露出して設けられてもよい。通信部13は、外部の機器と無線通信するモジュールである。
 センサ14は、モーションセンサ15およびタッチセンサ16を有する。モーションセンサ15は、3軸角速度センサおよび3軸加速度センサを有し、モーションセンサ15のセンサ値は、電動工具1の姿勢および動きを検出するために利用される。なお電動工具1がインパクト回転工具である場合、モーションセンサ15のセンサ値は、インパクト機構による打撃を検出するために利用されてよい。タッチセンサ16は、抵抗膜方式や静電容量方式のセンサであって、ユーザの接触を検知する。タッチセンサ16は、ハウジング2のグリップ部に設けられて、タッチセンサ16のセンサ値が、ユーザが電動工具1を把持しているか検知するために利用されてよい。またタッチセンサ16は、ハウジング2の上部に設けられて、タッチセンサ16のセンサ値が、ユーザによる指示を検出するために利用されてよい。
 駆動部3は、駆動源であるモータ4と、モータ4のモータシャフト5に連結される駆動ブロック6とを備えて、出力軸7を駆動する。出力軸7にはチャック機構8が連結し、ドライバやドリルなどの先端工具を取付可能とする。駆動ブロック6は、モータ4の回転出力を先端工具に伝達する伝達機構を有する。具体的に駆動ブロック6は、モータシャフト5の回転トルクを出力軸7に伝達する動力伝達機構を備え、動力伝達機構は、モータシャフト5に取り付けられたピニオンギヤに噛み合う遊星歯車減速機構を有してよい。電動工具1がインパクト回転工具である場合、動力伝達機構は、出力軸7に間欠的な回転打撃力を発生させるインパクト機構を含む。
 制御部10は、制御基板に搭載されるマイクロコンピュータなどにより実現される。制御部10は、電動工具1を統括的に制御する機能を有し、電動工具1に関する様々な処理を実行する。ハウジング2のグリップ部前側には、ユーザが操作可能な操作スイッチ9が設けられる。操作スイッチ9は、引き操作可能なトリガ式スイッチであってよい。制御部10は、操作スイッチ9の操作によりモータ4のオンオフを制御するとともに、操作スイッチ9の操作量に応じてモータ4の印加電圧を制御して、モータ回転数を調整する。
 実施形態の電動工具1では、マイク12が、制御部10に音信号を入力するための情報入力インタフェースとして機能し、制御部10が、マイク12に入力された音にもとづいて、電動工具1に関する処理を実行可能とする。電動工具1がマイク12を搭載したことにより、ユーザは、操作ボタンを操作する代わりに、操作情報を発話することで、電動工具1の動作を制御できる。
 作業開始前、ユーザはトルク管理のために、電動工具1に、モータ4の動作を制御するためのパラメータ値を設定する。ユーザは、トルク管理のためのパラメータの設定値を発話することで、制御部10が、マイク12に入力されたユーザ音声にもとづいて、パラメータ値をメモリ17に登録できる。
 トルク管理のためのモータ4の動作制御は、電動工具1の種類に応じて様々な手法で実用化されている。たとえばインパクト回転工具においては、トルクを正確に管理するために、締付トルク値を推定し、推定した締付トルク値からねじ部材の着座を判定し、着座後の打撃数が設定された打撃数となると、モータ回転を自動停止するシャットオフ制御が行われる。電動工具1がインパクト回転工具である場合、作業開始前、ユーザは電動工具1に、トルク管理のためのパラメータとして、「着座判定レベル」と「トルク設定段数」を設定する。
 着座判定レベルは、ねじ部材の着座を判定するためのトルク値を定めるパラメータであり、たとえばユーザは、9つの選択肢(L1~L9)の中の1つを設定する。作業対象に塗装などが付着して途中負荷が高い場合には高い着座判定レベルが設定され、途中負荷が低い場合には小さい着座判定レベルが設定されることが好ましい。
 トルク設定段数は、モータ4を自動停止させるための着座後の打撃数(シャットオフ打撃数)を定めるパラメータであり、たとえばユーザは、100の選択肢(N00~N99)の中の1つを設定する。各設定段数には、着座後のシャットオフ打撃数が対応付けられており、たとえばN00には10回、N01には12回、N02には14回、N03には16回、とシャットオフ打撃数が対応付けられていてよい。
 着座判定レベルおよびトルク設定段数のパラメータ値は、メモリ17においてマスターテーブルに記憶されている。ユーザは、作業開始前に、目標トルク値を得るための「着座判定レベル」と「トルク設定段数」を発話することで、各パラメータ値を電動工具1に設定する。また作業途中で作業対象に変更があると、ユーザは、変更された作業対象に応じた目標トルク値を得るための「着座判定レベル」と「トルク設定段数」を発話することで、各パラメータ値を電動工具1に設定する。設定したパラメータ値は、メモリ17に記憶されて、制御部10によるモータ4の駆動制御に用いられる。
 図2は、制御部10の機能ブロックを示す。制御部10は、操作受付部30、駆動制御部31、実行機能判断部32、音処理部33、入力受付部36、パラメータ処理部37、工具状態判断部38、ユーザ認証部39および作業情報処理部40を備えて、電動工具1に関する様々な処理を実行する。音処理部33は、マイク12に入力された音を処理する機能を有し、入力音を周波数分析する音分析部34と、ユーザにより発話された音声を音声認識する音声認識部35とを有する。
 図2において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 操作受付部30は、ユーザによる操作スイッチ9の操作を受け付け、駆動制御部31に提供する。駆動制御部31は、操作スイッチ9のオン操作に応じてモータ4に電力を供給して、駆動部3の動作を制御する。上記したように実施形態の電動工具1において、ユーザは作業開始前に、トルク管理のためのパラメータ値を設定しており、駆動制御部31は、メモリ17に記憶されたパラメータ値にもとづいて、モータ4の回転を制御する。
 電動工具1の電源がオン状態にあるとき、マイク12には、ユーザが発話した音声や、作業中に電動工具1により発生する動作音など、様々な音が入力される。制御部10は、マイク12に入力された音にもとづいて、電動工具1に関する様々な処理を実行可能とする。実施形態では、音声認識部35が、ユーザの発話を音声認識処理する機能を有し、制御部10における各機能は、マイク12に入力された音を音声認識部35が音声認識処理した結果にもとづいて、電動工具1に関する処理を実行可能とする。つまりユーザは、マイク12に向かって発話することで、様々な処理を制御部10に実行させることができる。
<音声認識処理>
 音声認識部35は、ユーザによる音声入力を実現するために重要な役割を果たすが、他の構成要素と比較して、その消費電力は大きい。電動工具1はバッテリ18で駆動されるため、無用な電力消費は好ましくない。また音声認識部35による音声認識機能を常時オン(アクティブ)とすると、音声認識部35が無関係な音声を認識して、電動工具1がその認識音声に基づいて誤動作する事態も発生しうる。そこで実行機能判断部32は、電動工具1の状態を監視して、音声認識部35による音声認識機能を必要なときだけオンにするように、音声認識機能の実行可否を判断する。
 図3は、音声認識機能の実行可否判断のフローチャートを示す。実行機能判断部32は、操作スイッチ9がオン状態にあるか否かを判断する(S10)。操作スイッチ9のオン状態は、ユーザが操作スイッチ9を操作している状態であり、操作スイッチ9のオフ状態は、ユーザが操作スイッチ9を操作していない状態である。
 操作スイッチ9がオン状態にあるとき(S10のY)、実行機能判断部32は、音声認識機能をオフに設定する(S16)。音声認識機能がオフに設定されると、音声認識部35は、音声認識処理を行わない。操作スイッチ9がオン状態にあるとき、電動工具1からは、駆動部3の動作音が発生するが、その状況下で音声認識部35が音声認識処理を行っても、ユーザの発話を誤認識する可能性が高い。そこで無駄な電力消費を避けるために、操作スイッチ9がオン状態にあるとき、音声認識部35は音声認識処理を禁止される。
 操作スイッチ9がオフ状態にあるとき(S10のN)、実行機能判断部32は、電動工具1がユーザにより把持されているか否かを判断する(S12)。実行機能判断部32は、モーションセンサ15のセンサ値から、電動工具1がユーザにより把持されているか否かを判断する。なおタッチセンサ16がグリップ部に設けられている場合、実行機能判断部32は、タッチセンサ16のセンサ値から、電動工具1がユーザにより把持されているか否かを判断してもよい。
 電動工具1がユーザにより把持されていない状態にあるとき(S12のN)、実行機能判断部32は、音声認識機能をオフに設定する(S16)。実施形態の電動工具1は可搬式であり、使用時には必ずユーザにより把持された状態となる。ユーザにより把持されていないことは、電源オンの状態のまま、床や机などに置かれた状態にあることを示し、今後の使用予定があるかどうかは不明である。そのため実行機能判断部32は、電動工具1がユーザにより把持されていない状態にあるとき、無駄な電力消費を避けるために、音声認識機能をオフに設定するようにしている。つまり電動工具1がユーザにより把持されていなければ、音声認識部35は音声認識処理を行わない。
 一方で、電動工具1がユーザにより把持された状態にあるとき(S12のY)、実行機能判断部32は、音声認識機能をオンに設定する(S14)。ユーザにより把持されていることは、電動工具1がこれから作業に使用される可能性が高いことを示すため、音声認識部35は、ユーザ発話の音声認識処理を行って、音声認識処理した結果を、制御部10の処理機能に対する音声入力として提供することが好ましい。
 なお図3には、S10とS12の判断ステップを示したが、実行機能判断部32は、いずれか一方の判断ステップのみで音声認識機能の実行可否を判断して、音声認識部35の動作を制御してよい。実行機能判断部32がS10の判断ステップのみを用いた場合、音声認識部35は、操作スイッチ9がオン状態にあるとき、音声認識処理を行わず、操作スイッチ9がオフ状態にあるとき、音声認識処理を行う。たとえば実行機能判断部32は、操作スイッチ9がオフ状態になった後の所定時間(たとえば30秒間)だけ、音声認識機能をオンに設定してもよい。また実行機能判断部32がS12の判断ステップのみを用いた場合、音声認識部35は、電動工具1がユーザにより把持されていない状態にあるとき、音声認識処理を行わず、電動工具1がユーザにより把持された状態にあるとき、音声認識処理を行う。いずれにしても実行機能判断部32は、音声認識部35による不要な音声認識処理の機会を制限して、無駄な電力消費を抑制することが好ましい。
 なお実行機能判断部32は、S12の判断ステップに、さらに追加的な判断ステップを採用して、音声認識機能の実行可否を判断してもよい。たとえば実行機能判断部32は、電動工具1がユーザにより把持されており、且つ、電動工具1が所定の姿勢をとるとき、または所定の動きをさせられるときに、音声認識機能をオンに設定してよい。所定の姿勢とは、たとえば先端工具側を上に向けた姿勢であってよく、所定の動きとは、たとえば空中に電動工具1で円を描くような動きであってよい。所定の姿勢または動きは、音声認識機能をオンに設定するためにユーザによって意識的に行われるものであり、音声認識部35は、電動工具1が所定の姿勢をとり、または所定の動きをさせられるときに、音声認識処理を行えるように構成されてよい。
 実行機能判断部32は、電動工具1が所定の姿勢をとった後または所定の動きをさせられた後の所定時間(たとえば30秒間)だけ、音声認識機能をオンに設定してもよい。この仕組みは、音声認識部35の音声認識機能がオンとなる時間を大幅に制限でき、電力消費の抑制に寄与する。
 以上のようにして実行機能判断部32は、音声認識部35による音声認識機能のオンオフを管理する。以下、音声認識部35が、マイク12に入力された音を音声認識処理した結果にもとづいて、制御部10の処理機能が、電動工具1に関する処理を実行する例を示す。
 図2に示すように制御部10は様々な処理機能を有しているため、ユーザは、処理機能を特定する情報を発話して処理機能を呼び出した後に、処理機能に対して処理させる内容を発話する。たとえばユーザがパラメータ値の設定を行う場合、ユーザは、「パラメータを設定」と、パラメータ処理部37を起動するための起動ワードを発話する。またユーザが、作業情報の履歴を登録する場合、ユーザは、「作業情報を登録」と、作業情報処理部40を起動するための起動ワードを発話する。実施形態では、このようにユーザが、制御部10の処理機能を特定する情報を発話して、対応する処理機能を起動させた後に、処理内容を発話する。
 制御部10では、音声認識部35が、ユーザの発話を音声認識処理によりテキストデータに変換し、入力受付部36が、テキストデータを、ユーザによる音声入力として受け付ける。入力受付部36は、処理機能の起動前に受け付けた起動ワードのテキストデータを、実行機能判断部32に提供する。実行機能判断部32は、起動ワードのテキストデータから、起動する処理機能を特定する。たとえばテキストデータが「パラメータを設定」であれば、実行機能判断部32は、パラメータ処理部37を起動する。テキストデータが「作業情報を登録」であれば、実行機能判断部32は作業情報処理部40を起動する。またテキストデータが「ユーザ認証を行います」であれば、実行機能判断部32はユーザ認証部39を起動する。起動ワードと、起動する処理機能との対応関係は、メモリ17に記憶されており、実行機能判断部32は、メモリ17に記憶された対応関係を参照して、実行する処理機能を特定する。
 起動ワードに対応する処理機能の起動後、入力受付部36は、テキストデータを音声認識部35から受け付けると、起動された処理機能に、テキストデータを提供する。これにより処理機能は、ユーザによる音声入力を受け取り、対応する処理を実行する。以下、起動ワードにより処理機能が起動している状態で、処理機能が、ユーザの音声入力を処理する例を説明する。
<パラメータ値の設定処理>
 ユーザは電動工具1に、トルク管理の目的で、駆動部3の動作を制御するためのパラメータ値を設定する。電動工具1がインパクト回転工具である場合、ユーザは「着座判定レベル」と「トルク設定段数」を設定する。ユーザがパラメータ値を発話すると、入力受付部36は、音声認識部35が音声認識処理した結果として、パラメータ値のテキストデータを受け付け、パラメータ処理部37に提供する。
 パラメータ処理部37は、メモリ17に記憶されているパラメータ値を、入力受付部36から提供されたパラメータ値で上書き更新する。これによりパラメータ処理部37は、入力受付部36から提供されたパラメータ値を、駆動制御部31がモータ4の駆動制御に用いるパラメータ値として設定する。
 以上のようにパラメータ処理部37は、音声認識部35により音声認識処理された結果にもとづいて、トルク管理のためのパラメータ値を設定する。パラメータ値はモータ4の駆動制御に反映されるため、電動工具1の状態によっては、パラメータ値を更新することが適切でないこともある。そこで実行機能判断部32は、電動工具1の状態を監視して、パラメータ処理部37によるパラメータ設定機能の実行可否を判断する。
 図4は、パラメータ値の設定機能の実行可否判断のフローチャートを示す。なお図3に、音声認識機能の実行可否判断のフローチャートを示したが、実行機能判断部32は、図3に示す音声認識機能の実行可否判断と、図4に示すパラメータ設定機能の実行可否判断とを、別個の判断処理として実施する。なお実施形態では、実行機能判断部32が、音声認識機能とパラメータ設定機能の両方の実行可否判断を行うが、別の例では、どちらか一方の実行可否判断のみを行ってもよい。
 実行機能判断部32は、操作スイッチ9がオン状態にあるか否かを判断する(S20)。操作スイッチ9がオン状態にあるとき(S20のY)、実行機能判断部32は、パラメータ設定機能をオフに設定する(S26)。パラメータ設定機能がオフに設定されると、パラメータ処理部37は、パラメータ値の設定処理を行わない。操作スイッチ9がオン状態にあるとき、駆動制御部31は、メモリ17に登録されたパラメータ値にもとづいて、モータ4を駆動制御しており、使用しているパラメータ値を、モータ4の駆動中に変更することは好ましくない。そこで操作スイッチ9がオン状態にあるとき、パラメータ処理部37は、パラメータ値の設定処理を禁止される。
 操作スイッチ9がオフ状態にあるとき(S20のN)、実行機能判断部32は、電動工具1がユーザにより把持されているか否かを判断する(S22)。実行機能判断部32は、モーションセンサ15のセンサ値またはタッチセンサ16のセンサ値から、電動工具1がユーザにより把持されているか否かを判断してよい。
 電動工具1がユーザにより把持されていない状態にあるとき(S22のN)、実行機能判断部32は、パラメータ設定機能をオフに設定する(S26)。実施形態では、ユーザが電動工具1を把持していることを、当該電動工具1におけるパラメータ値を発話音声によって変更するための条件とし、したがって電動工具1がユーザにより把持されていなければ、パラメータ処理部37はパラメータ値の設定処理を行わない。
 一方で、電動工具1がユーザにより把持された状態にあるとき(S22のY)、実行機能判断部32は、パラメータ設定機能をオンに設定する(S24)。ユーザにより把持されていることは、電動工具1がこれから作業に使用される可能性が高いことを示す。そこでパラメータ処理部37は、入力受付部36から提供されたパラメータ値をメモリ17に登録して、これからのモータ駆動制御のパラメータ値として利用されるようにする。なおパラメータ処理部37がパラメータ値をメモリ17に登録する際に、操作スイッチ9がオン操作されると、駆動部3は、操作スイッチ9のオン操作を無視して、駆動部3を動作させない。
 なお図4には、S20とS22の判断ステップを示したが、実行機能判断部32は、いずれか一方の判断ステップのみでパラメータ設定機能の実行可否を判断して、パラメータ処理部37の動作を制御してよい。実行機能判断部32がS20の判断ステップのみを用いた場合、パラメータ処理部37は、操作スイッチ9がオン状態にあるとき、パラメータ値の設定処理を行わず、操作スイッチ9がオフ状態にあるとき、パラメータ値の設定処理を行う。また実行機能判断部32がS22の判断ステップのみを用いた場合、パラメータ処理部37は、電動工具1がユーザにより把持されていない状態にあるとき、パラメータ値の設定処理を行わず、電動工具1がユーザにより把持された状態にあるとき、パラメータ値の設定処理を行う。このように実行機能判断部32は、パラメータ設定機能が適切なタイミングで実行されるように、パラメータ処理部37によるパラメータ設定機能の実行可否を判断する。
 ユーザは、パラメータ値の設定の際に、パラメータ値を発話し、パラメータ処理部37は、入力受付部36から提供されるパラメータ値にもとづいて、パラメータ値を設定する。ここではユーザが、9つの着座判定レベルの選択肢(L1~L9)のうちの1つを発話し、100のトルク設定段数の選択肢(N00~N99)のうちの1つを発話する。ユーザが「L5 N50」と発話した場合、パラメータ処理部37は、「L5 N50」の音声入力にもとづいて、パラメータ値をメモリ17に設定する。
 なおユーザは、パラメータ値の設定の際に、作業に関する情報を発話し、パラメータ処理部37は、入力受付部36から提供される、作業に関する情報にもとづいて、パラメータ値を設定してもよい。たとえばメモリ17において、作業場所の情報に、作業内容に応じたパラメータ値が対応付けられて記憶されている場合、ユーザは、作業場所の情報を発話する。このときパラメータ処理部37は、メモリ17から、作業場所に対応付けられたパラメータ値を取得して、取得したパラメータ値を設定できる。またメモリ17において、ねじ径やねじ長などの作業対象を特定する情報に、パラメータ値が対応付けられて記憶されている場合、ユーザは、作業対象を特定する情報を発話する。このときパラメータ処理部37は、メモリ17から、作業対象に対応付けられたパラメータ値を取得して、取得したパラメータ値を設定できる。このようにメモリ17に、作業に関する情報に関連づけてパラメータ値が登録されていれば、ユーザは、作業に関する情報を発話することで、作業内容に応じたパラメータ値を電動工具1に設定できる。
 なおパラメータ処理部37は、入力受付部36から音声認識処理したテキストデータを提供されると、すぐにパラメータ値を設定するのではなく、ユーザにパラメータ値を変更することを情報出力部11を介して通知することが好ましい。情報出力部11は、更新するパラメータ値に関する情報を、スピーカから音声出力してよく、ディスプレイから画面出力してもよい。ユーザは、パラメータ値に関する情報の通知を受けると、同意する場合には、その旨を発話し、パラメータ処理部37は、入力受付部36から、ユーザが同意したことを示すテキストデータを取得する。パラメータ処理部37は、このテキストデータの取得後、パラメータ値を変更する。なおユーザによる同意の意思表示は、タッチセンサ16に対して所定のタッチ操作を行うことで、入力受付部36によって受け付けられてもよい。
 このようにパラメータ処理部37は、情報出力部11を介してユーザにパラメータ値を設定することを通知して、ユーザからの同意を得た後に、パラメータ値の設定処理を行うことが好ましい。これによりユーザは、パラメータ値が変更される前に、これからパラメータ値が変更されることを認識できる。なお、音声認識部35による誤認識によって、通知されたパラメータ値が発話したパラメータ値と異なっていれば、ユーザは、正しいパラメータ値を発話し直せばよい。
<作業情報の記憶に関する処理>
 作業のトレーサビリティを実現するために、ユーザは、作業に関する情報を発話して、作業に関する情報を、メモリ17に記録させる。ユーザが作業に関する情報として、作業場所を発話すると、作業情報処理部40は、入力受付部36から作業場所のテキストデータを提供されて、作業場所を示す情報をメモリ17に記憶する。
 作業情報処理部40は、センサ14から、作業結果を示す情報を取得する。この例でセンサ14は、トルク計測センサを備え、作業情報処理部40は、作業結果を示す情報として、トルク計測センサで計測された作業対象の締付トルク値を取得する。作業情報処理部40は、全ての作業対象の締付トルク値をセンサ14から取得して、作業結果を示す情報としてメモリ17に記憶する。このとき作業情報処理部40は、作業のトレーサビリティを実現するために、作業場所を示す情報と作業結果を示す情報とを関連づけてメモリ17に記憶する。この情報は、作業場所における作業が適切に実施されたか判断するために利用可能である。
 作業情報処理部40は、関連づけた作業場所を示す情報と作業結果を示す情報とを、通信部13から外部のサーバに送信させてもよい。外部サーバで、各作業場所における作業結果を集約することで、作業場所ごとに適切な作業が実施されたかを判断することが可能となる。
<ユーザ認証に関する処理>
 不正な使用を防止するために、実施形態の電動工具1は、ユーザの発話を利用するユーザ認証機能を備えてよい。たとえばメモリ17には、認証用のパスワードが登録されており、ユーザは、電動工具1に設定されているパスワードを発話する。ユーザ認証部39は、発話されたパスワードのテキストデータを入力受付部36から提供され、メモリ17に登録されているパスワードと比較する。このときパスワードが一致していれば、ユーザ認証部39は、発話したユーザが適正なユーザであることを認証して、そのユーザが電動工具1を使用できるようにする。一方で、パスワードが一致していなければ、ユーザ認証部39は、発話したユーザが適正なユーザであることを認証しないため、そのユーザの工具使用を許可しない。
 以上、音声認識部35による音声認識処理の結果を利用した処理機能の動作について説明した。以下では、音分析部34による音分析結果を利用した処理機能の動作について説明する。
 電動工具1では、音分析部34による音分析結果を用いたユーザ認証も実行できる。この場合、メモリ17には、電動工具1の登録ユーザの声紋データが記憶される。音分析部34は、発話したユーザ音声の周波数分析を行い、ユーザ認証部39は、メモリ17に記憶された登録ユーザの声紋データと比較することで、発話したユーザが登録ユーザであるか判定する。電動工具1がユーザ認証機能を有することで、認証されないユーザは、電動工具1を使用できないため、電動工具1の盗難リスクを低減できる。
<動作音の分析>
 電動工具1は、マイク12に入力された電動工具1の動作音を分析して、電動工具1の状態を自己判断する判断機能を有してよい。音分析部34は、電動工具1の動作音の周波数分析を行い、工具状態判断部38は、分析された周波数特性と、電動工具1の動作音の基準周波数特性と比較する。基準周波数特性は、たとえば出荷時の電動工具1で生じる動作音の周波数特性であって、メモリ17に登録されている。工具状態判断部38は、分析された周波数特性に、基準周波数特性には存在しない周波数成分が生じているような場合に、駆動部3の異常や消耗などを判断する。工具状態判断部38は、異常等の発生を判断すると、情報出力部11を介して、ユーザに通知することが好ましい。
 工具状態判断部38は、操作スイッチ9がオン状態にあるときに、動作音にもとづく状態判断機能を実行し、操作スイッチ9がオフ状態にあるときは、状態判断機能を実行しない。なお工具状態判断部38は、異常等の発生を判断すると、通信部13から外部のサーバに、異常等の発生を通知してもよい。
 以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施形態では、電動工具1がマイク12および音処理部33を備えることを説明した。変形例では、マイク12は、通信機能を有する別の端末装置に設けられて、当該端末装置が、マイク12で集音した音信号を、電動工具1に送信してもよい。また当該端末装置が音処理部33の機能をさらに有して、マイク12で集音した音信号を処理した結果を、電動工具1に送信してもよい。これにより電動工具1における制御部10は、別の端末装置に設けられたマイク12に入力された音にもとづいて、電動工具1に関する処理を実行できる。端末装置は、マイクおよび無線通信モジュールを有するスマートフォンやタブレットなどの携帯型の端末装置であってよい。
 実施形態では、ユーザが、処理機能の起動ワードを発話することで、実行機能判断部32が、対応する処理機能を起動することを説明した。変形例では、音処理部33が自然言語処理機能を有し、自然言語処理機能が、ユーザの発話を言語解析して、起動する処理機能を特定してもよい。この場合、ユーザは、特定の処理機能を起動する起動ワードを発話しなくてよく、実行機能判断部32が、ユーザの発話内容に応じて、処理機能を起動する。たとえばユーザが「L5 N50」と発話すると、自然言語処理機能が、パラメータに関する発話であることを特定し、実行機能判断部32が、パラメータ処理部37を起動してよい。
 本発明の態様の概要は、次の通りである。
 本発明のある態様の電動工具(1)は、ユーザが操作可能な操作スイッチ(9)と、先端工具を取付可能な出力軸(7)と、出力軸(7)を駆動する駆動部(3)と、操作スイッチ(9)の操作に応じて、駆動部(3)の動作を制御する制御部(10)と、を備える。制御部(10)は、マイク(12)に入力された音にもとづいて、当該電動工具(1)に関する処理を実行可能とする。
 制御部(10)は、入力された音を音声認識処理した結果にもとづいて、当該電動工具(1)に関する処理を実行可能としてもよい。
 制御部(10)は、操作スイッチ(9)がオン状態にあるとき、音声認識処理を行わず、操作スイッチ(9)がオフ状態にあるとき、音声認識処理を行ってよい。制御部(10)は、当該電動工具(1)がユーザにより把持されていない状態にあるとき、音声認識処理を行わず、当該電動工具(1)がユーザにより把持された状態にあるとき、音声認識処理を行ってよい。制御部(10)は、当該電動工具(1)がユーザにより把持されて、所定の姿勢をとるとき、または所定の動きをさせられるとき、音声認識処理を行ってよい。
 制御部(10)は、入力された音を音声認識処理した結果にもとづいて、駆動部(3)の動作を制御するためのパラメータ値を設定してよい。制御部(10)は、作業に関する情報にもとづいて、パラメータ値を設定してよい。
 制御部(10)は、操作スイッチ(9)がオン状態にあるとき、パラメータ値の設定を行わず、操作スイッチ(9)がオフ状態にあるとき、パラメータ値の設定を行ってよい。制御部(10)は、当該電動工具(1)がユーザにより把持されていない状態にあるとき、パラメータ値の設定を行わず、当該電動工具(1)がユーザにより把持された状態にあるとき、パラメータ値の設定を行ってよい。制御部(10)は、ユーザにパラメータ値を設定することを通知した後に、パラメータ値の設定を行ってよい。
 制御部(10)は、作業場所を示す情報の入力を受け付けて、作業場所を示す情報と作業結果を示す情報とを関連付けて記憶してよい。制御部(10)は、関連づけられた作業場所を示す情報と作業結果を示す情報を、外部に送信させてよい。制御部(10)は、マイク(12)に入力された動作音を分析して、当該電動工具(1)の状態を判断する判断機能を有してもよい。判断機能は、操作スイッチ(9)がオン状態にあるときに実行されてよい。制御部(10)は、マイク(12)に入力された音にもとづくユーザ認証機能を有してよい。
1・・・電動工具、3・・・駆動部、4・・・モータ、7・・・出力軸、9・・・操作スイッチ、10・・・制御部、11・・・情報出力部、12・・・マイク、17・・・メモリ、18・・・バッテリ、32・・・実行機能判断部、33・・・音処理部、34・・・音分析部、35・・・音声認識部、36・・・入力受付部、37・・・パラメータ処理部、38・・・工具状態判断部、39・・・ユーザ認証部、40・・・作業情報処理部。
 本発明は、電動工具の分野に利用できる。

Claims (14)

  1.  ユーザが操作可能な操作スイッチと、
     先端工具を取付可能な出力軸と、
     前記出力軸を駆動する駆動部と、
     前記操作スイッチの操作に応じて、前記駆動部の動作を制御する制御部と、を備えた電動工具であって、
     前記制御部は、マイクに入力された音にもとづいて、当該電動工具に関する処理を実行可能とする、
     ことを特徴とする電動工具。
  2.  前記制御部は、入力された音を音声認識処理した結果にもとづいて、当該電動工具に関する処理を実行可能とする、
     ことを特徴とする請求項1に記載の電動工具。
  3.  前記制御部は、前記操作スイッチがオン状態にあるとき、音声認識処理を行わず、前記操作スイッチがオフ状態にあるとき、音声認識処理を行う、
     ことを特徴とする請求項2に記載の電動工具。
  4.  前記制御部は、当該電動工具がユーザにより把持されていない状態にあるとき、音声認識処理を行わず、当該電動工具がユーザにより把持された状態にあるとき、音声認識処理を行う、
     ことを特徴とする請求項2または3に記載の電動工具。
  5.  前記制御部は、当該電動工具がユーザにより把持されて、所定の姿勢をとるとき、または所定の動きをさせられるとき、音声認識処理を行う、
     ことを特徴とする請求項4に記載の電動工具。
  6.  前記制御部は、入力された音を音声認識処理した結果にもとづいて、前記駆動部の動作を制御するためのパラメータ値を設定する、
     ことを特徴とする請求項2から5のいずれかに記載の電動工具。
  7.  前記制御部は、作業に関する情報にもとづいて、パラメータ値を設定する、
     ことを特徴とする請求項6に記載の電動工具。
  8.  前記制御部は、前記操作スイッチがオン状態にあるとき、パラメータ値の設定を行わず、前記操作スイッチがオフ状態にあるとき、パラメータ値の設定を行う、
     ことを特徴とする請求項6または7に記載の電動工具。
  9.  前記制御部は、当該電動工具がユーザにより把持されていない状態にあるとき、パラメータ値の設定を行わず、当該電動工具がユーザにより把持された状態にあるとき、パラメータ値の設定を行う、
     ことを特徴とする請求項6から8のいずれかに記載の電動工具。
  10.  前記制御部は、ユーザにパラメータ値を設定することを通知した後に、パラメータ値の設定を行う、
     ことを特徴とする請求項6から9のいずれかに記載の電動工具。
  11.  前記制御部は、作業場所を示す情報の入力を受け付けて、作業場所を示す情報と作業結果を示す情報とを関連付けて記憶する、
     ことを特徴とする請求項2から10のいずれかに記載の電動工具。
  12.  前記制御部は、関連づけられた作業場所を示す情報と作業結果を示す情報を、外部に送信させる、
     ことを特徴とする請求項11に記載の電動工具。
  13.  前記制御部は、マイクに入力された動作音を分析して、当該電動工具の状態を判断する判断機能を有し、
     前記判断機能は、前記操作スイッチがオン状態にあるときに実行される、
     ことを特徴とする請求項1から12のいずれかに記載の電動工具。
  14.  前記制御部は、マイクに入力された音にもとづくユーザ認証機能を有する、
     ことを特徴とする請求項1から13のいずれかに記載の電動工具。
PCT/JP2019/011787 2018-04-04 2019-03-20 電動工具 WO2019193979A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19781003.9A EP3778128A4 (en) 2018-04-04 2019-03-20 POWER TOOL
CN201980023070.XA CN111989190B (zh) 2018-04-04 2019-03-20 电动工具
US17/045,134 US20210149626A1 (en) 2018-04-04 2019-03-20 Electric tool

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018072513A JP7026338B2 (ja) 2018-04-04 2018-04-04 電動工具
JP2018-072513 2018-04-04

Publications (1)

Publication Number Publication Date
WO2019193979A1 true WO2019193979A1 (ja) 2019-10-10

Family

ID=68100682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/011787 WO2019193979A1 (ja) 2018-04-04 2019-03-20 電動工具

Country Status (5)

Country Link
US (1) US20210149626A1 (ja)
EP (1) EP3778128A4 (ja)
JP (2) JP7026338B2 (ja)
CN (1) CN111989190B (ja)
WO (1) WO2019193979A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11919117B2 (en) 2020-02-17 2024-03-05 Milwaukee Electric Tool Corporation Electronic spindle lock for a power tool

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7026338B2 (ja) * 2018-04-04 2022-02-28 パナソニックIpマネジメント株式会社 電動工具
JP6995273B1 (ja) 2021-02-10 2022-01-14 株式会社エクサウィザーズ 業務支援方法、システム及びプログラム
CN113038439B (zh) * 2021-02-24 2023-03-24 上海器外文化科技有限公司 电动工具的数据传输方法、装置、电动工具及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220213A (ja) * 2008-03-17 2009-10-01 Hitachi Koki Co Ltd 電動工具
JP2012115170A (ja) * 2010-11-29 2012-06-21 Hitachi Koki Co Ltd 電動作業機
JP2013188858A (ja) * 2012-03-15 2013-09-26 Tohnichi Mfg Co Ltd 締付工具、締付位置管理システムおよび締付位置検出方法
JP2015066635A (ja) * 2013-09-28 2015-04-13 日立工機株式会社 電動工具及びその運転モード切替方法
JP2016010848A (ja) * 2014-06-30 2016-01-21 日立工機株式会社 電動工具
JP2016120577A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 電動工具、電動工具用操作機、及び電動工具システム
DE102015212028A1 (de) * 2015-06-29 2016-12-29 Robert Bosch Gmbh Bedienvorrichtung für eine Handwerkzeugmaschine
JP2017056532A (ja) * 2015-09-18 2017-03-23 五洋建設株式会社 締め忘れ防止システム
US20170129091A1 (en) * 2015-11-11 2017-05-11 Robert Bosch Gmbh Hand-Held Power Tool
JP2017127916A (ja) * 2016-01-19 2017-07-27 株式会社マキタ 電動工具
JP2017205824A (ja) * 2016-05-17 2017-11-24 パナソニックIpマネジメント株式会社 電動工具、及びそれを備える電動工具管理システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101258733B (zh) * 2005-09-09 2012-07-18 罗伯特·博世有限公司 具有可换型按钮的讨论单元
US7496460B2 (en) * 2006-09-06 2009-02-24 Eastway Fair Company Limited Energy source monitoring and control system for power tools
CN105212839A (zh) * 2010-06-18 2016-01-06 苏州宝时得电动工具有限公司 吸尘器
DE102012200678A1 (de) * 2012-01-18 2013-07-18 Robert Bosch Gmbh Handwerkzeug
JP5954771B2 (ja) * 2012-02-27 2016-07-20 東芝メディカルシステムズ株式会社 医用情報処理システム及び医用情報処理装置
JP5841011B2 (ja) * 2012-06-05 2016-01-06 株式会社マキタ 回転打撃工具
AU2013351226B2 (en) * 2012-11-29 2017-12-14 Vorwerk & Co. Interholding Gmbh Food processor
KR102075117B1 (ko) * 2013-04-22 2020-02-07 삼성전자주식회사 사용자 기기 및 그 동작 방법
KR102218906B1 (ko) * 2014-01-17 2021-02-23 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
JP2016113007A (ja) * 2014-12-15 2016-06-23 株式会社東海理化電機製作所 車両用操作装置
DE102015206015A1 (de) * 2015-04-02 2016-10-06 Robert Bosch Gmbh Akkupack für eine Handwerkzeugmaschine
EP3491811A2 (en) * 2016-08-01 2019-06-05 Zone V Ltd Smartphone accessory for visually impaired or elderly users
CN110419016A (zh) * 2017-09-25 2019-11-05 苏州宝时得电动工具有限公司 电动工具系统、充电器、电动工具及其语音控制方法,自动工作系统、充电站、自移动设备及其语音控制方法
US11011031B2 (en) * 2017-10-26 2021-05-18 Max Co., Ltd. Tool and electric tool
JP7026338B2 (ja) * 2018-04-04 2022-02-28 パナソニックIpマネジメント株式会社 電動工具

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220213A (ja) * 2008-03-17 2009-10-01 Hitachi Koki Co Ltd 電動工具
JP2012115170A (ja) * 2010-11-29 2012-06-21 Hitachi Koki Co Ltd 電動作業機
JP2013188858A (ja) * 2012-03-15 2013-09-26 Tohnichi Mfg Co Ltd 締付工具、締付位置管理システムおよび締付位置検出方法
JP2015066635A (ja) * 2013-09-28 2015-04-13 日立工機株式会社 電動工具及びその運転モード切替方法
JP2016010848A (ja) * 2014-06-30 2016-01-21 日立工機株式会社 電動工具
JP2016120577A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 電動工具、電動工具用操作機、及び電動工具システム
DE102015212028A1 (de) * 2015-06-29 2016-12-29 Robert Bosch Gmbh Bedienvorrichtung für eine Handwerkzeugmaschine
JP2017056532A (ja) * 2015-09-18 2017-03-23 五洋建設株式会社 締め忘れ防止システム
US20170129091A1 (en) * 2015-11-11 2017-05-11 Robert Bosch Gmbh Hand-Held Power Tool
JP2017127916A (ja) * 2016-01-19 2017-07-27 株式会社マキタ 電動工具
JP2017205824A (ja) * 2016-05-17 2017-11-24 パナソニックIpマネジメント株式会社 電動工具、及びそれを備える電動工具管理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11919117B2 (en) 2020-02-17 2024-03-05 Milwaukee Electric Tool Corporation Electronic spindle lock for a power tool

Also Published As

Publication number Publication date
CN111989190B (zh) 2023-06-09
CN111989190A (zh) 2020-11-24
JP2019181591A (ja) 2019-10-24
JP2022063273A (ja) 2022-04-21
EP3778128A4 (en) 2021-05-12
JP7026338B2 (ja) 2022-02-28
EP3778128A1 (en) 2021-02-17
US20210149626A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
WO2019193979A1 (ja) 電動工具
EP3537433B1 (en) Providing pre-computed hotword models
US20160180851A1 (en) Systems and Methods for Continual Speech Recognition and Detection in Mobile Computing Devices
US9230538B2 (en) Voice recognition device and navigation device
WO2012081082A1 (ja) エレベータの呼び登録装置
JP2018505491A5 (ja)
US20190304460A1 (en) Voice control user interface with progressive command engagement
CN107636410A (zh) 冷藏和/或冷冻设备
JP2017205824A (ja) 電動工具、及びそれを備える電動工具管理システム
JP2018116130A (ja) 車内音声処理装置および車内音声処理方法
US20170337752A1 (en) Vehicle-level multi-modal test platform
JP2016534891A (ja) 手持ち又は準固定の機械工具又は作業工具
US7099749B2 (en) Voice controlled vehicle wheel alignment system
US10963548B2 (en) Information acquisition device, information acquisition system, and information acquisition method
JP2807241B2 (ja) 音声認識装置
EP3608905A1 (en) Electronic apparatus for processing user utterance and controlling method thereof
JP2022097703A (ja) 電動工具
Phal et al. Design, implementation and reliability estimation of speech-controlled mobile robot
KR20130073718A (ko) 차량의 기능 안내 장치
TWI604928B (zh) 手動工作器具及操作手動工作器具的方法
JP2004268151A (ja) ロボット制御装置および制御方法
CA2670182C (en) System and method for associating an electronic device with a remote device having a voice interface
WO2019175960A1 (ja) 音声処理装置および音声処理方法
JP4694017B2 (ja) 車載用音声認識装置
GB2553040A (en) Sensor input recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19781003

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019781003

Country of ref document: EP

Effective date: 20201104