JP2018149625A - Communication robot, program, and system - Google Patents

Communication robot, program, and system Download PDF

Info

Publication number
JP2018149625A
JP2018149625A JP2017047405A JP2017047405A JP2018149625A JP 2018149625 A JP2018149625 A JP 2018149625A JP 2017047405 A JP2017047405 A JP 2017047405A JP 2017047405 A JP2017047405 A JP 2017047405A JP 2018149625 A JP2018149625 A JP 2018149625A
Authority
JP
Japan
Prior art keywords
communication robot
utterance
user
unit
congestion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017047405A
Other languages
Japanese (ja)
Other versions
JP6874437B2 (en
Inventor
伊藤 直之
Naoyuki Ito
直之 伊藤
慧吾 廣川
Keigo Hirokawa
慧吾 廣川
拓也 生駒
Takuya Ikoma
拓也 生駒
浩介 岩崎
Kosuke Iwasaki
浩介 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017047405A priority Critical patent/JP6874437B2/en
Publication of JP2018149625A publication Critical patent/JP2018149625A/en
Application granted granted Critical
Publication of JP6874437B2 publication Critical patent/JP6874437B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a communication robot, program, and system which can smoothly communicate with a human by talking to the human irrespective of an environment.SOLUTION: A communication robot 1 which outputs utterance data includes a camera 41 for imaging a subject and generating image data, a user specifying part 14 which specifies a user P based on the image data obtained by the camera 41, a congestion degree determination part 17 which determines a degree of congestion in a periphery of an arrangement position of the communication robot 1, and an utterance part 21 which carries out predetermined processing in response to a determination result by the congestion degree determination part 17, and outputs the utterance data to the user P specified by the user specifying part 14 from a speaker 42a.SELECTED DRAWING: Figure 2

Description

本発明は、コミュニケーションロボット、プログラム及びシステムに関する。   The present invention relates to a communication robot, a program, and a system.

従来、人間との間でコミュニケーション行動を行うコミュニケーションロボットがある。人間同士でのコミュニケーションと同じように、コミュニケーションロボットと人間との間でのコミュニケーションは、周囲の騒音が大きい場合等の混雑時には、コミュニケーションが取りにくくなる。そこで、混雑時におけるコミュニケーションロボットの動作として、混雑を緩和する行動を、コミュニケーションロボットに行わせることが開示されている(例えば、特許文献1)。   Conventionally, there are communication robots that perform communication behavior with humans. As with communication between humans, communication between a communication robot and a human becomes difficult to communicate when the surrounding noise is high. Therefore, it is disclosed that the communication robot performs an action to alleviate the congestion as an operation of the communication robot at the time of congestion (for example, Patent Document 1).

特許第4793904号公報Japanese Patent No. 4793904

特許文献1に記載のコミュニケーションロボットは、混雑を緩和する行動を行うものにすぎなかった。混雑しているか否かにかかわらず、人とのコミュニケーションを行うために、コミュニケーションロボットには、人の話を聞いたり、人に話をしたりすることが求められる。   The communication robot described in Patent Document 1 is merely an action that alleviates congestion. In order to communicate with people regardless of whether it is busy or not, communication robots are required to listen to and talk to people.

そこで、本発明は、環境によらず、人に話しかけて人とのコミュニケーションを円滑に行うことができるコミュニケーションロボット、プログラム及びシステムを提供することを目的とする。   Therefore, an object of the present invention is to provide a communication robot, a program, and a system that can smoothly talk to a person and communicate with the person regardless of the environment.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、音声出力部を備えたコミュニケーションロボットであって、被写体を撮影して撮影画像を生成する撮影部と、前記撮影部によって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記対象者特定手段により特定した前記発話対象者に対する発話データを、前記音声出力部から出力する発話手段と、を備えるコミュニケーションロボットである。
第2の発明は、第1の発明のコミュニケーションロボットにおいて、前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、を備え、前記発話手段は、前記器官検出手段により検出した顔の器官から耳を特定し、特定した耳に近接した位置で、前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第3の発明は、第2の発明のコミュニケーションロボットにおいて、前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、を特徴とするコミュニケーションロボットである。
第4の発明は、第2の発明のコミュニケーションロボットにおいて、前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備え、前記発話手段は、前記顔位置変更手段によって顔の位置を変更した後に、前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第5の発明は、第1の発明から第4の発明までのいずれかのコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、を特徴とするコミュニケーションロボットである。
第6の発明は、第5の発明のコミュニケーションロボットにおいて、前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、を特徴とするコミュニケーションロボットである。
第7の発明は、第1の発明から第4の発明までのいずれかのコミュニケーションロボットにおいて、指向性のある音を出力する指向音声出力部を備え、前記所定の処理として、前記混雑度が閾値以上の場合に、前記対象者特定手段により特定した前記発話対象者の位置を特定する処理を行い、前記発話手段は、特定した前記位置に向けて、前記指向音声出力部から前記発話データを出力すること、を特徴とするコミュニケーションロボットである。
第8の発明は、第1の発明から第7の発明までのいずれかのコミュニケーションロボットにおいて、前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、を備え、前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第9の発明は、第1の発明から第8の発明までのいずれかのコミュニケーションロボットにおいて、前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、を特徴とするコミュニケーションロボットである。
第10の発明は、第1の発明から第9の発明までのいずれかのコミュニケーションロボットにおいて、前記所定の処理として、前記音声出力部から出力される音声をうち消す音を、前記対象者特定手段により特定した前記発話対象者とは異なる方向に、前記音声出力部とは異なる他の音声出力部から出力する処理を行うこと、を特徴とするコミュニケーションロボットである。
第11の発明は、第1の発明から第10の発明までのいずれかのコミュニケーションロボットとしてコンピュータを機能させるためのプログラムである。
第12の発明は、被写体を撮影して撮影画像を生成する撮影部及び音声出力部を備えたコミュニケーションロボットと、前記コミュニケーションロボットに対して通信可能に接続されたサーバと、を備えるコミュニケーションロボットシステムであって、前記サーバは、前記コミュニケーションロボットによって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、前記混雑度判定手段により判定された前記混雑度に基づく処理データと、前記対象者特定手段により特定した前記発話対象者に対する発話データとを、前記コミュニケーションロボットに送信するデータ送信手段と、を備え、前記コミュニケーションロボットは、前記サーバから受信した前記処理データを実行する混雑処理手段と、前記サーバから受信した前記発話データを前記音声出力部から出力する発話手段と、を備えること、を特徴とするコミュニケーションロボットシステムである。
The present invention solves the above problems by the following means.
A first invention is a communication robot having an audio output unit, and a shooting unit for shooting a subject to generate a shot image, and specifying an utterance target person based on the shot image obtained by the shooting unit Subject determination means, congestion degree determination means for determining the degree of congestion around the position where the communication robot is disposed, and predetermined processing according to the determination result by the congestion degree determination means, and by the subject identification means It is a communication robot provided with the speech means which outputs the speech data with respect to the specified said speech subject from the said audio | voice output part.
According to a second invention, in the communication robot of the first invention, a person identifying means for identifying a person from a photographed image obtained by the photographing section, and an organ for detecting a facial organ of the person identified by the person identifying means Detecting means, wherein the utterance means specifies an ear from the organ of the face detected by the organ detection means, and outputs the utterance data at a position close to the specified ear. It is a robot.
In a communication robot according to a third aspect, in the communication robot according to the second aspect, the subject specifying means specifies eyes from facial organs detected by the organ detecting means, and the speech target person is based on the specified eye orientations. It is a communication robot characterized by specifying.
According to a fourth aspect of the present invention, in the communication robot according to the second aspect, the eyes are identified from the facial organs detected by the organ detection means, and the position of the face of the communication robot is changed to a position facing the identified eyes. The communication robot includes a face position changing unit, and the utterance unit outputs the utterance data after the face position is changed by the face position changing unit.
According to a fifth invention, in the communication robot according to any one of the first to fourth inventions, as the predetermined process, the utterance target person specified by the target person specifying means and the communication robot are brought close to each other It is a communication robot characterized by performing processing for making it happen.
In a communication robot according to a sixth aspect, in the communication robot according to the fifth aspect, as the predetermined process, the distance to the utterance target person specified by the target person specifying unit is a distance corresponding to the congestion degree. A communication robot characterized by performing a process of moving the communication robot.
A seventh invention is the communication robot according to any one of the first invention to the fourth invention, further comprising a directional voice output unit that outputs a directional sound, wherein the congestion degree is a threshold value as the predetermined processing. In the above case, a process for specifying the position of the utterance target person specified by the target person specifying means is performed, and the utterance means outputs the utterance data from the directional sound output unit toward the specified position. It is a communication robot characterized by doing.
According to an eighth aspect of the present invention, in any one of the communication robots according to the first to seventh aspects, the sound is acquired by a peripheral sound acquisition unit that acquires sound around a position where the communication robot is disposed, and the peripheral sound acquisition unit. A volume determination unit for determining a volume level of the voice, and the congestion level determination unit determines the congestion level based on the volume level determined by the volume level determination unit. It is.
According to a ninth aspect, in the communication robot according to any one of the first to eighth aspects, the congestion degree determination unit determines the congestion degree based on the photographed image obtained by the photographing unit. It is a communication robot characterized by doing.
According to a tenth aspect of the present invention, in the communication robot according to any one of the first to ninth aspects of the present invention, as the predetermined processing, a sound for erasing the sound output from the sound output unit The communication robot is characterized in that a process of outputting from another voice output unit different from the voice output unit is performed in a direction different from that of the utterance target specified by (1).
An eleventh invention is a program for causing a computer to function as any one of the communication robots from the first invention to the tenth invention.
A twelfth aspect of the present invention is a communication robot system including a communication robot including a photographing unit that shoots a subject and generates a photographed image and a sound output unit, and a server that is communicably connected to the communication robot. The server includes a target person specifying unit that specifies an utterance target person based on a captured image obtained by the communication robot, and a congestion degree determination unit that determines a degree of congestion around the arrangement position of the communication robot. Data transmission means for transmitting processing data based on the congestion degree determined by the congestion degree determination means and utterance data for the utterance target person specified by the target person specifying means to the communication robot. The communication robot is Further comprising a congestion processing means for executing the processing data received from over server, a speech unit for outputting the speech data received from the server from the voice output unit, and a communication robot system characterized.

本発明によれば、環境によらず、人に話しかけて人とのコミュニケーションを円滑に行うことができるコミュニケーションロボット、プログラム及びシステムを提供することができる。   According to the present invention, it is possible to provide a communication robot, a program, and a system that can smoothly talk to a person and communicate with the person regardless of the environment.

本実施形態に係るコミュニケーションロボットにおける運用の具体例を示す図である。It is a figure which shows the specific example of the operation | movement in the communication robot which concerns on this embodiment. 本実施形態に係るコミュニケーションロボットの機能ブロック図である。It is a functional block diagram of the communication robot which concerns on this embodiment. 本実施形態に係るコミュニケーションロボットでのロボット制御処理を示すフローチャートである。It is a flowchart which shows the robot control process in the communication robot which concerns on this embodiment. 本実施形態に係るコミュニケーションロボットでのユーザ特定処理を示すフローチャートである。It is a flowchart which shows the user specific process in the communication robot which concerns on this embodiment. 本実施形態に係るコミュニケーションロボットでの混雑度判定処理を示すフローチャートである。It is a flowchart which shows the congestion degree determination process in the communication robot which concerns on this embodiment. 本実施形態に係るコミュニケーションロボットのロボット制御処理における具体例を示す図である。It is a figure which shows the specific example in the robot control process of the communication robot which concerns on this embodiment. 変形形態に係るコミュニケーションロボットの具体例を示す図である。It is a figure which shows the specific example of the communication robot which concerns on a modified form.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
図1は、本実施形態に係るコミュニケーションロボット1における運用の具体例を示す図である。
コミュニケーションロボット1は、このコミュニケーションロボット1に対して関心を持っているユーザP(発話対象者)を特定する。
そして、コミュニケーションロボット1は、特定したユーザPの話を聞く処理をする。
また、コミュニケーションロボット1は、特定したユーザPに対して話かける処理をする。
このように、コミュニケーションロボット1は、ヒアリングをするロボットであり、かつ、おしゃべりをするロボットである。
コミュニケーションロボット1は、例えば、展示場内、店舗内等のスペースSに配置されている。なお、コミュニケーションロボット1は、ユーザPを特定するために、図1に示すように、スペースSを見渡せる位置に配置することが望ましい。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(Embodiment)
FIG. 1 is a diagram illustrating a specific example of operation in the communication robot 1 according to the present embodiment.
The communication robot 1 specifies a user P (utterance target person) who is interested in the communication robot 1.
Then, the communication robot 1 performs processing for listening to the specified user P.
In addition, the communication robot 1 performs a process of speaking to the identified user P.
As described above, the communication robot 1 is a robot for hearing and a robot for chatting.
The communication robot 1 is disposed in a space S such as an exhibition hall or a store, for example. In order to identify the user P, the communication robot 1 is preferably arranged at a position where the space S can be looked over as shown in FIG.

コミュニケーションロボット1は、例えば、高さが1m程度の人型のロボットである。
コミュニケーションロボット1は、例えば、スペースSにいるユーザを含む画像データ(撮影画像)を取得して分析する。
そして、コミュニケーションロボット1は、コミュニケーションロボット1に話かけたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、ユーザPが発した音声データを受け付けて、発話内容を取得する。
また、コミュニケーションロボット1は、コミュニケーションロボット1の話を聞きたそうにしているユーザPを特定した場合に、ユーザPに近づく。そして、コミュニケーションロボット1は、発話データを出力することで、ユーザPに話しかける。
The communication robot 1 is, for example, a humanoid robot having a height of about 1 m.
For example, the communication robot 1 acquires and analyzes image data (captured image) including a user in the space S.
The communication robot 1 approaches the user P when the user P who talks to the communication robot 1 is specified. And the communication robot 1 receives the audio | voice data which the user P uttered, and acquires the utterance content.
The communication robot 1 approaches the user P when the user P who is likely to hear the communication robot 1 is identified. Then, the communication robot 1 speaks to the user P by outputting the utterance data.

<コミュニケーションロボット1>
図2は、本実施形態に係るコミュニケーションロボット1の機能ブロック図である。
図2に示すように、コミュニケーションロボット1は、制御部10と、記憶部30と、カメラ41(撮影部)と、スピーカ部42と、マイク部43と、モータ部44とを備える。
制御部10は、コミュニケーションロボット1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部30に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
<Communication robot 1>
FIG. 2 is a functional block diagram of the communication robot 1 according to the present embodiment.
As shown in FIG. 2, the communication robot 1 includes a control unit 10, a storage unit 30, a camera 41 (imaging unit), a speaker unit 42, a microphone unit 43, and a motor unit 44.
The control unit 10 is a central processing unit (CPU) that controls the entire communication robot 1. The control unit 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an operating system (OS) and application programs stored in the storage unit 30.

制御部10は、画像取得部11(画像取得手段)と、人物特定部12(人特定手段)と、器官検出部13(器官検出手段)と、ユーザ特定部14(対象者特定手段)と、周辺音取得部15(周辺音取得手段)と、音量判定部16(音量判定手段)と、混雑度判定部17(混雑度判定手段)と、顔位置変更部18(顔位置変更手段)と、足移動部19(混雑処理手段)と、消音出力部20(混雑処理手段)と、発話部21(発話手段)と、音声受付部22(音声受付手段)と、音声認識部23(音声認識手段)とを備える。
画像取得部11は、カメラ41を介して撮影した画像データを取得する。画像取得部11は、画像データを、1つ取得してもよいし、動画のように連続して複数取得してもよい。
The control unit 10 includes an image acquisition unit 11 (image acquisition unit), a person identification unit 12 (person identification unit), an organ detection unit 13 (organ detection unit), a user identification unit 14 (subject identification unit), A peripheral sound acquisition unit 15 (peripheral sound acquisition unit), a volume determination unit 16 (volume determination unit), a congestion degree determination unit 17 (congestion degree determination unit), a face position change unit 18 (face position change unit), Foot movement unit 19 (congestion processing unit), mute output unit 20 (congestion processing unit), utterance unit 21 (speech unit), voice reception unit 22 (voice reception unit), and voice recognition unit 23 (voice recognition unit) ).
The image acquisition unit 11 acquires image data captured through the camera 41. The image acquisition unit 11 may acquire one piece of image data, or may acquire a plurality of images continuously like a moving image.

人物特定部12は、画像取得部11が取得した画像データを分析して、ユーザを特定する。人物特定部12は、例えば、画像データから顔画像を検出することで、ユーザを特定する。ここで特定するユーザは、複数であってよい。
器官検出部13は、人物特定部12によって特定した各ユーザの顔の各器官(目、鼻、口等)を検出する。この顔の各器官の位置を求める手法としては、様々な公知の手法があるが、例えば、回帰モデルを用いた顔の器官検出手法を用いることができる。そして、回帰モデルを用いた顔の器官検出手法に関しては、例えば、米国特許出願公開第2014/0185924号明細書に記載されている。
ユーザ特定部14は、このコミュニケーションロボット1の話を聞きたそうにしている、又は、このコミュニケーションロボット1に話かけたそうにしているユーザPを特定する。ユーザ特定部14は、例えば、器官検出部13により検出した顔の目の向きや、口の動き等を考慮して、ユーザPを特定する。
The person specifying unit 12 analyzes the image data acquired by the image acquiring unit 11 and specifies a user. For example, the person specifying unit 12 specifies a user by detecting a face image from image data. There may be a plurality of users specified here.
The organ detection unit 13 detects each organ (eyes, nose, mouth, etc.) of the face of each user specified by the person specifying unit 12. There are various known methods for obtaining the position of each organ of the face. For example, a facial organ detection method using a regression model can be used. A facial organ detection method using a regression model is described in, for example, US Patent Application Publication No. 2014/0185924.
The user specifying unit 14 specifies the user P who is trying to hear the communication robot 1 or who is talking to the communication robot 1. For example, the user specifying unit 14 specifies the user P in consideration of the direction of the eyes of the face detected by the organ detecting unit 13, the movement of the mouth, and the like.

周辺音取得部15は、マイク43bを介して、このコミュニケーションロボット1の位置周辺の音声データを取得する。
音量判定部16は、周辺音取得部15が取得した音声データの音量レベルを判定する。
混雑度判定部17は、例えば、音量判定部16により判定した音量レベルに基づいて、このコミュニケーションロボット1の位置での混雑度を判定する。
また、混雑度判定部17は、人物特定部12で特定したユーザ数に基づいて、このコミュニケーションロボット1の位置での混雑度を判定してもよい。混雑度判定部17は、例えば、特定したユーザ数が多ければ、混雑度を大と判定し、特定したユーザ数が少なければ、混雑度を小と判定する。
そして、混雑度判定部17は、音量レベルと、ユーザ数との両方によって、混雑度を判定してもよい。
The peripheral sound acquisition unit 15 acquires voice data around the position of the communication robot 1 via the microphone 43b.
The volume determination unit 16 determines the volume level of the audio data acquired by the peripheral sound acquisition unit 15.
For example, the congestion degree determination unit 17 determines the degree of congestion at the position of the communication robot 1 based on the volume level determined by the volume determination unit 16.
The congestion degree determination unit 17 may determine the congestion degree at the position of the communication robot 1 based on the number of users specified by the person specifying unit 12. For example, the congestion degree determination unit 17 determines that the degree of congestion is large if the number of specified users is large, and determines that the degree of congestion is small if the number of specified users is small.
Then, the congestion level determination unit 17 may determine the congestion level based on both the volume level and the number of users.

顔位置変更部18は、ユーザ特定部14で特定したユーザPの目に対面する位置に、このコミュニケーションロボット1の顔の位置を変更する。顔位置変更部18は、頭部モータ44aを制御して、コミュニケーションロボット1の顔の位置を変更する。
足移動部19は、混雑度判定部17により判定した混雑度に応じて、ユーザ特定部14で特定したユーザPの方向に、このコミュニケーションロボット1を移動させる。足移動部19は、足部モータ44bを制御して、コミュニケーションロボット1を移動させる。
The face position changing unit 18 changes the position of the face of the communication robot 1 to a position facing the eyes of the user P specified by the user specifying unit 14. The face position changing unit 18 controls the head motor 44 a to change the face position of the communication robot 1.
The foot moving unit 19 moves the communication robot 1 in the direction of the user P specified by the user specifying unit 14 according to the congestion level determined by the congestion level determination unit 17. The foot moving unit 19 moves the communication robot 1 by controlling the foot motor 44b.

消音出力部20は、ユーザ特定部14によりユーザPを特定した場合に、ユーザPのいる方向とは異なる方向に対して、スピーカ42bから消音データを出力する。ここで、消音データとは、ユーザP又はコミュニケーションロボット1が発する音を打ち消すことができる音をいい、例えば、特殊な雑音等である。そうすることで、ユーザPから発せられた声は、コミュニケーション対象であるコミュニケーションロボット1には聞こえるが、ユーザPの周囲にいる他のユーザには、聞き取りにくいものにできる。また、コミュニケーションロボット1の音は、コミュニケーション対象であるユーザPには聞こえるが、他のユーザには聞き取りにくいものにできる。
なお、消音データは、例えば、音楽等のBGMとともに出力してもよい。このような、ノイズキャンセルの仕組みは、様々な技術により行うことができるが、例えば、特許第5648485号公報に記載の手法により行うことができる。
When the user specifying unit 14 specifies the user P, the mute output unit 20 outputs mute data from the speaker 42b in a direction different from the direction in which the user P is present. Here, the mute data refers to a sound that can cancel the sound generated by the user P or the communication robot 1, and is, for example, special noise. By doing so, the voice uttered by the user P can be heard by the communication robot 1 that is a communication target, but it can be made difficult for other users around the user P to hear. Moreover, although the sound of the communication robot 1 can be heard by the user P who is a communication target, it can be made difficult for other users to hear.
The mute data may be output together with BGM such as music, for example. Such a mechanism of noise cancellation can be performed by various techniques. For example, it can be performed by a method described in Japanese Patent No. 5648485.

発話部21は、発話データをスピーカ42aから出力させる。発話データは、予め決まったものであってもよいし、日付、時間帯や、ユーザPの属性(子供又は大人が把握可能な身長等)によって異なるものであってもよい。
音声受付部22は、マイク43aを介してユーザPが発した音声データを受け付ける。音声受付部22は、ユーザPを特定した後の音声データを受け付けてもよいし、画像取得部11が取得した画像データに基づいて、ユーザPの口が動いている間の音声データを受け付けてもよい。
音声認識部23は、音声受付部22が受け付けた音声データから、ユーザPが発した音声内容を認識する。
なお、各処理の詳細については、後述する。
The utterance unit 21 outputs the utterance data from the speaker 42a. The utterance data may be determined in advance, or may differ depending on the date, time zone, and user P attributes (such as a height that can be grasped by a child or an adult).
The voice reception unit 22 receives voice data issued by the user P via the microphone 43a. The voice reception unit 22 may receive voice data after specifying the user P, or may receive voice data while the mouth of the user P is moving based on the image data acquired by the image acquisition unit 11. Also good.
The voice recognition unit 23 recognizes the voice content uttered by the user P from the voice data received by the voice reception unit 22.
Details of each process will be described later.

記憶部30は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶領域である。
記憶部30は、プログラム記憶部31と、発話データ記憶部32と、消音データ記憶部33とを備える。
プログラム記憶部31は、プログラムを記憶する記憶領域である。プログラム記憶部31は、上述した制御部10の各種機能を実行するための制御プログラム31a(プログラム)を記憶している。
発話データ記憶部32は、コミュニケーションロボット1がスピーカ42aから出力する発話データを記憶する記憶領域である。
消音データ記憶部33は、コミュニケーションロボット1がスピーカ42bから出力する消音データを記憶する記憶領域である。
The storage unit 30 is a storage area such as a semiconductor memory element for storing programs, data, and the like necessary for the control unit 10 to execute various processes.
The storage unit 30 includes a program storage unit 31, an utterance data storage unit 32, and a mute data storage unit 33.
The program storage unit 31 is a storage area for storing a program. The program storage unit 31 stores a control program 31a (program) for executing the various functions of the control unit 10 described above.
The utterance data storage unit 32 is a storage area for storing utterance data output from the speaker 42 a by the communication robot 1.
The mute data storage unit 33 is a storage area for storing mute data output from the speaker 42b by the communication robot 1.

カメラ41は、撮影装置である。カメラ41は、例えば、コミュニケーションロボット1の目の部分に対応する位置に設けられている。そして、カメラ41は、コミュニケーションロボット1が向いた方向の被写体を撮影する。
スピーカ部42は、音声出力装置である。スピーカ部42は、スピーカ42a(音声出力部)及びスピーカ42b(他の音声出力部、消音出力部)を備える。
スピーカ42aは、例えば、コミュニケーションロボット1の口の部分に対応する位置に設けられている。そして、スピーカ42aは、制御部10の指示に基づいて、ユーザPに対してあたかもコミュニケーションロボット1がしゃべっているかのように、発話データを音声出力する。
スピーカ42bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、消音データを出力する。
The camera 41 is a photographing device. The camera 41 is provided at a position corresponding to the eye part of the communication robot 1, for example. Then, the camera 41 captures a subject in the direction that the communication robot 1 faces.
The speaker unit 42 is an audio output device. The speaker unit 42 includes a speaker 42a (audio output unit) and a speaker 42b (other audio output unit, mute output unit).
The speaker 42a is provided at a position corresponding to the mouth portion of the communication robot 1, for example. Then, the speaker 42a outputs the speech data as a voice as if the communication robot 1 is speaking to the user P based on the instruction of the control unit 10.
The speaker 42b is provided, for example, at a position corresponding to the body portion of the communication robot 1, and outputs mute data based on an instruction from the control unit 10.

マイク部43は、音声入力装置である。マイク部43は、マイク43a(音声入力部)及びマイク43bを備える。
マイク43aは、例えば、コミュニケーションロボット1の耳の部分に対応する位置に設けられている。そして、マイク43aは、制御部10の指示に基づいて、ユーザPが発した音声データを入力する。
マイク43bは、例えば、コミュニケーションロボット1の胴体部分に対応する位置に設けられて、制御部10の指示に基づいて、コミュニケーションロボット1の周囲の音声データを入力する。
The microphone unit 43 is a voice input device. The microphone unit 43 includes a microphone 43a (voice input unit) and a microphone 43b.
The microphone 43a is provided at a position corresponding to the ear portion of the communication robot 1, for example. And the microphone 43a inputs the audio | voice data which the user P uttered based on the instruction | indication of the control part 10. FIG.
For example, the microphone 43 b is provided at a position corresponding to the body portion of the communication robot 1, and inputs voice data around the communication robot 1 based on an instruction from the control unit 10.

モータ部44は、コミュニケーションロボット1に動作をさせるためのモータである。モータ部44は、頭部モータ44aと、足部モータ44bとを備える。
頭部モータ44aは、コミュニケーションロボット1の頭部を動かすモータである。頭部モータ44aは、制御部10によって制御され、スペースS内にいる様々なユーザを被写体として撮影するために、頭部を上下左右に動かす。また、頭部モータ44aは、特定したユーザPの方向を向くように、頭部を上下左右に動かす。
足部モータ44bは、コミュニケーションロボット1の足部にあり、コミュニケーションロボット1を移動させるためのモータである。
The motor unit 44 is a motor for causing the communication robot 1 to operate. The motor unit 44 includes a head motor 44a and a foot motor 44b.
The head motor 44 a is a motor that moves the head of the communication robot 1. The head motor 44a is controlled by the control unit 10 and moves the head up, down, left, and right in order to photograph various users in the space S as subjects. The head motor 44a moves the head up, down, left, and right so as to face the direction of the specified user P.
The foot motor 44b is a motor for moving the communication robot 1 on the foot of the communication robot 1.

<コミュニケーションロボット1の処理>
次に、コミュニケーションロボット1の処理について説明する。
図3は、本実施形態に係るコミュニケーションロボット1でのロボット制御処理を示すフローチャートである。
図4は、本実施形態に係るコミュニケーションロボット1でのユーザ特定処理を示すフローチャートである。
図5は、本実施形態に係るコミュニケーションロボット1での混雑度判定処理を示すフローチャートである。
なお、コミュニケーションロボット1は、このロボット制御処理を、例えば、コミュニケーションロボット1の電源が投入されている間に、適宜のタイミング(例えば、1分おき等)で実行する。
<Processing of communication robot 1>
Next, processing of the communication robot 1 will be described.
FIG. 3 is a flowchart showing a robot control process in the communication robot 1 according to the present embodiment.
FIG. 4 is a flowchart showing a user specifying process in the communication robot 1 according to the present embodiment.
FIG. 5 is a flowchart showing the congestion degree determination process in the communication robot 1 according to the present embodiment.
Note that the communication robot 1 executes this robot control process at an appropriate timing (for example, every other minute) while the communication robot 1 is powered on.

図3のステップS(以下、「S」という。)10において、コミュニケーションロボット1の制御部10(画像取得部11)は、カメラ41を介して画像データを取得する。そして、制御部10は、取得した画像データを、記憶部30に記憶させる。
S11において、制御部10は、ユーザ特定処理を行う。ユーザ特定処理では、このコミュニケーションロボット1の話を聞きたそうにしているユーザPや、このコミュニケーションロボット1に対して話かけたそうにしているユーザPを特定するための処理である。
In step S (hereinafter referred to as “S”) 10 in FIG. 3, the control unit 10 (image acquisition unit 11) of the communication robot 1 acquires image data via the camera 41. Then, the control unit 10 causes the storage unit 30 to store the acquired image data.
In S11, the control unit 10 performs a user specifying process. The user specifying process is a process for specifying the user P who is trying to hear the communication robot 1 and the user P who is talking to the communication robot 1.

ここで、ユーザ特定処理について、図4に基づき説明する。
図4のS30において、制御部10(人物特定部12)は、画像データから顔画像を検出することで、人物であるユーザを特定する。この処理において、画像データに複数人を含む場合には、制御部10は、人物であるユーザを複数特定する。
S31において、制御部10は、ユーザを特定できたか否かを判断する。ユーザを特定できた場合(S31:YES)には、制御部10は、処理をS32に移す。他方、ユーザを特定できなかった場合(S31:NO)には、制御部10は、本処理を終了し、処理を図3に移す。なお、ユーザを特定できなかった場合とは、例えば、画像データに人を含まない場合をいう。
Here, the user specifying process will be described with reference to FIG.
In S30 of FIG. 4, the control unit 10 (person specifying unit 12) specifies a user who is a person by detecting a face image from the image data. In this process, when the image data includes a plurality of persons, the control unit 10 specifies a plurality of users who are persons.
In S31, the control unit 10 determines whether the user has been identified. When the user can be specified (S31: YES), the control unit 10 moves the process to S32. On the other hand, when a user cannot be specified (S31: NO), the control part 10 complete | finishes this process and moves a process to FIG. Note that the case where the user could not be specified means, for example, the case where no person is included in the image data.

S32において、制御部10(器官検出部13)は、特定した各ユーザの顔画像から各器官を検出する。例えば、画像データに2人のユーザが含まれる場合には、制御部10は、2人のユーザの器官をそれぞれ検出する。
S33において、制御部10(ユーザ特定部14)は、検出した各ユーザの目が向いている方向を特定する。
In S32, the control unit 10 (organ detection unit 13) detects each organ from the identified face image of each user. For example, when two users are included in the image data, the control unit 10 detects the organs of the two users.
In S33, the control unit 10 (user specifying unit 14) specifies the direction in which each detected user's eyes are facing.

S34において、制御部10(ユーザ特定部14)は、目が正面を向いているユーザが存在するか否かを判断する。目が正面を向いているユーザが存在する場合(S34:YES)には、制御部10は、処理をS35に移す。他方、目が正面を向いているユーザが存在しない場合(S34:NO)には、制御部10は、本処理を終了し、処理を図3に移す。なお、目が正面を向いている場合には、そのユーザがコミュニケーションロボット1を見ているということを示す。
S35において、制御部10(ユーザ特定部14)は、目が正面を向いているユーザを、ユーザPとして特定する。ここで、制御部10は、目が正面を向いているユーザが複数存在する場合には、ランダムにユーザPを特定してもよい。また、制御部10は、このコミュニケーションロボット1との間の距離に基づいて、ユーザPを特定してもよい。さらに、制御部10は、画像から判別したユーザの大きさに基づいて、ユーザPを特定してもよい。その後、制御部10は、本処理を終了し、処理を図3に移す。
In S <b> 34, the control unit 10 (user specifying unit 14) determines whether there is a user whose eyes are facing the front. When there is a user whose eyes are facing the front (S34: YES), the control unit 10 moves the process to S35. On the other hand, when there is no user whose eyes are facing the front (S34: NO), the control unit 10 ends the process and moves the process to FIG. When the eyes are facing the front, it indicates that the user is looking at the communication robot 1.
In S <b> 35, the control unit 10 (user specifying unit 14) specifies the user whose eyes are facing the front as the user P. Here, the control part 10 may specify the user P at random, when there are a plurality of users whose eyes are facing the front. Further, the control unit 10 may specify the user P based on the distance to the communication robot 1. Further, the control unit 10 may specify the user P based on the size of the user determined from the image. Then, the control part 10 complete | finishes this process, and moves a process to FIG.

図3に戻り、S12において、制御部10は、ユーザ特定処理によって、ユーザPが特定できたか否かを判断する。ユーザPが特定できた場合(S12:YES)には、制御部10は、処理をS13に移す。他方、ユーザPが特定できなかった場合(S12;NO)には、制御部10は、本処理を終了する。
S13において、制御部10は、混雑度判定処理を行う。
Returning to FIG. 3, in S <b> 12, the control unit 10 determines whether or not the user P can be specified by the user specifying process. When the user P can be specified (S12: YES), the control unit 10 moves the process to S13. On the other hand, when the user P cannot be specified (S12; NO), the control unit 10 ends this process.
In S13, the control unit 10 performs a congestion degree determination process.

ここで、混雑度判定処理について、図5に基づき説明する。
図5のS40において、制御部10(周辺音取得部15)は、マイク43bを介して、このコミュニケーションロボット1の位置における周囲の音声データを受け付ける。
S41において、制御部10(音量判定部16)は、受け付けた音声データの音量レベルを判定する。制御部10は、音量レベルを、例えば、大、中、小の3段階のいずれであるかを判定する。
Here, the congestion degree determination process will be described with reference to FIG.
In S40 of FIG. 5, the control unit 10 (peripheral sound acquisition unit 15) receives surrounding audio data at the position of the communication robot 1 via the microphone 43b.
In S41, the control unit 10 (volume determination unit 16) determines the volume level of the received audio data. The control unit 10 determines whether the volume level is, for example, three levels of large, medium, and small.

S42において、制御部10(混雑度判定部17)は、判定した音量レベルに基づいて、混雑度を判定する。その際、制御部10は、図4のS30で特定したユーザ数を考慮してもよい。制御部10は、例えば、音量レベルが大である場合には、混雑度を大と判定する。また、制御部10は、例えば、音量レベルが中であっても、ユーザ数が10以上である場合には、混雑度を大と判定してもよい。その後、制御部10は、本処理を終了し、処理を図3に移す。   In S42, the control unit 10 (congestion level determination unit 17) determines the congestion level based on the determined volume level. At that time, the control unit 10 may consider the number of users specified in S30 of FIG. For example, when the volume level is high, the control unit 10 determines that the degree of congestion is high. For example, even when the volume level is medium, the control unit 10 may determine that the degree of congestion is large when the number of users is 10 or more. Then, the control part 10 complete | finishes this process, and moves a process to FIG.

図3に戻り、S14において、制御部10は、混雑度判定処理によって判定した混雑度が大(閾値以上)であるか否かを判断する。混雑度が大である場合(S14:YES)には、制御部10は、処理をS15に移す。他方、混雑度が大ではない場合(S14:NO)には、制御部10は、処理をS16に移す。
S15において、制御部10(足移動部19)は、足部モータ44bを制御して、ユーザPに近づくように、ユーザPのいる方向へ移動させる。
Returning to FIG. 3, in S <b> 14, the control unit 10 determines whether or not the congestion level determined by the congestion level determination process is high (greater than or equal to a threshold value). If the degree of congestion is large (S14: YES), the control unit 10 moves the process to S15. On the other hand, when the degree of congestion is not large (S14: NO), the control unit 10 moves the process to S16.
In S <b> 15, the control unit 10 (foot moving unit 19) controls the foot motor 44 b to move in the direction in which the user P is present so as to approach the user P.

S16において、制御部10(顔位置変更部18)は、頭部モータ44aを制御して、このコミュニケーションロボット1が、あたかもユーザPの顔を見ているかのように、このコミュニケーションロボット1の頭の向きを変更する。このようにすることで、ユーザPは、このコミュニケーションロボット1が自身の方向を見ていると感じることができ、例えば、コミュニケーションロボット1に対して話かけることができる。
S17において、制御部10(消音出力部20)は、消音データをスピーカ42bから出力させる。ここで、消音データは、ユーザPが発する音声データを打ち消す音のデータである。
In S16, the control unit 10 (face position changing unit 18) controls the head motor 44a so that the communication robot 1 looks at the face of the user P as if it is looking at the face of the user P. Change the orientation. By doing in this way, the user P can feel that this communication robot 1 is looking at his / her direction, and can talk to the communication robot 1, for example.
In S17, the control unit 10 (the mute output unit 20) causes the mute data to be output from the speaker 42b. Here, the mute data is data of a sound that cancels the voice data emitted by the user P.

S18において、制御部10(音声受付部22)は、所定時間内(例えば、10秒以内)に、ユーザPの音声データを受け付けたか否かを判断する。ここで、制御部10は、ユーザPの音声データを受け付けたか否かを、例えば、マイク43aを介して受け付けた音声データと、マイク43bを介して受け付けた音声データとによって判断する。ユーザPの音声データを受け付けた場合に、マイク43aを介して制御部10が受け付けた音声データには、音量の大きい音声データを含む。また、それと同時に、マイク43bを介して制御部10が受け付けた音声データには、マイク43aを介して受け付けた音声データを、小さい音量で受け付ける。これらのことから、制御部10は、ユーザPの音声データを受け付けたか否かを判断できる。ユーザPの音声データを受け付けた場合(S18:YES)には、制御部10は、処理をS19に移す。他方、ユーザPの音声データを受け付けていない場合(S18:NO)には、制御部10は、処理をS20に移す。   In S18, the control unit 10 (voice reception unit 22) determines whether or not the voice data of the user P has been received within a predetermined time (for example, within 10 seconds). Here, the control unit 10 determines whether or not the voice data of the user P has been received, for example, based on the voice data received through the microphone 43a and the voice data received through the microphone 43b. When the voice data of the user P is received, the voice data received by the control unit 10 via the microphone 43a includes voice data with a high volume. At the same time, the audio data received via the microphone 43a is received at a low volume as the audio data received by the control unit 10 via the microphone 43b. From these things, the control part 10 can judge whether the audio | voice data of the user P were received. When the voice data of the user P is received (S18: YES), the control unit 10 moves the process to S19. On the other hand, when the voice data of the user P is not received (S18: NO), the control unit 10 moves the process to S20.

S19において、制御部10(音声認識部23)は、受け付けた音声データを音声認識して、音声内容を取得する。その後、制御部10は、処理をS22に移す。
なお、コミュニケーションロボット1の制御部10は、音声認識後の処理として、ユーザPに音声認識結果に応じた音声データを出力したり、音声認識結果に応じた動作を行ったりして、ユーザPとの間でコミュニケーションを行うことができる。
In S19, the control unit 10 (voice recognition unit 23) recognizes the received voice data and acquires the voice content. Thereafter, the control unit 10 moves the process to S22.
In addition, the control part 10 of the communication robot 1 outputs the audio | voice data according to a voice recognition result to the user P as a process after voice recognition, or performs the operation | movement according to a voice recognition result, and with user P Can communicate with each other.

他方、S20において、制御部10(消音出力部20)は、消音データをスピーカ42bから出力する。ここで、スピーカ42bから出力させる消音データは、S17で出力させた消音データに代えて、コミュニケーションロボット1が発する音声データを打ち消す音のデータである。
S21において、制御部10(発話部21)は、発話データ記憶部32から抽出した発話データを、スピーカ42aを介して出力させる。
On the other hand, in S20, the control unit 10 (the mute output unit 20) outputs mute data from the speaker 42b. Here, the muffling data output from the speaker 42b is data of a sound that cancels the voice data emitted by the communication robot 1, instead of the muffling data output in S17.
In S21, the control unit 10 (the utterance unit 21) outputs the utterance data extracted from the utterance data storage unit 32 via the speaker 42a.

コミュニケーションロボット1の制御部10は、発話データ出力後の処理として、発話データの内容に応じた動作を行ったり、ユーザPから発話データに対する返答として発せられる音声データを受け付けたりして、ユーザPとの間でコミュニケーションを行うことができる。
S22において、制御部10は、出力していた消音データを停止させる。その後、制御部10は、本処理を終了する。
The control unit 10 of the communication robot 1 performs an operation according to the content of the utterance data as a process after the utterance data is output, or accepts voice data uttered as a response to the utterance data from the user P. Can communicate with each other.
In S22, the control unit 10 stops the mute data that has been output. Then, the control part 10 complete | finishes this process.

<ロボット制御処理の具体例>
次に、このコミュニケーションロボット1を用いたロボット制御処理の具体例について説明する。
図6は、本実施形態に係るコミュニケーションロボット1のロボット制御処理における具体例を示す図である。
まず、コミュニケーションロボット1の制御部10は、図6(A)に示すような、目が正面を向いているユーザP1を含む画像データ50を取得する(図3のS10)。そして、制御部10は、ユーザP1を、コミュニケーションロボット1に関心を持ったユーザであると特定する(図3のS11及び図4)。
<Specific examples of robot control processing>
Next, a specific example of robot control processing using the communication robot 1 will be described.
FIG. 6 is a diagram illustrating a specific example in the robot control process of the communication robot 1 according to the present embodiment.
First, the control unit 10 of the communication robot 1 acquires image data 50 including the user P1 whose eyes are facing the front as shown in FIG. 6A (S10 in FIG. 3). Then, the control unit 10 identifies the user P1 as a user who is interested in the communication robot 1 (S11 in FIG. 3 and FIG. 4).

次に、制御部10は、混雑度を判定する(図3のS13及び図5)。この例の場合、周囲のユーザが喋っており雑音がするいわゆる“ガヤガヤ”している状況であり、受け付けた音声データの音量レベルが大であるとする。よって、制御部10は、混雑度を大と判定する。
そして、図6(B)及び(C)に示すように、制御部10は、ユーザP1の位置に向かって移動し(図3のS15)、ユーザP1の顔を見るように頭の向きを変更して(図3のS16)、ユーザP1からの音声データを受け付け可能な状態にする。また、制御部10は、スピーカ42bから消音データを出力させる(図3のS17)。
Next, the control unit 10 determines the degree of congestion (S13 in FIG. 3 and FIG. 5). In the case of this example, it is assumed that surrounding users are talking and there is a so-called “gray” situation, and the volume level of the received audio data is high. Therefore, the control unit 10 determines that the degree of congestion is large.
Then, as shown in FIGS. 6B and 6C, the control unit 10 moves toward the position of the user P1 (S15 in FIG. 3), and changes the head direction so as to see the face of the user P1. (S16 in FIG. 3), the audio data from the user P1 is made acceptable. Further, the control unit 10 causes the mute data to be output from the speaker 42b (S17 in FIG. 3).

これにより、コミュニケーションロボット1は、ユーザP1が話す音声データを受け付ける(図3のS18がYES)場合に、よりはっきりとしたユーザP1の音声データを、マイク43aを介して受け付けることができる。また、コミュニケーションロボット1の周囲の第三者には、消音データによって、ユーザP1が発する音声データを聞き取りにくくすることができる。   Thereby, the communication robot 1 can receive the clearer voice data of the user P1 via the microphone 43a when the voice data spoken by the user P1 is received (S18 in FIG. 3 is YES). Moreover, it is possible to make it difficult for third parties around the communication robot 1 to hear the voice data emitted by the user P1 by using the mute data.

また、コミュニケーションロボット1は、発話データを出力する場合に、コミュニケーションロボット1が発する音声データを打ち消す消音データをスピーカ42bから出力して(図3のS20)、発話データを音声出力する(図3のS21)。よって、よりはっきりとしたコミュニケーションロボット1の発話データを音声としてユーザP1に届けることができる。また、コミュニケーションロボット1の周囲の第三者には、消音データによって、コミュニケーションロボット1から出力される音声データを聞き取りにくくすることができる。   Further, when outputting the utterance data, the communication robot 1 outputs mute data for canceling the voice data uttered by the communication robot 1 from the speaker 42b (S20 in FIG. 3), and outputs the utterance data as a voice (FIG. 3). S21). Therefore, clearer speech data of the communication robot 1 can be delivered to the user P1 as voice. Further, it is possible to make it difficult for third parties around the communication robot 1 to hear the voice data output from the communication robot 1 by the mute data.

このように、本実施形態のコミュニケーションロボット1によれば、以下のような効果がある。
(1)撮影した画像データからユーザPを特定し、コミュニケーションロボット1の周囲の混雑度を判断し、混雑度に基づく処理の後にユーザPに対して発話データを出力するので、混雑した状態であっても、ユーザPに聞こえるように話かけることができる。また、混雑した状態であっても混雑度に基づく処理をするので、コミュニケーションロボット1は、ユーザPの話を聞くことができる。
(2)撮影した画像データから人物を特定して、顔の器官を検出し、目の向きに基づいてユーザPを特定するので、コミュニケーションロボット1の方向を向いているユーザPを、コミュニケーションロボット1に対して関心を持っているものとして、話しかけをすることができる。
Thus, according to the communication robot 1 of this embodiment, there are the following effects.
(1) The user P is identified from the captured image data, the degree of congestion around the communication robot 1 is determined, and the speech data is output to the user P after processing based on the degree of congestion. However, it is possible to talk so that the user P can hear it. Further, since the processing based on the degree of congestion is performed even in a crowded state, the communication robot 1 can listen to the user P.
(2) Since the person is identified from the captured image data, the facial organ is detected, and the user P is identified based on the direction of the eyes, the user P facing the direction of the communication robot 1 is designated as the communication robot 1. You can talk as if you are interested in.

(3)コミュニケーションロボット1の顔の向きを、ユーザPの目に対面する位置にするので、人との間のコミュニケーションのように、違和感なく話しかけられているように、ユーザPに感じさせることができる。
(4)ユーザPとの距離を近づけるように、コミュニケーションロボット1を移動させるので、囁くような小声で話しかけても、ユーザPに聞こえるようにできる。また、大きな音量で音声データを出力する訳ではないので、第三者には、会話内容を聞かれるリスクを抑えることができる。
(3) Since the face direction of the communication robot 1 is set to a position facing the eyes of the user P, it is possible to make the user P feel as if he / she is talking without a sense of incongruity like communication with a person. it can.
(4) Since the communication robot 1 is moved so as to be close to the user P, it can be heard by the user P even when talking in a whispering voice. In addition, since voice data is not output at a high volume, it is possible to reduce the risk of a third party being asked about the content of the conversation.

(5)コミュニケーションロボット1の周辺の音声データの音量に基づいて混雑度を判定するので、ユーザPとの間の会話のためにどの程度の近づき加減で行えばよいかを、周囲の音量によって変えることができる。
(6)コミュニケーションロボット1と、ユーザPとを結ぶ位置を除く範囲には、会話を聞き取りにくくする消音データを出力するので、第三者には、会話の内容を聞き取りにくくできる。
(7)画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボット1が行うことができる。よって、コミュニケーションロボット1のみを準備すればよく、設置を容易に行うことができる。
(5) Since the degree of congestion is determined based on the volume of the voice data around the communication robot 1, how close it is to be adjusted for the conversation with the user P is changed according to the surrounding volume. be able to.
(6) Since the mute data that makes it difficult to hear the conversation is output to the range excluding the position connecting the communication robot 1 and the user P, it is difficult for the third party to hear the content of the conversation.
(7) The communication robot 1 can perform all processing from acquisition of image data to voice recognition processing or speech processing. Therefore, only the communication robot 1 needs to be prepared, and installation can be performed easily.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.

(変形形態)
(1)本実施形態では、コミュニケーションロボットが、対象のユーザに対して音声データを出力するスピーカを有するものとして説明したが、これに限定されない。
図7は、変形形態に係るコミュニケーションロボットの具体例を示す図である。
コミュニケーションロボットとは別にスピーカを有して、コミュニケーションロボットに外付けしてもよい。そして、図7(A)に示すように、スピーカ72(指向音声出力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP2に近づかなくても、コミュニケーションロボット1は、スピーカ72によって対象のユーザP2に向かって音声データを出力できる。
(2)本実施形態では、コミュニケーションロボットが対象のユーザの音声データを受け付けるマイクを有するものとして説明したが、これに限定されない。コミュニケーションロボットとは別にマイクを有し、コミュニケーションロボットに外付けしてもよい。そして、図7(B)に示すように、マイク73(指向音声入力部)は、指向性を有するものであってもよい。その場合には、コミュニケーションロボット1が対象のユーザP3に近づかなくても、コミュニケーションロボット1は、マイク73によって対象のユーザP3が発した音声データを受け付けることができる。
(Deformation)
(1) In the present embodiment, the communication robot is described as having a speaker that outputs audio data to a target user, but the present invention is not limited to this.
FIG. 7 is a diagram illustrating a specific example of a communication robot according to a modified embodiment.
A speaker may be provided separately from the communication robot and may be externally attached to the communication robot. And as shown to FIG. 7 (A), the speaker 72 (directional audio | voice output part) may have directivity. In this case, even if the communication robot 1 does not approach the target user P2, the communication robot 1 can output voice data to the target user P2 through the speaker 72.
(2) In the present embodiment, the communication robot has been described as having a microphone that receives the voice data of the target user. However, the present invention is not limited to this. A microphone may be provided separately from the communication robot and may be externally attached to the communication robot. And as shown to FIG. 7 (B), the microphone 73 (directional audio | voice input part) may have directivity. In that case, even if the communication robot 1 does not approach the target user P <b> 3, the communication robot 1 can receive voice data emitted from the target user P <b> 3 by the microphone 73.

(3)本実施形態では、コミュニケーションロボットが対象のユーザに近づくように移動するものを例に説明したが、これに限定されない。コミュニケーションロボットが、表示装置を有し、表示装置に、「近づいて!」といった表示をさせることで、対象のユーザが自らコミュニケーションロボットに近づくようにして、コミュニケーションロボットの近くに対象のユーザを誘導するものであってもよい。
(4)本実施形態では、ユーザの目の向きが正面である場合に、コミュニケーションロボットを見ているとみなして、ユーザを特定するものとして説明したが、これに限定されない。さらに、ユーザの口が動いている場合に、ユーザを特定してもよい。その場合には、コミュニケーションロボットは、ユーザの話を聞くものとして動作すればよい。
(5)本実施形態では、ユーザの見ている方向を、目の目線の方向としてもよい。例えば、制御部は、検出した顔画像から目を抽出することができるが、抽出した目の眼球と瞳孔との相対位置に基づいて、目線の向きを取得できる。その結果、コミュニケーションロボット1を直視しているユーザを、対象にすることができる。
(3) In the present embodiment, the communication robot is described as an example that moves so as to approach the target user, but the present invention is not limited to this. The communication robot has a display device and causes the display device to display “approach!” To guide the target user near the communication robot so that the target user himself approaches the communication robot. It may be a thing.
(4) In the present embodiment, the description has been made assuming that the user is identified as viewing the communication robot when the user's eye direction is the front, but the present invention is not limited to this. Furthermore, the user may be specified when the user's mouth is moving. In that case, the communication robot may operate as listening to the user's story.
(5) In the present embodiment, the direction that the user is viewing may be the direction of the eye line of sight. For example, the control unit can extract the eye from the detected face image, but can acquire the direction of the eye line based on the relative position between the eyeball and the pupil of the extracted eye. As a result, the user who is directly looking at the communication robot 1 can be targeted.

(6)本実施形態では、コミュニケーションロボットがユーザの顔を見ているように頭の向きを変更するものを例に説明したが、これに限定されない。
コミュニケーションロボットが話かける場合に、ユーザの耳を検出し、ユーザの耳に近接した位置で発話データを音声出力してもよい。そのようにすることで、あたかもユーザの耳元で囁くように演出でき、コミュニケーションロボットが発した音声データを、第三者により聞き取れないようにできる。
また、コミュニケーションロボットが話を聞く場合に、ユーザの口を検出し、マイク43aをユーザの口に近接した位置にしてもよい。そのようにすることで、あたかもコミュニケーションロボットの耳を近づけて聞くように演出でき、ユーザが発した音声データを、第三者により聞き取れないようにできる。
(6) In the present embodiment, the communication robot changes its head direction so that it looks at the user's face. However, the present invention is not limited to this.
When the communication robot speaks, the user's ear may be detected, and the speech data may be output as a voice at a position close to the user's ear. By doing so, it can be produced as if it is whispering at the user's ear, and the voice data emitted by the communication robot can be prevented from being heard by a third party.
Further, when the communication robot listens to the talk, the user's mouth may be detected, and the microphone 43a may be positioned close to the user's mouth. By doing so, it is possible to produce as if listening to the ear of the communication robot closer, and the voice data emitted by the user can not be heard by a third party.

(7)本実施形態では、混雑度を、コミュニケーションロボットの周囲の音声データの音量に基づいて判定するものを例に説明したが、これに限定されない。混雑度の判定に、音量以外の周波数等を考慮してもよい。また、音声データではなく、コミュニケーションロボットが取得した画像データに含まれるユーザ数に基づいて、混雑度を判定してもよい。
(8)本実施形態では、画像データの取得から音声認識処理又は発話処理までの全ての処理を、コミュニケーションロボットが行うものとして説明したが、これに限定されない。このコミュニケーションロボットに対して通信接続されたサーバを備え、サーバが、少なくとも一部の処理を行うようにしてもよい。
(7) In the present embodiment, the example in which the degree of congestion is determined based on the volume of audio data around the communication robot has been described as an example, but the present invention is not limited to this. In determining the degree of congestion, a frequency other than volume may be considered. Further, the degree of congestion may be determined based on the number of users included in the image data acquired by the communication robot instead of the voice data.
(8) In this embodiment, the communication robot performs all the processes from the acquisition of the image data to the voice recognition process or the speech process. However, the present invention is not limited to this. A server connected to the communication robot may be provided, and the server may perform at least a part of the processing.

1 コミュニケーションロボット
10 制御部
11 画像取得部
12 人物特定部
13 器官検出部
14 ユーザ特定部
15 周辺音取得部
16 音量判定部
17 混雑度判定部
18 顔位置変更部
19 足移動部
20 消音出力部
21 発話部
22 音声受付部
23 音声認識部
30 記憶部
31a 制御プログラム
33 消音データ記憶部
41 カメラ
42a,42b,72 スピーカ
43a,43b,73 マイク
44 モータ部
P,P1〜P3 ユーザ
DESCRIPTION OF SYMBOLS 1 Communication robot 10 Control part 11 Image acquisition part 12 Person specific part 13 Organ detection part 14 User specific part 15 Perimeter sound acquisition part 16 Volume determination part 17 Congestion degree determination part 18 Face position change part 19 Foot movement part 20 Silence output part 21 Speaking unit 22 Voice receiving unit 23 Voice recognition unit 30 Storage unit 31a Control program 33 Mute data storage unit 41 Camera 42a, 42b, 72 Speaker 43a, 43b, 73 Microphone 44 Motor unit P, P1-P3 User

Claims (12)

音声出力部を備えたコミュニケーションロボットであって、
被写体を撮影して撮影画像を生成する撮影部と、
前記撮影部によって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、
前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
前記混雑度判定手段による判定結果に応じて所定の処理を行うとともに、前記対象者特定手段により特定した前記発話対象者に対する発話データを、前記音声出力部から出力する発話手段と、
を備えるコミュニケーションロボット。
A communication robot with an audio output unit,
A shooting unit for shooting a subject and generating a shot image;
Based on the captured image obtained by the imaging unit, subject identification means for identifying the utterance subject,
Congestion degree determination means for determining the degree of congestion around the placement position of the communication robot;
Utterance means for performing predetermined processing according to the determination result by the congestion degree determination means, and outputting utterance data for the utterance target person specified by the target person specifying means from the voice output unit;
Communication robot equipped with.
請求項1に記載のコミュニケーションロボットにおいて、
前記撮影部によって得られた撮影画像から人物を特定する人特定手段と、
前記人特定手段によって特定した人物の顔の器官を検出する器官検出手段と、
を備え、
前記発話手段は、前記器官検出手段により検出した顔の器官から耳を特定し、特定した耳に近接した位置で、前記発話データを出力すること、
を特徴とするコミュニケーションロボット。
The communication robot according to claim 1,
A person identifying means for identifying a person from a photographed image obtained by the photographing unit;
An organ detecting means for detecting an organ of the face of the person specified by the person specifying means;
With
The speech means specifies an ear from the facial organ detected by the organ detection means, and outputs the speech data at a position close to the identified ear;
Communication robot characterized by
請求項2に記載のコミュニケーションロボットにおいて、
前記対象者特定手段は、前記器官検出手段により検出した顔の器官から目を特定し、特定した目の向きに基づいて前記発話対象者を特定すること、
を特徴とするコミュニケーションロボット。
The communication robot according to claim 2,
The subject specifying means specifies an eye from a facial organ detected by the organ detecting means, and specifies the utterance target person based on the specified eye orientation;
Communication robot characterized by
請求項2に記載のコミュニケーションロボットにおいて、
前記器官検出手段により検出した顔の器官から目を特定し、このコミュニケーションロボットの顔の位置を、特定した目に対面する位置に変更する顔位置変更手段を備え、
前記発話手段は、前記顔位置変更手段によって顔の位置を変更した後に、前記発話データを出力すること、
を特徴とするコミュニケーションロボット。
The communication robot according to claim 2,
A face position changing means for identifying an eye from the organ of the face detected by the organ detecting means, and changing a face position of the communication robot to a position facing the specified eye;
The utterance means outputs the utterance data after changing the position of the face by the face position changing means;
Communication robot characterized by
請求項1から請求項4までのいずれかに記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記対象者特定手段により特定した前記発話対象者と、このコミュニケーションロボットとを近接させるための処理を行うこと、
を特徴とするコミュニケーションロボット。
In the communication robot according to any one of claims 1 to 4,
Performing the process for bringing the utterance target person specified by the target person specifying means close to the communication robot as the predetermined process;
Communication robot characterized by
請求項5に記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記対象者特定手段により特定した前記発話対象者までの距離が前記混雑度に対応した距離になるように、このコミュニケーションロボットを移動させる処理を行うこと、
を特徴とするコミュニケーションロボット。
The communication robot according to claim 5,
Performing the process of moving the communication robot such that the distance to the utterance target person specified by the target person specifying means is a distance corresponding to the degree of congestion, as the predetermined process.
Communication robot characterized by
請求項1から請求項4までのいずれかに記載のコミュニケーションロボットにおいて、
指向性のある音を出力する指向音声出力部を備え、
前記所定の処理として、前記混雑度が閾値以上の場合に、前記対象者特定手段により特定した前記発話対象者の位置を特定する処理を行い、
前記発話手段は、特定した前記位置に向けて、前記指向音声出力部から前記発話データを出力すること、
を特徴とするコミュニケーションロボット。
In the communication robot according to any one of claims 1 to 4,
With a directional audio output unit that outputs directional sound,
As the predetermined process, when the congestion degree is equal to or greater than a threshold value, a process of specifying the position of the utterance target person specified by the target person specifying means is performed,
The utterance means outputs the utterance data from the directional sound output unit toward the identified position;
Communication robot characterized by
請求項1から請求項7までのいずれかに記載のコミュニケーションロボットにおいて、
前記コミュニケーションロボットの配置位置周辺の音声を取得する周辺音取得手段と、
前記周辺音取得手段によって取得した前記音声の音量レベルを判定する音量判定手段と、
を備え、
前記混雑度判定手段は、前記音量判定手段により判定した音量レベルに基づいて、前記混雑度を判定すること、
を特徴とするコミュニケーションロボット。
The communication robot according to any one of claims 1 to 7,
Peripheral sound acquisition means for acquiring sound around the position where the communication robot is disposed;
Volume determination means for determining a volume level of the sound acquired by the ambient sound acquisition means;
With
The congestion degree determination means determines the congestion degree based on the volume level determined by the volume determination means;
Communication robot characterized by
請求項1から請求項8までのいずれかに記載のコミュニケーションロボットにおいて、
前記混雑度判定手段は、前記撮影部によって得られた前記撮影画像に基づいて、前記混雑度を判定すること、
を特徴とするコミュニケーションロボット。
The communication robot according to any one of claims 1 to 8,
The congestion degree determination means determines the congestion degree based on the captured image obtained by the imaging unit;
Communication robot characterized by
請求項1から請求項9までのいずれかに記載のコミュニケーションロボットにおいて、
前記所定の処理として、前記音声出力部から出力される音声をうち消す音を、前記対象者特定手段により特定した前記発話対象者とは異なる方向に、前記音声出力部とは異なる他の音声出力部から出力する処理を行うこと、
を特徴とするコミュニケーションロボット。
The communication robot according to any one of claims 1 to 9,
As the predetermined processing, another sound output different from the sound output unit in a direction different from that of the utterance target person specified by the target person specifying means is used to cancel the sound output from the sound output part. Process to output from the
Communication robot characterized by
請求項1から請求項10までのいずれかに記載のコミュニケーションロボットとしてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a communication robot in any one of Claim 1-10. 被写体を撮影して撮影画像を生成する撮影部及び音声出力部を備えたコミュニケーションロボットと、
前記コミュニケーションロボットに対して通信可能に接続されたサーバと、
を備えるコミュニケーションロボットシステムであって、
前記サーバは、
前記コミュニケーションロボットによって得られた撮影画像に基づいて、発話対象者を特定する対象者特定手段と、
前記コミュニケーションロボットの配置位置周辺の混雑度を判定する混雑度判定手段と、
前記混雑度判定手段により判定された前記混雑度に基づく処理データと、前記対象者特定手段により特定した前記発話対象者に対する発話データとを、前記コミュニケーションロボットに送信するデータ送信手段と、
を備え、
前記コミュニケーションロボットは、
前記サーバから受信した前記処理データを実行する混雑処理手段と、
前記サーバから受信した前記発話データを前記音声出力部から出力する発話手段と、
を備えること、
を特徴とするコミュニケーションロボットシステム。
A communication robot having a photographing unit and a voice output unit for photographing a subject and generating a photographed image;
A server communicably connected to the communication robot;
A communication robot system comprising:
The server
Based on the captured image obtained by the communication robot, subject identification means for identifying a speech subject,
Congestion degree determination means for determining the degree of congestion around the placement position of the communication robot;
Data transmission means for transmitting processing data based on the congestion degree determined by the congestion degree determination means and utterance data for the utterance target person specified by the target person specifying means to the communication robot;
With
The communication robot is
Congestion processing means for executing the processing data received from the server;
Utterance means for outputting the utterance data received from the server from the voice output unit;
Providing
Communication robot system characterized by
JP2017047405A 2017-03-13 2017-03-13 Communication robots, programs and systems Active JP6874437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017047405A JP6874437B2 (en) 2017-03-13 2017-03-13 Communication robots, programs and systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017047405A JP6874437B2 (en) 2017-03-13 2017-03-13 Communication robots, programs and systems

Publications (2)

Publication Number Publication Date
JP2018149625A true JP2018149625A (en) 2018-09-27
JP6874437B2 JP6874437B2 (en) 2021-05-19

Family

ID=63679843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047405A Active JP6874437B2 (en) 2017-03-13 2017-03-13 Communication robots, programs and systems

Country Status (1)

Country Link
JP (1) JP6874437B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100488A1 (en) * 2018-11-13 2020-05-22 株式会社日立製作所 Communication robot
JP2020151012A (en) * 2019-03-18 2020-09-24 トヨタ自動車株式会社 Communication system, and control method of communication system
JP7300335B2 (en) 2019-07-17 2023-06-29 日本信号株式会社 Guide robots and programs for guide robots

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (en) * 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
WO2005076660A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
JP2006187825A (en) * 2005-01-05 2006-07-20 Yaskawa Electric Corp Robot device and method of controlling the same
JP2006263873A (en) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International Communication robot system and communication robot
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP2008087140A (en) * 2006-10-05 2008-04-17 Toyota Motor Corp Speech recognition robot and control method of speech recognition robot
JP5648485B2 (en) * 2011-01-06 2015-01-07 大日本印刷株式会社 Confidential data generating device, concealed data generating method, concealing device, concealing method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005193351A (en) * 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
WO2005076660A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
JP2006187825A (en) * 2005-01-05 2006-07-20 Yaskawa Electric Corp Robot device and method of controlling the same
JP2006263873A (en) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International Communication robot system and communication robot
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP2008087140A (en) * 2006-10-05 2008-04-17 Toyota Motor Corp Speech recognition robot and control method of speech recognition robot
JP5648485B2 (en) * 2011-01-06 2015-01-07 大日本印刷株式会社 Confidential data generating device, concealed data generating method, concealing device, concealing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100488A1 (en) * 2018-11-13 2020-05-22 株式会社日立製作所 Communication robot
JP2020078448A (en) * 2018-11-13 2020-05-28 株式会社日立製作所 Communication robot
CN112912152A (en) * 2018-11-13 2021-06-04 株式会社日立制作所 AC robot
CN112912152B (en) * 2018-11-13 2022-07-22 株式会社日立制作所 AC robot
JP7253900B2 (en) 2018-11-13 2023-04-07 株式会社日立製作所 communication robot
JP2020151012A (en) * 2019-03-18 2020-09-24 トヨタ自動車株式会社 Communication system, and control method of communication system
US11491660B2 (en) 2019-03-18 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication system and method for controlling communication system
JP7180470B2 (en) 2019-03-18 2022-11-30 トヨタ自動車株式会社 COMMUNICATION SYSTEM AND COMMUNICATION SYSTEM CONTROL METHOD
JP7300335B2 (en) 2019-07-17 2023-06-29 日本信号株式会社 Guide robots and programs for guide robots

Also Published As

Publication number Publication date
JP6874437B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
CN106992013B (en) Speech emotion modification
US11696063B2 (en) Automatic active noise reduction (ANR) control to improve user interaction
CN114556972A (en) System and method for assisting selective hearing
US10325614B2 (en) Voice-based realtime audio attenuation
JP2021007216A (en) Sound source enhancement facilitated by using video data
US20230045237A1 (en) Wearable apparatus for active substitution
JP2008509455A (en) Communication method and system between user and system
JP6562790B2 (en) Dialogue device and dialogue program
WO2022033236A1 (en) Audio enhancement method and apparatus, storage medium, and wearable device
US20220066207A1 (en) Method and head-mounted unit for assisting a user
JP6874437B2 (en) Communication robots, programs and systems
US11620977B2 (en) System and method for ambient noise detection, identification and management
JP2009178783A (en) Communication robot and its control method
TW202203207A (en) Audio control for extended-reality shared space
JP2007142957A (en) Remote interaction method and apparatus
JP2018149626A (en) Communication robot, program, and system
US20180124309A1 (en) Wearable computing device for detecting photography
WO2016157678A1 (en) Information processing device, information processing method, and program
JP7286303B2 (en) Conference support system and conference robot
EP3288035B1 (en) Personal audio analytics and behavior modification feedback
US11657814B2 (en) Techniques for dynamic auditory phrase completion
CN111696564B (en) Voice processing method, device and medium
EP4178220A1 (en) Voice-input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150