JP2019072787A - 制御装置、ロボット、制御方法、および制御プログラム - Google Patents

制御装置、ロボット、制御方法、および制御プログラム Download PDF

Info

Publication number
JP2019072787A
JP2019072787A JP2017199619A JP2017199619A JP2019072787A JP 2019072787 A JP2019072787 A JP 2019072787A JP 2017199619 A JP2017199619 A JP 2017199619A JP 2017199619 A JP2017199619 A JP 2017199619A JP 2019072787 A JP2019072787 A JP 2019072787A
Authority
JP
Japan
Prior art keywords
robot
speech
unit
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017199619A
Other languages
English (en)
Inventor
海光 桑村
Kaiko Kuwamura
海光 桑村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017199619A priority Critical patent/JP2019072787A/ja
Priority to CN201811194120.4A priority patent/CN109664268A/zh
Priority to US16/158,314 priority patent/US11014246B2/en
Publication of JP2019072787A publication Critical patent/JP2019072787A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

【課題】ユーザにより認識され易い方法で発話を止めるよう促すことができる。【解決手段】制御部(10または70)は音声を取得する。制御部(10または70)は音声に基づき、発話衝突が発生したか否かを判定する衝突判定部(11)と、発話衝突が発生した場合、ロボット(1または2)の駆動部(30)を制御することによって、ロボット(1または2)の可動部位(40)に抑止動作を行わせる駆動制御部(13)と、を備える。【選択図】図1

Description

本発明は、可動部を備えたロボットを制御する制御装置等に関する。
従来、ロボット等の機械とユーザ、またはユーザ同士の会話における発話のタイミングを調整する装置が知られている。例えば、特許文献1には、ユーザ間で生じる発話衝突を検知する技術が開示されている。また、同文献には、発話衝突が生じた場合に、後から発言した方のユーザに対して、画面表示または音声によって発話を止めるよう促す通知を出力する技術が開示されている。
特開2011−61634号公報(2011年3月24日公開)
しかしながら、画面表示または音声でユーザに発話を止めさせようとしても、効果が無い場合がある。例えば、ユーザが画像および文字を表示している画面の方を向いていない場合、発話を止めるよう促す通知は見逃されてしまう。また例えば、ユーザが音声を聞き取りにくい状態である場合、発話を止めるよう促す通知は聞き逃されてしまう。
本発明の一態様は、ユーザにより認識され易い方法で発話を止めるよう促すことを目的とする。
前記の課題を解決するために、本発明の一態様に係る制御装置は、駆動部によって駆動される可動部位を備えたロボットを制御する制御装置であって、前記ロボットの周囲の音声を示す音声を取得する音声取得部と、前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定部と、前記発話衝突判定部によって前記発話衝突が発生したと判定された場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に前記発話を止めるよう促すための動作である抑止動作を行わせる駆動制御部と、を備えることを特徴とする。
前記の課題を解決するために、本発明の一態様に係る制御方法は、駆動部によって駆動される可動部位を備えたロボットを制御する制御装置が実行する制御方法であって、前記ロボットの周囲の音声を示す音声を取得する音声取得ステップと、前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定ステップと、前記発話衝突判定ステップにおいて前記発話衝突が発生したと判定した場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に前記発話を止めるよう促すための動作である抑止動作を行わせる駆動制御ステップと、を含むことを特徴とする。
本発明の一態様によれば、ユーザにより認識され易い方法で発話を止めるよう促すことができる。
本発明の実施形態1に係るロボットの要部構成を示すブロック図である。 前記ロボットの動作概要を示す図である。 前記ロボットの制御部が実行する処理の流れを示すフローチャートである。 本発明の実施形態2に係るロボットの動作概要を示す図である。 前記ロボットの要部構成を示すブロック図である。 前記ロボットの制御部が実行する処理の流れを示すフローチャートである。 本発明の実施形態3に係るロボットの制御部が実行する処理の流れを示すフローチャートである。
本発明は、発話衝突が起こった場合に、該発話衝突を解消するための技術に関する。発話衝突とは、音声出力を行う装置(例えば、後述するロボット1〜3のいずれか)とユーザの間、または複数のユーザの間で、発話音声が重複することを意味する。換言すると、発話衝突が起こっている状態とは、複数のロボットまたはユーザが話している状態と同義である。本発明に係る制御装置は、発話衝突が起こった場合に、1人以上のユーザの発話を抑止することで、発話衝突を解消するための装置である。以下、本発明の実施形態の一例である、実施形態1〜4について説明する。
〔実施形態1〕
本発明の実施形態1について、図1〜3を用いて説明する。図2の(a)および(b)は、本実施形態に係るロボット1の動作概要を示す図である。図2の(a)に示すように、あるユーザ(ユーザA)が話している間に、他のユーザ(ユーザB)が話し始めたとする。この場合、ユーザAとユーザBとの間で発話衝突が起こる。ロボット1は、自機周囲の音声を取得して解析することにより、自装置を含む周囲で発話衝突が起こっていないか監視している。そして、発話衝突が起こった場合、ロボット1は図2の(b)に示すように、ユーザに発話を止めるよう促すための動作(以降、抑止動作と称する)を行う。以降、特段の記載が無い限りは、ロボット1の入力音声とは、ロボット1の周囲の音声のことを示す。
抑止動作の種類は特に限定されない。抑止動作は、ロボット1の可動部位で表現可能な動作であって、ユーザが発話を止めるべきであることが理解可能な動作であればよい。例えば、ロボット1が人型のロボットである場合、ロボット1は抑止動作として、腕を振る、手の平をロボット1の前面に突き出す、人差し指をロボット1の口に当てる、等の動作を行ってもよい。
≪ロボット1の要部構成≫
次に、図2に示した動作を実現するためのロボット1の構成について説明する。図1は、ロボット1の要部構成を示すブロック図である。ロボット1は少なくとも、制御部(制御装置、音声取得部、映像取得部)10と、マイク20と、駆動部30と、1箇所以上の可動部位40と、音声出力部50とを備えている。
マイク20は、ロボット1の周囲の音声を逐一制御部10に入力する。マイク20は、所定のタイミングで該入力を開始する。所定のタイミングとは、例えばロボット1が起動したタイミング、または制御部10から音声入力を指示されたタイミング等である。音声出力部50は、制御部10の制御に従って音声出力を行う。音声出力部50はスピーカ等で実現可能である。
駆動部30は、制御部10の制御に従って可動部位40を動作させる。駆動部30は、例えばモータ等で実現可能である。音声出力部50は、制御部10の制御に従って音声または画像の出力を行う。音声出力部50は例えばスピーカまたはディスプレイ等で実現可能である。可動部位40は、駆動部30により駆動されることで動作するロボット1のパーツである。可動部位40は、抑止動作が表現可能な部位であればどのような部位であってもよい。例えばロボット1が人型のロボットの場合、可動部位40は、腕、手指、脚、首、頭、顔の各種パーツであってもよい。
制御部10は、ロボット1を統括的に制御する。制御部10はマイク20から音声を取得する。制御部10は取得した音声に基づいて、発話衝突が起こったか否かの判定処理と、抑止すべき発話の特定に係る処理と、駆動部30および音声出力部50の制御処理とを行う。
より詳しくは、制御部10は、衝突判定部(発話衝突判定部)11、抑止対象特定部12、および駆動制御部13を含む。衝突判定部11は、発話衝突が起こったか否かを判定する。衝突判定部11は、制御部10がマイク20から取得する音声を逐一解析して、現在、複数の発話音声が重複しているか否かを判定する。ここで、「発話音声」とは、環境音等の音声ではなく、ユーザまたはロボットの発話により生じる音声を示している。複数の発話音声が重複している場合、衝突判定部11は、発話衝突が起こったと判定する。発話衝突が起こったと判定した場合、衝突判定部11は抑止対象特定部12に発話衝突が起こった旨を通知する。以降、特段の記載が無ければ、発話衝突が前記ロボットとあるユーザの間、または2名のユーザの間で起こったこととして説明を行う。しかしながら、衝突判定部11は、ロボット1と2名以上のユーザとの間、または3名以上のユーザの間で発話衝突が起こった場合も上述した判定と同様の判定を行ってよい。
抑止対象特定部12は、発話衝突が起こった場合に、該発話衝突を起こしている複数の発話音声から、抑止すべき発話音声を1つ以上特定する。換言すると、抑止対象特定部12は、後述する抑止動作を見せる対象のユーザを1人以上特定する。抑止対象特定部12は、衝突判定部11から発話衝突が起こった旨を通知されると、発話衝突を起こした時点の前後の音声を比較することで、後から発話を開始した方の発話音声を抑止対象の発話音声として特定する。なお、ロボット1およびユーザ合わせて3名以上で発話衝突が起こった場合、抑止対象特定部12は最後に発話が開始された発話音声を、抑止対象の発話音声として特定する。
抑止対象特定部12はさらに、抑止対象の発話音声が、ユーザの発話音声か、ロボット1自体の発話音声かを判定する。例えば、抑止対象特定部12は、音声出力制御部14が音声出力部50に出力させた音声と、抑止対象の発話音声とを照合して、一致度が所定値未満である場合は該発話音声がユーザの発話音声であると判定し、所定値以上である場合はロボット1の発話音声であると判定してもよい。
抑止対象特定部12は、抑止対象の発話音声がユーザの発話音声である場合、駆動制御部13に対し、抑止動作に係る制御を実行するよう指示する。一方、抑止対象の発話音声がロボット1自体の発話音声である場合、抑止対象特定部12は音声出力制御部14に音声出力を停止させる旨の指示を送信してもよいし、他の部材に指示を送信せず処理を終了してもよい。
駆動制御部13は、駆動部30を制御することによって、ロボット1の可動部位40に抑止動作を行わせる。駆動制御部13は、抑止対象特定部12から抑止動作に係る制御を実行する旨の指示を受信すると、可動部位40が抑止動作を行うように駆動部30を駆動させる。
音声出力制御部14は、音声出力部50における音声出力を制御することにより、ロボット1の発話を制御する。音声出力制御部14は、抑止対象特定部12から音声出力を停止させる旨の指示を受信した場合、音声出力部50の音声出力を停止させる。
≪ロボット1の処理の流れ≫
最後に、制御部10の実行する処理の流れを説明する。図3は、制御部10の処理の流れを示すフローチャートである。なお、図3のフローチャートでは、衝突判定部11における1回の発話衝突の判定に対応して実行される処理の流れを記載している。実際には、マイク20は音声を制御部10に逐一入力するため、衝突判定部11は発話衝突が起こっているか否かの判定を逐一行っている。そして、図3に示す各処理は、制御部10がマイク20から音声を取得している間、繰り返し行われる。
制御部10が音声を受信すると、衝突判定部11は、該音声を解析して複数の発話音声が重複しているか否かを判定する(S11、発話衝突判定ステップ)。重複している場合(S11でYES)、衝突判定部11は発話衝突が起こったと判定し(S12、発話衝突判定ステップ)、抑止対象特定部12にその旨を通知する。一方、重複していない場合(S11でNO)、制御部10の各部は以降の処理を行わない。
抑止対象特定部12は、衝突判定部11から発話衝突が起こった旨を通知されると、発話衝突を起こした発話音声のうち、最後に発話が開始された音声を、抑止対象の発話音声として特定する(S13)。
抑止対象特定部12はさらに、抑止対象の発話音声がユーザの発話音声であるか、ロボット1の発話音声であるかを判定する(S14)。抑止対象の発話音声がユーザの発話音声である場合(S14でYES)、抑止対象特定部12は駆動制御部13に、抑止動作に係る制御を行うよう指示する。一方、抑止対象の発話音声がユーザの発話音声ではなくロボット1の発話音声である場合(S14でNO)、制御部10の各部は以降の処理を行わない。
駆動制御部13は抑止対象特定部12から指示を受けると、駆動部30の駆動を制御することにより、可動部位40を動作させてロボット1に抑止動作を行わせる(S15、駆動制御ステップ)。
以上の処理によれば、ロボット1は、発話衝突が生じた場合に、抑止動作によって、ユーザに発話を止めるよう促すことができる。そのため、ユーザが、音声が聞き取りにくい状態であっても、該ユーザに発話を止めるべきことを認識させることができる。また、ユーザがロボットを注視していない状態でも、ロボットがユーザの視界に収まってさえいれば、抑止動作が該ユーザの目に留まる可能性が高い。したがって、ユーザにより認識され易い方法で発話を止めるよう促すことができる。
また、音声で発話を止めるよう促す場合に比べ、ユーザの発話と発話を止めるよう促す音(警告音等)が重複しないため、ユーザに発話を止めるべきことをより認識させ易いという利点がある。
なお、駆動制御部13は、発話衝突が解消した場合(図3のS11でNOと判定された場合)、ただちに駆動部30の制御を止めてもよいし、抑止動作を示す一連の動作を可動部位40に行わせるまでは、該抑止動作を継続するため駆動部30を制御し続けてもよい。また、駆動制御部13は発話衝突が継続する間(図3のS11でYESの判定が続く間)、可動部位40に抑止動作を繰り返し行わせてもよいし、1回の抑止動作を構成する一連の動作(例えば腕を2往復振る等)が終了した場合、一度発話衝突が解消するまでは抑止動作を繰り返さないこととしてもよい。
例えばユーザが大事なことを話したい場合、ロボット1から発話を止めるよう促されても、話し続けることが考えられる。この場合、発話衝突が発生していること、および発話を本来止めるべきであることはユーザに伝わっているため、抑止動作を継続する必要がないためである。
〔実施形態2〕
本発明の実施形態2について、以下で説明する。なお、説明の便宜上、実施形態1で説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。これは、以降の各実施形態においても同様である。
本実施形態に係るロボット(ロボット2)は、抑止対象の発話音声を発したユーザを特定し、ロボット2から見た該ユーザの居る方向に向けて抑止動作を行う点で、実施形態1に係るロボット1と異なる。
図4の(a)および(b)は、本実施形態に係るロボット2の動作概要を示す図である。図4の(a)に示すように、ユーザCが話している間に、ユーザDが話し始めたとする。この場合、ユーザCとユーザDとの間で発話衝突が起こる。発話衝突が起こった場合、ロボット2は図2の(b)に示すように、後から話し始めたユーザを特定し、該ユーザに向けて、抑止動作を行う。
図5は、ロボット2の要部構成を示すブロック図である。ロボット2は、方向特定部(方向特定部、向き特定部)15を含む制御部(制御装置、音声取得部、映像取得部)70と、カメラ60とを備える点で、ロボット1と異なる。
カメラ60は、ロボット2の周囲を逐一撮影し、撮影映像を制御部70に送信する。なお、カメラ60は静止画を一定の時間間隔で撮影してもよいし、動画を撮影して逐一制御部70に送信してもよい。
制御部70の抑止対象特定部12は、抑止対象の発話音声がユーザの音声であると判定した場合、方向特定部15に、ユーザの居る方向を特定するよう指示する。方向特定部15は、音声と映像とに基づいて、ロボット2から見た、抑止対象の発話音声を発話したユーザ(対象ユーザ)の居る方向を特定する。方向特定部15は対象ユーザの居る方向を示す情報を、駆動制御部13に送信する。
駆動制御部13は、方向特定部15から対象ユーザの居る方向を受信すると、ロボット2が、該方向を向いて抑止動作を行うように、駆動部30を制御する。
図6は、本実施形態に係る制御部70が実行する処理の流れを示すフローチャートである。なお、S21〜S24までの各処理は、図3のS11〜S14の各処理と同様である。抑止対象特定部12において、抑止対象の発話音声がユーザの発話音声であると判定された場合(S24でYES)、方向特定部15は、制御部70がカメラ60から取得した映像から、対象ユーザの居る方向を特定する(S25)。
そして、駆動制御部13は、現在ロボット2が対象ユーザの居る方向を向いているか否かを判定する(S26)。ロボット2が対象ユーザの居る方向を向いている場合(S26でYES)、駆動制御部13は駆動部30を制御してロボット2に抑止動作を行わせる(S28)。一方、ロボット2が対象ユーザの居る方向を向いていない場合(S26でNO)、駆動制御部13は駆動部30を制御して、対象ユーザの居る方向にロボット2の向き(ロボット2の姿勢)を変えさせる、またはロボット2自体を移動させる(S27)。向きの変更または移動が完了したら、駆動制御部13は駆動部30を制御しロボット2に抑止動作を行わせる(S28)。
前記の処理によれば、制御部70はロボット2に、発話を抑止すべきユーザの居る方向に向かって抑止動作を行わせることができる。したがって、ユーザに抑止動作をより認識し易い方法で示すことができる。
〔実施形態3〕
本発明の実施形態3について、以下で説明する。本実施形態に係るロボット2は、方向特定部15が対象ユーザの居る方向とともに対象ユーザの顔の向きを特定する点で、前記各実施形態に係るロボットと異なる。また、本実施形態に係るロボット2は、駆動制御部13が、対象ユーザの視界に収まるようにロボット2の姿勢を変更させる、またはロボット2を移動させてから抑止動作を行うよう駆動部30を制御する点で、前記各実施形態に係るロボットと異なる。
図7は、本実施形態に係る制御部70が実行する処理の流れを示すフローチャートである。なお、S31〜S34までの各処理は、図3のS11〜S14の各処理と同様である。抑止対象特定部12において、抑止対象の発話音声がユーザの発話音声であると判定された場合(S24でYES)、方向特定部15は、制御部70がカメラ60から取得した映像から、対象ユーザの居る方向および向きを特定する(S25)。対象ユーザの向きとは、例えば対象ユーザの顔の向いている方向を示す。
駆動制御部13は、ロボット2の現在の向きと、対象ユーザの向きとから、対象ユーザがロボット2の方を見ているか否か判定する(S36)。対象ユーザがロボット2の方を向いている場合(S36でYES)、駆動制御部13は駆動部30を制御してロボット2に抑止動作を行わせる(S38)。例えば、駆動制御部13は、対象ユーザの顔の向いている方向を0°として、左右所定の角度で、かつ対象ユーザから所定の距離までの空間を、対象ユーザの視界範囲内であると特定する。そして、駆動制御部13は、該範囲内にロボット2が入っている場合は、対象ユーザがロボット2の方を向いていると判定すればよい。
一方、対象ユーザがロボット2の方を向いていない場合(S36でNO)、駆動制御部13は駆動部30を制御して、対象ユーザの視界に入るようにロボット2の向き(ロボット2の姿勢)を変えさせる、またはロボット2自体を移動させる(S37)。向きの変更または移動が完了したら、駆動制御部13は駆動部30を制御しロボット2に抑止動作を行わせる(S38)。
前記の処理によれば、制御部70はロボット2に、発話を抑止すべきユーザの居る方向に、かつユーザの視界に入っている状態で抑止動作を行わせることができる。したがって、ユーザがロボット2の方向を向いていない場合でも、ユーザに抑止動作を認識させることができる。
〔実施形態4〕
ロボット2は、カメラ60を備える代わりに、指向性マイクをマイク20として備えていてもよい。また、ロボット2の制御部70は、前記指向性マイクを介してロボット2の周囲の音声を取得してもよい。
この場合、制御部70の方向特定部15は、音声に基づいて、ロボット2から見て対象ユーザが居る方向を特定する。例えば、方向特定部15は、音声に含まれる各発話音声の大きさおよび方向性等に応じて、対象ユーザが居る方向を特定してもよい。そして、駆動制御部13は、ロボット2が方向特定部15の特定した方向を向いて抑止動作を行うように、駆動部30を制御する。
前記の構成によれば、カメラ60が無くても、指向性マイクから制御部70に入力された音声から、ユーザの居る方向を特定することができる。また、カメラ60を排することができるため、ロボット2を、部品数を減らしたより単純な構成で実現することができる。
〔変形例〕
前記実施形態3に記載のロボット2において、方向特定部15は、映像から対象ユーザの顔の位置を特定してもよい。そして、駆動制御部13はロボット2に、対象ユーザの顔の位置に合わせて抑止動作を行わせてもよい。例えば、ロボット2の手の平を対象ユーザの顔に対向するように向ける動作を抑止動作として行ってもよい。これにより、ユーザがより認識し易いように抑止動作を示すことができる。
前記各実施形態では、制御部10および制御部70はそれぞれ、ロボット1およびロボット2に内蔵された装置であることとした。しかしながら、制御部10および制御部70は、ロボット1およびロボット2に外付けされた、またはロボット1およびロボット2と有線または無線で接続された外部装置であってもよい。
また、前記各実施形態に記載の制御部10および制御部70は、ロボット1またはロボット2に抑止動作を行わせる場合に、抑止動作と組み合わせて、効果音または音声を出力してもよい。この場合、例えば駆動制御部13が音声出力制御部14に、抑止動作に対応する効果音または音声の出力を指示し、音声出力制御部14は該指示に従って音声出力部50を制御してもよい。
また、ロボット1およびロボット2はライトまたは表示装置を備えていてもよい。そして、制御部10および70は、ロボット1またはロボット2に抑止動作を行わせる場合に、抑止動作と組み合わせて、ライトの発光、または表示装置での画像の表示を実行してもよい。この場合、例えば駆動制御部13が、抑止動作に対応するライトの明滅、または抑止動作に対応する画像の出力を決定し、制御部10または制御部70は該決定に従って表示装置を制御すればよい。さらに言えば、抑止動作と、上述した効果音または音声による発話抑止と、上述したライトの光または画像表示による発話抑止とを全て組み合わせて、ユーザに発話を止めるべき旨を通知してもよい。
このように、音、画像、光、ロボット1およびロボット2自体の動作を適宜組み合わせてユーザに発話を止めるよう通知することで、ユーザに該通知をより認識させ易くすることができる。
〔ソフトウェアによる実現例〕
制御部10および制御部70の制御ブロック(特に衝突判定部11、抑止対象特定部12、駆動制御部13、音声出力制御部14、および方向特定部15)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、制御部10および制御部70は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る制御装置(制御部10および70)は、駆動部(30)によって駆動される可動部位(40)を備えたロボット(1および2)を制御する制御装置であって、前記ロボットの周囲の音声を取得する音声取得部(制御部10および70)と、前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定部(衝突判定部11)と、前記発話衝突判定部によって前記発話衝突が発生したと判定された場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に、前記ユーザに発話を止めるよう促すための動作である抑止動作を行わせる駆動制御部(13)と、を備える。
本発明の態様7に係る制御方法は、駆動部(30)によって駆動される可動部位(40)を備えたロボット(1および2)を制御する制御装置(制御部10および70)が実行する制御方法であって、前記ロボットの周囲の音声を取得する音声取得ステップと、前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定ステップ(S11〜S12)と、前記発話衝突判定ステップにおいて前記発話衝突が発生したと判定した場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に前記発話を止めるよう促すための動作である抑止動作を行わせる駆動制御ステップ(S15)と、を含む。
前記の構成または処理によれば、発話衝突が生じた場合に、ロボットの抑止動作によって、ユーザに発話を止めるよう促すことができる。そのため、ユーザが、音声が聞き取りにくい状態であっても、該ユーザに発話を止めるべきことを認識させることができる。また、ユーザがロボットを注視していない状態でも、ロボットがユーザの視界に収まってさえいれば、抑止動作が該ユーザの目に留まる可能性が高い。したがって、前記の構成によれば、ユーザにより認識され易い方法で発話を止めるよう促すことができる。
本発明の態様2に係る制御装置は、上記態様1において、前記発話衝突判定部によって前記発話衝突が発生したと判定された場合、前記音声に含まれる複数の発話音声のうち最後に発話が開始された発話音声を、抑止対象の発話音声として特定する抑止対象特定部(12)を備え、前記駆動制御部は、前記抑止対象の発話音声がいずれかのユーザの発話音声である場合に、前記ロボットに前記抑止動作を行わせてもよい。
上記の構成によれば、制御装置は、発話衝突が生じた場合に抑止すべき発話音声が、ユーザから発せられたものである場合に、抑止動作を行う。換言すると、例えば抑止すべき発話音声が、制御対象であるロボットが発話した音声である場合は抑止動作を行わないこととすることができる。これにより、抑止動作が必要な場合にのみ、該抑止動作を行わせることができる。
本発明の態様3に係る制御装置は、上記態様2において、前記ロボットは、前記可動部位のうち1つ以上が動作することで、自機の向きを変更することが可能なロボットであり、前記ロボットの周囲の映像を取得する映像取得部(制御部10および70)と、前記映像および前記音声に基づいて、前記ロボットから前記抑止対象の発話音声を発話したユーザへの方向を特定する方向特定部(15)を備え、前記駆動制御部は、前記ロボットが前記方向特定部の特定した前記方向を向いて前記抑止動作を行うように、前記駆動部を制御してもよい。
前記の構成によれば、制御装置はロボットに、発話を抑止すべきユーザの居る方向に向かって抑止動作を行わせることができる。したがって、ユーザに抑止動作をより認識し易い方法で示すことができる。
本発明の態様4に係る制御装置は、上記態様3において、前記映像から、前記抑止対象の発話音声を発した対象ユーザの顔の向きを特定する向き特定部(方向特定部15)を備え、前記駆動制御部は、前記駆動部を制御することによって、前記対象ユーザの顔の向きに応じて前記ロボットの姿勢変更または移動を行わせ、かつ該ロボットに前記抑止動作を行わせてもよい。
前記の処理によれば、制御装置はロボットに、発話を抑止すべきユーザの居る方向、かつユーザの視界に入っている状態で抑止動作を行わせることができる。したがって、ユーザがロボットの方向を向いていない場合でも、ユーザに抑止動作を認識させることができる。
本発明の態様5に係る制御装置は、上記態様2において、前記音声取得部は、指向性マイクから前記音声を取得し、前記音声に基づいて、前記ロボットから前記抑止対象の発話音声を発話したユーザへの方向を特定する方向特定部(15)を備え、前記駆動制御部は、前記ロボットが前記方向特定部の特定した前記方向を向いて前記抑止動作を行うように、前記駆動部を制御してもよい。
前記の構成によれば、カメラ等の映像を取得せずとも、指向性マイクから音声取得部に入力された音声から、ユーザの居る方向を特定することができる。したがって、ロボットを、部品数を減らしたより単純な構成で実現することができる。
本発明の態様6に係るロボット(1および2)は、前記態様1〜5のいずれか1項における制御装置(制御部10または70)と、周囲の音声を前記音声取得部に入力するマイク(20)と、前記駆動制御部の制御に応じて前記可動部位を駆動させる駆動部(30)と、を備える。前記の構成によれば、前記態様1における制御装置と同様の効果を奏する。
本発明の各態様に係る制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記制御装置が備える各部(ソフトウェア要素)として動作させることにより前記制御装置をコンピュータにて実現させる制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1、2 ロボット
10、70 制御部(制御装置、音声取得部、映像取得部)
11 衝突判定部(発話衝突判定部)
12 抑止対象特定部
13 駆動制御部
14 音声出力制御部
15 方向特定部(方向特定部、向き特定部)
20 マイク
30 駆動部
40 可動部位
50 音声出力部
60 カメラ

Claims (8)

  1. 駆動部によって駆動される可動部位を備えたロボットを制御する制御装置であって、
    前記ロボットの周囲の音声を取得する音声取得部と、
    前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定部と、
    前記発話衝突判定部によって前記発話衝突が発生したと判定された場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に、前記ユーザに発話を止めるよう促すための動作である抑止動作を行わせる駆動制御部と、を備えることを特徴とする、制御装置。
  2. 前記発話衝突判定部によって前記発話衝突が発生したと判定された場合、前記音声に含まれる複数の発話音声のうち最後に発話が開始された発話音声を、抑止対象の発話音声として特定する抑止対象特定部を備え、
    前記駆動制御部は、前記抑止対象の発話音声がいずれかのユーザの発話音声である場合に、前記ロボットに前記抑止動作を行わせることを特徴とする、請求項1に記載の制御装置。
  3. 前記ロボットは、前記可動部位のうち1つ以上が動作することで、自機の向きを変更することが可能なロボットであり、
    前記ロボットの周囲の映像を取得する映像取得部と、
    前記映像および前記音声に基づいて、前記ロボットから前記抑止対象の発話音声を発話したユーザへの方向を特定する方向特定部を備え、
    前記駆動制御部は、前記ロボットが前記方向特定部の特定した前記方向を向いて前記抑止動作を行うように、前記駆動部を制御することを特徴とする、請求項2に記載の制御装置。
  4. 前記映像から、前記抑止対象の発話音声を発した対象ユーザの顔の向きを特定する向き特定部と、を備え、
    前記駆動制御部は、前記駆動部を制御することによって、前記対象ユーザの顔の向きに応じて前記ロボットの姿勢変更または移動を行わせ、かつ該ロボットに前記抑止動作を行わせることを特徴とする、請求項3に記載の制御装置。
  5. 前記音声取得部は、指向性マイクから前記音声を取得し、
    前記音声に基づいて、前記ロボットから前記抑止対象の発話音声を発話したユーザへの方向を特定する方向特定部を備え、
    前記駆動制御部は、前記ロボットが前記方向特定部の特定した前記方向を向いて前記抑止動作を行うように、前記駆動部を制御することを特徴とする、請求項2に記載の制御装置。
  6. 請求項1〜5のいずれか1項に記載の制御装置と、
    周囲の音声を前記音声取得部に入力するマイクと、
    前記駆動制御部の制御に応じて前記可動部位を駆動させる駆動部と、を備えることを特徴とするロボット。
  7. 駆動部によって駆動される可動部位を備えたロボットを制御する制御装置が実行する制御方法であって、
    前記ロボットの周囲の音声を取得する音声取得ステップと、
    前記音声に基づいて、前記ロボットとユーザの間、または複数のユーザの間で発話衝突が発生したか否かを判定する発話衝突判定ステップと、
    前記発話衝突判定ステップにおいて前記発話衝突が発生したと判定した場合、前記駆動部を制御することによって、前記ロボットの前記可動部位に発話を止めるよう促すための動作である抑止動作を行わせる駆動制御ステップと、を含むことを特徴とする、制御方法。
  8. 請求項1に記載の制御装置としてコンピュータを機能させるための制御プログラムであって、前記音声取得部、前記発話衝突判定部、および前記駆動制御部としてコンピュータを機能させるための制御プログラム。
JP2017199619A 2017-10-13 2017-10-13 制御装置、ロボット、制御方法、および制御プログラム Pending JP2019072787A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017199619A JP2019072787A (ja) 2017-10-13 2017-10-13 制御装置、ロボット、制御方法、および制御プログラム
CN201811194120.4A CN109664268A (zh) 2017-10-13 2018-10-12 控制装置、机器人、控制方法、以及存储介质
US16/158,314 US11014246B2 (en) 2017-10-13 2018-10-12 Control device, robot, control method, control program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199619A JP2019072787A (ja) 2017-10-13 2017-10-13 制御装置、ロボット、制御方法、および制御プログラム

Publications (1)

Publication Number Publication Date
JP2019072787A true JP2019072787A (ja) 2019-05-16

Family

ID=66097262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199619A Pending JP2019072787A (ja) 2017-10-13 2017-10-13 制御装置、ロボット、制御方法、および制御プログラム

Country Status (3)

Country Link
US (1) US11014246B2 (ja)
JP (1) JP2019072787A (ja)
CN (1) CN109664268A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210009209A (ko) * 2019-07-16 2021-01-26 엘지전자 주식회사 다른 로봇과 대화가 가능한 로봇 및 이의 제어 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254433A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 対人ロボット及び対人ロボット制御プログラム
US20050219356A1 (en) * 1997-05-07 2005-10-06 Smith Graham T Teleconferencing robot with swiveling video monitor
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009139592A (ja) * 2007-12-05 2009-06-25 Sony Corp 音声処理装置、音声処理システム及び音声処理プログラム
JP2011061634A (ja) * 2009-09-11 2011-03-24 Brother Industries Ltd 通信制御装置、通信制御方法および通信制御プログラム
JP2011097531A (ja) * 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2014186421A (ja) * 2013-03-22 2014-10-02 Toyota Motor Corp コミュニケーションシステム及びロボット
WO2016065362A1 (en) * 2014-10-24 2016-04-28 Fellow Robots, Inc. Customer service robot and related systems and methods
JP2017144521A (ja) * 2016-02-18 2017-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623592A (en) * 1994-10-18 1997-04-22 Molecular Dynamics Method and apparatus for constructing an iconic sequence to operate external devices
JP3697748B2 (ja) * 1995-08-21 2005-09-21 セイコーエプソン株式会社 端末、音声認識装置
JP2002108388A (ja) 2000-09-28 2002-04-10 Sharp Corp 対話装置及び対話処理プログラムを記録した記録媒体
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
US20110044501A1 (en) * 2006-07-14 2011-02-24 Ailive, Inc. Systems and methods for personalized motion control
KR20090064819A (ko) * 2007-12-17 2009-06-22 주식회사 신한은행 환전거래 기능을 구비한 뱅크로봇과 환전처리 방법과 이를위한 기록매체
CN101295016B (zh) * 2008-06-13 2011-04-27 河北工业大学 一种声源自主搜寻定位方法
BRPI0904540B1 (pt) * 2009-11-27 2021-01-26 Samsung Eletrônica Da Amazônia Ltda método para animar rostos/cabeças/personagens virtuais via processamento de voz
US8600743B2 (en) * 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
JP5703491B2 (ja) 2010-01-26 2015-04-22 国立大学法人山梨大学 言語モデル・音声認識辞書作成装置及びそれらにより作成された言語モデル・音声認識辞書を用いた情報処理装置
US20130211826A1 (en) * 2011-08-22 2013-08-15 Claes-Fredrik Urban Mannby Audio Signals as Buffered Streams of Audio Signals and Metadata
JP5877418B2 (ja) 2011-12-09 2016-03-08 株式会社国際電気通信基礎技術研究所 シナリオ生成装置およびシナリオ生成方法
JP5685177B2 (ja) 2011-12-12 2015-03-18 本田技研工業株式会社 情報伝達システム
JP5982840B2 (ja) * 2012-01-31 2016-08-31 富士通株式会社 対話装置、対話プログラムおよび対話方法
US9239627B2 (en) * 2012-11-07 2016-01-19 Panasonic Intellectual Property Corporation Of America SmartLight interaction system
US10484437B2 (en) * 2015-01-21 2019-11-19 Logmein, Inc. Remote support service with two-way smart whiteboard
CN106292732A (zh) * 2015-06-10 2017-01-04 上海元趣信息技术有限公司 基于声源定位和人脸检测的智能机器人转动方法
WO2017075121A1 (en) * 2015-10-30 2017-05-04 Covidien Lp Haptic fedback controls for a robotic surgical system interface
CN205540562U (zh) * 2016-01-21 2016-08-31 武汉明科智慧科技有限公司 基于声音定位的人机交互机器人
CN105945995B (zh) * 2016-05-26 2018-03-09 三个爸爸家庭智能环境科技(北京)有限公司 机器人的语音控制拍照系统
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050219356A1 (en) * 1997-05-07 2005-10-06 Smith Graham T Teleconferencing robot with swiveling video monitor
JP2005254433A (ja) * 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd 対人ロボット及び対人ロボット制御プログラム
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009139592A (ja) * 2007-12-05 2009-06-25 Sony Corp 音声処理装置、音声処理システム及び音声処理プログラム
JP2011061634A (ja) * 2009-09-11 2011-03-24 Brother Industries Ltd 通信制御装置、通信制御方法および通信制御プログラム
JP2011097531A (ja) * 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International 傾聴対話持続システム
JP2014186421A (ja) * 2013-03-22 2014-10-02 Toyota Motor Corp コミュニケーションシステム及びロボット
WO2016065362A1 (en) * 2014-10-24 2016-04-28 Fellow Robots, Inc. Customer service robot and related systems and methods
JP2017144521A (ja) * 2016-02-18 2017-08-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20190111567A1 (en) 2019-04-18
CN109664268A (zh) 2019-04-23
US11014246B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
US9940944B2 (en) Smart mute for a communication device
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP6531776B2 (ja) 音声対話システムおよび音声対話方法
JP7038210B2 (ja) 対話セッション管理用のシステム及び方法
KR20150112337A (ko) 디스플레이 장치 및 그 사용자 인터랙션 방법
JP2009166184A (ja) ガイドロボット
RU2019120179A (ru) Системы и способы для анимированной головы действующего лица
JP6443419B2 (ja) 音声対話装置及びその制御方法
US20210105437A1 (en) Information processing device, information processing method, and storage medium
US9319513B2 (en) Automatic un-muting of a telephone call
JP7267411B2 (ja) インタラクティブオブジェクト駆動方法、装置、電子デバイス及び記憶媒体
WO2018135276A1 (ja) 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
CN109249386B (zh) 语音对话机器人及语音对话系统
JP2019072787A (ja) 制御装置、ロボット、制御方法、および制御プログラム
JPWO2018135304A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2023133343A (ja) ロボット、方向制御方法及びプログラム
JP2018075657A (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP2020136828A (ja) 電子機器、制御方法及びプログラム
KR102613040B1 (ko) 영상 통화 방법 및 이를 구현하는 로봇
JP6495479B2 (ja) ロボット、ロボットの制御方法、制御プログラム、および記録媒体
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
JP2020088637A (ja) 会議支援システム及び会議用ロボット
US20240168701A1 (en) Head-mounted display control apparatus, method for controlling head-mounted display control apparatus, and non-transitory computer readable storage medium
US20230347527A1 (en) Communication system, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220105