JP2019209392A - 力覚視覚化装置、ロボットおよび力覚視覚化プログラム - Google Patents

力覚視覚化装置、ロボットおよび力覚視覚化プログラム Download PDF

Info

Publication number
JP2019209392A
JP2019209392A JP2018104785A JP2018104785A JP2019209392A JP 2019209392 A JP2019209392 A JP 2019209392A JP 2018104785 A JP2018104785 A JP 2018104785A JP 2018104785 A JP2018104785 A JP 2018104785A JP 2019209392 A JP2019209392 A JP 2019209392A
Authority
JP
Japan
Prior art keywords
force
data
unit
robot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104785A
Other languages
English (en)
Other versions
JP7000253B2 (ja
Inventor
長谷川 泰久
Yasuhisa Hasegawa
泰久 長谷川
中西 淳
Jun Nakanishi
淳 中西
駿輝 板寺
Shunki Itadera
駿輝 板寺
丈太郎 千葉
Jotaro Chiba
丈太郎 千葉
史倫 齋藤
Fumitomo Saito
史倫 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Toyota Motor Corp
Original Assignee
Nagoya University NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Toyota Motor Corp filed Critical Nagoya University NUC
Priority to JP2018104785A priority Critical patent/JP7000253B2/ja
Priority to KR1020190062350A priority patent/KR20190136962A/ko
Priority to US16/425,039 priority patent/US11279037B2/en
Priority to CN201910456884.4A priority patent/CN110549353B/zh
Publication of JP2019209392A publication Critical patent/JP2019209392A/ja
Priority to KR1020210058903A priority patent/KR102452924B1/ko
Application granted granted Critical
Publication of JP7000253B2 publication Critical patent/JP7000253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40135Slave force converted to shape display, actuated by fingers, surface is force image

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】遠隔地で作業するロボットがどのような外力を受けたのかを、ユーザが直感的に素早く認識できる技術を提供する。【解決手段】力覚視覚化装置は、ロボットの周辺環境を撮像した撮像データおよび当該ロボットが外部から受けた力覚に関する力覚データを取得するデータ取得部と、力覚データに基づいて力覚をオノマトペの文字情報に変換する変換部と、撮像データの画像に文字情報を重畳して出力する画像出力部とを備える。【選択図】図2

Description

本発明は、力覚視覚化装置、ロボットおよび力覚視覚化プログラムに関する。
遠隔地の移動ロボットを操作して作業を行う技術が知られている。また、自律移動する移動ロボットから送られてくる画像により離れた場所の観察を行う技術が知られている。遠隔地のユーザが、移動ロボットが受けた力覚を、触覚デバイスを介して擬似的に体感できる技術も知られるようになってきた(例えば、特許文献1を参照)。
特表2005−510289号公報
触覚デバイスは、例えばロボットフィンガーが受けた力覚をユーザの指先に伝えるといった用途に利用され、再現できる箇所が局所的であり、再現できる力覚も限定的である。ロボットの用途によっては、当該ロボットが受けた力覚をユーザがそのまま体感する必要性はない。ロボットから離れているユーザは、当該ロボットがどのような外力を受けたのかを、直感的に素早く知りたい場合がある。
本発明は、このような問題を解決するためになされたものであり、遠隔地で作業するロボットがどのような外力を受けたのかを、ユーザが直感的に素早く認識できる技術を提供するものである。
本発明の第1の態様における力覚視覚化装置は、ロボットの周辺環境を撮像した撮像データおよび当該ロボットが外部から受けた力覚に関する力覚データを取得するデータ取得部と、力覚データに基づいて力覚をオノマトペの文字情報に変換する変換部と、撮像データの画像に文字情報を重畳して出力する画像出力部とを備える。
このような構成により、ユーザは、遠隔地で作業するロボットが外力を受けた事実を、ロボットの周辺画像に重畳された視覚情報として瞬時に認識できる。また、表示を擬音語や擬態語であるオノマトペの文字情報とすることにより、ロボットが受けた力覚の性質を直感的に認識できる。
上記の力覚視覚化装置において、力覚データは、ロボットが力覚を受けた位置情報を含み、画像出力部は、位置情報に基づいて文字情報を重畳する画像上の位置を決定すると良い。ユーザは、接触の発生場所を文字情報の位置によって認識できるので、接触の発生原因などを推定しやすい。また、変換部は、受けた力の大きさ、単位時間当たりの力の変化量、および接触対象物の硬さの少なくとも何れかの変換情報を力覚データから抽出し、当該変換情報に基づいてオノマトペを変化させると良い。ユーザは、オノマトペが有するニュアンスによって接触状況を直感的に認識することができる。
上記の力覚視覚化装置において、データ取得部は、遠隔地で動作するロボットが出力する撮像データおよび力覚データを、ネットワークを介して取得しても良い。ネットワークを介することで、ロボットの作業場所を格段に広げることができる。また、画像出力部は、ユーザが装着するヘッドマウントディスプレイへ文字情報を重畳した画像を出力すると良い。特に、ロボットを遠隔操作するユーザは、没入感を得ることができ、操作精度を向上させることができる。
本発明の第2の態様におけるロボットは、周辺環境を撮像する撮像部と、外部から受ける力覚を検出する検出部と、力覚をオノマトペの文字情報に変換する変換部と、撮像部が撮像した画像に文字情報を重畳して出力する画像出力部とを備える。このように、ロボット自身がオノマトペの文字情報を重畳した周辺環境画像を出力できるようにすれば、下流側の端末での処理を省くことができると共に、第1の態様における力覚視覚化装置と同様の効果を得られる。
本発明の第3の態様における力覚視覚化プログラムは、ロボットの周辺環境を撮像した撮像データを取得する撮像データ取得ステップと、ロボットが外部から受けた力覚に関する力覚データを取得する力覚データ取得ステップと、力覚データに基づいて力覚をオノマトペの文字情報に変換する変換ステップと、撮像データの画像に文字情報を重畳して出力する画像出力ステップとをコンピュータに実行させる。このようなプログラムが実行されるコンピュータを介しても、第1の態様における力覚視覚化装置と同様の効果を得られる。
本発明により、遠隔地で作業するロボットがどのような外力を受けたのかを、ユーザが直感的に素早く認識できる。
想定する使用環境と全体構成を説明するための概念図である。 ユーザが装着するヘッドマウントディスプレイの表示例である。 移動ロボットの構成を示すブロック図である。 システムサーバの構成を示すブロック図である。 オノマトペ変換テーブルの一例である。 ユーザが装着するヘッドマウントディスプレイの表示例である。 ユーザが装着するヘッドマウントディスプレイの表示例である。 システムサーバの処理フロー図である。 他の実施例における移動ロボットの構成を示すブロック図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態に係る力覚視覚化装置を組み込んだロボット遠隔操作システムが想定する使用環境と、その全体構成を説明するための概念図である。第1環境において様々な作業を担う移動ロボット100は、第1環境から離れた第2環境に居るユーザにより、インターネット600に接続されたシステムサーバ500を介して、遠隔操作される。本実施形態においては、接続するネットワークとしてインターネットを利用するが、イントラネット等他のネットワークであっても構わない。
図の例では、移動ロボット100がテーブル900に載置されたボトルである搬送物910を把持して搬送するタスクを行っている様子を示している。移動ロボット100は、大きく分けて台車部110と本体部120によって構成される。
台車部110は、円筒形状の筐体内に、不図示の駆動輪とキャスターを支持している。駆動輪がモータによって回転駆動されることにより、移動ロボット100は、任意の方向へ並進、旋回することができる。台車部110は、上面の周縁部にレーザスキャナ132を備える。レーザスキャナ132は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。また、台車部110は、円筒側面に、複数の接触センサ142を備える。それぞれの接触センサ142は、障害物等である接触対象物が接触した場合に、その押圧力を出力する。接触センサ142は、例えば静電容量変化型の圧力センサである。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、およびアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、様々な物体を制御された姿勢で把持する。ハンド124には力覚センサ141が埋め込まれており、力覚センサ141は、ハンド124が把持物を把持する把持力、ハンド124に加えられる外力を出力する。力覚センサ141は、例えば歪みゲージ式の力覚センサである。力覚センサ141は、ハンド124の形状、想定する把持物等に応じて、ハンド124に複数埋め込まれていても良いし、ハンド124の基部(手首)やアーム123の基部(肩)にあっても良い。力覚センサ141は静電容量式などの他の方式でも良い。また力覚センサ141の代わりにアーム123の各関節の電流センサや角度センサ、トルクセンサなどから力覚情報を取得あるいは推定しても良い。
頭部122は、主に、撮像部としてのステレオカメラ131を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された画像を画像信号として出力する。頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸(パン軸)周りや水平軸(チルト軸)周りに回転することができる。さらにステレオカメラ123の正面方向の軸(ロール軸)回りに回転することができる構成としても良い。したがって、ステレオカメラ131は、任意の方向の対象物を撮影することができる。
移動ロボット100は、第1環境において、無線ルータ700を介してインターネット600と接続されている。移動ロボット100は、ユーザからの操作信号を受信して、移動動作や把持動作を実行する。また、移動ロボット100は、ステレオカメラ131が出力した画像信号から、予め定められた画像フォーマットに則した撮像データを生成して、システムサーバ500へ送信する。さらに、接触センサ142や力覚センサ141が出力した出力信号から力覚に関する力覚データを生成して、システムサーバ500へ送信する。
システムサーバ500は、ユーザが操作する操作端末320からの操作信号を受信して、移動ロボット100へ送信する。また、システムサーバ500は、移動ロボット100から取得した撮像データを、ユーザのヘッドマウントディスプレイ310(以下、HMD310と記す)へ送信する。システムサーバ500は、力覚データを取得したときには、移動ロボット100が外部から受けた力覚をオノマトペの文字情報に変換し、当該文字情報を撮像データの画像に重畳して、ユーザのHMD310へ送信する。
操作端末320およびHMD310は、第1環境から離れた第2環境において、無線ルータ700を介してインターネット600と接続されている。ユーザは、送られてくる画像データの画像をHMD310で観察しながら、操作端末320を操作して移動ロボット100を操作する。操作端末320で生成された操作信号は、インターネット600を介して、システムサーバ500へ送信される。ユーザは、移動ロボット100が周辺環境から外力を受けたときに、周辺環境画像に重畳されたオノマトペの文字情報によりその様子を認識することができる。
移動ロボット100が受けた外力を、具体的にどのような表示態様で認識できるかについて説明する。図2は、ユーザが装着するHMD310のディスプレイに表示される表示画面の例である。図2の例は、図1の状況において、ユーザが遠隔操作によりアーム123を搬送物910へ接近させている過程において、ハンド124の先端がテーブル900の天板の端に接触した場面を示している。
図示するように、ハンド124の先端とテーブル900の天板との接触箇所近傍に、オノマトペである「コン」の文字列410が、周辺画像に重畳されて表示されている。この文字列410から、ユーザは、ハンド124の先端がテーブル900の天板と接触したことを認識できる。さらには、「コン」が擬音語として有するニュアンスから、接触が軽い衝突であったことを直感的に認識できる。
次に、移動ロボット100の構成について説明する。図3は、移動ロボット100の構成を示すブロック図である。ここでは、ロボット遠隔操作システムのうち力覚の視覚化に関係する主な要素について説明するが、移動ロボット100の構成としては他の要素も備え、また力覚の視覚化に寄与する他の要素が加えられることもあり得る。
制御部150は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット160は、駆動輪を駆動するための駆動回路やモータを含む。制御部150は、ユーザからの操作信号に従って台車駆動ユニット160へ駆動信号を送ることにより、駆動輪の回転制御を実行する。上体駆動ユニット170は、アーム123およびハンド124を含む把持部、胴部121および頭部122を駆動するための駆動回路やモータを含む。制御部150は、ユーザからの操作信号に従って上体駆動ユニット170へ駆動信号を送ることにより、把持制御や、胴部121および頭部122の回転制御を実行する。また、制御部150は、上体駆動ユニット170からエンコーダ等のフィードバック信号を受け取って、アーム123およびハンド124の現在位置や胴部121および頭部122の向きを把握する。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、移動ロボット100を制御するための制御プログラムの他にも、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
通信ユニット190は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。操作端末320で生成された操作信号は、通信ユニット190で受信され、制御部150へ引き渡される。
ステレオカメラ131は、制御部150からの要求に従って周辺環境を撮像し、撮像信号を制御部150へ引き渡す。遠隔操作の実行中においては、ステレオカメラ131は、継続的に周辺環境の撮像を実行する。レーザスキャナ132は、制御部150からの要求に従って障害物が存在するか否かを検出し、その結果である検出信号を制御部150へ引き渡す。
力覚センサ141および接触センサ142は、力覚検出部140を構成するセンサである。制御部150は、力覚検出部140を構成する各センサからの出力信号を継続的に監視する。本実施形態においては、力覚検出部140を構成するセンサとして、ハンド124に埋め込まれた力覚センサ141と、台車部110の円筒面に設けられた接触センサ142を例示するが、移動ロボット100が外力を受け得る様々な箇所に外力を検出するセンサを設けても良い。特に、ステレオカメラ131の画角に入り得るアーム123とハンド124には、さまざまなタイプの力センサを配置すると良い。
制御部150は、制御や処理に関わる様々な演算を実行する機能演算部としての役割も担う。データ生成部151は、機能演算部のひとつである。データ生成部151は、ステレオカメラ131から引き受けたそれぞれのカメラユニットからの撮像信号に画像調整や圧縮処理を施して、予め定められたステレオ画像フォーマットに従った撮像データを生成する。生成された撮像データは、通信ユニット190を介してシステムサーバ500へ送信される。上述のように、ステレオカメラ131は継続的に周辺環境の撮像を実行しているので、撮像データは、これに対応して逐次生成されシステムサーバ500へ送信される。
また、データ生成部151は、力覚検出部140から受信した出力信号を処理して、予め定められたデータ形式に則した力覚データを生成する。力覚データは、当該出力信号を出力したセンサの位置情報を含む。例えば、ハンド124に埋め込まれた力覚センサ141が出力した出力信号から生成された力覚データは、当該力覚センサ141の埋め込み位置と、アーム123およびハンド124の姿勢とから算出される、信号出力時の空間座標を位置情報として含む。生成された力覚データは、通信ユニット190を介してシステムサーバ500へ送信される。
次に、ロボット遠隔操作システムのうち力覚視覚化装置として機能するシステムサーバ500の構成について説明する。図4は、システムサーバ500の構成を示すブロック図である。ここでは、力覚の視覚化に関係する主な要素について説明するが、システムサーバ500の構成としては他の要素も備え、また力覚の視覚化に寄与する他の要素が加えられることもあり得る。
演算部550は、例えばCPUであり、力覚の視覚化に関する様々な処理を実行する。通信ユニット560は、例えば有線LANユニットであり、インターネット600との間でデータの送受信を行う。通信ユニット560は、操作端末320から送られてくる操作信号を受信し、演算部550の指示に従って操作対象となる移動ロボット100へ向けて当該操作信号を送信する。また、通信ユニット560は、移動ロボット100から送られてくる撮像データおよび力覚データを受信して演算部550へ引き渡す。すなわち、通信ユニット560は、撮像データおよび力覚データを取得するデータ取得部としての機能を担う。
演算部550は、撮像データに加えて力覚データも取得した場合には、後述の処理を施すが、撮像データを単独で取得している期間においては、当該撮像データを逐次HMD310へ転送する。なお、演算部550は、HMD310が3D表示に対応していない場合には、受信した撮像データを2D表示用の画像フォーマットに変換してからHMD310へ転送する。
メモリ570は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ570は、ロボット遠隔操作システムを制御するための制御プログラム、移動ロボット100が外部から受けた力覚を視覚化する力覚視覚化プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
オノマトペDB580は、力覚データから抽出されるパラメータ値を入力値として、特定のオノマトペの文字列へ変換するオノマトペ変換テーブルを格納するデータベースである。オノマトペは、擬音語および擬態語の総称である。擬音語は、生物や物が発する音を字句で模倣したものであり、ドン、ガタン、バタンなどが相当する。擬態語は、状態や感情などの音を発しないものを字句で模倣したものであり、ギュッ、グイッなどが相当する。具体的には後述するが、オノマトペ変換テーブルは、このような擬音語および擬態語が複数列挙されており、それぞれの擬音語および擬態語が、力覚データから抽出される各パラメータの値あるいは範囲に対応付けられている。
演算部550は、制御や処理に関わる様々な演算を実行する機能演算部としての役割も担う。変換部551および重畳部552はそれぞれ、機能演算部のひとつである。変換部551は、取得した力覚データに基づいて、移動ロボット100が外部から受けた力覚をオノマトペの文字情報に変換する。具体的には後述するが、変換部551は、取得した力覚データからオノマトペ変換に用いるパラメータ値を算出し、オノマトペDB580から読み出したオノマトペ変換テーブルに入力して、オノマトペの文字情報に変換する。
重畳部552は、取得した撮像データの画像に、変換部551が変換したオノマトペの文字情報を重畳する。重畳部552は、文字情報を重畳した画像から所定のフォーマットに則した画像データを生成し、生成した画像データを通信ユニット560からHMD310へ出力する。重畳部552は、通信ユニット560と協働して画像データを出力する画像出力部としての機能を担う。
次に、変換部551が実行する、移動ロボット100が外部から受けた力覚をオノマトペの文字情報に変換する処理について説明する。図5は、オノマトペ変換テーブルの一例である。ここでは、理解を容易にするために、「グー」、「フワッ」、「コン」、「ゴン」の4つのオノマトペの例について説明する。
一般的に人は、「グー」に押さえつけや物の重さを感じている状態をイメージし、「フワッ」に柔軟物との接触をイメージし、「コン」および「ゴン」に硬い物との接触をイメージする。さらに、「コン」には軽微な接触をイメージし、「ゴン」には強い衝突をイメージする。すなわち、それぞれのオノマトペは、人に特定の印象を与えるニュアンスを有している。
ここで、取得した力覚データが力覚センサ141の出力から生成されたデータであり、三軸の並進力の値を含むものとする。i番目のサンプリングにおける三軸並進力ベクトルのノルム(受けた力の大きさ)を|fi|、サンプリング周期をΔTとすると、単位時間当たりの力の変化量であるΔfは、
Figure 2019209392
と表される。また、力覚センサ141の位置を微分することで得られる当該力覚センサ141の速度のノルムを|vi|とすると、力の変化量と速さから接触している物体の硬さ(接触対象物の硬さ)を評価する評価量Kは、
Figure 2019209392
と表される。
本実施形態においては、力覚データから得られるこれら3つのパラメータ値K、Δf、|fi|をオノマトペ変換テーブルへ当てはめることにより、移動ロボット100が外部から受けた力覚をオノマトペの文字情報へ変換する。図5のオノマトペ変換テーブルを参照すると、例えば、K=0.7、Δf=0.05[N/ms]、|fi|=2.3[N]であれば「コン」が選択され、テキストデータとしての「コン」の文字情報に変換される。また、K=0.3、Δf=0.08[N/ms]、|fi|=2.1[N]であれば「フワッ」が選択され、テキストデータとしての「フワッ」の文字情報に変換される。各パラメータの閾値は、それぞれのオノマトペが有するニュアンスと力覚が対応するように、実験的に決定され得る。
なお、ここでは3つのパラメータを基準として、4つのオノマトペから1つを選択する例を説明したが、他の評価基準となるパラメータを選択的あるいは追加的に採用しても良いし、もちろん、他の多くのオノマトペに対しても変換テーブルを定め、選択されるように準備しても良い。
また、変換部551は、オノマトペ変換テーブルで選択された文字列を文字情報に変換する場合に、さらに力覚データから得られるパラメータ値を利用して、文字情報を変化させたり、表現態様を指定したりしても良い。例えば、他のパラメータ値を参照して、重畳時における文字列のサイズ指定、フォント指定、色指定等を行っても良い。
次に、図2に示したHMD310の表示例に加え、他のいくつかの表示例と共に、オノマトペの文字情報を撮像データの画像に重畳する重畳処理について説明する。図6および図7は、図2と同様に、ユーザが装着するHMD310の表示例である。
図2の例では、上述のように、「コン」の文字列が、ステレオカメラ131が捉えた周辺画像のうちハンド124とテーブル900の接触箇所の近傍に重畳されている。すなわち、重畳部552は、力覚データに含まれるセンサの位置情報から撮像データの画像の対応位置を演算し、当該対応位置に変換部551が変換した文字情報を重畳している。
具体的には、重畳部552は、センサの位置情報である空間座標を、撮像データのカメラ座標系の座標値に変換し、当該座標値に対応する画像上の対応位置を定める。さらに、重畳部552は、オノマトペ変換テーブルによって変換したテキストデータに、予め定められた加飾を施して文字列画像を生成する。文字列情報が加飾情報(サイズ指定、フォント指定、色指定等)を含む場合には、当該加飾情報を参照して文字列画像を生成する。そして、重畳部552は、演算した対応位置に生成した文字列画像を重畳して、出力用の画像データを生成する。
重畳部552は、センサの位置情報から演算した対応位置が画像領域中であれば、図2の文字列410のように、接触箇所の近傍に文字情報を重畳させることができる。一方、演算した対応位置が、取得した画像データの画像領域から外れている場合には、図6に示すように、画像領域中の当該対応位置に近い周辺部に例えば矢印で表される方向指標420を重畳し、その近傍に生成した文字列画像を重畳する。なお、図6の例は、ハンド124が搬送物910を把持した後に移動ロボット100が方向転換を行う最中に、接触センサ142の一つとテーブル900の脚が接触した状況を示している。この場合、当該接触センサ142はステレオカメラ131の画角に入っていないので、接触の様子は画像に映っていない。このような場合であっても、方向指標420と共に文字列410を重ね合わせれば、ユーザは、接触の発生箇所と受けた力覚の性質を直感的に認識できる。
図2の例および図6の例では、重畳部552は、移動ロボット100が外部から受けたセンサ位置を、対象物との接触箇所であると仮定して、画像上の対応位置に文字列410を重畳した。しかし、実際にはセンサ位置が対象物との接触箇所であるとは限らない。例えば図7に示すように、把持した搬送物910がテーブル900の天板上で引き摺られることにより、搬送物910とテーブル900の間で接触摺動が生じる。この場合は、ハンド124に埋め込まれている力覚センサ141に対応する位置に文字列410を重ねても、ユーザの直感には合致しない。
そこで、重畳部552は、連続的に取得する画像データの画像から、移動ロボット100側の動作に連動する要素と、周辺環境側の変化に連動する要素の境界を解析し、当該境界における距離情報を参照して接触箇所を推定する。そして、センサの位置情報から演算される対応位置を、推定した接触箇所に修正する。このように修正した対応位置に文字列410を重ね合わせれば、ユーザの直感に合致した画像となる。図7の例では、対応位置が、搬送物910とテーブル900の接触箇所に修正されている。なお、図7の例では、オノマトペとして摺動のニュアンスを含む「ズズズ」が選択されている。
図2、図6、図7の例のようにオノマトペの文字列410を重畳する処理は、システムサーバ500が力覚データを取得したことをトリガーとして行われるが、システムサーバ500が力覚データを取得しなくなってからも、暫くの間は重畳処理を継続しても良い。すなわち、外部から受ける力が消滅した後も、ユーザが発生した接触の状況を認識できる程度に重畳処理を継続すると良い。例えば、瞬間的な衝突が発生した場合には、その衝突の発生後も0.5秒から1.0秒程度の間は文字列410を重畳すると良い。
次に、力覚視覚化装置として機能するシステムサーバ500の処理手順について説明する。図8は、システムサーバ500の処理フロー図である。フローは、ロボット遠隔操作システムが起動した後に開始される。
演算部550は、ステップS101で、通信ユニット560を介して、移動ロボット100から撮像データを取得する。続くステップS102で、演算部550は、力覚データも併せて取得したか否かを確認する。力覚データを取得していない場合には、ステップS105へ進み、ステップS101で取得した撮像データをHMD310で表示させる表示画像データとして、通信ユニット560からHMD310へ出力する。
力覚データを取得した場合にはステップS103へ進み、変換部551は、取得した力覚データと、オノマトペDB580から読み出したオノマトペ変換テーブルとを用いて、移動ロボット100が外部から受けた力覚をオノマトペの文字情報に変換する。続いてステップS104で、重畳部552は、変換部551が変換した文字情報を、ステップS101で取得した撮像データの画像に重畳して表示画像データを生成する。表示画像データを生成したら、重畳部552は、ステップS105へ進み、当該表示画像データを通信ユニット560からHMD310へ出力する。
演算部550は、ステップS106で、ユーザ側から終了の指示を受けたか否かを確認する。終了指示が受けていなければステップS101へ戻る。終了指示を受けていれば一連の処理を終了する。このような処理により、ユーザは、文字情報が重畳される場合もそうでない場合も、HMD310で移動ロボット100の周辺の様子をほぼリアルタイムのライブ動画として視認することができる。
以上説明した実施例においては、システムサーバ500が力覚視覚化装置として機能したが、移動ロボットが力覚視覚化装置を包含する構成であっても良い。図9は、他の実施例における移動ロボット100’の構成を示すブロック図である。移動ロボット100’は、図3で示す各要素に加え、図4で示すオノマトペDB580と、機能演算部としての変換部551および重畳部552とを備える。
このように構成された移動ロボット100’によれば、変換部551は、所定のフォーマットに則った力覚データを介すことなく、力覚検出部の出力信号を直接的に利用して各パラメータ値を演算することができる。また、重畳部552は、カメラユニットから出力される画像信号を直接的に利用して、文字情報を重畳することができる。このように、移動ロボット100’自身がオノマトペの文字情報を重畳した周辺環境画像を出力できるようにすれば、下流側の端末での処理を省くことができる。
以上説明した本実施形態においては、オノマトペの文字列410を接触の発生場所と推定される近傍に重畳した。このように重畳位置を調整すれば、ユーザは、接触の発生場所を文字情報の位置によって認識できるので、接触の発生原因などを推定しやすい。一方、重畳位置を調整せず、例えば文字列410を画像領域の中央に重畳したり、画像領域外の表示領域に表示したりしても良い。このような表示態様であっても、ユーザは、移動ロボット100の周辺の様子をほぼリアルタイムのライブ動画として視認しているので、ある程度は接触の発生原因などを推定できる。この場合においては、力覚データは、センサの位置情報を含んでいなくても良い。
また、本実施形態においては、遠隔地から移動ロボット100を操作するロボット遠隔操作システムに力覚視覚化装置が組み込まれる例を説明したが、移動ロボット100は、自律移動するロボットであっても良い。この場合、ユーザは、遠隔地で自律移動ロボットが動作する様子を、HMD310を介して観察することができる。また、遠隔操作される場合と自律動作する場合とに限らず、アームロボットのような据え置き型の作業ロボットであっても良い。また、遠隔地で観察する場合に限らず、例えば移動ロボット100が備える表示パネルに文字情報を搭乗した画像を表示するようにしても良い。移動ロボット100自身がこのような表示を行えば、例えば、移動ロボット100に随行する歩行者が、移動ロボット100の異常をいち早く把握することができる。
また、本実施形態においては、表示画像データの画像をユーザが頭部に装着するHMD310に表示した。これにより、ユーザは、没入感を得ることができ、遠隔地にある移動ロボット100の操作精度を向上させることができる。しかし、表示画像データの画像を表示させるデバイスはHMD310に限らない。例えば大型のスクリーンに投影すれば、複数のユーザが同時に移動ロボット100の様子を認識することができる。
また、本実施形態においては、力覚をオノマトペの文字情報に変換した。これは、数値や棒グラフ等に比較して、ロボットが受けた力覚の性質をユーザが直感的かつ瞬時に認識できるからである。しかし、補助的に用いるのであれば、数値や棒グラフ等も追加的あるいは選択的に重畳しても良い。また、オノマトペの文字列だけでなく、アニメーションや効果音を加えても良い。例えば、受けた力の向きを矢印のアニメーションで表現しても良い。
また、受けた外力が移動ロボット100の実行タスクに伴う予定された外力であるときとそうでないときで、重畳する文字情報の態様を変化させても良い。予定された外力であるときには、重畳処理を行わなくても良い。例えば、タスクとして搬送物を把持する場合に、対象物となる搬送物を把持した時に力覚センサが出力する出力信号に対しては、重畳処理を行わなくても良い。また、重畳する文字情報も、状況に応じて位置や透過率、重畳を継続する時間等を変化させても良い。
100 移動ロボット、110 台車部、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、131 ステレオカメラ、132 レーザスキャナ、140 力覚検出部、141 力覚センサ、142 接触センサ、150 制御部、151 データ生成部、160 台車駆動ユニット、170 上体駆動ユニット、180 メモリ、190 通信ユニット、310 ヘッドマウントディスプレイ、320 操作端末、410 文字列、420 方向指標、500 システムサーバ、550 演算部、551 変換部、552 重畳部、560 通信ユニット、570 メモリ、580 オノマトペDB、600 インターネット、700 無線ルータ、900 テーブル、910 搬送物

Claims (7)

  1. ロボットの周辺環境を撮像した撮像データおよび前記ロボットが外部から受けた力覚に関する力覚データを取得するデータ取得部と、
    前記力覚データに基づいて前記力覚をオノマトペの文字情報に変換する変換部と、
    前記撮像データの画像に前記文字情報を重畳して出力する画像出力部と
    を備える力覚視覚化装置。
  2. 前記力覚データは、前記ロボットが前記力覚を受けた位置情報を含み、
    前記画像出力部は、前記位置情報に基づいて前記文字情報を重畳する前記画像上の位置を決定する請求項1に記載の力覚視覚化装置。
  3. 前記変換部は、受けた力の大きさ、単位時間当たりの力の変化量、および接触対象物の硬さの少なくとも何れかの変換情報を前記力覚データから抽出し、前記変換情報に基づいて前記オノマトペを変化させる請求項1または2に記載の力覚視覚化装置。
  4. 前記データ取得部は、遠隔地で動作する前記ロボットが出力する前記撮像データおよび前記力覚データを、ネットワークを介して取得する請求項1から3のいずれか1項に記載の力覚視覚化装置。
  5. 前記画像出力部は、ユーザが装着するヘッドマウントディスプレイへ前記文字情報を重畳した前記画像を出力する請求項1から4のいずれか1項に記載の力覚視覚化装置。
  6. 周辺環境を撮像する撮像部と、
    外部から受ける力覚を検出する検出部と、
    前記力覚をオノマトペの文字情報に変換する変換部と、
    前記撮像部が撮像した画像に前記文字情報を重畳して出力する画像出力部と
    を備えるロボット。
  7. ロボットの周辺環境を撮像した撮像データを取得する撮像データ取得ステップと、
    前記ロボットが外部から受けた力覚に関する力覚データを取得する力覚データ取得ステップと、
    前記力覚データに基づいて前記力覚をオノマトペの文字情報に変換する変換ステップと、
    前記撮像データの画像に前記文字情報を重畳して出力する画像出力ステップと
    をコンピュータに実行させる力覚視覚化プログラム。
JP2018104785A 2018-05-31 2018-05-31 力覚視覚化装置、ロボットおよび力覚視覚化プログラム Active JP7000253B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018104785A JP7000253B2 (ja) 2018-05-31 2018-05-31 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
KR1020190062350A KR20190136962A (ko) 2018-05-31 2019-05-28 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
US16/425,039 US11279037B2 (en) 2018-05-31 2019-05-29 Force-sense visualization apparatus, robot, and force-sense visualization program
CN201910456884.4A CN110549353B (zh) 2018-05-31 2019-05-29 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质
KR1020210058903A KR102452924B1 (ko) 2018-05-31 2021-05-07 역각 시각화 장치, 로봇 및 역각 시각화 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104785A JP7000253B2 (ja) 2018-05-31 2018-05-31 力覚視覚化装置、ロボットおよび力覚視覚化プログラム

Publications (2)

Publication Number Publication Date
JP2019209392A true JP2019209392A (ja) 2019-12-12
JP7000253B2 JP7000253B2 (ja) 2022-01-19

Family

ID=68695000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104785A Active JP7000253B2 (ja) 2018-05-31 2018-05-31 力覚視覚化装置、ロボットおよび力覚視覚化プログラム

Country Status (4)

Country Link
US (1) US11279037B2 (ja)
JP (1) JP7000253B2 (ja)
KR (2) KR20190136962A (ja)
CN (1) CN110549353B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102446A1 (ja) * 2020-11-12 2022-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法
US20220160447A1 (en) * 2019-03-15 2022-05-26 Riverfield Inc. Force sense display device and force sense display method of medical robot system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342676B2 (ja) * 2019-12-13 2023-09-12 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
JP7447670B2 (ja) * 2020-05-15 2024-03-12 トヨタ自動車株式会社 自律移動装置制御システム、その制御方法及びその制御プログラム
CN114389861B (zh) * 2021-12-24 2023-03-03 北京科技大学 基于EtherCAT自动化的机械臂安全检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08132372A (ja) * 1994-11-08 1996-05-28 Toshiba Corp ロボットの制御方法
JPH08215211A (ja) * 1995-02-16 1996-08-27 Hitachi Ltd 遠隔手術支援装置とその方法
JP2015134384A (ja) * 2014-01-16 2015-07-27 日本電気株式会社 遠隔操縦装置、及び遠隔操縦システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6126373A (en) * 1997-12-19 2000-10-03 Fanuc Usa Corporation Method and apparatus for realtime remote robotics command
US6785572B2 (en) 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
US7411576B2 (en) * 2003-10-30 2008-08-12 Sensable Technologies, Inc. Force reflecting haptic interface
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
JP4684238B2 (ja) * 2004-11-30 2011-05-18 パナソニック株式会社 場面修飾表現生成装置および場面修飾表現生成方法
US8265793B2 (en) * 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US8073203B2 (en) * 2008-04-15 2011-12-06 Cyberlink Corp. Generating effects in a webcam application
WO2011122521A1 (ja) * 2010-03-30 2011-10-06 日本電気株式会社 情報表示システム、情報表示方法及びプログラム
US8538687B2 (en) * 2010-05-04 2013-09-17 Honeywell International Inc. System for guidance and navigation in a building
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
JP5172049B2 (ja) * 2011-06-14 2013-03-27 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
CN102880180A (zh) * 2012-10-13 2013-01-16 北京工业大学 一种基于LabVIEW Robotics的视觉化远程机器人
JP6112300B2 (ja) 2013-01-10 2017-04-12 パナソニックIpマネジメント株式会社 マスタースレーブロボットの制御装置及び制御方法、マスタースレーブロボット、並びに、制御プログラム
CN103753585A (zh) * 2014-01-10 2014-04-30 南通大学 一种基于视觉图像分析的机械手及抓紧力智能调节方法
JP5663705B1 (ja) * 2014-02-14 2015-02-04 楽天株式会社 表示制御装置、表示制御装置の制御方法、プログラム、及び情報記憶媒体
KR101716805B1 (ko) * 2014-12-26 2017-03-16 전자부품연구원 로봇 제어 시각화 장치
WO2017099213A1 (ja) * 2015-12-11 2017-06-15 ヤマハ発動機株式会社 周辺環境の評価結果に関するオノマトペ提示装置
TWI710934B (zh) * 2016-04-07 2020-11-21 國立硏究開發法人科學技術振興機構 觸覺資訊轉換裝置、觸覺資訊轉換方法、及觸覺資訊轉換程式與元件配置構造體
JP6875010B2 (ja) * 2016-04-07 2021-05-19 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
BR112019000674B1 (pt) * 2016-07-20 2022-05-03 Farm Robotics And Automation Sl Sistema e método para monitorar o bem-estar de animais em um celeiro e robô para uso em um sistema para o monitoramento do bem-estar de animais para produção intensiva de carne em um celeiro
EP3550438A4 (en) * 2016-12-05 2019-11-20 Sony Corporation INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
JP6863391B2 (ja) * 2016-12-12 2021-04-21 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR20180075176A (ko) * 2016-12-26 2018-07-04 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10319109B2 (en) * 2017-03-31 2019-06-11 Honda Motor Co., Ltd. Interaction with physical objects as proxy objects representing virtual objects
US10430016B2 (en) * 2017-12-22 2019-10-01 Snap Inc. Augmented reality user interface control
US10715976B2 (en) * 2018-10-30 2020-07-14 Verizon Patent And Licensing Inc. Method and system for event detection based on vehicular mobile sensors and MEC system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08132372A (ja) * 1994-11-08 1996-05-28 Toshiba Corp ロボットの制御方法
JPH08215211A (ja) * 1995-02-16 1996-08-27 Hitachi Ltd 遠隔手術支援装置とその方法
JP2015134384A (ja) * 2014-01-16 2015-07-27 日本電気株式会社 遠隔操縦装置、及び遠隔操縦システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220160447A1 (en) * 2019-03-15 2022-05-26 Riverfield Inc. Force sense display device and force sense display method of medical robot system
US12011243B2 (en) * 2019-03-15 2024-06-18 Riverfield Inc. Force sense display device and force sense display method of medical robot system
WO2022102446A1 (ja) * 2020-11-12 2022-05-19 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法

Also Published As

Publication number Publication date
US11279037B2 (en) 2022-03-22
KR20190136962A (ko) 2019-12-10
CN110549353B (zh) 2022-10-14
KR102452924B1 (ko) 2022-10-11
KR20210055650A (ko) 2021-05-17
CN110549353A (zh) 2019-12-10
JP7000253B2 (ja) 2022-01-19
US20190366548A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
JP4850984B2 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
JP2016107379A (ja) 拡張現実対応ディスプレイを備えたロボットシステム
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
CN110662631B (zh) 控制装置、机器人控制方法以及机器人控制系统
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP4997419B2 (ja) ロボット用動作変換システム
JP2008080431A (ja) ロボットシステム
CN116569545A (zh) 远程协助的方法和设备
US11926064B2 (en) Remote control manipulator system and remote control assistance system
JP2022187852A (ja) ロボットシステム及び遠隔操作方法
JP2015066622A (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
TWI570594B (zh) 控制裝置、系統及方法
JP5862382B2 (ja) 作業支援装置
JP7390891B2 (ja) クライアント装置、サーバ、プログラム、及び、情報処理方法
KR102525661B1 (ko) 작업 장치의 원격 제어를 위한 실시간 훈련 방법 및 장치
JP7434207B2 (ja) システム、情報処理方法および情報処理プログラム
WO2020054268A1 (ja) 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム
JP2023027577A (ja) 画像処理装置、画像処理方法、プログラムおよび画像処理システム
JP2022164028A (ja) 遠隔操作制御システム、遠隔操作制御方法、およびプログラム
Tachi Networked Telexistence: Real-time Remote Robotics with a Sensation of Presence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R150 Certificate of patent or registration of utility model

Ref document number: 7000253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150