JP7577003B2 - 制御装置、ロボットシステム、制御方法、および、プログラム - Google Patents
制御装置、ロボットシステム、制御方法、および、プログラム Download PDFInfo
- Publication number
- JP7577003B2 JP7577003B2 JP2021047360A JP2021047360A JP7577003B2 JP 7577003 B2 JP7577003 B2 JP 7577003B2 JP 2021047360 A JP2021047360 A JP 2021047360A JP 2021047360 A JP2021047360 A JP 2021047360A JP 7577003 B2 JP7577003 B2 JP 7577003B2
- Authority
- JP
- Japan
- Prior art keywords
- target position
- robot
- unit
- effector
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Program-controlled manipulators
- B25J9/16—Program controls
- B25J9/1656—Program controls characterised by programming, planning systems for manipulators
- B25J9/1664—Program controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Program-controlled manipulators
- B25J9/16—Program controls
- B25J9/1612—Program controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39473—Autonomous grasping, find, approach, grasp object, sensory motor coordination
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39536—Planning of hand motion, grasping
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Description
以下、図面を参照しながら本発明の第1の実施形態について説明する。
図1は、本実施形態に係るロボットシステムS1の構成例を示す概略ブロック図である。
ロボットシステムS1は、操作者の動作に従ってロボット20の動作を制御することができる制御システムである。
ロボットシステムS1は、操作に応じてロボット20の動作を操縦する操縦システムである。ロボットシステムS1は、操作者の動作を検出し、検出した動作に対応する動作をロボット20に行わせる。ロボット20は、効果器(end-effector、エンドエフェクタ、ロボットハンド、手先効果器、作用器、などとも呼ばれる)を備える。効果器は、他の物体に機械的に作用して影響を及ぼす部材である。効果器は、複数の指部を有し、他の物体を把持または解放可能とする機構を備える。個々の指部は、操作者の対応する指の動きに応じて動作可能とする。これにより、各種の作業が実現される。
表示装置50と操作装置70は、ロボット20と環境情報取得部80と物理的に離れた空間に所在してもよい。その場合、表示装置50と操作装置70は、制御装置30と通信ネットワークを経由して接続されてもよい(遠隔操作システム)。
駆動制御部22は、制御装置30から入力される制御指令と、駆動センサ26から取得される駆動状態情報に基づいて駆動指令を定める。より具体的には、駆動制御部22は、制御指令で示される制御目標とする目標位置と、効果器の位置との差が低減するようにアクチュエータごとの駆動力(トルク)を操作量として示す制御指令を定める。駆動制御部22は、駆動状態情報に示される個々の関節における2個の分節のなす角度と個々の分節の大きさに基づいて、駆動部24による出力値としての効果器の位置を定めることができる。駆動制御部22は、定めた制御指令を駆動部24に出力する。駆動制御部22は、制御対象物の状態を示す出力値と制御目標との差を低減するように操作量を定める制御器として、例えば、PD(Proportional-Differential)制御器、PID(Proportional-Integral-Differential)制御器などを含んで構成される。
駆動センサ26は、駆動部24によるロボット20の駆動状態を検出し、検出した駆動状態を示す駆動状態情報を駆動制御部22と制御装置30に出力する。駆動センサ26は、例えば、関節ごとに2個の分節のなす角度を検出するロータリエンコーダを含んで構成される。
二次電池は、電源端子を用いて供給される電力を蓄積する。二次電池は、電圧変換器を経由して各構成部に電力を供給可能とする。電圧変換器は、電源端子または電源端子から供給される電力の電圧を各構成部で要求される所定の電圧に変換し、それぞれ電圧を変換した電力を各構成部に供給する。
情報取得部32は、操作者の状況およびロボット20の状況に関する各種の情報を取得する。例えば、情報取得部32は、表示装置50から視線情報と第1操作者動作情報を取得する。視線情報は、ある時刻における操作者の少なくとも一方の眼の視線方向を示す情報である。第1操作者動作情報は、操作者の頭部の動作を示す情報である。頭部の動作は、時刻ごとの頭部の方向ならびに位置で表わされる。
情報取得部32は、環境情報取得部80から環境情報を取得する。環境情報は、ロボット20の動作環境を示す。環境情報には、ロボット20の動作環境を示す画像を示す画像データと、ロボット20の動作環境に分布する物体までの距離を示す距離データが含まれる。
情報取得部32は、駆動センサ26から駆動状態情報を取得する。情報取得部32は、取得した各種の情報を記憶部44に記憶する。
なお、接近軌道情報が1個の接近軌道を示す場合、目標位置選択部38は、接近軌道情報が示す1個の接近軌道に対応する目標位置をそのまま採用してもよい。目標位置選択部38は、採用した目標位置を示す目標位置情報を記憶部44に記憶する。
記憶部44は、制御装置30における各種の処理に用いられるデータ、制御装置30が取得した各種のデータなどを一時的または恒常的に記憶する。記憶部44は、例えば、RAM(Random Access Memory)、ROM(Read Only memory)などの記憶媒体を含んで構成される。
視線検出部54は、操作者の両眼の視線方向を検出する視線センサを含んで構成される。視線検出部54は、各時刻において検出した視線方向を示す視線情報を制御装置30に通信部60を用いて送信する。視線検出部54は、操作者の頭部に装着されるとき、少なくとも一方の眼に露出される位置に配置されてもよい。
動作検出部56は、操作者の頭部の動作を検出し、検出した動作を示す第1操作者動作情報を制御装置30に通信部60を用いて送信する。動作検出部56は、例えば、操作者の動作を検出するための加速度センサを含んで構成される。
通信部60は、制御装置30と各種の情報を送受信する。通信部60は、通信インタフェースを含んで構成される。
動作検出部72は、操作者の手部の動作を検出し、検出した動作を示す第2操作者動作情報を制御装置30に通信部76を用いて送信する。動作検出部72は、例えば、操作者の手部の動作を検出するための加速度センサを含んで構成される。
通信部76は、制御装置30と各種の情報を送受信する。通信部76は、通信インタフェースを含んで構成される。
なお、動作検出部72は、表示装置50の通信部60と接続可能とし、通信部60を経由して第2操作者動作情報を制御装置に送信してもよい。その場合には、制御部74と通信部76が省略されてもよい。
撮影部82は、ロボット20から所定範囲内の動作環境における画像を撮影する。動作環境には、ロボット20の効果器が到達可能とする範囲が含まれる。撮影される画像にはロボット20の像の全体が必ずしも含まれるとは限らない。撮影部82は、所定時間ごとに画像を撮影するディジタルビデオカメラである。撮影部82は、撮影した画像を示す画像データを制御装置30に通信部86を経由して送信する。
通信部86は、制御装置30と各種の情報を送受信する。通信部86は、通信インタフェースを含んで構成される。
なお、環境情報取得部80がロボット20の筐体に設置され、ロボット20の他の機能部と各種の情報を送受信できる場合には、通信部86が省略されてもよい。
次に、本実施形態に係る制御装置30のハードウェア構成例について説明する。
図2は、本実施形態に係る制御装置30のハードウェア構成例を示す概略ブロック図である。制御装置30は、プロセッサ102、ROM104、RAM106、補助記憶部108、および入出力部110を含んで構成されるコンピュータとして機能する。プロセッサ102、ROM104、RAM106、補助記憶部108および入出力部110は、相互に各種のデータを入出力可能に接続される。
なお、本願では、プログラムに記述された各種の命令(コマンド)で指示された処理を実行することを、「プログラムの実行」または「プログラムを実行する」などと呼ぶことがある。
補助記憶部108は、各種のデータを永続的に記憶する。補助記憶部108には、制御装置30が取得したデータを記憶する。補助記憶部108は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶媒体である。
なお、表示装置50、操作装置70、および環境情報取得部80も、図2と同様のハードウェア構成を備え、各装置としての機能を実現するコンピュータとして構成されてもよい。
次に、本実施形態に係る動作制御処理の一例について説明する。図4は、本実施形態に係る動作制御処理の一例を示すフローチャートである。
(ステップS102)情報取得部32は、駆動センサ26から駆動状態情報を取得する。
(ステップS104)軌道推定部36は、駆動状態情報が示す関節ごとの角度に基づいて効果器の位置を算出する。軌道推定部36は、現在までの効果器の位置の軌道である実績軌道を所定の連続関数に当てはめる。目標位置設定部34は、当てはめた連続関数を用いて所定時間後までの未来の各時刻における位置の軌道である予測軌道を推定する。
(ステップS108)目標位置設定部34は、画像データと距離データで示される動作環境における表面形状から、公知の画像認識処理を行って個々の物体の領域を識別する。
(ステップS110)目標位置設定部34は、公知の画像認識処理を行って個々の物体の形状を判定する。目標位置設定部34は、予め設定した物体モデルデータを参照して、判定した形状に対応する特徴点の位置を目標位置として設定する。
(ステップS114)目標位置選択部38は、推定した接近軌道ごとに予測軌道との類似度を示す指標値を計算する。目標位置選択部38は、最も高い類似度を示す指標値を与える接近軌道を特定し、特定した接近軌道に対応する目標位置を選択する。
(ステップS116)動作指令生成部40は、選択された目標位置に効果器を移動させるための動作指令を生成し、生成した動作指令を駆動制御部22に出力する。これにより、効果器を目標位置に向けて動作させる。その後、図4に示す処理を終了する。
次に、本発明の第2の実施形態について説明する。以下の説明では、第1の実施形態との差異を主とし、第1の実施形態と共通の機能、構成については、特に断らない限り第1の実施形態に係る説明を援用する。本実施形態に係るロボットシステムS1は、図1に示す構成と同様の構成を有していてもよい。
目標位置設定部34は、各時刻について定めた注目点の分布に対して公知のクラスタリング処理(clustering)を行って複数の部分集合(クラスタ,cluster)に分類する。目標位置設定部34は、例えば、k平均法(k-means)を用いることができる。k平均法は、非階層型クラスタリングの一種である。
なお、目標位置設定部34は、分類されたクラスタのうち、そのクラスタに属する注目点の数が予め定めた注目点の数の閾値よりも少ないクラスタを棄却してもよい。これにより、操作者の関心の低い領域に疎らに注目点が分布しても、それらの注目点に基づく目標位置が排除される。そのため、操作者の関心を有する位置となる可能性が高い目標位置が残されうる。
次に、本実施形態に係る動作制御処理の一例について説明する。図7は、本実施形態に係る動作制御処理の一例を示すフローチャートである。図7に示す処理は、ステップS102-S108、ステップS112-S116、およびステップS122-S130の処理を含む。
図7に示す処理は、ステップS108の処理の終了後、ステップS122の処理に進む。
(ステップS122)目標位置設定部34は、検出した物体のいずれかを処理対象とする対象物体とし、対象物体が所定の寸法よりも大きい寸法を有するか否かを判定する。有すると判定するとき(ステップS122 YES)、ステップS124の処理に進む。有しないと判定するとき(ステップS122 NO)、ステップS126の処理に進む。
(ステップS124)目標位置設定部34は、視線情報が示す現在までの所定期間内の各時刻における視線方向と対象物体の交点を操作者の注目点として定め、定めた注目点の座標の代表点を目標位置として定める。その後、ステップS128の処理に進む。
(ステップS128)目標位置設定部34は、検出した物体のうち未処理の物体が存在するか否かを判定する。未処理の物体が存在する場合(ステップS128 YES)、ステップS130の処理に進む。未処理の物体が存在しない場合(ステップS128 NO)、目標位置設定部34は、ステップS112の処理に進む。
(ステップS130)目標位置設定部34は、対象物体を未処理の物体のいずれか1つに変更し、ステップS122の処理に戻る。
この構成によれば、ロボット20の動作環境における物体の形状に基づいて目標位置までの接近軌道が設定され、作用器の動作から推定される予測軌道と接近軌道との類似度に基づいて目標位置が選択される。操作者の意図に沿う可能性が高い目標位置にロボット20の作用器を誘導することで、ロボット20の操作性を向上させることができる。かかる処理は、作用器の現在までの動作と、動作環境における物体の形態に基づいて定まる目標位置に基づくため、タスクの種類に依存しない。そのため、タスクの種類によらず、物体に接近するシナリオに適用可能となる。
この構成によれば、動作環境を表す画像から判定された物体の形状に対応する特徴点の位置が目標位置として定まる。物体の形状に応じて典型的な特徴点の位置を目標位置として、ロボット20の作用器を誘導することができる。
この構成によれば、作用器を接近させることができない無効な目標位置が排除されるため、効果器をより確実に移動可能にすることができる。
この構成によれば、操作者が注視する位置が目標位置として定まるため、特徴点を一意に定められない大きい物体であっても、操作者が関心を有する物体および位置に効果器の動作を誘導することができる。
この構成によれば、操作者が注視する位置が離散的に分布していても、それぞれの分布に対応する目標位置が定まる。操作者が関心を有する位置にロボット20の効果器を誘導することで、操作性を向上させることができる。
第2の実施形態では、視線情報が操作者の一方の眼(例えば、左眼)の視線方向を示す場合を主として説明したが、これには限られない。視線情報は、左眼、右眼それぞれの視線方向を示してもよい。ある時刻において一方の眼の視線方向が利用できない場合(例えば、瞬き)には、目標位置設定部34は、注目点を定める際に他方の眼の視線方向を用いてもよい。両眼の視線方向が利用できる場合には、目標位置設定部34は、両眼それぞれの視線方向の線分が交わる交点、もしくは、それらの線分それぞれの最近接点の中点を注視点として定めてもよい。そして、目標位置設定部34は、頭部から注視点への方向を両眼の視線方向を代表する視線方向と定め、定めた視線方向と物体の表面との交点を定めてもよい。定めた交点が目標位置の設定に用いられる。
Claims (8)
- 操作者の動作を検出し、当該動作に対応する動作をロボットに行わせる制御装置であって、
前記ロボットの動作環境に所在する物体の形態に基づいて、前記ロボットの作用器の目標位置を定める目標位置設定部と、
前記ロボットの駆動状態に基づいて前記作用器の位置を算出し、
前記作用器の現在までの所定期間内の時刻ごとの位置を示す実績軌道に基づいて当該作用器の予測軌道を推定し、
前記作用器の現在位置から前記目標位置までの軌道を、所定の関数を用いて接近軌道として推定する軌道推定部と、
前記予測軌道と前記接近軌道ごとの類似度に基づいて、1個の目標位置を選択する目標位置選択部と、
を備える制御装置。 - 前記目標位置設定部は、
前記動作環境を表す画像から前記物体の形状を判定し、
形状ごとに特徴点の配置を示す特徴点データに基づいて、判定した形状に対応する特徴点の位置を目標位置として定める
請求項1に記載の制御装置。 - 前記目標位置設定部は、
他の物体と干渉する目標位置を棄却する
請求項2に記載の制御装置。 - 前記目標位置設定部は、
所定の寸法よりも大きい寸法を有する物体について、
操作者の視線方向を示す視線情報に基づいて、前記物体の表面と前記視線方向との交点を定め、
前記交点の分布に基づいて前記目標位置を定める
請求項1から請求項3のいずれか一項に記載の制御装置。 - 前記目標位置設定部は、
前記交点を複数の部分集合に分類し、部分集合ごとの交点の分布の代表点を目標位置として定める
請求項4に記載の制御装置。 - コンピュータに請求項1から請求項5のいずれか一項に記載の制御装置として機能させるためのプログラム。
- 請求項1から請求項5のいずれか一項に記載の制御装置と前記ロボットを備える
ロボットシステム。 - 操作者の動作を検出し、当該動作に対応する動作をロボットに行わせる制御装置における制御方法であって、
前記ロボットの動作環境に所在する物体の形態に基づいて、前記ロボットの作用器の目標位置を定める第1ステップと、
前記ロボットの駆動状態に基づいて前記作用器の位置を算出し、
前記作用器の現在までの所定期間内の時刻ごとの位置を示す実績軌道に基づいて当該作用器の予測軌道を推定し、
前記作用器の現在位置から前記目標位置までの軌道を、所定の関数を用いて接近軌道として推定する第2ステップと、
前記予測軌道と前記接近軌道ごとの類似度に基づいて、1個の目標位置を選択する第3ステップと、
を有する制御方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021047360A JP7577003B2 (ja) | 2021-03-22 | 2021-03-22 | 制御装置、ロボットシステム、制御方法、および、プログラム |
| US17/671,545 US12109706B2 (en) | 2021-03-22 | 2022-02-14 | Control device, robot system, control method, and non-transitory computer-readable medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021047360A JP7577003B2 (ja) | 2021-03-22 | 2021-03-22 | 制御装置、ロボットシステム、制御方法、および、プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022146417A JP2022146417A (ja) | 2022-10-05 |
| JP7577003B2 true JP7577003B2 (ja) | 2024-11-01 |
Family
ID=83285976
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021047360A Active JP7577003B2 (ja) | 2021-03-22 | 2021-03-22 | 制御装置、ロボットシステム、制御方法、および、プログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US12109706B2 (ja) |
| JP (1) | JP7577003B2 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116194252B (zh) * | 2020-07-29 | 2025-09-12 | 发那科株式会社 | 机器人系统 |
| US12168300B2 (en) * | 2021-10-18 | 2024-12-17 | Boston Dynamics, Inc. | Nonlinear trajectory optimization for robotic devices |
| EP4289566A3 (en) * | 2022-06-07 | 2024-01-03 | Canon Kabushiki Kaisha | Control method, control program, recording medium, method for manufacturing product, and system |
| CN117359645B (zh) * | 2023-12-04 | 2024-02-23 | 青岛理工大学 | 一种单连杆机械臂的自适应预定义时间控制方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017196678A (ja) | 2016-04-25 | 2017-11-02 | 国立大学法人 千葉大学 | ロボット動作制御装置 |
| WO2018212226A1 (ja) | 2017-05-17 | 2018-11-22 | Telexistence株式会社 | 制御装置、ロボット制御方法及びロボット制御システム |
| US20190291277A1 (en) | 2017-07-25 | 2019-09-26 | Mbl Limited | Systems and methods for operating a robotic system and executing robotic interactions |
-
2021
- 2021-03-22 JP JP2021047360A patent/JP7577003B2/ja active Active
-
2022
- 2022-02-14 US US17/671,545 patent/US12109706B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017196678A (ja) | 2016-04-25 | 2017-11-02 | 国立大学法人 千葉大学 | ロボット動作制御装置 |
| WO2018212226A1 (ja) | 2017-05-17 | 2018-11-22 | Telexistence株式会社 | 制御装置、ロボット制御方法及びロボット制御システム |
| US20190291277A1 (en) | 2017-07-25 | 2019-09-26 | Mbl Limited | Systems and methods for operating a robotic system and executing robotic interactions |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022146417A (ja) | 2022-10-05 |
| US12109706B2 (en) | 2024-10-08 |
| US20220297296A1 (en) | 2022-09-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7577003B2 (ja) | 制御装置、ロボットシステム、制御方法、および、プログラム | |
| US10768708B1 (en) | Systems and methods of interacting with a robotic tool using free-form gestures | |
| US20250360626A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program | |
| CN106256512B (zh) | 包括机器视觉的机器人装置 | |
| KR101789064B1 (ko) | 원격조종 최소 침습 종속 수술 기구의 손 제어를 위한 방법 및 시스템 | |
| KR101785360B1 (ko) | 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템 | |
| JP5835926B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
| JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
| JP7180695B2 (ja) | 障害物回避制御装置、障害物回避制御システム、障害物回避制御方法およびプログラム | |
| US11745353B2 (en) | Recovering material properties with active illumination and camera on a robot manipulator | |
| JP2019188580A (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
| JP2008000884A (ja) | ロボットの相互作用のためのビジュアル・プロト−オブジェクトの評価 | |
| KR20130027006A (ko) | 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치 | |
| KR20120102647A (ko) | 주 손가락 추적 장치 및 최소 침습 수술 시스템에서의 사용 방법 | |
| US12552037B2 (en) | Remote control system | |
| JP7577017B2 (ja) | 制御装置、ロボットシステム、制御方法、および、プログラム | |
| JP7249221B2 (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 | |
| JP6885909B2 (ja) | ロボット制御装置 | |
| JP2024142563A (ja) | ロボット制御装置、ロボット制御方法、およびロボットシステム | |
| KR20230100101A (ko) | 로봇 제어 시스템 및 이를 이용한 로봇 설정 방법 및 로봇 제어 방법 | |
| KR101956900B1 (ko) | 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템 | |
| CN115003461A (zh) | 机器人机械手的安装位置 | |
| US20260001728A1 (en) | Workpiece removal device, workpiece removal method, and control device | |
| JP6647143B2 (ja) | 機能装置ならびにその制御装置および制御方法 | |
| CN121572306A (zh) | 基于多视角置信度融合的臂手机器人遥操作方法和系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231128 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240529 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240730 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240924 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241022 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7577003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |