JP7087006B2 - 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 - Google Patents
画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 Download PDFInfo
- Publication number
- JP7087006B2 JP7087006B2 JP2019567999A JP2019567999A JP7087006B2 JP 7087006 B2 JP7087006 B2 JP 7087006B2 JP 2019567999 A JP2019567999 A JP 2019567999A JP 2019567999 A JP2019567999 A JP 2019567999A JP 7087006 B2 JP7087006 B2 JP 7087006B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- demonstration
- robot
- embedding
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0205—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
Description
本出願は、その内容の全体が参照により本明細書に組み込まれる、2017年9月20日に出願した米国仮特許出願第62/561,133号の優先権を主張する。
110 ポリシーコントローラ、コントローラ
112 ロボティックエージェント、エージェント
120 デモンストレーション画像
130 タイムコントラスティブニューラルネットワーク、ニューラルネットワーク
132 デモンストレーション埋め込み
140 ロボット画像
142 ロボット埋め込み
150 最適化エンジン
200 トレーニングシステム、システム
204 ディープニューラルネットワーク
206 埋め込みニューラルネットワーク層
208 アンカー観測結果
210 ポジティブ観測結果
212 ネガティブ観測結果
214 第1の埋め込み
216 第2の埋め込み
218 第3の埋め込み
220 トリプレット損失
302 アンカー観測結果、観測結果、アンカー画像、第1の、すなわちアンカー画像
304 ポジティブ観測結果、観測結果、ポジティブ画像
306 ネガティブ観測結果、観測結果、ネガティブ画像、第3の、すなわちネガティブ画像
308、408 画像のシーケンス、シーケンス
310 画像のシーケンス
402 アンカー観測結果、アンカー画像、画像
404 ポジティブ観測結果、ポジティブ画像、画像
406 ネガティブ観測結果、第3の、すなわちネガティブ画像、画像
Claims (23)
- 指定されたタスクを実行するために環境と対話するロボティックエージェントによって実行されるべきアクションを選択するために使用されるポリシーコントローラを最適化するコンピュータ実施方法であって、
前記指定されたタスクのバージョンを実行する別のエージェントのデモンストレーション画像のデモンストレーションシーケンスを取得するステップと、
前記デモンストレーション画像の各々のそれぞれのデモンストレーション埋め込みを生成するために、ニューラルネットワークを使用して前記デモンストレーションシーケンスにおける各デモンストレーション画像を処理するステップであって、前記ニューラルネットワークが、ディープニューラルネットワークと、後続する埋め込みニューラルネットワーク層とを備え、前記ニューラルネットワークが、前記環境の入力画像を受信し、かつ前記入力画像において示されるような前記環境の状態を特徴づける前記入力画像の数値埋め込みを生成するために前記入力画像を処理するようにトレーニングされている、ステップと、
現在のポリシーコントローラを使用して選択されたアクションを実行することによって、前記指定されたタスクを実行する前記ロボティックエージェントのロボット画像のロボットシーケンスを取得するステップであって、前記ロボットシーケンスにおける各ロボット画像が、前記デモンストレーションシーケンスにおけるそれぞれのデモンストレーション画像に対応する、ステップと、
前記ロボット画像の各々のためのそれぞれのロボット埋め込みを生成するために、前記ニューラルネットワークを使用して前記ロボットシーケンスにおける各ロボット画像を処理して、ステップと、
各デモンストレーション画像について、前記デモンストレーション画像の前記デモンストレーション埋め込みと前記対応するロボット画像の前記ロボット埋め込みとの間の距離に依存する報酬関数を最適化するために、強化学習技法の反復を実行することによって前記現在のポリシーコントローラを更新するステップと
を含む、方法。 - 前記別のエージェントが人間のデモンストレータである、請求項1に記載の方法。
- 前記別のエージェントが異なるロボティックエージェントである、請求項1に記載の方法。
- 前記ポリシーコントローラが軌道中心コントローラである、請求項1から3のいずれか一項に記載の方法。
- 前記ポリシーコントローラが時変ガウシアンコントローラである、請求項4に記載の方法。
- 前記強化学習技法がPILQR技法である、請求項1から5のいずれか一項に記載の方法。
- 前記報酬関数が、前記デモンストレーション画像の前記デモンストレーション埋め込みと前記対応するロボット画像の前記のロボット埋め込みとの間のユークリッド距離の2乗であるユークリッド距離項を含む、請求項1から6のいずれか一項に記載の方法。
- 前記報酬関数が、定数値と、前記デモンストレーション画像の前記デモンストレーション埋め込みおよび前記対応するロボット画像の前記のロボット埋め込みの間の前記ユークリッド距離の2乗との間の和の平方根であるフーバー型損失項を含む、請求項7に記載の方法。
- 前記デモンストレーションシーケンスにおける前記デモンストレーション画像が、前記ロボットシーケンスにおける前記ロボット画像とは異なる視点からキャプチャされる、請求項1から9のいずれか一項に記載の方法。
- 前記デモンストレーションシーケンスにおける前記デモンストレーション画像が、前記別のエージェントに対してサードパーティビューからキャプチャされ、前記ロボットシーケンスにおける前記ロボット画像が、前記ロボティックエージェントに対してファーストパーティビューからキャプチャされる、請求項10に記載の方法。
- 前記対応するロボット画像が、前記ロボットシーケンスにおいて、前記デモンストレーション画像が前記デモンストレーションシーケンスにおいて存在するのと同じ位置にある前記ロボット画像である、請求項1から11のいずれか一項に記載の方法。
- 前記ニューラルネットワークが複数のネットワークパラメータを有し、前記方法が、
前記数値埋め込みを生成するために、前記ニューラルネットワークをトレーニングするステップであって、
第1のモダリティによってキャプチャされた前記環境の第1の画像を取得するステップと、
前記第1の画像と同時に発生しており、かつ第2の異なるモダリティによってキャプチャされる第2の画像を取得するステップと、
前記第1の画像と同時に発生していない、前記第1のモダリティによってキャプチャされた第3の画像を取得するステップと、
前記第1の画像をアンカー例として、前記第2の画像をポジティブ例として、および前記第3の画像をネガティブ例として使用するトリプレット損失の勾配を決定するステップと、
前記トリプレット損失の前記勾配を使用して前記ネットワークパラメータの現在の値を更新するステップと
を含む、ステップをさらに含む、
請求項1から12のいずれか一項に記載の方法。 - 前記第1のモダリティが第1の視点におけるカメラであり、前記第2のモダリティが第2の異なる視点におけるカメラである、請求項13に記載の方法。
- 前記第3の画像が前記第1の画像の時間近傍内である、請求項13または14に記載の方法。
- 前記第3の画像を取得するステップが、
前記第1の画像の前記時間近傍内である、前記第1のモダリティによってキャプチャされた前記第1の画像からランダムに前記第3の画像を選択するステップ
を含む、請求項15に記載の方法。 - 前記第3の画像を取得するステップが、
前記第1の画像の前記時間近傍内である、前記第1のモダリティによってキャプチャされた前記第1の画像から、前記第1の画像に対してハードネガティブである画像を選択するステップ
を含む、請求項15に記載の方法。 - 前記トリプレット損失の前記勾配を決定するステップが、
第1の埋め込みを生成するために、前記ネットワークパラメータの前記現在の値に従って前記ニューラルネットワークを使用して前記第1の画像を処理するステップと、
第2の埋め込みを生成するために、前記ネットワークパラメータの前記現在の値に従って前記ニューラルネットワークを使用して前記第2の画像を処理するステップと、
第3の埋め込みを生成するために、前記ネットワークパラメータの前記現在の値に従って前記ニューラルネットワークを使用して前記第3の画像を処理するステップと、
(i)前記第1の埋め込みと前記第2の埋め込みとの間の第1の距離、および(ii)前記第1の埋め込みと前記第3の埋め込みとの間の第2の距離から前記トリプレット損失を決定するステップと
を含む、請求項13から17のいずれか一項に記載の方法。 - 前記第1の画像、前記第2の画像、および前記第3の画像が、前記環境と対話する前記別のエージェントのものである、請求項13から18のいずれか一項に記載の方法。
- 前記第1の画像、前記第2の画像、および前記第3の画像が、前記環境と対話する前記ロボティックエージェントのものである、請求項13から18のいずれか一項に記載の方法。
- 前記最適化されたポリシーコントローラを使用して、前記ロボティックエージェントを制御するステップをさらに含む、請求項1から20のいずれか一項に記載の方法。
- 1つまたは複数のコンピュータと、命令を記憶する1つまたは複数の記憶デバイスとを備え、前記命令が、前記1つまたは複数のコンピュータによって実行されるとき、請求項1から21のいずれか一項に記載の方法を前記1つまたは複数のコンピュータに実行させる、システム。
- 命令を記憶する1つまたは複数のコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のコンピュータによって実行されるとき、請求項1から21のいずれか一項に記載の方法を前記1つまたは複数のコンピュータに実行させる、1つまたは複数のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762561133P | 2017-09-20 | 2017-09-20 | |
US62/561,133 | 2017-09-20 | ||
PCT/US2018/052078 WO2019060632A1 (en) | 2017-09-20 | 2018-09-20 | OPTIMIZING POLICY CONTROL DEVICES FOR ROBOTIC AGENTS USING IMAGE INTEGRATIONS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020530602A JP2020530602A (ja) | 2020-10-22 |
JP7087006B2 true JP7087006B2 (ja) | 2022-06-20 |
Family
ID=63794721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567999A Active JP7087006B2 (ja) | 2017-09-20 | 2018-09-20 | 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11559887B2 (ja) |
EP (1) | EP3616129A1 (ja) |
JP (1) | JP7087006B2 (ja) |
CN (1) | CN110730970B (ja) |
WO (1) | WO2019060632A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7035734B2 (ja) * | 2018-03-30 | 2022-03-15 | 富士通株式会社 | 強化学習プログラム、強化学習方法、および強化学習装置 |
GB2577312B (en) * | 2018-09-21 | 2022-07-20 | Imperial College Innovations Ltd | Task embedding for device control |
KR102194282B1 (ko) * | 2019-05-17 | 2020-12-23 | 네이버 주식회사 | 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치 |
CN110900598B (zh) * | 2019-10-15 | 2022-09-23 | 合肥工业大学 | 机器人三维运动空间动作模仿学习方法和系统 |
US11501165B2 (en) * | 2020-03-04 | 2022-11-15 | International Business Machines Corporation | Contrastive neural network training in an active learning environment |
JP6725930B1 (ja) * | 2020-04-08 | 2020-07-22 | 株式会社エクサウィザーズ | 液体秤量方法、制御装置、コンピュータプログラム及び学習方法 |
WO2022069732A1 (en) * | 2020-10-01 | 2022-04-07 | Deepmind Technologies Limited | Cross-domain imitation learning using goal conditioned policies |
CN112847362B (zh) * | 2021-01-05 | 2022-09-20 | 江汉大学 | 一种基于图像矩的搬运机器人视觉伺服控制方法 |
CN112975968B (zh) * | 2021-02-26 | 2022-06-28 | 同济大学 | 基于第三视角可变主体演示视频的机械臂模仿学习方法 |
AU2022335654A1 (en) * | 2021-08-24 | 2024-02-08 | Deepmind Technologies Limited | Autoregressively generating sequences of data elements defining actions to be performed by an agent |
CN113838042B (zh) * | 2021-09-30 | 2023-11-10 | 清华大学 | 双机械臂操作问答方法、装置、电子设备和存储介质 |
DE102021211185B4 (de) | 2021-10-05 | 2024-05-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern eines Roboters |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602009000644D1 (de) * | 2009-02-27 | 2011-03-03 | Honda Res Inst Europe Gmbh | Roboter mit automatischer Auswahl von aufgabenspezifischen Darstellungen zur Imitationserlernung |
US10776692B2 (en) * | 2015-07-24 | 2020-09-15 | Deepmind Technologies Limited | Continuous control with deep reinforcement learning |
US10127694B2 (en) * | 2016-11-18 | 2018-11-13 | Adobe Systems Incorporated | Enhanced triplet embedding and triplet creation for high-dimensional data visualizations |
US10322510B2 (en) * | 2017-03-03 | 2019-06-18 | Futurewei Technologies, Inc. | Fine-grained object recognition in robotic systems |
US20180260414A1 (en) * | 2017-03-10 | 2018-09-13 | Xerox Corporation | Query expansion learning with recurrent networks |
CN106897714B (zh) * | 2017-03-23 | 2020-01-14 | 北京大学深圳研究生院 | 一种基于卷积神经网络的视频动作检测方法 |
US10832062B1 (en) * | 2018-09-28 | 2020-11-10 | Zoox, Inc. | Image embedding for object tracking |
-
2018
- 2018-09-20 WO PCT/US2018/052078 patent/WO2019060632A1/en unknown
- 2018-09-20 JP JP2019567999A patent/JP7087006B2/ja active Active
- 2018-09-20 US US16/649,596 patent/US11559887B2/en active Active
- 2018-09-20 EP EP18783292.8A patent/EP3616129A1/en active Pending
- 2018-09-20 CN CN201880038469.0A patent/CN110730970B/zh active Active
-
2023
- 2023-01-23 US US18/157,919 patent/US20230150127A1/en active Pending
Non-Patent Citations (2)
Title |
---|
Pierre Sermanet,外3名,Time-Contrastive Networks: Self-Supervised Learning from Multi-View Observation,[online],arXiv,2017年04月23日,https://arxiv.org/pdf/1704.06888v1.pdf,[検索日 2021.04.01] |
Yevgen Chebotar,外5名,Combining Model-Based and Model-Free Updates for Trajectory-Centric Reinforcement Learning,[online],arXiv,2017年06月18日,https://arxiv.org/pdf/1703.03078v3.pdf,[検索日 2021.04.01] |
Also Published As
Publication number | Publication date |
---|---|
US20200276703A1 (en) | 2020-09-03 |
US20230150127A1 (en) | 2023-05-18 |
CN110730970B (zh) | 2024-03-05 |
US11559887B2 (en) | 2023-01-24 |
WO2019060632A1 (en) | 2019-03-28 |
JP2020530602A (ja) | 2020-10-22 |
CN110730970A (zh) | 2020-01-24 |
EP3616129A1 (en) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7087006B2 (ja) | 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化 | |
CN110651279B (zh) | 利用学徒来训练动作选择神经网络 | |
US20210271968A1 (en) | Generative neural network systems for generating instruction sequences to control an agent performing a task | |
US20200090042A1 (en) | Data efficient imitation of diverse behaviors | |
US11714996B2 (en) | Learning motor primitives and training a machine learning system using a linear-feedback-stabilized policy | |
US20200104680A1 (en) | Action selection neural network training using imitation learning in latent space | |
CN110692066A (zh) | 使用多模态输入选择动作 | |
CN112313043B (zh) | 自我监督的机器人对象交互 | |
CN112771542A (zh) | 以学习的视觉实体为基础的强化学习神经网络 | |
US11853895B2 (en) | Mirror loss neural networks | |
US20230419521A1 (en) | Unsupervised depth prediction neural networks | |
JP7354460B2 (ja) | ブートストラップされた潜在性の予測を使用するエージェント制御のための学習環境表現 | |
US20230330846A1 (en) | Cross-domain imitation learning using goal conditioned policies | |
JP2023535502A (ja) | 半教師付きキーポイントベースモデル | |
CN115066686A (zh) | 使用对规划嵌入的注意操作生成在环境中实现目标的隐式规划 | |
CN112334914A (zh) | 使用生成式前导神经网络的模仿学习 | |
Wu et al. | Video driven adaptive grasp planning of virtual hand using deep reinforcement learning | |
US20240189994A1 (en) | Real-world robot control using transformer neural networks | |
WO2024129898A1 (en) | Real-world robot control using transformer neural networks | |
CN117408866A (zh) | 图像绘制方法、模型训练方法、装置、设备及存储介质 | |
CN116868203A (zh) | 利用自适应梯度裁剪的神经网络 | |
Güngör et al. | GE-International Journal of Engineering Research |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210709 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220315 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220315 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220324 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7087006 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |