JP6856590B2 - センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム - Google Patents
センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム Download PDFInfo
- Publication number
- JP6856590B2 JP6856590B2 JP2018163819A JP2018163819A JP6856590B2 JP 6856590 B2 JP6856590 B2 JP 6856590B2 JP 2018163819 A JP2018163819 A JP 2018163819A JP 2018163819 A JP2018163819 A JP 2018163819A JP 6856590 B2 JP6856590 B2 JP 6856590B2
- Authority
- JP
- Japan
- Prior art keywords
- augmented reality
- reality image
- image
- detection
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0009—Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35499—Model of process, machine and parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Description
また、ロボットの三次元モデルと、三次元座標上の作業者の視点の位置とに基づき、ロボットの教示された動作の軌跡を表示装置に表示するシステムが知られている(例えば、特許文献2参照。)。
また、対象に対してロボットが作業しなかった場合に、原因が各種センサの計測によるのか、対象の位置計算にあるのか、判別がつかず調整に時間を要していた。
本発明の第1態様のセンシングシステムは、複数の対象の検出に用いられる検出装置と、前記検出装置によって得られたデータに所定の処理を行うことによって前記複数の対象を検出する対象検出手段と、を備えるセンシングシステムであって、前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち所定のパラメータが検出閾値以上である対象の前記対象検出手段によって検出された形状をあらわす拡張現実画像を作成し、前記複数の対象のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である対象の前記対象検出手段によって検出された形状をあらわす候補拡張現実画像を作成する拡張現実画像作成手段と、前記拡張現実画像および前記候補拡張現実画像を前記検出装置によって得られる前記複数の対象の現実の画像と共に表示又は投影する表示装置又は投影装置と、を備える。
また、本発明の第2態様のセンシングシステムは、複数の対象の検出に用いられる検出装置と、前記検出装置によって得られたデータに所定の処理を行うことによって前記複数の対象を検出する対象検出手段と、を備えるセンシングシステムであって、前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つのパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成手段と、前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示装置又は投影装置と、を備える。
当該態様では、前記のパラメータが検出閾値以上である候補に対応するAR画像だけではなく、前記のパラメータが検出閾値未満であるが検出候補閾値以上である候補に対応する候補AR画像も表示装置に表示される。また、対象の対象検出手段によって検出された形状をあらわす拡張現実画像が作成される。このため、検出閾値の変更、検出のためのライティング(照明)の変更、その他の設定の変更等によって検出される対象を増やす作業が容易となり、当該作業後の結果の確認も容易となる。
当該構成により、オペレータは、候補AR画像に対応する対象の存在を容易に認識することができる。
当該構成では、候補AR画像と共に表示される検出結果に基づき、オペレータは、検出装置に関するパラメータ設定をより容易に行うことが可能となる。
または、制御装置がリアルタイムで前記拡張現実画像を作成、記録するものであり、前記表示装置が、所定の入力部への入力もしくは制御装置またはセンサにおける所定の条件の成立に応じて、その時点のもしくは直近の複数の拡張現実画像のうち選択された前記拡張現実画像を表示するものである。
当該構成では、オペレータは入力部への入力や制御装置やセンサへの条件設定を用いて表示するAR画像を選ぶことができる。このため、任意の時点や事象発生時の制御装置の処理、設定等をオペレータがより容易に認識することが可能になり、システムの作動の成功又は失敗の原因究明の容易化、システムの稼働率向上を図るためにも極めて有用である。
当該構成では、イベントの発生位置の周辺のAR画像および/又は候補AR画像が表示されるので、オペレータはシステムの作動の成功又は失敗の原因究明をより効率的に行うことができる。
AR画像が現実空間に投影される場合は、オペレータは現実空間において制御装置内の設定、処理等を視覚的に認識することができ、複数人でディスカッションする場合に特に適している。AR画像が現実空間像又は現実空間と共に見えるように表示装置によって表示される場合は、システムの全体を見なくても、表示装置内を見るだけでオペレータはAR画像と現実空間との関係を視覚的に認識できる。また、表示装置がAR画像を現実空間像と共に表示する場合は、現場にいない場合でも、状況を把握可能となり、システム監視に特に適している。AR画像を現実空間に付加する場合は、実際に見ながら作業する場合に特に適している。
当該構成では、AR画像が対応する現実空間像と共に記憶される。このため、オペレータは、記憶されたAR画像を現実空間像と共に再生することができ、これはシステムの設定チェックの容易化、システムの設定の容易化、およびシステムの作動の成功又は失敗の原因究明の容易化のために極めて有利である。
当該構成では、オペレータは再生手段によって記憶されたAR画像を現実空間像と共に任意の場所で容易に再生することができる。
または、実空間上の装置を見ながらAR画像を再生することで、稼働率改善のための調整を現場で行うことができる。
本発明の第5態様は、検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられる拡張現実画像の表示方法であって、前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成ステップと、前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示ステップと、を有する。
本発明の第7態様は、検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられるプログラムであって、コンピュータに、前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成処理と、前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示処理と、を実行させるものである。
本実施形態のセンシングシステムは、図1に示されるように、物品である対象Oを搬送する移動手段としての搬送装置10と、搬送装置10によって搬送される対象Oの検出に用いられる検出装置20と、搬送装置10によって搬送されている対象Oに対して所定の作業を行う作業機械であるロボット30と、ロボット30を制御する制御装置40と、拡張現実装置60(図2)とを備えている。本実施形態のセンシングシステムは、センシングされた対象Oに対して作業機械であるロボット30が所定の作業を行うシステムであるから、作業システムでもある。
なお、センシングシステムは固定台の上に置かれた対象O等の移動しない対象Oの検出にも用いることができる。
対象Oは、車体、フレーム、部品、食品、医薬品等、様々な物であり得る。図1に示されている搬送装置10以外の搬送装置を用いることも可能であり、搬送装置10は対象Oを搬送することができるものであればよい。
ツール50は爪を駆動するサーボモータ51を備えている(図2参照)。サーボモータ51はその作動位置を検出するための作動位置検出装置を有し、作動位置検出装置は一例としてエンコーダである。作動位置検出装置の検出値は制御装置40に送信される。
なお、基準座標系の関連付けは自動で行われても良いし、ユーザーが直接AR画像を操作して手動で座標系を合わせても良い。
また、基準座標系の関連付けを行わなくても良い。この場合は、現実とAR画像が重畳しなくなるが、現実空間上の物体の相対関係とAR画像上の物体の相対関係は一致しており、AR画像上の物体の相対関係に異常があれば実際の設定も正確でないことが分かる。
制御部41は、記憶部43に格納されているAR画像作成プログラム43dに基づき、検出装置20を用いた対象Oの検出に関する設定と、搬送装置10の設定と、ロボット30の設定と、前記設定に基づいて制御部41が認識している対象Oの位置および姿勢と、検出装置20による対象Oの検出の結果と、搬送装置10の作業予定と、ロボット30の作業予定と、ロボット30による作業の実行に関する制御部41の判断結果と、制御部41が認識している対象Oに関するパラメータとのうち、少なくとも1つに関係しているAR画像データを逐次作成し、作成したAR画像データを表示装置62に送信する。AR画像の位置および姿勢はカメラ座標系又は基準座標系に基づいて調整される。これにより、表示装置62には、カメラ61から受信する現実空間像および制御装置40から受信するAR画像が表示される。
なお、制御部41からデータを取得して拡張現実装置60でAR画像を作成しても良い。
制御装置40と拡張現実装置60間の通信は有線ケーブルでつないでも良いし、無線で通信しても良い。
搬送装置10の搬送方向は、例えば搬送装置10によって搬送される対象Oの位置変化に基づき計算によって得られる。この場合、カメラ61は搬送装置10の上方に設けられていていることが好ましい。当該構成は、AR画像74とAR画像76のとの関係の目視確認を可能とし、基準座標系等の設定に対する搬送装置10の搬送方向が適切か否かの確認を行う上で有利である。
なお、AR画像として表示装置62に表示される対象Oの位置、姿勢、および形状は対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。
また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
なお、表示装置62に表示されるAR画像78を対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
なお、表示装置62に表示されるAR画像79を対象の検出装置20の検出結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
なお、表示装置62に表示される当該AR画像を対象の検出装置20の結果をもとに実際の対象の動きに合わせて逐次更新することも可能である。また、任意の時点で、更新を停止して結果の確認を行うことが可能であると共に、記録された結果を再生することも可能である。
図3および図4において、各AR画像73は、ロボット30が作業を行うことができる対象Oを作業対象として示している。これに対し、例えば対象Oの検出が不十分である時、検出された対象Oの姿勢が作業に適さない時等に、複数の対象Oのうち一部の対象Oに対してロボット30が作業を実行しない、又は実行できない場合がある。例えば、対象Oの検出パラメータがその検出閾値未満である時に、当該対象Oは作業対象として検出されない。また、対象Oの検出画像の姿勢に関するパラメータがその姿勢閾値未満である時に、対象Oの姿勢が作業に適さないと判定される。
当該構成により、オペレータは、検出閾値以上で検出される対象Oを増やすための前記要因の調整、検出閾値の調整等を、比較的容易に行うことができる。
AR画像81が表示装置62に表示されることによって、オペレータは、検出閾値以上で検出される対象Oを増やすための前記要因の調整、検出閾値の調整等を、より容易に行うことができる。
搬送装置10上に載置されている複数又は単一の対象Oの検出に関する設定を行う時に、検出装置10の設定、照明装置の設定、および検出閾値の設定が行われる。図6の例では、搬送装置10の幅方向に並んだ2つの対象Oの一方が実線のAR画像73で表示され、他方が実線のAR画像73および破線のAR画像(候補AR画像)80で示されている。図7の例では、搬送装置10の幅方向に並んだ3つの対象Oの1つが実線のAR画像73で表示され、他が破線のAR画像(候補AR画像)80で示されている。図6および図7の例では、対象Oの現実の像が表示されてもよく、表示されなくてもよい。
この場合も、オペレータは、現実空間の対象Oと表示装置62とを見比べながら調整作業を効率的に行うことができる。
また、図8に示されるように、所定のパラメータが検出閾値未満且つ検出候補閾値以上である対象OがマークであるAR画像82によって示されてもよい。マークの代わりに、抽象図、代替図、点等が用いられてもよい。
検出装置20は自律走行型の作業機械に装着される場合もある。この場合、検出装置20は例えばステレオカメラ(三次元カメラ)である。点群データを現実空間に適合させるために、検出装置20には公知のキャリブレーションが行われている。制御部41は、対象検出プログラム43cに基づき、現実空間に存在する対象Oの形状、対象Oの位置および姿勢、対象Oとの距離等を検出する。
または、制御装置40がリアルタイムでAR画像71〜82を作成、記録するものであり、表示装置62が、所定の入力部への入力もしくは制御装置40またはセンサにおける所定の条件の成立に応じて、その時点のもしくは直近の複数のAR画像71〜82のうち選択されたAR画像を表示するように構成されていてもよい。
制御装置40、拡張現実装置60等は、表示装置62に表示される現実空間像およびAR画像71〜82を保存する機能を有する。制御装置40が保存する場合は、記憶部43に格納されている再生プログラム43eに基づき、拡張現実装置60から逐次受信するカメラ61の画像データと、逐次作成されるAR画像データとが、記憶部43に少なくとも一時的に保存される。拡張現実装置60が保存する場合は、拡張現実装置60の記憶部に格納されている再生プログラムに基づき、カメラ61の画像データと、制御装置40から逐次受信するAR画像データとが、拡張現実装置60の記憶部に少なくとも一時的に保存される。他の装置、コンピュータ端末等において同様の保存が行われてもよい。
なお、制御装置40、拡張現実装置60等が、保存されている現実空間像データおよびAR画像データを他の表示装置に送信することも可能である。
拡張現実装置60は、選択されたAR画像のみを表示装置62に表示する機能を有する。例えば、拡張現実装置60の入力部への操作に応じて、表示装置62にAR画像71〜82のうち選択されたAR画像71だけが表示される。図4において、複数のロボット30のうち一方のロボット30に関するAR画像だけを表示装置62に表示させることも可能である。
選択されたAR画像のみを制御装置40が表示装置62に送信する場合でも、前述と同様の効果が達成される。
この場合も、オペレータは必要に応じてAR画像を表示させる範囲を切り換えることができ、これは設定、現象把握、現象の原因究明等に関する作業時間の短縮のために有利である。
なお、表示装置62がタッチスクリーン機能を有する場合、前記の選択された範囲は、表示装置62に接触させる指、ペン等を中心とする所定範囲、指、ペン等で囲った範囲等であり得る。
また、ロボット30が対象Oに対する作業を適切に行えなかった時に、制御装置40又は拡張現実装置60が当該センシングシステムにおいてイベントが発生したと判定し、拡張現実装置60又は制御装置40がイベント発生位置の周辺である所定範囲のAR画像のみを表示装置62又は制御装置表示部42に表示させることも可能である。
拡張現実装置60は、選択されたAR画像に関する実行履歴を表示装置62に表示する機能を有する。例えば、拡張現実装置60の入力部への操作に応じて、複数のAR画像73,80のうち選択された1つのAR画像73又はAR画像80に対応する対象Oの、検出装置20による撮像画像が、実行履歴として表示装置62に表示されてもよい。実行履歴の表示場所は、表示装置62においてAR画像73,80と重ならない場所であることが好ましい。
なお、検出装置20による撮像および制御部41による検出処理が行われると、対象Oであり得る複数の候補が制御部41によって認識される。制御部41は、候補のそれぞれに対応する実行履歴を記憶部43に保存することができる。
実行履歴は、センシングシステムの実行により得られた結果であればよく、測定結果、検出結果、撮像結果等であり得る。
また、拡張現実装置60、制御装置40等が、所定の入力装置を用いた入力に応じて、表示装置62に表示されている各AR画像71〜82の選択処理と、選択されたAR画像の移動処理とを行ってもよい。
例えば、拡張現実装置60が、その記憶部63に格納されているAR画像操作プログラム63aに基づき、所定の入力装置を用いた入力に応じて各AR画像71〜82のうち1つ又は複数を選択状態とし、選択されたAR画像の位置および姿勢を所定の入力装置を用いた入力に応じて表示装置62内で変更する。拡張現実装置60が、表示されているパラメータの設定変更を行ってもよい。
また、拡張現実装置60は、入力装置への入力に基づき、AR画像71〜82の移動情報および/又はパラメータの変更情報を制御装置40に送信し、制御装置40の制御部41は、記憶部43に格納されている設定調整プログラム43fに基づき、制御装置40において設定されている各種パラメータ又は計算されている各種パラメータを、受信する移動情報に応じて変更する。
なお記録されたAR画像に対して、各移動情報に応じて、各データを変更してもよい。
なお、AR画像が移動される度に拡張現実装置60が移動情報を制御装置40に送信してもよいが、入力装置の入力に基づき移動情報が送信される構成の方が、制御装置40の処理量の低減、設定ミスの低減等のために有利である。
また、表示装置62がタッチスクリーン機能、オペレータの視線を検出する視線検出機能等を有する場合、ポインティングデバイス、視線方向等によって複数のロボット30のうち1つ又は複数が指定され、指定されたロボット30の制御装置40が認識しているAR画像が表示されるように構成されてもよい。
ロボット30が対象Oに加工、組立、検査、観察等の他の作業を行う作業システムに前述と同様の構成を適用することも可能である。対象Oは何等かの移動手段によって搬送できるものであればよく、移動手段としてロボット30とは異なるロボット等を用いることも可能である。対象Oが車の車体又はフレームである場合に、当該車体又はフレームがそこに搭載されたエンジン、モータ、車輪等によって移動する場合、エンジン、モータ、車輪等が移動手段として機能する。
または、制御装置40がリアルタイムでAR画像71〜82を作成、記録するものであり、表示装置62が、所定の入力部への入力もしくは制御装置40またはセンサにおける所定の条件の成立に応じて、その時点のもしくは直近の複数のAR画像71〜82のうち選択されたものを表示してもよい。
当該構成では、オペレータは入力部への入力や制御装置40やセンサへの条件設定を用いて表示するAR画像を選ぶことができる。このため、任意の時点や事象(イベント)発生時の制御装置40の処理、設定等をオペレータがより容易に認識することが可能になり、システムの作動の成功又は失敗の原因究明の容易化、システムの稼働率向上を図るためにも極めて有用である。
また、表示装置62による表示の代わりに、又は、表示装置62による表示と共に、現実空間の装置、例えば搬送装置10、検出装置20、ロボット30、および空間の少なくとも1つにAR画像を投影するプロジェクター(投影装置)を用いることも可能である。この場合でも、AR画像が現実空間に表示されるので、前述と同様の作用効果が達成され得る。
投影装置として、三次元のAR画像を現実空間に投影することも可能である。例えば作業領域に投影機でAR画像を投影することで、作業領域内の情報を表示することが可能である。
透光性板又は透光性フィルムの拡張現実画像と生の現実空間との位置決めに関しては、例えば人の立ち位置等を別センサで検知しておき人の向きに合わせたAR画像を用意して表示するという方法を取り得る。
なお、拡張現実作成部は必ずしも制御装置内になくても良い。
11 モータ
12 作動位置検出装置
20 検出装置
30 ロボット
30a アーム
31 サーボモータ
40 制御装置
41 制御部
42 制御装置表示部
43 記憶部
43a システムプログラム
43b 動作プログラム
43c 物品検出プログラム
43d AR画像作成プログラム
43e 再生プログラム
50 ツール
51 サーボモータ
60 拡張現実装置
61 カメラ
62 表示装置
63 記憶部
63a AR画像操作プログラム
71〜82 AR画像
O 対象
Claims (15)
- 複数の対象の検出に用いられる検出装置と、
前記検出装置によって得られたデータに所定の処理を行うことによって前記複数の対象を検出する対象検出手段と、を備えるセンシングシステムであって、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち所定のパラメータが検出閾値以上である対象の前記対象検出手段によって検出された形状をあらわす拡張現実画像を作成し、前記複数の対象のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である対象の前記対象検出手段によって検出された形状をあらわす候補拡張現実画像を作成する拡張現実画像作成手段と、
前記拡張現実画像および前記候補拡張現実画像を前記検出装置によって得られる前記複数の対象の現実の画像と共に表示又は投影する表示装置又は投影装置と、を備えるセンシングシステム。 - 複数の対象の検出に用いられる検出装置と、
前記検出装置によって得られたデータに所定の処理を行うことによって前記複数の対象を検出する対象検出手段と、を備えるセンシングシステムであって、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つのパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成手段と、
前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示装置又は投影装置と、を備えるセンシングシステム。 - 前記候補拡張現実画像が前記拡張現実画像と区別可能な態様で作成される、請求項1又は2に記載のセンシングシステム。
- 前記拡張現実画像作成手段が、前記候補拡張現実画像に付随する検出結果の拡張現実画像を作成し、
前記表示装置又は前記投影装置によって、前記候補拡張現実画像と共に前記検出結果の拡張現実画像が表示又は投影される、請求項1〜3の何れかに記載のセンシングシステム。 - 前記表示装置又は前記投影装置が、所定の入力部への入力に応じて、前記複数の拡張現実画像のうち選択された前記拡張現実画像および/又は前記候補拡張現実画像を表示又は投影するものである、請求項1〜4の何れかに記載のセンシングシステム。
- 前記表示装置又は前記投影装置が、所定のイベントが発生した際に、前記複数の拡張現実画像のうち前記所定のイベントの発生時点の周辺の前記拡張現実画像および/又は前記候補拡張現実画像を表示又は投影するものである、請求項1〜4の何れかに記載のセンシングシステム。
- 対象の検出に用いられる検出装置と、
前記検出装置によって得られたデータに所定の処理を行うことによって前記対象を検出する対象検出手段と、を備えるセンシングシステムであって、
前記所定の処理が行われた処理後データ内にあらわれる複数の候補のうち所定のパラメータが検出閾値以上である候補に対応する拡張現実画像を作成し、前記複数の候補のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である候補に対応する候補拡張現実画像を作成する拡張現実画像作成手段と、
前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示装置又は投影装置と、を備え、
所定の入力装置を用いた入力に応じて、前記表示装置に表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像の少なくとも1つを選択する選択処理と、前記所定の入力装置を用いた入力に応じて選択された、前記表示装置によって表示されている前記拡張現実画像又は前記投影装置によって投影されている前記拡張現実画像を移動する移動処理および表示されているパラメータの設定変更、を行う拡張現実画像操作手段と、
選択された前記拡張現実画像の移動情報又は変更情報に応じて、作業機械を制御する制御装置において設定されているパラメータ又は計算されているパラメータを変更する設定調整手段と、を備えるセンシングシステム。 - 前記投影装置が、前記拡張現実画像を現実空間に投影するものであり、前記表示装置が、前記拡張現実画像および前記候補拡張現実画像を、現実空間像又は現実空間と共に見えるように表示するものである、請求項1〜7の何れかに記載のセンシングシステム。
- 作成された前記拡張現実画像および/又は前記候補拡張現実画像を、対応する現実空間像と共に記憶する記憶部を備える、請求項1〜8の何れかに記載のセンシングシステム。
- 前記記憶部に記憶されている前記拡張現実画像および/又は前記候補拡張現実画像を再生する、もしくは前記現実空間像と共に再生する再生手段を備える、請求項9に記載のセンシングシステム。
- 請求項7に記載のセンシングシステムと前記作業機械とを備える作業システム。
- 検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられる拡張現実画像の表示方法であって、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち所定のパラメータが検出閾値以上である対象の前記対象検出手段によって検出された形状をあらわす拡張現実画像を作成し、前記複数の対象のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である対象の前記対象検出手段によって検出された形状をあらわす候補拡張現実画像を作成する拡張現実画像作成ステップと、
前記拡張現実画像および前記候補拡張現実画像を前記検出装置によって得られる前記複数の対象の現実の画像と共に表示又は投影する表示ステップと、を有する拡張現実画像の表示方法。 - 検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられる拡張現実画像の表示方法であって、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成ステップと、
前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示ステップと、を有する拡張現実画像の表示方法。 - 検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられるプログラムであって、
コンピュータに、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち所定のパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記所定のパラメータが前記検出閾値未満且つ検出候補閾値以上である対象の前記対象検出手段によって検出された形状をあらわす候補拡張現実画像を作成する拡張現実画像作成処理と、
前記拡張現実画像および前記候補拡張現実画像を前記検出装置によって得られる前記複数の対象の現実の画像と共に表示又は投影する表示処理と、を実行させるプログラム。 - 検出装置によって得られたデータに所定の処理を行うことによって複数の対象を検出する対象検出手段を備えるシステムに用いられるプログラムであって、
コンピュータに、
前記所定の処理が行われた処理後データ内にあらわれる前記複数の対象のうち前記対象検出手段によって検出された姿勢、検出されたコントラスト、および検出された存在高さの少なくとも一つパラメータが検出閾値以上である対象に対応する拡張現実画像を作成し、前記複数の対象のうち前記パラメータが前記検出閾値未満且つ検出候補閾値以上である対象に対応する候補拡張現実画像を作成する拡張現実画像作成処理と、
前記拡張現実画像および前記候補拡張現実画像を表示又は投影する表示処理と、を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163819A JP6856590B2 (ja) | 2018-08-31 | 2018-08-31 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
US16/540,289 US11049287B2 (en) | 2018-08-31 | 2019-08-14 | Sensing system, work system, augmented-reality-image displaying method, and program |
DE102019122865.4A DE102019122865B4 (de) | 2018-08-31 | 2019-08-26 | Erfassungssystem, Arbeitssystem, Anzeigeverfahren für ein Erweiterte-Realität-Bild und Programm |
CN201910790877.8A CN110871441B (zh) | 2018-08-31 | 2019-08-26 | 感测系统、作业系统、增强现实图像的显示方法、以及存储有程序的存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163819A JP6856590B2 (ja) | 2018-08-31 | 2018-08-31 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020035396A JP2020035396A (ja) | 2020-03-05 |
JP6856590B2 true JP6856590B2 (ja) | 2021-04-07 |
Family
ID=69621672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163819A Active JP6856590B2 (ja) | 2018-08-31 | 2018-08-31 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11049287B2 (ja) |
JP (1) | JP6856590B2 (ja) |
CN (1) | CN110871441B (ja) |
DE (1) | DE102019122865B4 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6795471B2 (ja) * | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
JP7069747B2 (ja) | 2018-01-26 | 2022-05-18 | セイコーエプソン株式会社 | ロボット制御装置及びロボットシステム |
JP7467041B2 (ja) * | 2018-09-27 | 2024-04-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
US11475661B2 (en) * | 2020-02-10 | 2022-10-18 | Fujifilm Business Innovation Corp. | Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens |
US11557065B2 (en) | 2020-02-10 | 2023-01-17 | Fujifilm Business Innovation Corp. | Automatic segmentation for screen-based tutorials using AR image anchors |
CN112975955B (zh) * | 2021-02-03 | 2024-02-02 | 浙江明泉工业涂装有限公司 | 一种涂装生产线机器人视觉集成系统 |
WO2022261333A1 (en) * | 2021-06-11 | 2022-12-15 | Cargill, Incorporated | Inspection and handling sytems and methods |
CN115139314A (zh) * | 2022-07-26 | 2022-10-04 | 北京航空航天大学 | 一种基于增强现实及视觉辅助的人机协作钻铆系统和方法 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002192486A (ja) | 2000-12-25 | 2002-07-10 | Seiko Epson Corp | ロボット制御方法及び該方法を適用したロボットコントローラ |
DE10305384A1 (de) | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
JP2005111607A (ja) | 2003-10-07 | 2005-04-28 | Fanuc Ltd | ロボット物流トラッキング装置 |
DE102005011126A1 (de) | 2005-03-10 | 2006-09-14 | Siemens Ag | Generierung virtueller Welten auf Basis einer realen Umgebung |
DE102005045855A1 (de) | 2005-09-26 | 2007-03-29 | Siemens Ag | Verfahren und Vorrichtung zur Erleichterung der Einstellung von Systemen, bei welchen Objekten bewegt werden |
JP2008296330A (ja) | 2007-05-31 | 2008-12-11 | Fanuc Ltd | ロボットシミュレーション装置 |
JP2011227748A (ja) * | 2010-04-21 | 2011-11-10 | Seiko Epson Corp | 画像処理装置、画像処理方法、画像処理プログラム、及び欠陥検出装置 |
JP5459269B2 (ja) | 2011-06-20 | 2014-04-02 | 株式会社安川電機 | ピッキングシステム |
US8606400B2 (en) | 2011-06-20 | 2013-12-10 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP5892360B2 (ja) | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
US20140081459A1 (en) | 2012-09-20 | 2014-03-20 | Marc Dubois | Depth mapping vision system with 2d optical pattern for robotic applications |
WO2014101955A1 (en) | 2012-12-28 | 2014-07-03 | Metaio Gmbh | Method of and system for projecting digital information on a real object in a real environment |
JP5596844B2 (ja) | 2013-10-30 | 2014-09-24 | オリンパス株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
JP5884811B2 (ja) * | 2013-11-18 | 2016-03-15 | コニカミノルタ株式会社 | Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム |
JP5824173B1 (ja) | 2014-02-28 | 2015-11-25 | ファナック株式会社 | ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム |
US9632313B1 (en) | 2014-03-27 | 2017-04-25 | Amazon Technologies, Inc. | Augmented reality user interface facilitating fulfillment |
JP2016107379A (ja) | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
WO2017033561A1 (ja) * | 2015-08-21 | 2017-03-02 | 新日鉄住金ソリューションズ株式会社 | 表示システム、表示装置、表示方法及びプログラム |
US10311617B2 (en) * | 2015-08-25 | 2019-06-04 | Ns Solutions Corporation | Operation support device, operation support method, and non-transitory computer readable recording medium |
JP6645142B2 (ja) | 2015-11-30 | 2020-02-12 | 株式会社デンソーウェーブ | ロボット安全システム |
JP6589604B2 (ja) | 2015-12-01 | 2019-10-16 | 株式会社デンソーウェーブ | ティーチング結果表示システム |
JP6420229B2 (ja) | 2015-12-10 | 2018-11-07 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
US10950039B2 (en) | 2016-06-16 | 2021-03-16 | Sony Interactive Entertainment Inc. | Image processing apparatus |
JP6834232B2 (ja) * | 2016-08-09 | 2021-02-24 | オムロン株式会社 | 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム |
JP6426672B2 (ja) | 2016-08-30 | 2018-11-21 | ファナック株式会社 | ワーク仕分けシステムおよび方法 |
JP2018034241A (ja) | 2016-08-31 | 2018-03-08 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
JP6801333B2 (ja) | 2016-09-27 | 2020-12-16 | 株式会社デンソーウェーブ | ロボット用の表示システム |
JP6741538B2 (ja) | 2016-09-28 | 2020-08-19 | 川崎重工業株式会社 | ロボット、ロボットの制御装置、及び、ロボットの位置教示方法 |
JP6450727B2 (ja) | 2016-10-28 | 2019-01-09 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
JP6866646B2 (ja) | 2017-01-16 | 2021-04-28 | オムロン株式会社 | センサ支援システム、端末、センサおよびセンサ支援方法 |
US10140773B2 (en) * | 2017-02-01 | 2018-11-27 | Accenture Global Solutions Limited | Rendering virtual objects in 3D environments |
JP6795471B2 (ja) | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
JP6937995B2 (ja) * | 2018-04-05 | 2021-09-22 | オムロン株式会社 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
-
2018
- 2018-08-31 JP JP2018163819A patent/JP6856590B2/ja active Active
-
2019
- 2019-08-14 US US16/540,289 patent/US11049287B2/en active Active
- 2019-08-26 DE DE102019122865.4A patent/DE102019122865B4/de active Active
- 2019-08-26 CN CN201910790877.8A patent/CN110871441B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020035396A (ja) | 2020-03-05 |
CN110871441B (zh) | 2024-08-13 |
DE102019122865B4 (de) | 2023-01-12 |
CN110871441A (zh) | 2020-03-10 |
US11049287B2 (en) | 2021-06-29 |
DE102019122865A1 (de) | 2020-03-12 |
US20200074692A1 (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6856583B2 (ja) | センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム | |
JP6856590B2 (ja) | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム | |
US11345042B2 (en) | Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
JP7490349B2 (ja) | 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体 | |
CN110394780B (zh) | 机器人的仿真装置 | |
US10857673B2 (en) | Device, method, program and recording medium, for simulation of article arraying operation performed by robot | |
JP6540472B2 (ja) | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム | |
US9529945B2 (en) | Robot simulation system which simulates takeout process of workpieces | |
US20160158937A1 (en) | Robot system having augmented reality-compatible display | |
JP2005106825A (ja) | 受像装置の位置および方向づけの決定方法および装置 | |
US11534912B2 (en) | Vibration display device, operation program creating device, and system | |
JP6902369B2 (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
JP7359633B2 (ja) | ロボットシステム | |
CN114405866B (zh) | 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统 | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
EP3744461B1 (en) | Weld operation measurement system | |
CN113597362B (zh) | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 | |
US20200016766A1 (en) | Robot | |
WO2023105637A1 (ja) | 産業機械の動作を検証するための装置、及び方法 | |
EP4194154A1 (en) | Robot programming system | |
JP2023156237A (ja) | 処理装置、処理システム、頭部装着ディスプレイ、処理方法、プログラム、及び記憶媒体 | |
WO2023238105A1 (en) | Virtual buttons for augmented reality light guided assembly system and calibration method | |
TW202419237A (zh) | 工件取出裝置、工件取出方法及控制裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200114 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200825 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |