JP7454739B1 - 制御方法、装置、デバイス、記憶媒体及びプログラム - Google Patents
制御方法、装置、デバイス、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP7454739B1 JP7454739B1 JP2023199587A JP2023199587A JP7454739B1 JP 7454739 B1 JP7454739 B1 JP 7454739B1 JP 2023199587 A JP2023199587 A JP 2023199587A JP 2023199587 A JP2023199587 A JP 2023199587A JP 7454739 B1 JP7454739 B1 JP 7454739B1
- Authority
- JP
- Japan
- Prior art keywords
- target
- center position
- mechanical gripper
- network layer
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 230000008569 process Effects 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 20
- 238000007499 fusion processing Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 description 8
- 238000004804 winding Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012858 packaging process Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/0095—Means or methods for testing manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Winding Filamentary Materials (AREA)
Abstract
Description
メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得することであって、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる、ことと、
前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出することと、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記メカニカルグリッパーの中心位置を較正することに用いられ、あるいは前記メカニカルグリッパーによって把持されるべき目標巻糸パッケージの中心位置を較正することに用いられる、ことと、を含む。
メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得するための取得ユニットであって、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる、取得ユニットと、
前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出するための検出ユニットと、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成するための処理ユニットであって、前記較正コマンドは前記メカニカルグリッパーの中心位置を較正することに用いられ、あるいは前記メカニカルグリッパーによって把持されるべき目標巻糸パッケージの中心位置を較正することに用いられる、処理ユニットと、を備える。
少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
該メモリには、該少なくとも1つのプロセッサで実行可能な命令が記憶され、該命令は、該少なくとも1つのプロセッサによって実行されると、本開示の実施例におけるいずれか1つの方法を実行させる。
第4態様では、本開示の実施例におけるいずれか1つの方法をコンピュータに実行させるためのコンピュータ命令を記憶した非一時的コンピュータ可読記憶媒体を提供する。
第5態様では、本開示はプログラムを提供し、該プログラムは、プロセッサにより実行されると、本開示の実施例におけるいずれか1つの方法を実現する。
巻糸パッケージの生産作業場において、ロボットはトロリーから巻糸パッケージを把持する時に、機械的摩耗等の要因により、測位が不正確であるという問題が発生し、さらにロボットのメカニカルグリッパーが把持する時に巻糸パッケージを損傷し、ひいては巻糸パッケージをうまく把持できないことがある。
具体的には、図1は本開示の一実施例による制御方法の概略フローチャートその一である。この方法は、任意選択で、パーソナルコンピューター、サーバ、サーバクラスタなどの電子デバイスに適用される。
ステップS101において、メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得する。
ここで、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる。
一例では、メカニカルグリッパーの動作時間長を判定し、メカニカルグリッパーの動作時間長が予め設定された動作時間長に達した場合、第1収集装置によって収集された第1目標画像及び第2収集装置によって収集された第2目標画像を取得する。
また、別の例において、前記メカニカルクランプジョーがトロリー上の巻糸パッケージを把持する把持回数を統計し、前記把持回数が予め設定された回数に達した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得する。
ステップS102-2において、前記第2目標画像を前記目標検出モデルに入力し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を得る。
さらに、前記第3ネットワーク層は第4サブネットワーク層及び第5サブネットワーク層を含み、前記第4サブネットワーク層は前記融合特徴マップに基づいて、画像におけるメカニカルグリッパーあるいは目標巻糸パッケージを識別して取得することに用いられ、前記第5サブネットワーク層は融合特徴マップに基づいて、画像におけるメカニカルグリッパーの中心位置あるいは画像における目標巻糸パッケージの中心位置を得ることに用いられ、例えば、前記第5サブネットワーク層は融合特徴マップ及び第4サブネットワーク層の出力結果に基づいて、画像におけるメカニカルグリッパーの中心位置あるいは画像における目標巻糸パッケージの中心位置を得ることに用いられる。
ステップS403において、前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出する。そして、ステップS404に進む。
ステップS407において、較正コマンドの実行が完了した後、第1制御コマンドを生成し、ステップS402に戻り、新たな第1目標画像及び新たな第2目標画像を改めて取得する。
さらに、該方法は、以下の少なくとも一部を含む。具体的には、図5に示すように、以下を含む。
ステップS502において、前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出する。
ここで、前記第1中心位置及び前記第2中心位置の検出は上記の例を参照することができ、ここでは説明を省略する。
ステップS503において、前記第1中心位置と前記第2中心位置とに基づいて、目標距離を推定して得、前記目標距離は同一の目標座標系における前記メカニカルグリッパー及び前記目標巻糸パッケージの中心位置間の相対距離を表す。
ステップS504において、前記目標距離が予め設定された閾値より大きいと判定した場合、較正コマンドを生成する。
さらに、1つの具体的な例において、以下の方法で目標距離を得ることができ、具体的には、以上に記載の前記第1中心位置と前記第2中心位置とに基づいて、目標距離を推定して得ること(即ち以上に記載のステップS503)は、具体的には以下を含む。
ステップS503-1において、前記第1中心位置に基づいて、前記メカニカルグリッパーの前記目標座標系における第1中心座標を推定して得る。
例えば、一例において、前記目標座標系が第1座標系である場合、前記第1中心位置に基づいて第1中心座標を直接得ることができ、例えば、前記第1中心位置が座標点である場合、第1中心位置を示す座標点を直接第1座標系における第1中心座標とすることができ、あるいは、前記第1中心位置が中心領域(例えば複数の座標点を含む中心領域)である場合、中心領域内の複数の座標点に基づいて、中心座標を得、得られた中心座標を直接第1座標系における第1中心座標とすることができる。
例えば、一例では、前記目標座標系が第1座標系である場合、第2中心位置、及び第1座標系と第2座標系との間の座標変換関係に基づいて、目標巻糸パッケージの第1座標系における第2中心座標を推定して得ることもでき、例えば、前記第2中心位置が座標点である場合、第1座標系と第2座標系との間の座標変換関係に基づいて、第2中心位置を示す座標点を第1座標系に変換して、第2中心座標を得ることができ、あるいは、前記第2中心位置が中心領域(例えば複数の座標点を含む中心領域)である場合、中心領域内の複数の座標点に基づいて、前記第2中心位置に対応する中心座標を得、得られた第2中心位置に対応する中心座標を第1座標系に変換して、第2中心座標を得ることができる。あるいは、前記第2中心位置が中心領域(例えば複数の座標点を含む中心領域)である場合、第1座標系と第2座標系との間の座標変換関係に基づいて、中心領域内の複数の座標点をそれぞれ第1座標系に変換して、第1座標系における複数の座標点を得、さらに第1座標系における複数の座標点に基づいて、第2中心座標を得る。
このように、本開示の解決策によれば、検出して得られた前記メカニカルグリッパーの中心位置と目標巻糸パッケージの中心位置とに基づいて、両者の目標位置関係を表すための目標距離を推定して得ることができ、さらに目標距離に基づいてメカニカルグリッパーの把持位置を較正することができ、このように、機械的摩耗による、測位・把持が不正確であるという問題に迅速に対応することができ、メカニカルグリッパーの把持精度を効果的に向上させ、後続のメカニカルグリッパーが巻糸パッケージを把持する把持効率を向上させるための基礎を築き、また、後続の巻糸パッケージを把持する時の損傷を回避し、巻糸パッケージをうまく把持できないことを回避するための基礎を築く。
あるいは、
方式2において、前記目標距離が前記第1レベル臨界値より大きく、且つ前記目標距離が前記第2レベル臨界値より大きいと判定した場合、較正コマンドを生成し、この時、前記較正コマンドは前記目標距離に基づいて前記目標巻糸パッケージが所在するトロリーの位置を調整するように指示することに用いられる。
ここで、前記第1レベル臨界値は前記第2レベル臨界値より小さく、且つ前記第1レベル臨界値及び第2レベル臨界値はいずれも経験値であり、実際のニーズに応じて設定することができ、本開示の解決策はこれを限定しない。
ステップS601において、メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得する。
ここで、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる。
ステップS602において、前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出する。
ステップS603において、前記第1中心位置と前記第2中心位置とに基づいて、目標距離を推定して得、前記目標距離は同一の目標座標系における前記メカニカルグリッパー及び前記目標巻糸パッケージの中心位置間の相対距離を表す。
ステップS605において、メカニカルグリッパーの特徴情報を改めて判定し、ステップS601に戻る。
ステップS607において、前記目標距離が第1レベル臨界値より大きく、且つ前記目標距離が第2レベル臨界値以下であると判定した場合、較正コマンドを生成し、前記較正コマンドは前記目標距離に基づいて前記メカニカルグリッパーの制御パラメータを調整するように指示することに用いられる。
ステップS608において、前記目標距離が前記第1レベル臨界値より大きく、且つ前記目標距離が前記第2レベル臨界値より大きいと判定した場合、較正コマンドを生成し、前記較正コマンドは前記目標距離に基づいて前記目標巻糸パッケージが所在するトロリーの位置を調整するように指示することに用いられる。
以上のように、本開示の解決策が提供する制御方法は、従来技術に対して、以下の複数の利点を有し、具体的には以下を含む。
メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得するための取得ユニットであって、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる、取得ユニット701と、
前記第1目標画像における前記メカニカルグリッパーの第1中心位置を検出し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を検出するための検出ユニット702と、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成するための処理ユニットであって、前記較正コマンドは前記メカニカルグリッパーの中心位置を較正することに用いられ、あるいは前記メカニカルグリッパーによって把持されるべき目標巻糸パッケージの中心位置を較正することに用いられる、処理ユニット703と、を備える。
前記第1目標画像を目標検出モデルに入力し、前記第1目標画像における前記メカニカルグリッパーの第1中心位置を得ることと、
前記第2目標画像を前記目標検出モデルに入力し、前記第2目標画像における前記目標巻糸パッケージの第2中心位置を得ることと、に用いられる。
本開示の解決策の1つの具体的な例において、前記目標検出モデルは少なくとも第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
ここで、前記第1ネットワーク層は少なくとも第1サブネットワーク層、第2サブネットワーク層及び第3サブネットワーク層を含み、前記第1サブネットワーク層は入力された画像に対して第1畳み込み処理を行い、第1畳み込み特徴マップを得ることに用いられ、前記第2サブネットワーク層は前記第1畳み込み特徴マップに対して線形処理を行い、線形特徴マップを得、前記線形特徴マップと前記第1畳み込み特徴マップとを接続処理し、接続特徴マップを得ることに用いられ、前記第3サブネットワーク層は前記接続特徴マップに対して第2畳み込み処理を行い、第2畳み込み特徴マップを得ることに用いられ、
前記第2ネットワーク層は、前記接続特徴マップ及び第2畳み込み特徴マップに対してそれぞれ第1畳み込み処理を行い、処理後の結果に対して特徴融合処理を行い、融合特徴マップを得ることに用いられ、
前記第3ネットワーク層は第4サブネットワーク層及び第5サブネットワーク層を含み、前記第4サブネットワーク層は前記融合特徴マップに基づいて、画像におけるメカニカルグリッパーあるいは目標巻糸パッケージを識別して得ることに用いられ、前記第5サブネットワークは融合特徴マップに基づいて、画像におけるメカニカルグリッパーの中心位置あるいは画像における目標巻糸パッケージの中心位置を得ることに用いられる。
前記第1中心位置と第2中心位置とに基づいて、目標距離を推定して得ることであって、前記目標距離は同一の目標座標系における前記メカニカルグリッパー及び前記目標巻糸パッケージの中心位置間の相対距離を表し、前記第1中心位置は前記第1目標画像に対応する第1座標系における位置情報であり、前記第2中心位置は前記第2目標画像に対応する第2座標系における位置情報であり、前記目標座標系は第1座標系、第2座標系、グローバル座標系のうちの1つである、ことと、
前記目標距離が予め設定された閾値より大きいと判定した場合、較正コマンドを生成することと、にさらに用いられる。
本開示の解決策の1つの具体的な例において、前記処理ユニットは具体的に、
前記第1中心位置に基づいて、前記メカニカルグリッパーの前記目標座標系における第1中心座標を推定して得ることと、
前記第2中心位置に基づいて、前記目標巻糸パッケージの前記目標座標系における第2中心座標を推定して得ることと、
前記メカニカルグリッパーの前記目標座標系における第1中心座標と、前記目標巻糸パッケージの前記目標座標系における第2中心座標とに基づいて、目標距離を得ることと、に用いられる。
前記目標距離が第1レベル臨界値より大きく、且つ前記目標距離が第2レベル臨界値以下であると判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記メカニカルグリッパーの制御パラメータを調整するように指示することに用いられる、こと、
あるいは
前記目標距離が前記第1レベル臨界値より大きく、且つ前記目標距離が前記第2レベル臨界値より大きいと判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記目標巻糸パッケージが所在するトロリーの位置を調整するように指示することに用いられる、こと、に用いられる。
本開示の解決策の1つの具体的な例において、
前記処理ユニットは、較正コマンドの実行が完了した後、第1制御コマンドを生成することにさらに用いられ、前記第1制御コマンドは、前記第1収集装置に新たな第1目標画像を収集するように指示し、前記第2収集装置に新たな第2目標画像を収集するように指示することにさらに用いられ、
前記取得ユニットは、前記第1収集装置によって収集された新たな第1目標画像を取得し、第2収集装置によって収集された新たな第2目標画像を取得することにさらに用いられ、
前記検出ユニットは、新たな第1目標画像におけるメカニカルグリッパーの第1中心位置、及び新たな第2目標画像における目標巻糸パッケージの第2中心位置を検出することにさらに用いられ、
前記処理ユニットは、新たな第1目標画像における第1中心位置と新たな第2目標画像における第2中心位置との間の目標位置関係が第2プリセット要件を満たすか否かを判定することにさらに用いられる。
本開示の実施例における装置の各モジュール、サブモジュールの具体的な機能及び例示的な説明は、上記方法の実施例における対応するステップの関連説明を参照することができ、ここでは繰り返し述べない。
本開示の技術的解決策では、ユーザの個人情報の取得、記憶、及びアプリケーションは、関連する法律及び規則の規定に準拠し、公序良俗に違反しない。
メモリ810、プロセッサ820、及び通信インターフェース830が独立して実装される場合、メモリ810、プロセッサ820、及び通信インターフェース830は、バスを介して互いに接続され、相互間の通信を行うことができる。該バスは、ISA(InduStry Standard Architecture)バス、PCI(Peripheral Component Interconnect)バス、またはEISA(Extended InduStry Standard Architecture)バスなどであり得る。該バスは、アドレスバス、データバス、制御バスなどに分類することができる。説明を容易にするために、図8に一本の太線のみで示すが、一本のバス又は一種類のバスのみを示すものではない。
さらに、選択的に、上記メモリは読み出し専用メモリ及びランダムアクセスメモリを含んでもよく、さらに不揮発性ランダムアクセスメモリを含んでもよい。該メモリは、揮発性メモリまたは不揮発性メモリのいずれかであり得るか、あるいは揮発性メモリと不揮発性メモリの両方を含み得る。ここで、不揮発性メモリは、ROM(Read-Only Memory)、PROM(Programmable ROM)、EPROM(ErasablePROM)、EEPROM(Electrically EPROM)、またはフラッシュメモリを含むことができる。揮発性メモリは、外部キャッシュとして機能するランダムアクセスメモリ(RAM)を含むことができる。限定ではなく例として、多くの形態のRAMが利用可能である。例えば、スタティックランダムアクセスメモリ(Static RAM、SRAM)、ダイナミックランダムアクセスメモリ(Dynamic Random Access Memory、DRAM)、シンクロナスDRAM(Synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(Double Data Date SDRAM、DDR SDRAM)、エンハンストSDRAM(Enhanced SDRAM、ESDRAM)、シンクリンクDRAM(Synchlink DRAM、SLDRAM)及びダイレクトRAMBUS RAM(Direct RAMBUS RAM、DR RAM)である。
本開示の実施例の説明において、参照用語"1つの実施例"、"いくつかの実施例"、"例"、"具体的な例"、又は"いくつかの例"等の説明は該実施例又は例に関連して説明された具体的な特徴、構造、材料又は特徴が本開示の少なくとも1つの実施例又は例に含まれることを意味する。且つ、説明された具体的な特徴、構造、材料又は特徴はいずれか1つ又は複数の実施例又は例において適切な方式で組み合わせることができる。さらに、当業者は、本明細書に記載された異なる実施形態または例及び異なる実施形態または例の特徴を、互いに矛盾しない範囲で組み合わせてもよい。
Claims (13)
- メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得することであって、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる、ことと、
前記第1目標画像を目標検出モデルに入力して、前記第1目標画像における前記メカニカルグリッパーの前記目標巻糸パッケージに対する把持位置を、前記第1目標画像における前記メカニカルグリッパーの第1中心位置として検出し、前記第2目標画像を前記目標検出モデルに入力して前記第2目標画像における円形の前記目標巻糸パッケージの第2中心位置を検出することと、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記メカニカルグリッパーの中心位置を較正することに用いられ、あるいは前記メカニカルグリッパーによって把持されるべき目標巻糸パッケージの中心位置を較正することに用いられる、ことと、を含み、
前記目標検出モデルは、少なくとも第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
ここで、前記第1ネットワーク層は、少なくとも第1サブネットワーク層、第2サブネットワーク層及び第3サブネットワーク層を含み、前記第1サブネットワーク層は、入力された画像に対して第1畳み込み処理を行い、第1畳み込み特徴マップを得ることに用いられ、前記第2サブネットワーク層は、前記第1畳み込み特徴マップに対して線形処理を行い、線形特徴マップを得、前記線形特徴マップと前記第1畳み込み特徴マップとを接続処理し、接続特徴マップを得ることに用いられ、前記第3サブネットワーク層は、前記接続特徴マップに対して第2畳み込み処理を行い、第2畳み込み特徴マップを得ることに用いられ、
前記第2ネットワーク層は、前記接続特徴マップ及び第2畳み込み特徴マップに対してそれぞれ第1畳み込み処理を行い、処理後の結果に対して特徴融合処理を行い、融合特徴マップを得ることに用いられ、
前記第3ネットワーク層は、第4サブネットワーク層及び第5サブネットワーク層を含み、前記第4サブネットワーク層は、前記融合特徴マップに基づいて、画像におけるメカニカルグリッパーあるいは目標巻糸パッケージを識別して得ることに用いられ、前記第5サブネットワーク層は、融合特徴マップに基づいて、画像におけるメカニカルグリッパーの目標巻糸パッケージに対する把持位置をメカニカルグリッパーの中心位置として得ることあるいは画像における円形の目標巻糸パッケージの中心位置を得ることに用いられる、制御方法。 - 前記制御方法は、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定する前に、
前記第1中心位置と第2中心位置とに基づいて、目標距離を推定して得ることであって、前記目標距離は同一の目標座標系における前記メカニカルグリッパー及び前記目標巻糸パッケージの中心位置間の相対距離を表し、前記第1中心位置は前記第1目標画像に対応する第1座標系における位置情報であり、前記第2中心位置は前記第2目標画像に対応する第2座標系における位置情報であり、前記目標座標系は第1座標系、第2座標系、グローバル座標系のうちの1つである、ことをさらに含み、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成することは、
前記目標距離が予め設定された閾値より大きいと判定した場合、較正コマンドを生成することを含む、請求項1に記載の制御方法。 - 前記第1中心位置と第2中心位置とに基づいて、目標距離を推定して得ることは、
前記第1中心位置に基づいて、前記メカニカルグリッパーの前記目標座標系における第1中心座標を推定して得ることと、
前記第2中心位置に基づいて、前記目標巻糸パッケージの前記目標座標系における第2中心座標を推定して得ることと、
前記メカニカルグリッパーの前記目標座標系における第1中心座標と、前記目標巻糸パッケージの前記目標座標系における第2中心座標とに基づいて、目標距離を得ることと、を含む、
請求項2に記載の制御方法。 - 前記目標距離が予め設定された閾値より大きいと判定した場合、較正コマンドを生成することは、
前記目標距離が第1レベル臨界値より大きく、且つ前記目標距離が第2レベル臨界値以下であると判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記メカニカルグリッパーの制御パラメータを調整するように指示することに用いられる、こと、
あるいは
前記目標距離が前記第1レベル臨界値より大きく、且つ前記目標距離が前記第2レベル臨界値より大きいと判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記目標巻糸パッケージが所在するトロリーの位置を調整するように指示することに用いられる、こと、を含む、
請求項2に記載の制御方法。 - 前記制御方法は、
較正コマンドを生成した後、
較正コマンドの実行が完了した後、第1制御コマンドを生成することであって、前記第1制御コマンドは、前記第1収集装置に新たな第1目標画像を収集するように指示し、前記第2収集装置に新たな第2目標画像を収集するように指示することに用いられる、ことと、
前記第1収集装置によって収集された新たな第1目標画像を取得し、第2収集装置によって収集された新たな第2目標画像を取得することと、
取得された新たな第1目標画像におけるメカニカルグリッパーの第1中心位置、及び取得された新たな第2目標画像における目標巻糸パッケージの第2中心位置を検出することと、
新たな第1目標画像における第1中心位置と新たな第2目標画像における第2中心位置との間の目標位置関係が第2プリセット要件を満たすか否かを判定することと、をさらに含む、
請求項1に記載の制御方法。 - メカニカルグリッパーの特徴情報が第1プリセット要件を満たすと判定した場合、第1収集装置によって収集された第1目標画像、及び第2収集装置によって収集された第2目標画像を取得するための取得ユニットであって、前記第1収集装置はメカニカルグリッパーに対して画像収集を行うことに用いられ、前記第2収集装置は前記メカニカルグリッパーによって把持されるべきトロリー上の目標巻糸パッケージに対して画像収集を行うことに用いられる、取得ユニットと、
前記第1目標画像を目標検出モデルに入力して、前記第1目標画像における前記メカニカルグリッパーの前記目標巻糸パッケージに対する把持位置を、前記第1目標画像における前記メカニカルグリッパーの第1中心位置として検出し、前記第2目標画像を前記目標検出モデルに入力して前記第2目標画像における円形の前記目標巻糸パッケージの第2中心位置を検出するための検出ユニットと、
前記第1中心位置と前記第2中心位置との間の目標位置関係が第2プリセット要件を満たさないと判定した場合、較正コマンドを生成するための処理ユニットであって、前記較正コマンドは前記メカニカルグリッパーの中心位置を較正することに用いられ、あるいは前記メカニカルグリッパーによって把持されるべき目標巻糸パッケージの中心位置を較正することに用いられる、処理ユニットと、を備え、
前記目標検出モデルは、少なくとも第1ネットワーク層、第2ネットワーク層及び第3ネットワーク層を含み、
ここで、前記第1ネットワーク層は、少なくとも第1サブネットワーク層、第2サブネットワーク層及び第3サブネットワーク層を含み、前記第1サブネットワーク層は、入力された画像に対して第1畳み込み処理を行い、第1畳み込み特徴マップを得ることに用いられ、前記第2サブネットワーク層は、前記第1畳み込み特徴マップに対して線形処理を行い、線形特徴マップを得、前記線形特徴マップと前記第1畳み込み特徴マップとを接続処理し、接続特徴マップを得ることに用いられ、前記第3サブネットワーク層は、前記接続特徴マップに対して第2畳み込み処理を行い、第2畳み込み特徴マップを得ることに用いられ、
前記第2ネットワーク層は、前記接続特徴マップ及び第2畳み込み特徴マップに対してそれぞれ第1畳み込み処理を行い、処理後の結果に対して特徴融合処理を行い、融合特徴マップを得ることに用いられ、
前記第3ネットワーク層は、第4サブネットワーク層及び第5サブネットワーク層を含み、前記第4サブネットワーク層は、前記融合特徴マップに基づいて、画像におけるメカニカルグリッパーあるいは目標巻糸パッケージを識別して得ることに用いられ、前記第5サブネットワーク層は、融合特徴マップに基づいて、画像におけるメカニカルグリッパーの目標巻糸パッケージに対する把持位置をメカニカルグリッパーの中心位置として得ることあるいは画像における円形の目標巻糸パッケージの中心位置を得ることに用いられる、制御装置。 - 前記処理ユニットは、
前記第1中心位置と第2中心位置とに基づいて、目標距離を推定して得ることであって、前記目標距離は同一の目標座標系における前記メカニカルグリッパー及び前記目標巻糸パッケージの中心位置間の相対距離を表し、前記第1中心位置は前記第1目標画像に対応する第1座標系における位置情報であり、前記第2中心位置は前記第2目標画像に対応する第2座標系における位置情報であり、前記目標座標系は第1座標系、第2座標系、グローバル座標系のうちの1つである、ことと、
前記目標距離が予め設定された閾値より大きいと判定した場合、較正コマンドを生成することと、にさらに用いられる、
請求項6に記載の制御装置。 - 前記処理ユニットは具体的に、
前記第1中心位置に基づいて、前記メカニカルグリッパーの前記目標座標系における第1中心座標を推定して得ることと、
前記第2中心位置に基づいて、前記目標巻糸パッケージの前記目標座標系における第2中心座標を推定して得ることと、
前記メカニカルグリッパーの前記目標座標系における第1中心座標と、前記目標巻糸パッケージの前記目標座標系における第2中心座標とに基づいて、目標距離を得ることと、に用いられる、
請求項7に記載の制御装置。 - 前記処理ユニットは具体的に、
前記目標距離が第1レベル臨界値より大きく、且つ前記目標距離が第2レベル臨界値以下であると判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記メカニカルグリッパーの制御パラメータを調整するように指示することに用いられる、こと、
あるいは
前記目標距離が前記第1レベル臨界値より大きく、且つ前記目標距離が前記第2レベル臨界値より大きいと判定した場合、較正コマンドを生成することであって、前記較正コマンドは前記目標距離に基づいて前記目標巻糸パッケージが所在するトロリーの位置を調整するように指示することに用いられる、こと、に用いられる、
請求項7に記載の制御装置。 - 前記処理ユニットは、較正コマンドの実行が完了した後、第1制御コマンドを生成することにさらに用いられ、前記第1制御コマンドは、前記第1収集装置に新たな第1目標画像を収集するように指示し、前記第2収集装置に新たな第2目標画像を収集するように指示することにさらに用いられ、
前記取得ユニットは、前記第1収集装置によって収集された新たな第1目標画像を取得し、第2収集装置によって収集された新たな第2目標画像を取得することにさらに用いられ、
前記検出ユニットは、新たな第1目標画像におけるメカニカルグリッパーの第1中心位置、及び新たな第2目標画像における目標巻糸パッケージの第2中心位置を検出することにさらに用いられ、
前記処理ユニットは、新たな第1目標画像における第1中心位置と新たな第2目標画像における第2中心位置との間の目標位置関係が第2プリセット要件を満たすか否かを判定することにさらに用いられる、
請求項6から請求項9のいずれか1項に記載の制御装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサで実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、請求項1から請求項5のいずれか1項に記載の制御方法を実行させる、電子デバイス。 - コンピュータに請求項1から請求項5のいずれか1項に記載の制御方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ可読記憶媒体。
- プロセッサにより実行されると、請求項1から請求項5のいずれか1項に記載の制御方法を実現するためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311052008.8A CN117067204A (zh) | 2023-08-18 | 2023-08-18 | 控制方法、装置、设备以及存储介质 |
CN202311052008.8 | 2023-08-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7454739B1 true JP7454739B1 (ja) | 2024-03-22 |
Family
ID=88413193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023199587A Active JP7454739B1 (ja) | 2023-08-18 | 2023-11-27 | 制御方法、装置、デバイス、記憶媒体及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11969903B1 (ja) |
JP (1) | JP7454739B1 (ja) |
CN (1) | CN117067204A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117388269B (zh) * | 2023-12-11 | 2024-05-03 | 菲特(天津)检测技术有限公司 | 丝锭外观缺陷检测设备和检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307345A (ja) | 2001-04-18 | 2002-10-23 | Mitsubishi Electric Corp | ロボット座標校正システム |
JP2009167586A (ja) | 2008-01-15 | 2009-07-30 | Mas Fab Rieter Ag | 精紡機に設けられたパッケージ交換装置 |
CN106182004A (zh) | 2016-08-01 | 2016-12-07 | 上海交通大学 | 基于视觉引导的工业机器人自动销孔装配的方法 |
JP2019093461A (ja) | 2017-11-20 | 2019-06-20 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
JP2021075395A (ja) | 2019-11-05 | 2021-05-20 | 株式会社Mujin | 壁に基づくパッキング機構を有するロボットシステム及びその動作方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2140046B (en) | 1983-05-20 | 1988-03-23 | Rieter Ag Maschf | Bobbin inserting device |
WO2019042913A1 (en) * | 2017-09-01 | 2019-03-07 | Nv Bekaert Sa | DEVICE FOR PREVENTING COILS |
CN111996627B (zh) * | 2020-09-04 | 2024-02-20 | 宜昌经纬纺机有限公司 | 用于捻线机的自动化上纱系统 |
EP4211066A1 (en) * | 2020-09-08 | 2023-07-19 | Modra Technology Pty Ltd | Yarn handling system |
LU502347B1 (de) * | 2022-06-23 | 2024-01-09 | Saurer Tech Gmbh & Co Kg | Vorlagefädenverbindungssystem |
-
2023
- 2023-08-18 CN CN202311052008.8A patent/CN117067204A/zh active Pending
- 2023-10-17 US US18/488,483 patent/US11969903B1/en active Active
- 2023-11-27 JP JP2023199587A patent/JP7454739B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307345A (ja) | 2001-04-18 | 2002-10-23 | Mitsubishi Electric Corp | ロボット座標校正システム |
JP2009167586A (ja) | 2008-01-15 | 2009-07-30 | Mas Fab Rieter Ag | 精紡機に設けられたパッケージ交換装置 |
CN106182004A (zh) | 2016-08-01 | 2016-12-07 | 上海交通大学 | 基于视觉引导的工业机器人自动销孔装配的方法 |
JP2019093461A (ja) | 2017-11-20 | 2019-06-20 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
JP2021075395A (ja) | 2019-11-05 | 2021-05-20 | 株式会社Mujin | 壁に基づくパッキング機構を有するロボットシステム及びその動作方法 |
Also Published As
Publication number | Publication date |
---|---|
US11969903B1 (en) | 2024-04-30 |
CN117067204A (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7454739B1 (ja) | 制御方法、装置、デバイス、記憶媒体及びプログラム | |
WO2022165973A1 (zh) | 三维扫描方法、系统、电子装置和计算机设备 | |
CN108942929B (zh) | 基于双目立体视觉的机械臂定位抓取的方法及装置 | |
WO2020173240A1 (zh) | 图像采集装置标定方法、装置、计算机设备和存储介质 | |
KR20180120647A (ko) | 가이드된 어셈블리 환경에서 머신비전 좌표공간과 함께 묶기 위한 시스템 및 방법 | |
US8942345B2 (en) | Method for obtaining a 3D image dataset of an object of interest | |
JPH07311610A (ja) | 視覚センサを用いた座標系設定方法 | |
WO2023134237A1 (zh) | 用于机器人的坐标系标定方法、装置、系统以及介质 | |
JP2017517763A5 (ja) | ||
WO2018209592A1 (zh) | 一种机器人的运动控制方法、机器人及控制器 | |
CN111223048B (zh) | 一种3d视觉点云数据拼接的方法及其系统 | |
JP2016078195A (ja) | ロボットシステム、ロボット、制御装置及びロボットの制御方法 | |
US11024057B2 (en) | Calibration system and method for panoramic photographing device parameter | |
WO2019123988A1 (ja) | 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム | |
CN110765223A (zh) | 地图更新处理方法、装置、设备及存储介质 | |
CN114119570A (zh) | 自动换型方法、装置、控制器以及存储介质 | |
CN108627178B (zh) | 机器人手眼标定方法和系统 | |
US11637948B2 (en) | Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium | |
JP2014060324A (ja) | 算出装置、搬送ロボットシステム、及び算出方法 | |
US20190101883A1 (en) | Control device, control method of control device, and recording medium | |
CN116943979A (zh) | 点胶轨迹生成方法、电子设备及存储介质 | |
JP6595065B1 (ja) | 加工装置、加工装置の制御方法および加工装置の制御プログラム | |
WO2023050577A1 (zh) | 一种涂胶方法、装置、设备及系统 | |
CN112184819A (zh) | 机器人的引导方法、装置、计算机设备和存储介质 | |
CN110839126B (zh) | 一种变倍追踪方法、装置及可变倍摄像机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231127 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7454739 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |