JP2023017437A - Image processing device and robot arrangement method - Google Patents

Image processing device and robot arrangement method Download PDF

Info

Publication number
JP2023017437A
JP2023017437A JP2021121720A JP2021121720A JP2023017437A JP 2023017437 A JP2023017437 A JP 2023017437A JP 2021121720 A JP2021121720 A JP 2021121720A JP 2021121720 A JP2021121720 A JP 2021121720A JP 2023017437 A JP2023017437 A JP 2023017437A
Authority
JP
Japan
Prior art keywords
robot
image
dimensional model
reference marker
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021121720A
Other languages
Japanese (ja)
Inventor
直樹 古川
Naoki Furukawa
雄太 鳴川
Yuta Narukawa
梓紗 檀上
Azusa Danjo
豊和 北野
Toyokazu Kitano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2021121720A priority Critical patent/JP2023017437A/en
Publication of JP2023017437A publication Critical patent/JP2023017437A/en
Pending legal-status Critical Current

Links

Images

Abstract

To solve the problem that it is difficult to grasp a situation of an arranged robot from information about a size or the like prescribed in a catalog.SOLUTION: An image processing device 3 comprises: a storage part 31 that stores a three-dimensional model of a virtual robot; a receiving part 32 that receives operation to the three-dimensional model of the virtual robot; a positional relation obtaining part 33 that obtains a relative positional relation between a reference marker existing in an actual environment and a display device 4 that displays an image while superimposing the image on an image of the actual environment or on the actual environment; an image generating part 34 that generates a display image for displaying the operated three-dimensional model so that the model is in a predetermined positional relation with the reference marker, on the basis of the relative positional relation with the three-dimensional model; and an output part 35 that outputs the display image to the display device 4. This enables the actual robot to be arranged after confirming a situation of the arranged actual robot, using the virtual robot.SELECTED DRAWING: Figure 1

Description

本発明は、仮想ロボットを表示するための画像処理装置、及び実ロボットを配置するためのロボット配置方法に関する。 The present invention relates to an image processing apparatus for displaying virtual robots and a robot placement method for placing real robots.

従来、新たなロボットを導入する際には、導入対象のロボットに関するサイズや到達可能範囲などの情報をカタログで確認して、導入対象のロボットの選定や配置位置の決定を行っていた。 Conventionally, when introducing a new robot, information such as the size and reachable range of the robot to be introduced was checked in a catalog, and the robot to be introduced was selected and the placement position was decided.

しかしながら、カタログの情報からは、ロボットの到達可能範囲や、ロボットが所望の姿勢をとることができるのかどうか、ロボットを配置する環境に存在する障害物を回避できるのかどうかなどを知ることが容易でないという問題があった。また、ロボットの選定時に、実際にロボットを配置することは困難であるという問題もある。さらに、ロボットを配置予定の空間を3次元データ化して、シミュレーション中で配置検討を行うこともできるが、その場合にはコストが大きいという問題もある。 However, from the information in the catalog, it is not easy to know the reachable range of the robot, whether the robot can take the desired posture, and whether it can avoid obstacles in the environment where the robot is placed. There was a problem. Another problem is that it is difficult to actually arrange the robots when selecting the robots. Furthermore, it is also possible to convert the space in which the robots are to be arranged into three-dimensional data and examine the arrangement during simulation.

本発明は、上記課題を解決するためになされたものであり、ロボットを配置した際の状況を、実ロボットの配置前に容易に確認するための画像処理装置、及び実ロボットを配置するためのロボット配置方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. It is an object of the present invention to provide a robot placement method.

上記目的を達成するため、本発明の一態様による画像処理装置は、仮想ロボットの3次元モデルが記憶される記憶部と、仮想ロボットの3次元モデルに対する操作を受け付ける受付部と、実環境に存在する基準マーカと、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得する位置関係取得部と、3次元モデルと相対的な位置関係とに基づいて、基準マーカと所定の位置関係となるように、操作された3次元モデルを表示するための表示画像を生成する画像生成部と、表示画像を表示装置に出力する出力部と、を備えたものである。 To achieve the above object, an image processing apparatus according to an aspect of the present invention includes a storage unit that stores a three-dimensional model of a virtual robot, a reception unit that receives operations on the three-dimensional model of the virtual robot, a positional relationship acquiring unit that acquires a relative positional relationship between a reference marker that is used as a reference marker and a display device that displays an image superimposed on an image of the real environment or the real environment itself; an image generation unit for generating a display image for displaying the manipulated three-dimensional model so as to have a predetermined positional relationship with the reference marker; and an output unit for outputting the display image to a display device. It is.

本発明の一態様による画像処理装置等によれば、ロボットを配置した際の状況、例えば、ロボットの到達可能範囲や、ロボットが所望の姿勢をとることができるのかどうか、ロボットが既存の障害物を回避できるかどうかなどについて、仮想ロボットを用いて事前に容易に確認することができる。そのため、その確認結果に応じて、例えば、設置場所に適したロボットを選定したり、実ロボットを適切な位置に配置したりすることができる。 According to the image processing apparatus and the like according to one aspect of the present invention, the situation when the robot is arranged, for example, the reachable range of the robot, whether the robot can take a desired posture, whether the robot can take an existing obstacle, It is possible to easily check in advance using a virtual robot whether or not it is possible to avoid Therefore, according to the confirmation result, for example, it is possible to select a robot suitable for the installation location or arrange the actual robot at an appropriate position.

本発明の実施の形態によるロボット制御システムの構成を示す模式図Schematic diagram showing the configuration of a robot control system according to an embodiment of the present invention. 同実施の形態による画像処理装置の動作を示すフローチャート3 is a flow chart showing the operation of the image processing apparatus according to the same embodiment; 同実施の形態によるロボット配置方法を示すフローチャート3 is a flow chart showing a robot placement method according to the same embodiment; 同実施の形態における配置された基準マーカの一例を示す図FIG. 11 is a diagram showing an example of reference markers arranged in the same embodiment; 同実施の形態における基準マーカと所定の位置関係となるように表示された仮想ロボットの一例を示す図A diagram showing an example of a virtual robot displayed so as to have a predetermined positional relationship with reference markers in the same embodiment. 同実施の形態における配置された実ロボットの一例を示す図A diagram showing an example of a real robot arranged in the same embodiment.

以下、本発明による画像処理装置、及びロボット配置方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による画像処理装置は、基準マーカと所定の位置関係となるように、仮想ロボットの3次元モデルを表示するものである。 An image processing apparatus and a robot arrangement method according to the present invention will be described below using embodiments. In the following embodiments, constituent elements and steps with the same reference numerals are the same or correspond to each other, and repetitive description may be omitted. The image processing apparatus according to this embodiment displays a three-dimensional model of a virtual robot so as to have a predetermined positional relationship with reference markers.

図1は、本実施の形態によるロボット制御システム100の構成を示すブロック図である。本実施の形態によるロボット制御システム100は、仮想ロボットを操作するためのものであり、画像処理装置3と、表示装置4と、基準マーカ6の表示されたシート6aとを備える。なお、画像処理装置3と表示装置4とは、例えば、有線または無線で接続されてもよい。 FIG. 1 is a block diagram showing the configuration of a robot control system 100 according to this embodiment. A robot control system 100 according to this embodiment is for operating a virtual robot, and includes an image processing device 3, a display device 4, and a sheet 6a on which reference markers 6 are displayed. Note that the image processing device 3 and the display device 4 may be connected by wire or wirelessly, for example.

操作対象の仮想ロボットは、仮想環境に存在する3次元モデルによって構成されるものであり、実ロボットに対応したものである。すなわち、仮想ロボットは、3次元モデルで構成されている以外は、実ロボットと同じであり、例えば、実ロボットと同じサイズ及び構成であってもよく、実ロボットと同様に、複数のアームの関節の角度などを変更可能になっていてもよい。 The virtual robot to be operated is configured by a three-dimensional model existing in a virtual environment and corresponds to a real robot. That is, the virtual robot is the same as the real robot, except that it is configured as a three-dimensional model. For example, it may have the same size and configuration as the real robot. , etc. may be changeable.

実ロボットは、通常、産業用ロボットであり、モータにより駆動される関節によって連結された複数のアーム(リンク)を有するマニピュレータであってもよい。実ロボットは、例えば、垂直多関節ロボットであってもよく、水平多関節ロボットであってもよい。また、実ロボットは、例えば、搬送ロボットであってもよく、溶接ロボットであってもよく、組立ロボットであってもよく、塗装ロボットであってもよく、または、その他の用途のロボットであってもよい。なお、実ロボットは、実環境に存在するロボットである。実環境とは、実空間の環境のことである。 Real robots are typically industrial robots and may be manipulators with multiple arms (links) connected by motor-driven joints. The real robot may be, for example, a vertical articulated robot or a horizontal articulated robot. Further, the actual robot may be, for example, a transport robot, a welding robot, an assembly robot, a painting robot, or a robot for other purposes. good too. A real robot is a robot that exists in a real environment. The real environment is the environment of the real space.

画像処理装置3は、基準マーカ6と所定の位置関係となるように、仮想ロボットの3次元モデルを表示するための表示画像を生成して表示装置4に出力するものである。画像処理装置3の詳細については後述する。 The image processing device 3 generates a display image for displaying a three-dimensional model of the virtual robot so as to have a predetermined positional relationship with the reference marker 6 and outputs the display image to the display device 4 . Details of the image processing device 3 will be described later.

表示装置4は、画像を実環境の画像または実環境そのものに重ねて表示する。すなわち、仮想ロボットを操作する作業者は、表示装置4によって、実環境と仮想環境の画像との両方を見ることができる。表示装置4は、仮想ロボットを操作する作業者が頭部に装着する装着型の表示装置であってもよく、または、タブレット端末などの可搬型の情報処理端末である表示装置であってもよい。装着型の表示装置は、例えば、ヘッドマウントディスプレイであってもよい。また、表示装置4は、例えば、透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境そのものに重ねて表示することになる。透過型ディスプレイを有する装着型の表示装置4としては、例えば、HoloLens(登録商標)等が知られている。このような透過型ディスプレイを有する表示装置4は、複合現実(MR:Mixed Reality)を実現するための表示装置であると考えることもできる。また、表示装置4は、例えば、非透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境の画像に重ねて表示することになる。したがって、非透過型ディスプレイを有する表示装置4は、実環境を撮影するためのカメラを有しているか、または、実環境を撮影するカメラと接続されていることが好適である。カメラで撮影された実環境の画像は、リアルタイムで非透過型ディスプレイに表示される。非透過型ディスプレイを有する装着型の表示装置4としては、例えば、Oculus Quest等が知られている。このような非透過型ディスプレイを有する表示装置4は、拡張現実(AR:Augmented Reality)を実現するための表示装置であると考えることもできる。タブレット端末などの可搬型の情報処理端末である表示装置4は、例えば、カメラとディスプレイとを有しており、カメラで撮影した実環境の画像をリアルタイムでティスプレイに表示してもよい。本実施の形態では、表示装置4が透過型のディスプレイを有するヘッドマウントディスプレイである場合について主に説明する。 The display device 4 displays the image superimposed on the image of the real environment or the real environment itself. In other words, the operator who operates the virtual robot can see both the images of the real environment and the virtual environment on the display device 4 . The display device 4 may be a wearable display device worn on the head by the operator who operates the virtual robot, or may be a display device that is a portable information processing terminal such as a tablet terminal. . The wearable display device may be, for example, a head-mounted display. Moreover, the display device 4 may have, for example, a transmissive display. In this case, the display device 4 displays the image superimposed on the actual environment itself. HoloLens (registered trademark), for example, is known as a wearable display device 4 having a transmissive display. The display device 4 having such a transmissive display can also be considered as a display device for realizing mixed reality (MR). The display device 4 may also have, for example, a non-transmissive display. In this case, the display device 4 displays the image superimposed on the image of the real environment. Therefore, the display device 4 having a non-transmissive display preferably has a camera for photographing the real environment or is connected to a camera for photographing the real environment. Images of the real environment captured by the camera are displayed in real time on the non-transmissive display. Oculus Quest, for example, is known as a wearable display device 4 having a non-transmissive display. The display device 4 having such a non-transmissive display can also be considered as a display device for realizing augmented reality (AR). The display device 4, which is a portable information processing terminal such as a tablet terminal, has, for example, a camera and a display, and may display an image of the real environment captured by the camera on the display in real time. In this embodiment, the case where the display device 4 is a head-mounted display having a transmissive display will be mainly described.

基準マーカ6は、2次元の所定の画像である。基準マーカ6は、例えば、ARマーカであってもよく、QRコード(登録商標)であってもよく、2次元のあらかじめ形状の決まっているその他の画像であってもよい。基準マーカ6のサイズは、例えば、あらかじめ決まっていてもよい。本実施の形態では、基準マーカ6がシート6aに表示されている場合について主に説明する。基準マーカ6は、例えば、紙や樹脂製のシート6aに印刷されていてもよい。また、シート6aには、例えば、実ロボットを配置する際に用いられる1以上の図形6bが表示されていてもよい。この図形6bは、実ロボットの位置決めのために用いられるものであり、例えば、実ロボットを固定するためのネジ穴の位置を示す図形であってもよく、実ロボットの基端側の端部の位置を示す図形であってもよく、実ロボットの配置時の位置決めに用いられるその他の図形であってもよい。図形6bは、位置決めに用いられる図形であれば特に限定されるものではないが、例えば、円形や四角形、三角形、多角形などの図形であってもよく、×(乗算記号)や+(加算記号)などの図形であってもよく、位置を特定可能なその他の図形であってもよい。この図形6bを用いて実ロボットを配置することによって、表示された仮想ロボットの位置と、実ロボットの配置位置とがずれないようにすることができる。図形6bは、基準マーカ6に対して所定の位置関係となるように表示される仮想ロボットの位置に実ロボットを配置するために用いられるものである。したがって、図形6bは、そのように実ロボットを配置できるように、基準マーカ6と所定の位置関係で表示されているものとする。 The reference marker 6 is a predetermined two-dimensional image. The reference marker 6 may be, for example, an AR marker, a QR code (registered trademark), or any other two-dimensional image having a predetermined shape. The size of the reference marker 6 may be predetermined, for example. In this embodiment, the case where the reference marker 6 is displayed on the sheet 6a will be mainly described. The reference marker 6 may be printed on a sheet 6a made of paper or resin, for example. Also, the sheet 6a may display, for example, one or more figures 6b used when arranging the real robot. This figure 6b is used for positioning the real robot. For example, it may be a figure showing the positions of screw holes for fixing the real robot. It may be a figure indicating a position, or another figure used for positioning when arranging the real robot. The figure 6b is not particularly limited as long as it is a figure used for positioning. ) or any other figure whose position can be specified. By arranging the real robot using this figure 6b, it is possible to prevent the position of the displayed virtual robot from deviating from the arrangement position of the real robot. The graphic 6b is used to arrange the real robot at the position of the virtual robot displayed so as to have a predetermined positional relationship with respect to the reference marker 6. FIG. Therefore, it is assumed that the graphic 6b is displayed in a predetermined positional relationship with the reference marker 6 so that the real robot can be arranged in that manner.

図1で示されるように、本実施の形態による画像処理装置3は、記憶部31と、受付部32と、位置関係取得部33と、画像生成部34と、出力部35とを備える。 As shown in FIG. 1, the image processing apparatus 3 according to this embodiment includes a storage unit 31, a reception unit 32, a positional relationship acquisition unit 33, an image generation unit 34, and an output unit .

記憶部31では、仮想ロボットの3次元モデルが記憶される。この仮想ロボットの3次元モデルは、例えば、導入を検討している実ロボットに対応する仮想ロボットの3次元モデルであってもよい。記憶部31では、複数の仮想ロボットの3次元モデルが記憶されていてもよい。複数の仮想ロボットの3次元モデルは、それぞれ複数の実ロボットに対応したものである。例えば、導入候補の実ロボットが複数ある場合には、それらの複数の実ロボットに対応する複数の仮想ロボットの3次元モデルが記憶部31で記憶されていてもよい。また、3次元モデル以外の情報が記憶部31で記憶されてもよい。例えば、教示データ等が記憶部31で記憶されてもよい。記憶部31に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部31で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部31で記憶されるようになってもよい。記憶部31は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。 The storage unit 31 stores a three-dimensional model of the virtual robot. This three-dimensional model of the virtual robot may be, for example, a three-dimensional model of a virtual robot corresponding to the real robot whose introduction is being considered. The storage unit 31 may store three-dimensional models of a plurality of virtual robots. The three-dimensional models of multiple virtual robots correspond to multiple real robots, respectively. For example, when there are a plurality of real robots that are introduction candidates, the storage unit 31 may store three-dimensional models of a plurality of virtual robots corresponding to the plurality of real robots. Information other than the three-dimensional model may also be stored in the storage unit 31 . For example, teaching data or the like may be stored in the storage unit 31 . The process by which information is stored in the storage unit 31 does not matter. For example, information may be stored in the storage section 31 via a recording medium, or information transmitted via a communication line or the like may be stored in the storage section 31 . The storage unit 31 is preferably implemented by a non-volatile recording medium, but may be implemented by a volatile recording medium. The recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like.

受付部32は、仮想ロボットの3次元モデルに対する操作を受け付ける。3次元モデルに対する操作は、例えば、3次元モデルの少なくとも一部の位置や姿勢を変化させるための操作であってもよい。操作や教示の指示の受け付けは、例えば、実環境に存在するティーチングペンダントなどの入力デバイスを介して行われてもよく、表示装置4のディスプレイに表示された仮想ボタンや仮想ティーチングペンダントなどの仮想入力インターフェースを介して行われてもよい。仮想入力インターフェースは、例えば、エアタップなどの動作に応じて表示装置4のディスプレイに表示され、作業者の指やポインティングデバイスによってボタン等が選択された場合に、そのボタン等の操作に応じた入力が表示装置4から受付部32に渡されてもよい。また、作業者の手などのジェスチャによって、仮想ロボットの3次元モデルの少なくとも一部(例えば、ツールなどの手先など)の位置や姿勢を変更できてもよい。この場合には、例えば、作業者がディスプレイに表示された3次元モデルを手でつまむ動作(ホールド動作)を行うことによって、その手でつまんだ部分が操作の対象として特定され、その手の位置や姿勢を変化させることによって、特定された対象の位置や姿勢を変化させる操作が行われ、そのつまむ動作を終了させることによって、特定された対象への操作が終了されてもよい。この場合には、例えば、操作の対象を示す情報(例えば、3次元モデルにおける位置や部分を示す情報)と、操作の内容を示す情報(例えば、位置の変更や姿勢の変更などを示す情報)とが表示装置4から受付部32に渡されてもよく、または、表示装置4において取得されたハンドトラッキングの結果が受付部32に渡され、画像処理装置3において、操作の対象や操作の内容が特定されてもよい。表示装置4において操作の対象を示す情報と操作の内容を示す情報とが取得される場合には、表示装置4は、画像処理装置3で保持されている、仮想空間における仮想ロボットの現時点の3次元モデルの情報にアクセス可能であってもよい。なお、作業者の手を用いた操作が行われる場合には、表示装置4はカメラを有しており、そのカメラで撮影された作業者の手のハンドトラッキングが行われることによって、作業者の手が、ディスプレイ上のどの位置に存在するのかが特定されてもよい。また、作業者の手などのジェスチャに応じた3次元モデルの表示画像への操作を、3次元仮想空間における3次元モデルの位置や姿勢の変化に変換する方法はすでに公知であり、その詳細な説明を省略する。また、受付部32は、例えば、仮想ロボットの3次元モデルに対する教示の指示を受け付けてもよく、表示される仮想ロボットの3次元モデルを変更する旨の指示を受け付けてもよい。 The reception unit 32 receives an operation on the three-dimensional model of the virtual robot. The operation on the 3D model may be, for example, an operation for changing the position or orientation of at least part of the 3D model. Instructions for operation and teaching may be accepted, for example, via an input device such as a teaching pendant that exists in the real environment, and a virtual input such as a virtual button or a virtual teaching pendant displayed on the display of the display device 4 may be used. It may be done through an interface. The virtual input interface is displayed on the display of the display device 4 according to an operation such as air tapping, and when a button or the like is selected by the operator's finger or pointing device, an input corresponding to the operation of the button or the like is performed. It may be passed from the display device 4 to the reception unit 32 . In addition, the position and posture of at least a part of the three-dimensional model of the virtual robot (for example, a hand of a tool, etc.) may be changed by a gesture of the operator's hand or the like. In this case, for example, when the operator performs an action (hold action) of pinching the three-dimensional model displayed on the display, the pinched portion is specified as the operation target, and the position of the hand is determined. An operation to change the position or posture of the specified target may be performed by changing the position or posture, and the operation on the specified target may be ended by ending the pinching motion. In this case, for example, information indicating the target of the operation (for example, information indicating the position or part in the 3D model) and information indicating the content of the operation (for example, information indicating change in position or orientation). may be passed from the display device 4 to the reception unit 32, or the result of hand tracking acquired by the display device 4 may be passed to the reception unit 32, and the image processing device 3 may display the target of operation and the content of the operation. may be specified. When the display device 4 acquires the information indicating the target of the operation and the information indicating the content of the operation, the display device 4 displays the current three-dimensional image of the virtual robot in the virtual space held by the image processing device 3. Information in the dimensional model may be accessible. When an operation is performed using the operator's hand, the display device 4 has a camera, and hand tracking of the operator's hand photographed by the camera is performed. It may be specified where the hand is on the display. Further, a method of converting an operation to a display image of a three-dimensional model in response to a gesture of an operator's hand or the like to a change in the position or posture of the three-dimensional model in a three-dimensional virtual space is already known. Description is omitted. Further, the receiving unit 32 may receive, for example, an instruction to teach the three-dimensional model of the virtual robot, or an instruction to change the displayed three-dimensional model of the virtual robot.

受付部32は、例えば、入力デバイスや表示装置4から入力された情報を受け付けてもよく、有線または無線の通信回線を介して送信された情報を受信してもよい。なお、受付部32は、受け付けを行うためのデバイス(例えば、入力デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部32は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 For example, the receiving unit 32 may receive information input from an input device or the display device 4, or may receive information transmitted via a wired or wireless communication line. Note that the reception unit 32 may or may not include a device for reception (for example, an input device, a communication device, etc.). Further, the receiving unit 32 may be realized by hardware, or may be realized by software such as a driver for driving a predetermined device.

位置関係取得部33は、実環境に存在する基準マーカ6と表示装置4との相対的な位置関係を取得する。基準マーカ6と表示装置4との相対的な位置関係を取得するとは、例えば、基準マーカ6のローカル座標系であるマーカ座標系と、表示装置4のローカル座標系である表示座標系との相対的な位置関係を取得することであってもよい。この相対的な位置関係は、例えば、両座標系間の変換を示す同次変換行列によって示されてもよい。位置関係取得部33が、この相対的な位置関係を取得する方法は問わない。位置関係取得部33は、例えば、表示装置4のカメラで撮影された画像を受け取り、その画像に含まれる基準マーカ6の3以上の特徴点を用いて、マーカ座標系と表示座標系との間の変換を示す同次変換行列を取得してもよい。その同次変換行列の取得は、表示装置4において行われてもよい。この場合には、位置関係取得部33は、マーカ座標系と表示座標系との間の変換を示す同次変換行列を表示装置4から受け付けてもよい。すなわち、位置関係取得部33による相対的な位置関係の取得は、相対的な位置関係の受け付けであってもよい。 The positional relationship acquisition unit 33 acquires the relative positional relationship between the reference marker 6 and the display device 4 existing in the actual environment. Acquiring the relative positional relationship between the reference marker 6 and the display device 4 means, for example, determining the relative position between the marker coordinate system, which is the local coordinate system of the reference marker 6, and the display coordinate system, which is the local coordinate system of the display device 4. It may be to acquire a general positional relationship. This relative positional relationship may be indicated, for example, by a homogeneous transformation matrix that indicates transformation between both coordinate systems. The method by which the positional relationship acquisition unit 33 acquires this relative positional relationship does not matter. The positional relationship acquisition unit 33 receives an image captured by the camera of the display device 4, for example, and uses three or more feature points of the reference marker 6 included in the image to determine the relationship between the marker coordinate system and the display coordinate system. A homogeneous transformation matrix may be obtained that indicates the transformation of . Acquisition of the homogeneous transformation matrix may be performed in the display device 4 . In this case, the positional relationship acquisition unit 33 may receive from the display device 4 a homogeneous transformation matrix indicating transformation between the marker coordinate system and the display coordinate system. That is, the acquisition of the relative positional relationship by the positional relationship acquisition unit 33 may be reception of the relative positional relationship.

画像生成部34は、仮想ロボットの3次元モデルと、位置関係取得部33によって取得された基準マーカ6と表示装置4との相対的な位置関係とに基づいて、基準マーカ6と所定の位置関係となるように、仮想ロボットの3次元モデルを表示するための表示画像を生成する。また、仮想ロボットへの操作が受け付けられた場合には、画像生成部34は、操作された3次元モデルを表示するための表示画像を生成する。所定の位置関係は、例えば、あらかじめ決められた位置関係であってもよく、仮想ロボットを操作する作業者が変更することができる位置関係であってもよい。所定の位置関係は、例えば、仮想ロボットの3次元モデルが基準マーカ6の位置に表示される位置関係であってもよく、仮想ロボットの3次元モデルが基準マーカ6と異なる位置に表示される位置関係であってもよい。前者の場合には、画像生成部34は、基準マーカ6の位置に仮想ロボットの3次元モデルを表示するための表示画像を生成してもよい。仮想ロボットの3次元モデルが基準マーカ6の位置に表示されるとは、基準マーカ6の位置に実ロボットを配置した状況が仮想的に再現されるように仮想ロボットの3次元モデルが表示されることであってもよく、例えば、仮想ロボットの3次元モデルの基端側の端面(例えば、床面などへの取り付け面)が、基準マーカ6の面と一致するように仮想ロボットの3次元モデルが表示されることであってもよい。仮想ロボットの3次元モデルが基準マーカ6と異なる位置に表示されるとは、例えば、基準マーカ6の隣に仮想ロボットの3次元モデルが表示されることであってもよい。なお、仮想ロボットの3次元モデルが基準マーカ6の隣に表示される場合には、通常、シート6aにおいて、基準マーカ6の隣に図形6bが表示されることになる。いずれにしても、仮想ロボットの3次元モデルは、実環境に配置された基準マーカ6との位置関係が変化しないように表示されることになる。したがって、作業者が表示装置4の向きを変化させたとしても、実環境における仮想ロボットの3次元モデルの表示位置は変化しないことになる。 Based on the three-dimensional model of the virtual robot and the relative positional relationship between the reference marker 6 and the display device 4 acquired by the positional relationship acquisition unit 33, the image generation unit 34 determines a predetermined positional relationship between the reference marker 6 and the display device 4. A display image for displaying the three-dimensional model of the virtual robot is generated so that Also, when an operation to the virtual robot is accepted, the image generation unit 34 generates a display image for displaying the operated three-dimensional model. The predetermined positional relationship may be, for example, a positional relationship determined in advance, or a positional relationship that can be changed by the worker operating the virtual robot. The predetermined positional relationship may be, for example, a positional relationship in which the three-dimensional model of the virtual robot is displayed at the position of the reference marker 6, or a position at which the three-dimensional model of the virtual robot is displayed at a position different from the reference marker 6. It can be a relationship. In the former case, the image generator 34 may generate a display image for displaying the three-dimensional model of the virtual robot at the position of the reference marker 6 . Displaying the three-dimensional model of the virtual robot at the position of the reference marker 6 means that the three-dimensional model of the virtual robot is displayed such that the situation in which the real robot is placed at the position of the reference marker 6 is virtually reproduced. For example, the three-dimensional model of the virtual robot may be constructed so that the end surface on the base end side (for example, the mounting surface on the floor surface) of the three-dimensional model of the virtual robot matches the surface of the reference marker 6. may be displayed. Displaying the three-dimensional model of the virtual robot at a position different from the reference marker 6 may mean, for example, displaying the three-dimensional model of the virtual robot next to the reference marker 6 . When the three-dimensional model of the virtual robot is displayed next to the reference marker 6, the figure 6b is normally displayed next to the reference marker 6 on the sheet 6a. In any case, the three-dimensional model of the virtual robot is displayed such that the positional relationship with the reference markers 6 placed in the real environment does not change. Therefore, even if the operator changes the orientation of the display device 4, the display position of the three-dimensional model of the virtual robot in the real environment does not change.

基準マーカ6と表示装置4との相対的な位置関係は、位置関係取得部33によって取得される。また、基準マーカ6と仮想ロボットの3次元モデルとの位置関係は決まっている。したがって、これらの情報を用いて、画像生成部34は、仮想ロボットの3次元モデルと表示装置4との相対的な位置関係を特定することができる。そのため、画像生成部34は、仮想空間において、仮想ロボットの3次元モデルを配置し、その仮想ロボットの3次元モデルに対して、特定した位置関係となる表示装置4の位置及び向きを特定することができる。そして、画像生成部34は、仮想空間における仮想ロボットの3次元モデルを、表示装置4の位置及び向きを基準としてレンダリングすることによって、3次元モデルを表示するための2次元の表示画像を生成することができる。なお、仮想ロボットの各関節の角度は、操作が行われていない場合には初期値となり、操作が行われた場合には操作後の値となる。操作後の各関節の角度は、例えば、実ロボットと同様に、操作後の仮想ロボットの3次元モデルにおける手先の位置及び姿勢を用いた逆運動学によって算出されてもよい。仮想ロボットが操作されると、上記のように、仮想空間における仮想ロボットの3次元モデルの形状が、それに応じて変更されることになる。また、表示装置4の位置や向きが実環境において変化した場合には、それに応じて仮想空間上の視点の位置や方向が変更されることになる。そして、その変更後にレンダリングが行われることによって、操作後の3次元モデルの表示画像や、表示装置4の位置や向きの変化後の3次元モデルの表示画像が生成されることになる。なお、画像生成部34は、仮想ロボットの3次元モデルの表示画像が表示装置4のディスプレイに表示された際に、その表示画像の大きさが実環境と整合するように、表示画像を生成するものとする。すなわち、表示装置4のディスプレイに表示された仮想ロボットの3次元モデルと、その3次元モデルと同じ相対的な位置関係となるように実環境に配置された実ロボットとが、表示装置4を介して見たときに同じ大きさになるように、表示画像が生成されることになる。 A relative positional relationship between the reference marker 6 and the display device 4 is acquired by the positional relationship acquisition unit 33 . Also, the positional relationship between the reference marker 6 and the three-dimensional model of the virtual robot is determined. Therefore, using these pieces of information, the image generator 34 can identify the relative positional relationship between the three-dimensional model of the virtual robot and the display device 4 . Therefore, the image generator 34 arranges the three-dimensional model of the virtual robot in the virtual space, and specifies the position and orientation of the display device 4 that has the specified positional relationship with respect to the three-dimensional model of the virtual robot. can be done. The image generator 34 then renders the three-dimensional model of the virtual robot in the virtual space based on the position and orientation of the display device 4, thereby generating a two-dimensional display image for displaying the three-dimensional model. be able to. Note that the angle of each joint of the virtual robot is the initial value when no operation is performed, and the post-operation value when the operation is performed. The angle of each joint after manipulation may be calculated, for example, by inverse kinematics using the position and orientation of the hand in the three-dimensional model of the virtual robot after manipulation, in the same way as with the real robot. When the virtual robot is manipulated, the shape of the three-dimensional model of the virtual robot in the virtual space is changed accordingly, as described above. Further, when the position and orientation of the display device 4 change in the real environment, the position and direction of the viewpoint in the virtual space are changed accordingly. By performing rendering after the change, a display image of the 3D model after the operation and a display image of the 3D model after the position and orientation of the display device 4 are changed are generated. Note that the image generation unit 34 generates a display image so that when the display image of the three-dimensional model of the virtual robot is displayed on the display of the display device 4, the size of the display image matches the actual environment. shall be That is, the three-dimensional model of the virtual robot displayed on the display of the display device 4 and the real robot arranged in the real environment so as to have the same relative positional relationship as the three-dimensional model are displayed via the display device 4. A display image is generated so that it has the same size when viewed from above.

また、画像生成部34は、例えば、表示対象の仮想ロボットの3次元モデルを変更する旨の指示が受付部32で受け付けられた場合には、その指示に応じて、表示対象の仮想ロボットの3次元モデルを変更してもよい。例えば、記憶部31で複数の仮想ロボットの3次元モデルが記憶されている場合には、画像生成部34は、表示対象を変更する旨の指示に応じて、それまでとは別の仮想ロボットの3次元モデルを用いて表示画像を生成してもよい。なお、その指示において、表示対象の仮想ロボットの3次元モデルを識別する情報が含まれる場合には、その情報によって識別される仮想ロボットの3次元モデルを用いて表示画像を生成してもよい。 Further, for example, when the reception unit 32 receives an instruction to change the three-dimensional model of the virtual robot to be displayed, the image generation unit 34 generates the three-dimensional model of the virtual robot to be displayed according to the instruction. You can change the dimensional model. For example, when a plurality of 3D models of virtual robots are stored in the storage unit 31, the image generation unit 34, in response to an instruction to change the display target, creates a virtual robot different from the previous one. A display image may be generated using the three-dimensional model. If the instruction includes information for identifying the three-dimensional model of the virtual robot to be displayed, the display image may be generated using the three-dimensional model of the virtual robot identified by the information.

また、受け付けられた操作に応じて仮想ロボットを操作できないこともあり得る。例えば、仮想ロボットの手先を、移動可能な範囲を超えて移動させる操作または回転可能な範囲を超えて回転させる操作が受け付けられることもある。このような場合には、画像生成部34は、その操作に応じた表示画像を生成しなくてもよく、または、可能な範囲内で移動または回転を行った仮想ロボットの3次元モデルの表示画像を生成してもよい。 Also, it may not be possible to operate the virtual robot according to the accepted operation. For example, an operation to move the hand of the virtual robot beyond its movable range or an operation to rotate it beyond its rotatable range may be accepted. In such a case, the image generator 34 does not have to generate a display image corresponding to the operation, or a display image of the three-dimensional model of the virtual robot that has moved or rotated within the possible range. may be generated.

出力部35は、画像生成部34によって生成された表示画像を表示装置4に出力する。なお、出力部35は、表示画像のみを出力してもよい。この場合には、表示装置4において、実環境の画像または実環境そのものに表示画像が重ねられて表示されることになる。一方、表示装置4が非透過型ディスプレイを有する場合であって、表示装置4で撮影された実環境の画像が画像処理装置3で受け付けられている場合には、実環境の画像と表示画像とが合成された結果が、表示装置4に出力されてもよい。この合成は、例えば、画像処理装置3が有する図示しない合成部によって行われてもよい。 The output unit 35 outputs the display image generated by the image generation unit 34 to the display device 4 . Note that the output unit 35 may output only the display image. In this case, on the display device 4, the display image is superimposed on the image of the real environment or the real environment itself. On the other hand, when the display device 4 has a non-transmissive display and the image processing device 3 receives an image of the real environment photographed by the display device 4, the image of the real environment and the display image are may be output to the display device 4 . This synthesis may be performed by, for example, a synthesis unit (not shown) included in the image processing device 3 .

基準マーカ6と異なる位置に仮想ロボットの3次元モデルが表示される場合には、例えば、図1で示されるように、基準マーカ6の隣に仮想ロボットの3次元モデル10が表示されてもよい。図1における基準マーカ6及び仮想ロボットの3次元モデル10は、仮想ロボットを操作する作業者が表示装置4を介して見ている状況を模式的に示したものである。なお、この場合には、例えば、シート6aに図形6bが表示されていなくてもよい。 When the three-dimensional model of the virtual robot is displayed at a position different from the reference marker 6, for example, as shown in FIG. 1, the three-dimensional model 10 of the virtual robot may be displayed next to the reference marker 6. . The reference marker 6 and the three-dimensional model 10 of the virtual robot shown in FIG. In this case, for example, the graphic 6b may not be displayed on the sheet 6a.

なお、仮想ロボットの3次元モデルを表示することや、その仮想ロボットの3次元モデルを表示デバイスの仮想入力インターフェースや作業者のジェスチャ等を用いて操作することなどについては、例えば、次の特許文献1~3で示されるようにすでに公知であり、その詳細な説明を省略する。 Displaying a three-dimensional model of a virtual robot and manipulating the three-dimensional model of the virtual robot using a virtual input interface of a display device, gestures of a worker, etc. are disclosed, for example, in the following patent documents: As indicated by 1 to 3, they are already known, and detailed description thereof will be omitted.

特開2017-100234号公報JP 2017-100234 A 特開2020-055075号公報JP 2020-055075 A 特開2020-069538号公報JP 2020-069538 A

次に、画像処理装置3の動作について図2のフローチャートを用いて説明する。 Next, the operation of the image processing device 3 will be described using the flowchart of FIG.

(ステップS101)受付部32は、仮想ロボットの3次元モデルへの操作を受け付けたかどうか判断する。そして、操作を受け付けた場合には、ステップS103に進み、そうでない場合には、ステップS102に進む。 (Step S101) The accepting unit 32 determines whether or not an operation to the three-dimensional model of the virtual robot has been accepted. Then, if the operation is accepted, the process proceeds to step S103, and if not, the process proceeds to step S102.

(ステップS102)画像生成部34は、表示画像の生成を行うかどうか判断する。そして、表示画像を生成する場合には、ステップS103に進み、そうでない場合には、ステップS101に戻る。なお、画像生成部34は、例えば、表示画像の生成を行うと定期的に判断してもよい。この判断が行われることによって、例えば、操作が行われていなくても、表示装置4の位置や向きが変更された場合には、その変更後の位置や向きに応じた表示画像が表示装置4で表示されるようになる。 (Step S102) The image generator 34 determines whether to generate a display image. If a display image is to be generated, the process proceeds to step S103; otherwise, the process returns to step S101. Note that the image generator 34 may periodically determine, for example, to generate the display image. By making this judgment, for example, even if no operation is performed, if the position or orientation of the display device 4 is changed, the display image corresponding to the changed position or orientation is displayed on the display device 4 . will be displayed.

(ステップS103)位置関係取得部33は、基準マーカ6と表示装置4との相対的な位置関係を取得する。 (Step S<b>103 ) The positional relationship acquisition section 33 acquires the relative positional relationship between the reference marker 6 and the display device 4 .

(ステップS104)画像生成部34は、ステップS103で取得された相対的な位置関係と、仮想ロボットの3次元モデルとを用いて、基準マーカ6と所定の位置関係となるように3次元モデルを表示するための表示画像を生成する。なお、操作が受け付けられた場合には、その操作に応じて変化させた後の3次元モデルを表示するための表示画像が生成されることになる。また、表示装置4の位置や向きが変更された場合には、その変更後の表示装置4の位置や向きに応じた3次元モデルの表示画像が生成されることになる。 (Step S104) Using the relative positional relationship obtained in step S103 and the three-dimensional model of the virtual robot, the image generator 34 creates a three-dimensional model so as to have a predetermined positional relationship with the reference marker 6. Generate a display image for display. Note that when the operation is accepted, a display image for displaying the three-dimensional model after being changed according to the operation is generated. Further, when the position and orientation of the display device 4 are changed, the display image of the three-dimensional model is generated according to the changed position and orientation of the display device 4 .

(ステップS105)出力部35は、生成された表示画像を表示装置4に出力する。そして、ステップS101に戻る。この出力に応じて、基準マーカ6と所定の位置関係となるように仮想ロボットの3次元モデルが表示されることになる。 (Step S<b>105 ) The output unit 35 outputs the generated display image to the display device 4 . Then, the process returns to step S101. According to this output, a three-dimensional model of the virtual robot is displayed so as to have a predetermined positional relationship with the reference marker 6 .

なお、図2のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 The order of processing in the flowchart of FIG. 2 is an example, and the order of each step may be changed as long as the same result can be obtained. In addition, in the flowchart of FIG. 2, the processing ends when the power is turned off or an interrupt for processing end occurs.

次に、実ロボットの配置方法について図3のフローチャートを用いて説明する。 Next, the method of arranging the real robots will be described with reference to the flowchart of FIG.

(ステップS201)作業者は、実環境に2次元の所定の画像である基準マーカ6を配置する。基準マーカ6は、例えば、実ロボットを配置する予定の位置に配置されてもよい。また、例えば、実ロボットを配置する予定の位置に他の実ロボットが配置されている場合には、その既存の実ロボットの隣などに配置されてもよい。 (Step S201) The operator places the reference marker 6, which is a predetermined two-dimensional image, in the real environment. The reference marker 6 may, for example, be arranged at a planned position for arranging the real robot. Also, for example, when another real robot is placed at the position where the real robot is to be placed, the robot may be placed next to the existing real robot.

(ステップS202)作業者は、画像処理装置3及び表示装置4を用いて、基準マーカ6と所定の位置関係となるように表示装置4に表示された仮想ロボットの3次元モデルを操作する。この操作は、例えば、ロボットの到達可能範囲を確認する目的や、ロボットが所望の姿勢をとることができるかどうかを確認する目的、ロボットが既存の障害物を回避できるかどうかを確認する目的などのために行われてもよい。なお、基準マーカ6が、実ロボットの配置予定の位置に配置された場合には、仮想ロボットの3次元モデルは、基準マーカ6の位置に表示されてもよい。また、基準マーカ6が、既存の実ロボットの隣に配置された場合には、仮想ロボットの3次元モデルは、その基準マーカ6と所定の位置関係である新たしいロボットの配置位置、例えば、既存の実ロボットが配置されている位置に表示されてもよい。 (Step S<b>202 ) The operator uses the image processing device 3 and the display device 4 to operate the three-dimensional model of the virtual robot displayed on the display device 4 so as to have a predetermined positional relationship with the reference marker 6 . The purpose of this operation is, for example, to check the reachable range of the robot, to check whether the robot can assume a desired posture, or to check whether the robot can avoid existing obstacles. may be done for It should be noted that the three-dimensional model of the virtual robot may be displayed at the position of the reference marker 6 when the reference marker 6 is arranged at the position where the real robot is to be arranged. In addition, when the reference marker 6 is placed next to the existing real robot, the three-dimensional model of the virtual robot is placed at a new robot placement position that has a predetermined positional relationship with the reference marker 6, for example, the existing robot. may be displayed at the position where the real robot is arranged.

(ステップS203)作業者は、仮想ロボットの配置や、仮想ロボットの種類が適切であるかどうか判断する。例えば、ロボットの到達可能範囲が問題なく、ロボットが所望の姿勢をとることができ、ロボットが既存の障害物を回避できる場合には、作業者は、仮想ロボットの配置や種類が適切であると判断してもよい。一方、ロボットの到達可能範囲に問題がある場合、ロボットが所望の姿勢をとることができない場合、または、ロボットが既存の障害物を回避できない場合には、作業者は、仮想ロボットの配置または種類が適切でないと判断してもよい。そして、仮想ロボットの配置、すなわち基準マーカ6の配置が適切でない場合には、ステップS201に戻り、再度、基準マーカ6の配置をやり直す。また、仮想ロボットの種類が適切でない場合には、仮想ロボットの種類を変更して、再度、操作を行ってもよい。この場合には、仮想ロボットの種類を変更してステップS202に戻り、新たな仮想ロボットの操作を行う。一方、仮想ロボットの配置及び種類が適切である場合には、ステップS204に進む。 (Step S203) The operator determines whether the arrangement of the virtual robots and the type of the virtual robots are appropriate. For example, if the reachable range of the robot is not a problem, the robot can assume a desired posture, and the robot can avoid existing obstacles, the worker will feel that the placement and type of the virtual robot are appropriate. You can judge. On the other hand, if there is a problem with the reachable range of the robot, if the robot cannot assume the desired posture, or if the robot cannot avoid existing obstacles, the worker will be able to determine the placement or type of virtual robot. may be judged to be inappropriate. Then, if the placement of the virtual robot, that is, the placement of the reference marker 6 is not appropriate, the process returns to step S201 and the placement of the reference marker 6 is redone. Also, if the type of virtual robot is not appropriate, the type of virtual robot may be changed and the operation may be performed again. In this case, the virtual robot type is changed, the process returns to step S202, and the new virtual robot is operated. On the other hand, if the placement and type of virtual robot are appropriate, the process proceeds to step S204.

(ステップS204)仮想ロボットの3次元モデルの操作後に、実環境に配置されている基準マーカ6と所定の位置関係となるように実ロボットが配置される。この実ロボットは、操作された仮想ロボットの3次元モデルに対応するものである。例えば、基準マーカ6の表示されるシート6aに、実ロボットの配置位置を特定するための図形6bが表示されている場合には、その図形6bの位置に、実ロボットを配置するためのネジ穴を設け、そのネジ穴を用いて実ロボットを床面等に固定するようにしてもよい。このようにして、動作の確認に用いた仮想ロボットと同じ位置に実ロボットを配置することができ、適切な位置への実ロボットの配置を実現することができるようになる。 (Step S204) After manipulating the three-dimensional model of the virtual robot, the real robot is arranged so as to have a predetermined positional relationship with the reference markers 6 arranged in the real environment. This real robot corresponds to the three-dimensional model of the manipulated virtual robot. For example, when a figure 6b for specifying the placement position of the real robot is displayed on the sheet 6a on which the reference marker 6 is displayed, a screw hole for arranging the real robot is displayed at the position of the figure 6b. may be provided, and the actual robot may be fixed to the floor or the like using the screw holes. In this way, the real robot can be arranged at the same position as the virtual robot used for checking the motion, and the real robot can be arranged at an appropriate position.

なお、図3のフローチャートには含まれていないが、仮想ロボットを用いたティーチングが行われてもよい。この場合には、例えば、基準マーカ6が適切な位置に配置された状況、すなわち、仮想ロボットが導入予定の実ロボットの配置位置と同じ位置に表示されている状況において、仮想ロボットの3次元モデルが操作され、適宜、教示の指示が入力されてもよい。そして、その教示の指示に応じて、教示データが記憶部31で記憶されてもよい。また、その教示データは、実ロボットを制御するロボット制御装置に渡されてもよい。そして、基準マーカ6を用いて実ロボットが配置された後に、その教示データを用いて実ロボットが動作されてもよい。この場合には、実ロボットの導入前にあらかじめ教示データを用意することができ、実ロボットの導入直後から、教示データを用いたプレイバック動作を開始することができるようになる。 Although not included in the flowchart of FIG. 3, teaching using a virtual robot may be performed. In this case, for example, in a situation where the reference marker 6 is placed at an appropriate position, that is, a situation where the virtual robot is displayed at the same position as the real robot to be introduced, the three-dimensional model of the virtual robot is operated, and a teaching instruction may be input as appropriate. Teaching data may be stored in the storage unit 31 in accordance with the teaching instruction. Also, the teaching data may be passed to a robot control device that controls the real robot. After the real robot is placed using the reference marker 6, the real robot may be operated using the teaching data. In this case, the teaching data can be prepared in advance before the introduction of the real robot, and the playback operation using the teaching data can be started immediately after the introduction of the real robot.

次に、本実施の形態によるロボット配置方法、及び画像処理装置3の動作について、具体例を用いて説明する。なお、この具体例では、導入予定の実ロボットであるロボット1に対応する仮想ロボットの3次元モデルが、あらかじめ画像処理装置3の記憶部31で記憶されているものとする。 Next, the robot placement method and the operation of the image processing apparatus 3 according to this embodiment will be described using a specific example. In this specific example, it is assumed that a three-dimensional model of a virtual robot corresponding to the robot 1, which is a real robot to be introduced, is stored in the storage unit 31 of the image processing device 3 in advance.

まず、作業者は、図4Aで示されるように、導入予定の実ロボットであるロボット1を配置する位置に、基準マーカ6の表示されたシート6aを貼り付ける(ステップS201)。なお、そのシート6aには、ロボット1の配置位置を特定するための図形6bが4個表示されているものとする。 First, as shown in FIG. 4A, the operator attaches the sheet 6a on which the reference marker 6 is displayed to the position where the robot 1, which is the actual robot to be introduced, is placed (step S201). It is assumed that four figures 6b for specifying the layout position of the robot 1 are displayed on the sheet 6a.

次に、作業者は、頭部装着型の表示装置4を頭部に装着し、画像処理装置3によって表示された仮想ロボットの3次元モデル10を操作する(ステップS202)。具体的には、画像生成部34によって表示画像を生成すると判断されると(ステップS102)、それに応じて基準マーカ6と表示装置4との相対的な位置関係が取得され(ステップS103)、記憶部31で記憶されている3次元モデルと、相対的な位置関係とを用いて、3次元モデルを表示するための表示画像が生成され、表示装置4に出力される(ステップS104,S105)。このようにして、図4Bで示されるように、基準マーカ6の位置に、仮想ロボットの3次元モデル10が表示されることになる。 Next, the operator wears the head-mounted display device 4 on the head and operates the three-dimensional model 10 of the virtual robot displayed by the image processing device 3 (step S202). Specifically, when the image generator 34 determines to generate a display image (step S102), the relative positional relationship between the reference marker 6 and the display device 4 is obtained (step S103) and stored. A display image for displaying the three-dimensional model is generated using the three-dimensional model stored in the unit 31 and the relative positional relationship, and is output to the display device 4 (steps S104 and S105). In this way, a three-dimensional model 10 of the virtual robot is displayed at the position of the reference marker 6, as shown in FIG. 4B.

また、作業者は、ティーチングペンダントや、仮想入力インターフェース、または手を用いたジェスチャ操作などによって、仮想ロボットの3次元モデルを操作すると、その操作に応じた表示画像が生成されて表示される(ステップS101,S103~S105)。この操作は、例えば、仮想ロボットの手先の操作であってもよい。なお、仮想ロボットの手先は、例えば、TCP(ツールセンターポイント)であってもよい。このようにして、作業者は、仮想ロボットを用いて、ロボットを配置した際の状況、例えば、ロボットの到達可能範囲や、ロボットが所望の姿勢をとることができるのかどうか、ロボットが既存の障害物を回避できるかどうかなどについて確認することができる。そして、ロボットの配置位置が適切でない場合には、基準マーカ6を表示するシート6aの貼り付け位置を変更し、再度、ロボットの配置状況について確認する。また、ロボットの種類が適切でない場合には、表示する仮想ロボットの種類を変更し、再度、ロボットの配置状況について確認する。 In addition, when the worker operates the three-dimensional model of the virtual robot using a teaching pendant, a virtual input interface, or a gesture operation using a hand, a display image corresponding to the operation is generated and displayed (step S101, S103-S105). This operation may be, for example, a hand operation of the virtual robot. Note that the hand of the virtual robot may be, for example, a TCP (tool center point). In this way, the operator can use the virtual robot to understand the conditions under which the robot is placed, such as the reachable range of the robot, whether the robot can assume a desired posture, and whether the robot can overcome existing obstacles. You can check whether or not you can avoid objects. Then, if the placement position of the robot is not appropriate, the sticking position of the sheet 6a displaying the reference marker 6 is changed, and the placement situation of the robot is confirmed again. Also, if the type of robot is not appropriate, the type of virtual robot to be displayed is changed, and the arrangement of robots is checked again.

仮想ロボットの配置状況や種類に問題がなければ(ステップS203)、作業者は、画像処理装置3及び表示装置4を用いた仮想ロボットの表示を終了し、基準マーカ6の表示されたシート6aの図形6bの位置に、それぞれ実ロボットであるロボット1を固定するためのボルト穴を設ける。そして、図4Cで示されるように、導入対象のロボット1を基準マーカ6の位置に配置し、そのロボット1の基端側の端部を、ボルト1aでボルト穴に固定する(ステップS204)。このようにして、あらかじめ仮想ロボットによって動作を確認した位置に、実ロボットであるロボット1を配置することができる。 If there is no problem with the arrangement and type of the virtual robot (step S203), the operator ends the display of the virtual robot using the image processing device 3 and the display device 4, and moves the sheet 6a on which the reference marker 6 is displayed. Bolt holes for fixing robots 1, which are real robots, are provided at the positions of figures 6b. Then, as shown in FIG. 4C, the robot 1 to be introduced is placed at the position of the reference marker 6, and the proximal end of the robot 1 is fixed to the bolt hole with the bolt 1a (step S204). In this way, the robot 1, which is a real robot, can be placed at a position whose motion has been confirmed in advance by the virtual robot.

以上のように、本実施の形態による画像処理装置3、及びロボット配置方法によれば、導入対象のロボットを配置した状況を、実ロボットの配置前に仮想ロボットを用いて確認することができる。したがって、導入対象のロボットの配置位置や、導入対象のロボットの種類などをあらかじめ確認した上で、実ロボットを配置することができるようになり、実ロボットの配置後に想定外の事態が起こらないようにすることができる。また、基準マーカ6が2次元の画像である場合には、実環境における基準マーカ6の配置位置の変更に応じて、仮想ロボットの表示位置を容易に変更することができる。また、基準マーカ6がシート6aに表示されており、そのシート6aに、実ロボットの配置位置を特定するための図形6bも表示されている場合には、その図形6bを用いることで、実ロボットを、動作を確認した仮想ロボットの表示位置と同じ位置となるように配置することができる。 As described above, according to the image processing apparatus 3 and the robot placement method according to the present embodiment, it is possible to check the placement status of the robot to be introduced using the virtual robot before placement of the real robot. Therefore, it is possible to place the actual robot after confirming the placement position of the robot to be introduced and the type of robot to be introduced in advance, so that unexpected situations do not occur after the actual robot is placed. can be Moreover, when the reference marker 6 is a two-dimensional image, the display position of the virtual robot can be easily changed according to the change of the arrangement position of the reference marker 6 in the real environment. In addition, when the reference marker 6 is displayed on the sheet 6a and the figure 6b for specifying the arrangement position of the real robot is also displayed on the sheet 6a, the real robot can be displayed by using the figure 6b. can be placed at the same position as the display position of the virtual robot whose motion has been confirmed.

なお、本実施の形態では、基準マーカ6の位置に仮想ロボットの3次元モデルが表示される場合について主に説明したが、そうでなくてもよい。例えば、基準マーカ6のマーカ座標系における所定の位置に仮想ロボットの3次元モデルが表示されてもよい。また、マーカ座標系における所定の位置及び所定の姿勢で仮想ロボットの3次元モデルが表示されてもよい。この場合には、実ロボットの配置の際にも、基準マーカ6に対して、所定の位置や所定の姿勢となるように実ロボットが配置されるものとする。 In this embodiment, the case where the three-dimensional model of the virtual robot is displayed at the position of the reference marker 6 has been mainly described, but this need not be the case. For example, a three-dimensional model of the virtual robot may be displayed at a predetermined position of the reference marker 6 in the marker coordinate system. Also, a three-dimensional model of the virtual robot may be displayed at a predetermined position and a predetermined orientation in the marker coordinate system. In this case, it is assumed that the actual robot is arranged so as to have a predetermined position and a predetermined posture with respect to the reference marker 6 when arranging the actual robot.

また、本実施の形態では、基準マーカ6が実環境に配置された後に、仮想ロボットの3次元モデルが表示される場合について主に説明したが、そうでなくてもよい。例えば、仮想ロボットの3次元モデルが表示され、その表示位置を作業者が所望の位置に移動させた後に、基準マーカ6が配置されてもよい。この場合には、基準マーカ6が配置された際の基準マーカ6と、仮想ロボットの3次元モデルとの位置関係が、基準マーカと仮想ロボットの3次元モデルとの所定の位置関係となってもよい。また、基準マーカ6が配置されるまでは、位置関係取得部33は、実環境に存在する所定のオブジェクトと表示装置4との相対的な位置関係を取得し、その相対的な位置関係を用いて、仮想ロボットの3次元モデルと、所定のオブジェクトとの位置関係が一定になるように仮想ロボットの3次元モデルを表示してもよい。なお、仮想ロボットの3次元モデルと、所定のオブジェクトとの位置関係は、作業者の操作によって適宜、変更できるものとする。所定のオブジェクトは、例えば、実環境に存在する実ロボットであってもよく、治具であってもよく、その他のオブジェクトであってもよい。 Also, in the present embodiment, the case where the three-dimensional model of the virtual robot is displayed after the reference marker 6 is placed in the real environment has been mainly described, but this need not be the case. For example, the reference marker 6 may be placed after a three-dimensional model of the virtual robot is displayed and the operator moves the displayed position to a desired position. In this case, even if the positional relationship between the reference marker 6 and the three-dimensional model of the virtual robot when the reference marker 6 is arranged becomes a predetermined positional relationship between the reference marker and the three-dimensional model of the virtual robot. good. In addition, until the reference marker 6 is arranged, the positional relationship acquisition unit 33 acquires the relative positional relationship between a predetermined object existing in the real environment and the display device 4, and uses the relative positional relationship to Alternatively, the three-dimensional model of the virtual robot may be displayed such that the positional relationship between the three-dimensional model of the virtual robot and a predetermined object is constant. It should be noted that the positional relationship between the three-dimensional model of the virtual robot and the predetermined object can be appropriately changed by the operator's operation. The predetermined object may be, for example, a real robot that exists in the real environment, a jig, or any other object.

また、本実施の形態において、基準マーカ6によって、表示される仮想ロボットの種類が特定されてもよい。例えば、基準マーカ6がARマーカやQRコード(登録商標)などの2次元コードである場合に、2次元コードの識別子と仮想ロボットの種類とが対応付けられており、画像生成部34は、表示装置4から基準マーカ6の画像、または基準マーカ6である2次元コードの識別子を受け取り、基準マーカ6である2次元コードの識別子に応じた仮想ロボットの3次元モデルを用いて表示画像を生成してもよい。この場合には、作業者は、仮想ロボットごとの基準マーカ6の表示された複数のシート6aを有しており、実環境に配置するシート6aを適宜、変更することによって、表示対象の仮想ロボットを容易に変更することができるようになる。なお、2次元コードの識別子は、例えば、2次元コードを読み取ることによって得られる情報であってもよく、2次元コードと紐付けられている識別子であってもよい。 Also, in the present embodiment, the type of virtual robot to be displayed may be specified by the reference marker 6 . For example, when the reference marker 6 is a two-dimensional code such as an AR marker or a QR code (registered trademark), the identifier of the two-dimensional code is associated with the type of virtual robot, and the image generator 34 displays the An image of the reference marker 6 or an identifier of the two-dimensional code that is the reference marker 6 is received from the device 4, and a display image is generated using a three-dimensional model of the virtual robot corresponding to the identifier of the two-dimensional code that is the reference marker 6. may In this case, the operator has a plurality of sheets 6a on which reference markers 6 are displayed for each virtual robot, and by appropriately changing the sheet 6a arranged in the real environment, the virtual robot to be displayed can be displayed. can be changed easily. The identifier of the two-dimensional code may be, for example, information obtained by reading the two-dimensional code, or may be an identifier associated with the two-dimensional code.

また、本実施の形態では、基準マーカ6が2次元の所定の画像である場合について主に説明したが、そうでなくてもよい。マーカレスARと同様に、基準マーカとして、実環境に存在する物が用いられてもよい。実環境に存在する物は特に限定されるものではないが、例えば、実ロボットの設置に用いられる土台部分や、ロボットを配置する位置の近傍に存在する治具等であってもよい。また、各面にマーカを貼り付けた立体形状(例えば、直方体形状など)の物体におけるマーカを、基準マーカとしてもよい。また、基準マーカは、例えば、土台や治具などのように、3次元のものであってもよい。 Also, in the present embodiment, the case where the reference marker 6 is a predetermined two-dimensional image has been mainly described, but it may not be so. Similar to markerless AR, objects existing in the real environment may be used as reference markers. Objects that exist in the real environment are not particularly limited, but may be, for example, a base part used for installing the real robot, a jig that exists near the position where the robot is arranged, or the like. Also, a marker on a three-dimensional object (for example, a rectangular parallelepiped) having a marker attached to each surface thereof may be used as the reference marker. Also, the reference marker may be three-dimensional, such as a base or a jig.

また、仮想ロボットの3次元モデルが操作されている際に、画像処理装置3は、3次元モデルと、実環境に存在する物との衝突判定を行ってもよい。このような衝突判定が行われることによって、仮想ロボットを操作している作業者は、仮想ロボットの3次元モデルの少なくとも一部が、実環境の障害物に干渉したかどうかを容易に知ることができるようになる。 Further, while the three-dimensional model of the virtual robot is being operated, the image processing device 3 may perform collision determination between the three-dimensional model and an object existing in the real environment. By performing such a collision determination, the worker operating the virtual robot can easily know whether or not at least a part of the three-dimensional model of the virtual robot has interfered with an obstacle in the real environment. become able to.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。例えば、画像処理装置3の少なくとも一部の構成は、物理的には、ディスプレイを有する装置などに含まれてもよい。したがって、図1で示される装置の切り分けは、物理的な装置に応じたものではなく、機能に応じた便宜上のものであると考えてもよい。 Further, in the above embodiments, each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by For example, at least part of the configuration of the image processing device 3 may be physically included in a device having a display. Therefore, it may be considered that the division of devices shown in FIG. 1 is for the sake of convenience according to the functions rather than according to the physical devices.

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, when the information is passed between the components, for example, when the two components that exchange the information are physically different, one of the components output of information and reception of information by the other component, or one component if the two components that pass the information are physically the same from the phase of processing corresponding to the other component to the phase of processing corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component Also, information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, each component or an accumulation section (not shown) may accumulate information in the recording medium (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, if the information used in each component etc., for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction. may The reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .

また、上記実施の形態において、画像処理装置3に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the image processing apparatus 3 have communication devices, input devices, etc., the two or more components may physically have a single device. or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During the execution, the program execution unit may execute the program while accessing the storage unit or recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). good. Also, this program may be used as a program constituting a program product. Also, the number of computers that execute the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 Moreover, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

3 画像処理装置、4 表示装置、6 基準マーカ、31 記憶部、32 受付部、33 位置関係取得部、34 画像生成部、35 出力部、100 ロボット制御システム 3 image processing device, 4 display device, 6 reference marker, 31 storage unit, 32 reception unit, 33 positional relationship acquisition unit, 34 image generation unit, 35 output unit, 100 robot control system

Claims (5)

仮想ロボットの3次元モデルが記憶される記憶部と、
前記仮想ロボットの3次元モデルに対する操作を受け付ける受付部と、
実環境に存在する基準マーカと、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得する位置関係取得部と、
前記3次元モデルと前記相対的な位置関係とに基づいて、前記基準マーカと所定の位置関係となるように、操作された3次元モデルを表示するための表示画像を生成する画像生成部と、
前記表示画像を表示装置に出力する出力部と、を備えた画像処理装置。
a storage unit in which a three-dimensional model of a virtual robot is stored;
a reception unit that receives an operation on the three-dimensional model of the virtual robot;
a positional relationship acquiring unit that acquires a relative positional relationship between a reference marker that exists in the real environment and a display device that displays an image superimposed on the image of the real environment or the real environment itself;
an image generator for generating a display image for displaying the manipulated three-dimensional model so as to have a predetermined positional relationship with the reference marker based on the three-dimensional model and the relative positional relationship;
and an output unit that outputs the display image to a display device.
前記基準マーカは、2次元の所定の画像である、請求項1記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said reference marker is a predetermined two-dimensional image. 前記基準マーカは、シートに表示されており、当該シートには、前記実ロボットの配置位置を特定するための図形が表示されている、請求項2記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein said reference marker is displayed on a sheet, and said sheet displays a figure for specifying the placement position of said real robot. 前記画像生成部は、前記基準マーカの位置に前記仮想ロボットの3次元モデルを表示するための表示画像を生成する、請求項1から請求項3のいずれか記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein said image generator generates a display image for displaying a three-dimensional model of said virtual robot at the position of said reference marker. 実環境に2次元の所定の画像である基準マーカを配置するステップと、
画像を実環境の画像または実環境そのものに重ねて表示する表示装置に、前記基準マーカと所定の位置関係となるように表示された仮想ロボットの3次元モデルを操作するステップと、
前記3次元モデルの操作後に、実環境において前記基準マーカと所定の位置関係となるように前記仮想ロボットの3次元モデルに対応する実ロボットを配置するステップと、を備えたロボット配置方法。
placing fiducial markers, which are two-dimensional predetermined images, in the real environment;
a step of operating a three-dimensional model of a virtual robot displayed so as to have a predetermined positional relationship with the reference marker on a display device that displays an image superimposed on an image of the real environment or the real environment itself;
and a step of arranging a real robot corresponding to the 3D model of the virtual robot so as to have a predetermined positional relationship with the reference marker in a real environment after manipulating the 3D model.
JP2021121720A 2021-07-26 2021-07-26 Image processing device and robot arrangement method Pending JP2023017437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021121720A JP2023017437A (en) 2021-07-26 2021-07-26 Image processing device and robot arrangement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021121720A JP2023017437A (en) 2021-07-26 2021-07-26 Image processing device and robot arrangement method

Publications (1)

Publication Number Publication Date
JP2023017437A true JP2023017437A (en) 2023-02-07

Family

ID=85157774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021121720A Pending JP2023017437A (en) 2021-07-26 2021-07-26 Image processing device and robot arrangement method

Country Status (1)

Country Link
JP (1) JP2023017437A (en)

Similar Documents

Publication Publication Date Title
Ong et al. Augmented reality-assisted robot programming system for industrial applications
US9984178B2 (en) Robot simulator, robot teaching apparatus and robot teaching method
US10052765B2 (en) Robot system having augmented reality-compatible display
US9311608B2 (en) Teaching system and teaching method
CN107428009B (en) Method for commissioning an industrial robot, industrial robot system and control system using the method
JP2019012342A (en) Virtual object display system
US20150045955A1 (en) Robot control apparatus and method for controlling robot
KR20160002329A (en) Robot simulator and file generation method for robot simulator
US20030090489A1 (en) Simulation system
JP2009006410A (en) Remote operation support device and remote operation support program
JP2008254150A (en) Teaching method and teaching device of robot
CN103250109A (en) Method and means for controlling a robot
JP6738007B2 (en) Information processing apparatus, information processing system, control method thereof, and program
WO2015186508A1 (en) Teaching data-generating device and teaching data-generating method for work robot
JPWO2018043524A1 (en) Robot system, robot system control apparatus, and robot system control method
WO2019120481A1 (en) System and method for determining a transformation representation
JP2023017437A (en) Image processing device and robot arrangement method
TWI807990B (en) Robot teaching system
WO2020192882A1 (en) Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP2024044796A (en) Image Generator
JP2023017436A (en) Robot control device
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
CN109664273B (en) Industrial robot cursor dragging teaching method and system
CN113858214A (en) Positioning method and control system for robot operation
JP2024044795A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240404