JP2019063953A - Work system, method for controlling work system and program - Google Patents

Work system, method for controlling work system and program Download PDF

Info

Publication number
JP2019063953A
JP2019063953A JP2017193043A JP2017193043A JP2019063953A JP 2019063953 A JP2019063953 A JP 2019063953A JP 2017193043 A JP2017193043 A JP 2017193043A JP 2017193043 A JP2017193043 A JP 2017193043A JP 2019063953 A JP2019063953 A JP 2019063953A
Authority
JP
Japan
Prior art keywords
image
unit
destination
feature point
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017193043A
Other languages
Japanese (ja)
Inventor
佳一 山下
Keiichi Yamashita
佳一 山下
聡 麻生
Satoshi Aso
聡 麻生
雅比古 有田
Masahiko Arita
雅比古 有田
健士 渡邊
Kenji Watanabe
健士 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Okamura Corp
Original Assignee
Okamura Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Okamura Corp filed Critical Okamura Corp
Priority to JP2017193043A priority Critical patent/JP2019063953A/en
Publication of JP2019063953A publication Critical patent/JP2019063953A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a work system that can reduce possibility for an operator to select a wrong movement destination for an object article by presenting a movement destination to the operator.SOLUTION: A work system includes: an imaging part capable of imaging a movement destination for an object article; a feature point specification part for specifying a feature point for specifying the movement destination; and a synthesis part for synthesizing an image including the movement destination that is imaged by the imaging part and an image that indicates a position of the movement destination based on the feature point.SELECTED DRAWING: Figure 1

Description

本発明は、作業システム、作業システムの制御方法及びプログラムに関する。   The present invention relates to a work system, a control method of the work system, and a program.

特許文献1には、オペレータによる擬人的な動きを検出し、これを複数の信号に変換してロボットデバイスを駆動させる技術が開示されている。   Patent Document 1 discloses a technique for detecting an anthropomorphic motion by an operator and converting the detected motion into a plurality of signals to drive a robot device.

特開2015−168056号公報JP, 2015-168056, A

ロボットデバイスなどのマニピュレータを手作業で動作させる場合、オペレータは対象物品の移動先がどこであるかわからなくなることがある。
本発明の目的は、上述した課題を解決する作業システム、作業システムの制御方法及びプログラムを提供することにある。
When manually operating a manipulator such as a robot device, the operator may not know where the target article is to be moved.
An object of the present invention is to provide a working system, a working system control method, and a program that solve the problems described above.

本発明の第1の態様によれば、作業システムは、対象物品の移動先を撮影可能な撮像部と、前記移動先を特定するための特徴点を特定する特徴点特定部と、前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成する合成部と、を備える。   According to a first aspect of the present invention, a work system includes an imaging unit capable of photographing a destination of a target article, a feature point identifying unit for identifying a feature point for identifying the destination, and the imaging unit. And a combining unit configured to combine the captured image including the moving destination and the image indicating the position of the moving destination based on the feature points.

本発明の第2の態様によれば、第1の態様による作業システムは、前記合成部が合成した画像を出力する映像信号出力部、を備えるものであってよい。   According to a second aspect of the present invention, the work system according to the first aspect may include a video signal output unit that outputs an image synthesized by the synthesizing unit.

本発明の第3の態様によれば、第1の態様または第2の態様による作業システムは、前記合成部が合成した画像を受ける表示部を備え、前記表示部は、受けた前記画像を映し出すものであってよい。   According to a third aspect of the present invention, the working system according to the first aspect or the second aspect includes a display unit for receiving the image synthesized by the synthesizing unit, and the display unit projects the received image. It may be

本発明の第4の態様によれば、作業システムの制御方法は、対象物品の移動先を撮影可能な撮像部を備える作業システムの制御方法であって、前記移動先を特定するための特徴点を特定することと、前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成することと、を含む。   According to a fourth aspect of the present invention, a control method of a work system is a control method of a work system including an imaging unit capable of photographing a movement destination of a target article, and the feature point for specifying the movement destination And combining the image including the moving destination captured by the imaging unit and the image indicating the position of the moving destination based on the feature point.

本発明の第5の態様によれば、プログラムは、対象物品の移動先を撮影可能な撮像部を備える作業システムのコンピュータに、前記移動先を特定するための特徴点を特定することと、前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成することと、を実行させる。   According to a fifth aspect of the present invention, the program specifies a feature point for specifying the movement destination on a computer of a work system including an imaging unit capable of photographing the movement destination of the target article. Combining an image including the moving destination photographed by an imaging unit and an image indicating the position of the moving destination based on the feature point.

本発明の各態様によれば、作業システムは、オペレータに移動先を提示することにより、オペレータが対象物品の移動先を間違える可能性を低減することができる。   According to each aspect of the present invention, the work system can reduce the possibility of the operator mistaking the target article's destination by presenting the destination to the operator.

第1の実施形態による作業システムの構成を示す概略図である。It is a schematic diagram showing composition of a work system by a 1st embodiment. 第1の実施形態によるコントローラの構成を示す概略ブロック図である。It is a schematic block diagram showing composition of a controller by a 1st embodiment. 第1の実施形態によるマーク画像の例を示す図である。コントローラの構成を示す概略ブロック図である。It is a figure which shows the example of the mark image by 1st Embodiment. It is a schematic block diagram showing composition of a controller. 第1の実施形態による作業システムのフローチャートである。It is a flowchart of the work system by 1st Embodiment. 第2の実施形態による作業システムの構成を示す概略図である。It is a schematic diagram showing composition of a work system by a 2nd embodiment. 第2の実施形態によるマーク画像の例を示す第1の図である。It is a 1st figure which shows the example of the mark image by 2nd Embodiment. 第2の実施形態によるマーク画像の例を示す第2の図である。It is a 2nd figure which shows the example of the mark image by 2nd Embodiment. 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。It is a schematic block diagram showing composition of a computer concerning at least one embodiment.

<第1の実施形態>
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態による作業システムの構成を示す概略図である。
作業システム1は、入出力グローブ10と、ヘッドマウントディスプレイ20(表示部の一例)と、マスタコントローラ30と、スレーブコントローラ40と作業ロボット50とを備える。入出力グローブ10とヘッドマウントディスプレイ20とは、オペレータOに装着される。作業ロボット50は、オペレータOと遠隔に設置される。マスタコントローラ30は、入出力グローブ10およびヘッドマウントディスプレイ20と電気的に接続される。スレーブコントローラ40は、作業ロボット50と電気的に接続される。マスタコントローラ30とスレーブコントローラ40とは、ネットワークNを介して通信可能に構成される。
First Embodiment
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 1 is a schematic view showing the configuration of a work system according to the first embodiment.
The work system 1 includes an input / output glove 10, a head mount display 20 (an example of a display unit), a master controller 30, a slave controller 40, and a work robot 50. The input / output glove 10 and the head mounted display 20 are attached to the operator O. The work robot 50 is installed remotely to the operator O. The master controller 30 is electrically connected to the input / output glove 10 and the head mounted display 20. The slave controller 40 is electrically connected to the work robot 50. The master controller 30 and the slave controller 40 are configured to be able to communicate via the network N.

本発明の第1の実施形態による作業システム1は、倉庫から物品を運搬するピッキングシステムに適用される。ピッキングシステムは、コンベアや運搬ロボットによって、物品を収容するビンを作業ロボット50が設置された作業スペースに運搬するシステムである。本発明の第1の実施形態におけるピッキングシステムは、オペレータOが作業ロボット50を遠隔から操作し、ビンに収容された対象物品を、出荷前の仕分けに用いられる仕分け箱Qなどの他の位置に移転させる際に、その移動先をオペレータOに対して提示する。仕分け箱Qとは、例えば、注文を受けた対象物品が購入者に送付する際に使用する標準サイズの段ボールに入らない場合に、実際の送付に使用する大きいサイズの段ボールに梱包する前に、対象物品を1か所に集めておくために使用される仮箱のことである。なお、他の実施形態においては、作業システム1は、ピッキングシステム以外のシステムに適用されてもよい。例えば、作業システム1は、たねまき、仕分け、開梱や梱包、検品、組立などの他の遠隔作業(倉庫内に限らずオフィス、スーパー、病院、図書館、実験室等における遠隔作業を含む)に用いられてもよい。   A work system 1 according to a first embodiment of the present invention is applied to a picking system for transporting articles from a warehouse. The picking system is a system for transporting a bin for storing articles to a work space where the work robot 50 is installed, by a conveyor or a transport robot. In the picking system according to the first embodiment of the present invention, the operator O remotely operates the work robot 50 to place the target articles stored in the bin at other positions such as the sorting box Q used for sorting before shipping. When transferring, the destination of the move is presented to the operator O. Sorting box Q means, for example, before packing into a large-size cardboard used for actual delivery, when the target item for which an order has been received does not fit in the standard-size cardboard used when sending it to the purchaser. It is a temporary box used to collect target articles in one place. In other embodiments, work system 1 may be applied to systems other than a picking system. For example, the work system 1 includes other remote work such as winding, sorting, unpacking, packing, inspection, and assembly (including not only in the warehouse but also in remote offices, supermarkets, hospitals, libraries, laboratories, etc.) It may be used.

入出力グローブ10は、オペレータOの手に取り付けられる手袋状の入出力装置である。入出力グローブ10は、オペレータOの姿勢を検出する姿勢センサと、作業ロボット50の動作をフィードバックするフィードバックデバイスとを備える。入出力グローブ10は、姿勢センサが生成する信号を、操作信号としてマスタコントローラ30に出力する。姿勢センサは、少なくともオペレータOの関節の角度を算出可能に構成される。姿勢センサは、モーションキャプチャによりオペレータOの動きを検出するものであってよい。フィードバックデバイスは、作業ロボット50のマニピュレータ51が触れた物の触感を再現可能な素子(アクチュエータや電極など)である。フィードバックデバイスは、マスタコントローラ30から入力されるフィードバック信号に従って動作する。   The input / output glove 10 is a glove-like input / output device attached to the hand of the operator O. The input / output glove 10 includes an attitude sensor that detects the attitude of the operator O, and a feedback device that feeds back the operation of the work robot 50. The input / output glove 10 outputs a signal generated by the posture sensor to the master controller 30 as an operation signal. The posture sensor is configured to be able to calculate at least the joint angle of the operator O. The attitude sensor may detect the movement of the operator O by motion capture. The feedback device is an element (such as an actuator or an electrode) that can reproduce the tactile sensation of the object touched by the manipulator 51 of the working robot 50. The feedback device operates in accordance with the feedback signal input from the master controller 30.

作業ロボット50は、マニピュレータ51とカメラ52(撮像部の一例)とを備える。
マニピュレータ51は、複数のリンクが複数の関節を介して互いに接続されている。マニピュレータ51は、スレーブコントローラ40から入力される制御信号に従って関節ごとに設けられたアクチュエータを駆動させることによって各関節の角度を調整する。マニピュレータ51の関節とオペレータOの関節とは必ずしも一対一に対応しない。例えば、マニピュレータ51は、5本未満の指(指に相当するリンクと関節との組み合わせ)を備えるものであってよい。また、例えば、マニピュレータ51は、2つ以上の肘(肘に相当する関節)を備えるものであってよい。マニピュレータ51には、触覚センサと姿勢センサとが設けられている。触覚センサは、マニピュレータ51の表面(特に指に相当するリンクの先端)に設けられ、接触した物体の触感を検出する。姿勢センサは、マニピュレータ51の関節ごとに設けられており、各関節の角度および角速度を検出する。姿勢センサの例としては、アクチュエータの運動量を計測するセンサ(回転数センサやストロークセンサなど)が挙げられる。
カメラ52は、関節を介してマニピュレータ51と接続される。カメラ52は、撮像した画像を表す映像情報をスレーブコントローラ40に出力する。カメラ52の姿勢は、スレーブコントローラ40から入力される制御信号に従って調整される。つまり、カメラ52とマニピュレータ51とに接続されたアクチュエータが制御信号に従って駆動することで、カメラ52の姿勢が調整される。
The work robot 50 includes a manipulator 51 and a camera 52 (an example of an imaging unit).
The manipulator 51 has a plurality of links connected to one another via a plurality of joints. The manipulator 51 adjusts the angle of each joint by driving an actuator provided for each joint in accordance with a control signal input from the slave controller 40. The joints of the manipulator 51 and the joints of the operator O do not necessarily correspond one to one. For example, the manipulator 51 may include less than five fingers (combination of links and joints corresponding to the fingers). Also, for example, the manipulator 51 may include two or more elbows (joints corresponding to elbows). The manipulator 51 is provided with a tactile sensor and a posture sensor. The tactile sensor is provided on the surface of the manipulator 51 (in particular, at the tip of the link corresponding to the finger), and detects the tactile sensation of the touched object. A posture sensor is provided for each joint of the manipulator 51, and detects the angle and angular velocity of each joint. Examples of the posture sensor include a sensor (such as a rotation number sensor or a stroke sensor) that measures the amount of movement of the actuator.
The camera 52 is connected to the manipulator 51 via a joint. The camera 52 outputs video information representing a captured image to the slave controller 40. The attitude of the camera 52 is adjusted in accordance with the control signal input from the slave controller 40. That is, when the actuator connected to the camera 52 and the manipulator 51 is driven according to the control signal, the attitude of the camera 52 is adjusted.

ヘッドマウントディスプレイ20は、オペレータOの頭部に装着されることでオペレータOにカメラ52が撮影した画像を提示する装置である。画像の提示方法としては、オペレータの目に対向するディスプレイに画像を表示する方法や、プロジェクタによってオペレータの目に画像を投影する方法が挙げられる。ヘッドマウントディスプレイ20は、マスタコントローラ30から入力される映像信号に従って映像を提示する。ヘッドマウントディスプレイ20は、自身の姿勢を検出する姿勢センサ(例えば、加速度センサやジャイロスコープなど)を備える。ヘッドマウントディスプレイ20は、姿勢センサの検出結果を示す姿勢信号をマスタコントローラ30に出力する。
なお、カメラ52が撮影する空間における座標と、ヘッドマウントディスプレイ20の映し出す空間における座標とは、作業システム1の動作開始前に、キャリブレーションを行うことによって、基準が統一される。カメラ52の撮影方向は、ヘッドマウントディスプレイ20の向きに応じて変更される。つまり、ヘッドマウントディスプレイ20には、ヘッドマウントディスプレイ20を装着したオペレータOがカメラ52の位置で顔の向きを変更した場合に見られる映像が映し出される。
The head mounted display 20 is a device for presenting the image taken by the camera 52 to the operator O by being attached to the head of the operator O. As a method of presenting an image, there is a method of displaying an image on a display facing the eye of the operator, and a method of projecting an image by the projector to the eye of the operator. The head mounted display 20 presents a video according to the video signal input from the master controller 30. The head mounted display 20 includes an attitude sensor (for example, an acceleration sensor, a gyroscope, etc.) that detects the attitude of the head mounted display 20. The head mounted display 20 outputs an attitude signal indicating the detection result of the attitude sensor to the master controller 30.
The coordinates in the space photographed by the camera 52 and the coordinates in the space projected by the head mounted display 20 are standardized by performing calibration before the operation of the work system 1 starts. The shooting direction of the camera 52 is changed according to the orientation of the head mounted display 20. That is, on the head mounted display 20, an image seen when the operator O wearing the head mounted display 20 changes the face direction at the position of the camera 52 is projected.

マスタコントローラ30は、入出力グローブ10から入力される操作信号に基づいて、作業ロボット50のマニピュレータ51の制御信号を生成する。また、マスタコントローラ30は、ヘッドマウントディスプレイ20の位置や向きに応じて、カメラ52の位置や撮影方向を変更させる制御信号を生成する。また、マスタコントローラ30は、作業ロボット50からマニピュレータ51が検出する触感を示す触感信号に基づいて、当該触覚を入出力グローブ10のフィードバックデバイスに再現させるためのフィードバック信号を生成する。また、マスタコントローラ30は、スレーブコントローラ40からカメラ52が撮影した画像の映像信号を受信し、この映像信号に移動先を示す画像の映像信号を合成してヘッドマウントディスプレイ20に出力する。つまり、マスタコントローラ30は、提示装置の一例である。またマスタコントローラ30は、ヘッドマウントディスプレイ20から入力された姿勢信号に基づいて、作業ロボット50のカメラ52の制御信号を生成し、スレーブコントローラ40に送信する。   The master controller 30 generates a control signal of the manipulator 51 of the working robot 50 based on the operation signal input from the input / output glove 10. Further, the master controller 30 generates a control signal for changing the position and the photographing direction of the camera 52 in accordance with the position and the orientation of the head mounted display 20. Further, the master controller 30 generates a feedback signal for causing the feedback device of the input / output glove 10 to reproduce the tactile sense based on the tactile sensation signal indicating the tactile sensation detected by the manipulator 51 from the working robot 50. Further, the master controller 30 receives a video signal of an image captured by the camera 52 from the slave controller 40, combines this video signal with a video signal of an image indicating a movement destination, and outputs the video signal to the head mounted display 20. That is, the master controller 30 is an example of a presentation device. The master controller 30 also generates a control signal of the camera 52 of the work robot 50 based on the attitude signal input from the head mounted display 20 and transmits the control signal to the slave controller 40.

スレーブコントローラ40は、マスタコントローラ30から制御信号を受信し、これに従ってマニピュレータ51及びカメラ52を駆動させる。また、スレーブコントローラ40は、触覚センサ、姿勢センサ、カメラ52から信号を取得し、これをマスタコントローラ30に送信する。   The slave controller 40 receives a control signal from the master controller 30, and drives the manipulator 51 and the camera 52 accordingly. The slave controller 40 also obtains signals from the tactile sensor, the attitude sensor, and the camera 52 and transmits the signals to the master controller 30.

図2は、本発明の第1の実施形態によるマスタコントローラの構成を示す概略ブロック図である。
マスタコントローラ30は、信号受信部301、映像信号出力部302、触感信号変換部303、フィードバック信号出力部304、記憶部305、指示入力部306、特徴点特定部307、合成部308、操作信号入力部309、操作信号変換部310、制御信号送信部311を備える。
FIG. 2 is a schematic block diagram showing the configuration of the master controller according to the first embodiment of the present invention.
The master controller 30 includes a signal reception unit 301, a video signal output unit 302, a tactile sensation signal conversion unit 303, a feedback signal output unit 304, a storage unit 305, an instruction input unit 306, a feature point identification unit 307, a synthesis unit 308, and an operation signal input. The unit 309 includes an operation signal converter 310 and a control signal transmitter 311.

信号受信部301は、スレーブコントローラ40を介して、作業ロボット50から映像信号、触感信号および姿勢信号を受信する。
映像信号出力部302は、受信した映像信号をヘッドマウントディスプレイ20に出力する。映像信号出力部302は、合成部308によって合成されたカメラ52が撮影した画像の映像信号と移動先を示す画像の映像信号とを出力する。
触感信号変換部303は、受信した触感信号をフィードバック信号に変換する。つまり、触感信号変換部303は、作業ロボット50のマニピュレータ51が触れた物体の触感を、フィードバックデバイスに再現させるためのフィードバック信号を生成する。触感信号からフィードバック信号への変換は、例えば触感信号を予め求められた関数に入力することで実現することができる。
フィードバック信号出力部304は、フィードバック信号を入出力グローブ10に出力する。
The signal receiving unit 301 receives a video signal, a tactile sensation signal, and an attitude signal from the working robot 50 via the slave controller 40.
The video signal output unit 302 outputs the received video signal to the head mounted display 20. The video signal output unit 302 outputs a video signal of an image captured by the camera 52 combined by the combining unit 308 and a video signal of an image indicating a movement destination.
The tactile sensation signal conversion unit 303 converts the received tactile sensation signal into a feedback signal. That is, the tactile sensation signal conversion unit 303 generates a feedback signal for causing the feedback device to reproduce the tactile sensation of the object touched by the manipulator 51 of the working robot 50. The conversion from the tactile sensation signal to the feedback signal can be realized, for example, by inputting the tactile sensation signal into a previously obtained function.
The feedback signal output unit 304 outputs a feedback signal to the input / output glove 10.

記憶部305は、作業ロボット50の姿勢を記憶する。作業ロボット50の姿勢には、各関節の位置、角度、角速度が含まれる。また、記憶部305は、対象物品Iとその対象物品Iの形状とを関連付けて予め記憶する。   The storage unit 305 stores the posture of the work robot 50. The posture of the work robot 50 includes the position, angle, and angular velocity of each joint. In addition, the storage unit 305 associates and stores the target article I and the shape of the target article I in advance.

指示入力部306は、ピッキングシステム等から作業指示の入力を受け付ける。作業指示には、作業対象となる対象物品Iを示す情報とその対象物品Iの移動先を示す情報とが含まれる。形状を特定可能な情報の例としては、立体形状を示す三次元形状データ、複数の視点から撮影された二次元画像データ、三次元形状データや二次元画像データから抽出された特徴量情報などが挙げられる。   The instruction input unit 306 receives an input of a work instruction from the picking system or the like. The work instruction includes information indicating the target item I to be the work target and information indicating the movement destination of the target item I. Examples of information capable of specifying a shape include three-dimensional shape data indicating a three-dimensional shape, two-dimensional image data captured from a plurality of viewpoints, feature amount information extracted from three-dimensional shape data and two-dimensional image data, etc. It can be mentioned.

特徴点特定部307は、仕分け箱Qの角の座標を特定する。具体的には、特徴点特定部307は、カメラ52が撮影した画像においてウィンドウを設定し、そのウィンドウ内でエッジがある角度の範囲内で交差する点を特定する。ここで、ウィンドウとは、仕分け箱Qが写る可能性のある範囲を示すウィンドウのことである。また、ウィンドウ内でエッジがある角度の範囲内で交差する点とは、カメラ52が撮影した画像においてウィンドウの範囲の部分の画像をエッジ抽出し、エッジどうしが交差する点のことである。   The feature point identification unit 307 identifies the coordinates of the corner of the sorting box Q. Specifically, the feature point identifying unit 307 sets a window in the image captured by the camera 52, and identifies a point at which the edge intersects within a range of angles within the window. Here, the window is a window indicating the range in which the sorting box Q may be displayed. Further, a point at which an edge in a window intersects within a certain angle range is a point at which an image of a portion of the range of the window is extracted in the image captured by the camera 52 and the edges intersect.

合成部308は、カメラ52が撮影した仕分け箱Qが写る映像信号と対象物品Iの移動先を示す画像を含む映像信号とを合成して合成映像信号を生成する。具体的には、合成部308は、複数の映像信号のうちの仕分け箱Qが写る映像信号と、対象物品Iの移動先を示すマーク画像を含む映像信号とを合成する。マーク画像の例としては、図3において破線で示すように、特徴点特定部307が特定した角Pの座標を基準として定められる、例えば、一定間隔の距離をとった位置ごとに、対象物品Iの輪郭と同様の形状の画像Kを色づけ(ハイライト)したものが挙げられる。また、マーク画像の例としては、例えば、対象物品Iを囲う直方体の形状の画像であってもよいし、仕分け箱Qの角Pの座標を基準として定められる位置を示す任意の画像であってもよい。
なお、合成部308は、注文情報に応じて対象物品Iを特定する。具体的には、購入者が対象物品Iを購入可能なウェブサイトに端末装置を介してアクセスし、対象物品Iを購入する操作をその端末装置に対して行った場合、端末装置は、購入者の操作に応じて、対象物品Iを特定する情報(例えば、ID、名称など)、対象物品Iの購入数、対象物品Iの送付先などを含む情報をウェブサイトの管理サーバに送信する。管理サーバは、端末装置から対象物品Iを特定する情報、対象物品Iの購入数、対象物品Iの送付先などを含む情報を受信すると、その情報を受信した日時と、受信した情報とを記憶する。合成部308は、管理サーバが記憶する対象物品Iを管理サーバから取得する。合成部308は、管理サーバから取得した対象物品Iと同様の対象物品を記憶部305において特定し、特定した対象物品Iに関連付けられている対象物品Iの形状を取得する。これにより、合成部308は、対象物品Iの形状を取得することができ、対象物品Iの輪郭や対象物品Iを囲う直方体の形状を特定することができる。
The synthesizing unit 308 synthesizes the video signal including the sorting box Q photographed by the camera 52 and the video signal including the image indicating the moving destination of the target article I to generate a composite video signal. Specifically, the combining unit 308 combines the video signal in which the sorting box Q among the plurality of video signals is captured with the video signal including the mark image indicating the moving destination of the target article I. As an example of the mark image, as indicated by a broken line in FIG. 3, the target article I is determined based on the coordinates of the angle P specified by the feature point specifying unit 307, for example, at each position at a fixed distance. What colored the image K of the shape similar to the outline of (highlight) is mentioned. Moreover, as an example of a mark image, it may be, for example, an image in the shape of a rectangular parallelepiped surrounding the target article I, or an arbitrary image showing a position determined based on the coordinates of the corner P of the sorting box Q It is also good.
The combining unit 308 specifies the target item I according to the order information. Specifically, when the purchaser accesses the website that can purchase the target item I through the terminal device and performs an operation of purchasing the target item I on the terminal device, the terminal device is the buyer In accordance with the operation of (1), information including the information specifying the target item I (for example, ID, name, etc.), the number of purchases of the target item I, the delivery destination of the target item I, etc. is transmitted to the management server of the website. When the management server receives information including the information specifying the target item I, the number of purchases of the target item I, the delivery destination of the target item I, etc. from the terminal device, it stores the date and time when the information was received and the received information. Do. The combining unit 308 acquires the target item I stored by the management server from the management server. The combining unit 308 identifies, in the storage unit 305, a target article similar to the target article I acquired from the management server, and acquires the shape of the target article I associated with the identified target article I. Thereby, the combining unit 308 can acquire the shape of the target article I, and can specify the contour of the target article I and the shape of a rectangular solid surrounding the target article I.

操作信号入力部309は、入出力グローブ10から操作信号の入力を受け付ける。また、操作信号入力部309は、ヘッドマウントディスプレイ20から姿勢信号の入力を受け付ける。
操作信号変換部310は、操作信号および姿勢信号を制御信号に変換する。つまり、操作信号変換部310は、オペレータOと同じ動作を作業ロボット50に実行させるための制御信号を生成する。操作信号および姿勢信号から制御信号への変換は、例えば、操作信号および姿勢信号を予め求められた関数に入力することで実現することができる。なお、入出力グローブ10の操作信号は、マニピュレータ51の制御信号に変換され、ヘッドマウントディスプレイ20の姿勢信号は、カメラ52の制御信号に変換される。
The operation signal input unit 309 receives an input of an operation signal from the input / output glove 10. The operation signal input unit 309 also receives an input of an attitude signal from the head mounted display 20.
The operation signal converter 310 converts the operation signal and the attitude signal into control signals. That is, the operation signal converter 310 generates a control signal for causing the work robot 50 to execute the same operation as the operator O. The conversion from the operation signal and the attitude signal to the control signal can be realized, for example, by inputting the operation signal and the attitude signal to a function obtained in advance. An operation signal of the input / output glove 10 is converted into a control signal of the manipulator 51, and an attitude signal of the head mounted display 20 is converted into a control signal of the camera 52.

制御信号送信部311は、操作信号変換部310が変換したマニピュレータ51およびカメラ52の制御信号をスレーブコントローラ40に送信する。   The control signal transmission unit 311 transmits the control signal of the manipulator 51 and the camera 52 converted by the operation signal conversion unit 310 to the slave controller 40.

図4は、本発明の第1の実施形態による作業システム1のフローチャートである。
まず、入出力グローブ10の座標系と作業ロボット50のマニピュレータ51との間のキャリブレーションを行う。このとき、ヘッドマウントディスプレイ20の座標系と対象物品Iの移動先における空間の座標系との間のキャリブレーションを同時に行われる。
ピッキングシステムが対象物を作業スペースに運搬すると、ピッキングシステムは、マスタコントローラ30に作業指示を出力する。
マスタコントローラ30の指示入力部306は、ピッキングシステムから作業指示の入力を受け付ける(ステップS1)。次に、信号受信部301は、スレーブコントローラ40を介して作業ロボット50から、カメラ52が撮像した映像信号、触覚センサが検出した触感信号を受信する(ステップS2)。ピッキングシステムは、ビンMに保存されている対象物品Iを仕分けるための仕分け箱Qを、注文情報に応じて、作業ロボット50の位置まで移動させ、仕分け箱Qを停止させる。なお、仕分け箱Qが所定の位置において停止したことは、図示していないビンM、及び、仕分け箱Qを作業ロボット50の位置まで移動させたピッキングシステムの制御装置から停止を示す信号を受信することで報知される。
FIG. 4 is a flowchart of the working system 1 according to the first embodiment of the present invention.
First, calibration between the coordinate system of the input / output glove 10 and the manipulator 51 of the working robot 50 is performed. At this time, calibration between the coordinate system of the head mounted display 20 and the coordinate system of the space in the movement destination of the target article I is simultaneously performed.
When the picking system transports the object to the work space, the picking system outputs a work instruction to the master controller 30.
The instruction input unit 306 of the master controller 30 receives an input of a work instruction from the picking system (step S1). Next, the signal receiving unit 301 receives, from the working robot 50 via the slave controller 40, the video signal captured by the camera 52 and the tactile sensation signal detected by the tactile sensor (step S2). The picking system moves the sorting box Q for sorting the target articles I stored in the bin M to the position of the work robot 50 according to the order information, and stops the sorting box Q. When the sorting box Q is stopped at a predetermined position, a signal indicating a stop is received from the control system of the picking system which has moved the sorting box Q to the position of the work robot 50, not shown. It is informed by

特徴点特定部307は、ピッキングシステムの制御装置から停止を示す信号を受信すると、仕分け箱Qの角(特徴点の1つ)を示す点Pを特定する(ステップS3)。例えば、特徴点特定部307は、カメラ52が仕分け箱Qを含んで撮影した画像においてウィンドウを設定し、そのウィンドウ内の画像のエッジがある範囲内の角度で交差する点Pを特定する。点Pは、対象物品Iの移動先の周辺の点である。
合成部308は、カメラ52が撮影した仕分け箱Qが写る映像信号と対象物品Iの移動先を示す画像を含む映像信号とを合成して合成映像信号を生成する(ステップS4)。具体的には、合成部308は、複数の映像信号のうちの仕分け箱Qが写る映像信号と、角Pの座標を基準として定められる対象物品Iの移動先を示すマーク画像を含む映像信号とを合成する。
When the feature point identifying unit 307 receives a signal indicating stop from the control device of the picking system, the feature point identifying unit 307 identifies a point P indicating a corner (one of the feature points) of the sorting box Q (step S3). For example, the feature point identifying unit 307 sets a window in the image captured by the camera 52 including the sorting box Q, and identifies a point P where the edge of the image in the window intersects at an angle within a certain range. The point P is a point around the movement destination of the target item I.
The synthesizing unit 308 synthesizes the video signal including the sorting box Q photographed by the camera 52 and the video signal including the image indicating the moving destination of the target article I to generate a composite video signal (step S4). Specifically, the combining unit 308 sets a video signal including the sorting box Q among the plurality of video signals, and a video signal including a mark image indicating the movement destination of the target article I determined based on the coordinates of the corner P. Synthesize

映像信号出力部302は、合成部308が合成した映像信号をヘッドマウントディスプレイ20に出力する(ステップS5)。ヘッドマウントディスプレイ20は、映像信号が入力されると当該映像信号に基づいて画像をオペレータOに提示する。このとき、ヘッドマウントディスプレイ20に表示される画像は、例えば、図3に示す画像である。
オペレータOは、ヘッドマウントディスプレイ20が映し出すマーク画像に基づいて対象物品Iを仕分け箱Q内の移動先に移動させる操作を入出力グローブ10に対して行う。オペレータOによって入出力グローブ10が操作されると、操作信号入力部309は、入出力グローブ10から操作信号の入力を受け付ける(ステップS6)。操作信号変換部310は、操作信号をマニピュレータ51の制御信号に変換する(ステップS7)。そして、制御信号送信部311は、ステップS7で変換されたマニピュレータ51の制御信号を、スレーブコントローラ40に送信する(ステップS8)。これにより、スレーブコントローラ40は、オペレータOの操作に基づいて生成された制御信号に従ってマニピュレータ51を動作させる。また、ヘッドマウントディスプレイの姿勢情報は、スレーブコントローラ40に送信される。これにより、スレーブコントローラ40は、オペレータOの視線の動きとカメラ52の視線の動きが一致するように、カメラ52の姿勢を制御する。
したがって、オペレータOは、作業ロボット50のマニピュレータ51と対象物品Iとの位置関係、及び、対象物品Iの移動先を確認することができる。また、オペレータOは、触感信号変換部303によってフィードバックされる触感を感じることができる。その結果、オペレータOは、移動先を間違えることなく正確に対象物品Iを移動先まで移動されることができる。
The video signal output unit 302 outputs the video signal combined by the combining unit 308 to the head mounted display 20 (step S5). When a video signal is input, the head mounted display 20 presents an image to the operator O based on the video signal. At this time, the image displayed on the head mounted display 20 is, for example, an image shown in FIG.
The operator O performs an operation on the input / output glove 10 to move the target article I to the movement destination in the sorting box Q based on the mark image displayed by the head mounted display 20. When the operator O operates the input / output glove 10, the operation signal input unit 309 receives an input of an operation signal from the input / output glove 10 (step S6). The operation signal converter 310 converts the operation signal into a control signal of the manipulator 51 (step S7). Then, the control signal transmission unit 311 transmits the control signal of the manipulator 51 converted at step S7 to the slave controller 40 (step S8). Thereby, the slave controller 40 operates the manipulator 51 according to the control signal generated based on the operation of the operator O. Further, the attitude information of the head mounted display is transmitted to the slave controller 40. Thus, the slave controller 40 controls the attitude of the camera 52 such that the movement of the line of sight of the operator O coincides with the movement of the line of sight of the camera 52.
Therefore, the operator O can confirm the positional relationship between the manipulator 51 of the work robot 50 and the target item I, and the movement destination of the target item I. In addition, the operator O can feel the tactile feedback fed back by the tactile sensation signal converter 303. As a result, the operator O can accurately move the target item I to the destination without mistaking the destination.

<第2の実施形態>
本発明の第2の実施形態による作業システムについて説明する。
図5は、本発明の第2の実施形態による作業システム1の構成を示す概略図である。
作業システム1は、本発明の第1の実施形態による作業システム1と同様に、入出力グローブ10と、ヘッドマウントディスプレイ20と、マスタコントローラ30と、スレーブコントローラ40と作業ロボット50とを備える。
本発明の第2の実施形態による作業システム1は、対象物品Iの移動先として仕分け箱Q、出荷用ベルトコンベアによって運ばれる購入者に対象物品Iを送付する際に使用される用紙であり、対象物品Iを包んで送付することのできる台紙L(以下、単に「台紙L」と記載)、仕分け箱Qを使用せずに対象物品Iを直接梱包することができ、購入者にそのまま送付することのできる段ボールB(以下、単に「段ボールB」と記載)など複数存在するシステムである。なお、本発明の第2の実施形態では、ビンMに収納されている対象物品Iを購入者に送付する際に移動させる移動先の仕分け箱Q、台紙L、段ボールBなどを総称して「入れ物」と呼ぶ。
Second Embodiment
A work system according to a second embodiment of the present invention will be described.
FIG. 5 is a schematic view showing the configuration of a working system 1 according to a second embodiment of the present invention.
Similar to the working system 1 according to the first embodiment of the present invention, the working system 1 includes an input / output glove 10, a head mounted display 20, a master controller 30, a slave controller 40, and a working robot 50.
The work system 1 according to the second embodiment of the present invention is a sorting box Q as a transfer destination of the target article I, and a sheet used when sending the target article I to the purchaser carried by the shipping belt conveyor, The target article I can be packaged directly without using the backing sheet L (hereinafter, simply referred to as the "base sheet L") capable of wrapping and sending the target article I and the sorting box Q, and sends it directly to the purchaser There are a plurality of systems, such as cardboard B (hereinafter simply referred to as "cardboard B") that can be used. In the second embodiment of the present invention, the sorting box Q, the mount L, the cardboard B and the like of the transfer destination to be moved when the target article I stored in the bin M is sent to the purchaser We call it a container.

管理サーバは、対象物品Iを特定する情報、対象物品Iの購入数、対象物品Iの送付先などを含む情報を購入者の端末装置から受信すると、その情報を受信した日時と、受信した情報とを記憶する。ピッキングシステムは、管理サーバが記憶する対象物品Iの注文情報に応じて、各購入者に係る識別情報と、対象物品Iの入れ物(すなわち、仕分け箱Q、台紙L、または、段ボールB)とを関連付けて記憶する。そして、ピッキングシステムは、各購入者が注文した対象物品Iをそれぞれの入れ物へ移動させるために、作業ロボット50の位置まで、入れ物が移動させられる。
なお、台紙L、及び、段ボールBのそれぞれについても、特徴点特定部307は、例えば、カメラ52が撮影した画像においてウィンドウを設定し、そのウィンドウ内でエッジがある角度の範囲内で交差する点を特定することで、特徴点Pを特定することができる。なお、仕分け箱Q、台紙L、及び、段ボールBのそれぞれに適用されるウィンドウの大きさは、異なるものであってもよい。
本発明の第2の実施形態による作業システム1は、入れ物(すなわち、仕分け箱Q、台紙L、及び、段ボールB)のそれぞれについて、本発明の第1の実施形態による作業システム1と同様の処理を行えばよい。
なお、対象物品Iの入れ物が台紙Lである場合に、ヘッドマウントディスプレイ20が映し出すマーク画像は、例えば、図6に示すような対象物品Iの輪郭と同様の形状の画像Kを色づけ(ハイライト)したものである。また、対象物品Iの移動先が段ボールBである場合に、ヘッドマウントディスプレイ20が映し出すマーク画像は、例えば、図7に示すような対象物品Iの輪郭と同様の形状の画像Kを色づけ(ハイライト)したものである。
このように、作業システム1は、オペレータOに移動先を提示することにより、オペレータOが対象物品の移動先を間違える可能性を低減することができる。
When the management server receives information including the information specifying the target item I, the number of purchases of the target item I, the destination of the target item I, etc. from the terminal device of the purchaser, the date and time when the information was received, and the received information And remember. The picking system, according to the order information of the target article I stored by the management server, identification information pertaining to each purchaser, and a container of the target article I (ie, sorting box Q, mount L, or cardboard B) Associate and store. Then, in the picking system, the container is moved to the position of the work robot 50 in order to move the target item I ordered by each purchaser to the respective container.
Note that the feature point identifying unit 307 sets a window in the image captured by the camera 52 for each of the mount L and the cardboard B, for example, and the point at which the edge intersects within the range of an angle within the window The feature point P can be identified by identifying. The size of the window applied to each of the sorting box Q, the mount L, and the cardboard B may be different.
The working system 1 according to the second embodiment of the present invention has the same processing as the working system 1 according to the first embodiment of the present invention for each of the containers (ie, the sorting box Q, the mount L and the cardboard B). You can do
When the container of the target article I is the mount L, the mark image projected by the head mount display 20 is, for example, colored with an image K having the same shape as the outline of the target article I as shown in FIG. ). Further, when the destination of the target article I is the cardboard B, the mark image projected by the head mounted display 20 is, for example, colored an image K having the same shape as the outline of the target article I as shown in FIG. Light).
In this manner, the work system 1 can reduce the possibility that the operator O misplaces the target article's destination by presenting the destination to the operator O.

<その他の実施形態>
以上、図面を参照して本発明の第1の実施形態及び第2の実施形態について説明したが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
例えば、上述の本発明の第1の実施形態及び第2の実施形態では、マスタコントローラ30がオペレータOの近傍に設けられるが、これに限られない。例えば、他の実施形態では、ネットワークN上のサーバ装置において、上述の制御がなされてもよいし、マスタコントローラ30とスレーブコントローラ40の位置関係が入れ替わってもよい。つまり、他の実施形態においては、オペレータOの近傍に設けられたスレーブコントローラ40が、信号の転送のみを行い、作業ロボット50の近傍に設けられたマスタコントローラ30が、上記処理を行ってもよい。
<Other Embodiments>
Although the first and second embodiments of the present invention have been described with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like may be made. It is possible.
For example, in the first and second embodiments of the present invention described above, the master controller 30 is provided in the vicinity of the operator O, but is not limited thereto. For example, in another embodiment, the above-described control may be performed in a server apparatus on the network N, or the positional relationship between the master controller 30 and the slave controller 40 may be interchanged. That is, in another embodiment, the slave controller 40 provided in the vicinity of the operator O may only transfer the signal, and the master controller 30 provided in the vicinity of the work robot 50 may perform the above processing. .

また、上述した本発明の第1の実施形態及び第2の実施形態によれば、マスタコントローラ30は、撮像画像に対象物品Iの移動先のマーク画像を合成するが、これに限られない。例えば、本発明の別の実施形態においては、マーク画像に加えて文字情報を合成し提示してもよい。   Further, according to the first embodiment and the second embodiment of the present invention described above, the master controller 30 combines the mark image of the moving destination of the target article I with the captured image, but the present invention is not limited thereto. For example, in another embodiment of the present invention, character information may be combined and presented in addition to the mark image.

<コンピュータ構成>
本発明の実施形態について説明したが、上述のマスタコントローラ30、スレーブコントローラ40、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
図8は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ5は、図8に示すように、CPU6、メインメモリ7、ストレージ8、インターフェース9を備える。
例えば、上述のマスタコントローラ30、スレーブコントローラ40、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
<Computer configuration>
Although the embodiment of the present invention has been described, the above-mentioned master controller 30, slave controller 40 and other control devices may have a computer system inside. The process of the process described above is stored in the form of a program in a computer readable recording medium, and the process is performed by the computer reading and executing the program. An example of a computer is shown below.
FIG. 8 is a schematic block diagram showing the configuration of a computer according to at least one embodiment.
The computer 5 includes a CPU 6, a main memory 7, a storage 8 and an interface 9, as shown in FIG.
For example, each of the above-described master controller 30, slave controller 40, and other control devices is implemented in the computer 5. The operation of each processing unit described above is stored in the storage 8 in the form of a program. The CPU 6 reads a program from the storage 8 and develops it in the main memory 7 and executes the above processing according to the program. Further, the CPU 6 secures a storage area corresponding to each storage unit described above in the main memory 7 in accordance with a program.

ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。   Examples of the storage 8 include a hard disk drive (HDD), a solid state drive (SSD), a magnetic disk, a magnetooptical disk, a compact disc read only memory (CD-ROM), and a digital versatile disc read only memory (DVD-ROM). , Semiconductor memory and the like. The storage 8 may be internal media directly connected to the bus of the computer 5 or may be external media connected to the computer 5 via the interface 9 or a communication line. When the program is distributed to the computer 5 by a communication line, the computer 5 that has received the distribution may expand the program in the main memory 7 and execute the above processing. In at least one embodiment, storage 8 is a non-transitory tangible storage medium.

また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。   Also, the program may realize part of the functions described above. Furthermore, the program may be a file capable of realizing the above-described functions in combination with a program already recorded in a computer system, a so-called difference file (difference program).

なお、本発明の各実施形態において、カメラ52が撮像した映像は、例えばヘッドマウントディスプレイ20が映し出す仮想現実(Virtual Reality)内に設けられたスクリーンに映し出される、すなわち仮想現実の一部として映し出されるものであってもよい。また、カメラ52が撮像した映像は、その映像そのものが例えばスマートグラスに映し出される、すなわち拡張現実(Augmented Reality)として映し出されるものであってもよい。また、カメラ52が撮像した映像は、その映像そのものが例えばホロレンズに映し出される、すなわち複合現実(Mixed Reality)として映し出されるものであってもよい。   In each embodiment of the present invention, the image captured by the camera 52 is, for example, displayed on a screen provided in a virtual reality displayed by the head mounted display 20, that is, displayed as part of the virtual reality. It may be one. In addition, the image captured by the camera 52 may be such that the image itself is displayed on, for example, a smart glass, that is, displayed as Augmented Reality. In addition, the image captured by the camera 52 may be such that the image itself is projected on, for example, a holo lens, that is, it is projected as mixed reality.

なお、本発明の第1の実施形態において、マスタコントローラ30は、入出力グローブ10から入力される操作信号に基づいて、作業ロボット50のマニピュレータ51の制御信号を生成するものとして説明した。しかしながら、本発明の別の実施形態では、マスタコントローラ30は、例えば、モーションキャプチャなどの技術を用いて操作者の手の動きを読み取り、読み取った動きに基づいて、作業ロボット50のマニピュレータ51の制御信号を生成するものであってもよい。   In the first embodiment of the present invention, the master controller 30 has been described as generating the control signal of the manipulator 51 of the work robot 50 based on the operation signal input from the input / output glove 10. However, in another embodiment of the present invention, the master controller 30 reads the motion of the operator's hand using a technique such as, for example, motion capture, and controls the manipulator 51 of the work robot 50 based on the read motion. It may generate a signal.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例であり、発明の範囲を限定しない。これらの実施形態は、発明の要旨を逸脱しない範囲で、種々の追加、種々の省略、種々の置き換え、種々の変更を行ってよい。   While several embodiments of the present invention have been described, these embodiments are examples and do not limit the scope of the invention. These embodiments may be subjected to various additions, various omissions, various substitutions, and various modifications without departing from the scope of the invention.

1・・・作業システム
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・入出力グローブ
20・・・ヘッドマウントディスプレイ
30・・・マスタコントローラ
40・・・スレーブコントローラ
50・・・作業ロボット
51・・・マニピュレータ
52・・・カメラ
301・・・信号受信部
302・・・映像信号出力部
303・・・触感信号変換部
304・・・フィードバック信号出力部
305・・・記憶部
306・・・指示入力部
307・・・特徴点特定部
308・・・合成部
309・・・操作信号入力部
310・・・操作信号変換部
311・・・制御信号送信部
B・・・段ボール
I・・・対象物
L・・・台紙
M・・・ビン
N・・・ネットワーク
O・・・オペレータ
Q・・・仕分け箱
1: Work system 5: Computer 6: CPU
7 Main memory 8 Storage 9 Interface 10 Input / output glove 20 Head mounted display 30 Master controller 40 Slave controller 50 Work robot 51 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · Input unit 307 ··· Feature point identification unit 308 ··· Combining unit 309 ··· Operation signal input unit 310 ··· Operation signal conversion unit 311 ··· Control signal transmission unit B ··· Cardboard I ··· Target Object L ... Mount M ... Bin N ... Network O ... Operator Q ... Sorting box

Claims (5)

対象物品の移動先を撮影可能な撮像部と、
前記移動先を特定するための特徴点を特定する特徴点特定部と、
前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成する合成部と、
を備える作業システム。
An imaging unit capable of photographing the destination of the target article;
A feature point identification unit that identifies a feature point for identifying the movement destination;
A combining unit configured to combine an image including the moving destination photographed by the imaging unit and an image indicating the position of the moving destination based on the feature point;
Working system equipped with
前記合成部が合成した画像を出力する映像信号出力部、
を備える請求項1に記載の作業システム。
A video signal output unit that outputs an image synthesized by the synthesis unit;
The working system according to claim 1, comprising:
前記合成部が合成した画像を受ける表示部を備え、
前記表示部は、受けた前記画像を映し出す、
請求項2に記載の作業システム。
A display unit for receiving an image synthesized by the synthesis unit;
The display unit projects the received image.
The work system according to claim 2.
対象物品の移動先を撮影可能な撮像部を備える作業システムの制御方法であって、
前記移動先を特定するための特徴点を特定することと、
前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成することと、
を含む作業システムの制御方法。
A control method of a work system including an imaging unit capable of photographing a movement destination of a target article, the control method comprising:
Specifying a feature point for specifying the movement destination;
Combining the image including the moving destination captured by the imaging unit and the image indicating the position of the moving destination based on the feature point;
How to control the working system including:
対象物品の移動先を撮影可能な撮像部を備える作業システムのコンピュータに、
前記移動先を特定するための特徴点を特定することと、
前記撮像部が撮影した前記移動先を含む画像と前記移動先の位置を示す画像とを前記特徴点に基づいて合成することと、
を実行させるプログラム。
In a computer of a work system including an imaging unit capable of photographing a destination of a target article,
Specifying a feature point for specifying the movement destination;
Combining the image including the moving destination captured by the imaging unit and the image indicating the position of the moving destination based on the feature point;
A program that runs
JP2017193043A 2017-10-02 2017-10-02 Work system, method for controlling work system and program Pending JP2019063953A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193043A JP2019063953A (en) 2017-10-02 2017-10-02 Work system, method for controlling work system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193043A JP2019063953A (en) 2017-10-02 2017-10-02 Work system, method for controlling work system and program

Publications (1)

Publication Number Publication Date
JP2019063953A true JP2019063953A (en) 2019-04-25

Family

ID=66339692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193043A Pending JP2019063953A (en) 2017-10-02 2017-10-02 Work system, method for controlling work system and program

Country Status (1)

Country Link
JP (1) JP2019063953A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002057A1 (en) * 2019-07-01 2021-01-07 オムロン株式会社 Work management device and program
JP7386451B2 (en) 2019-10-03 2023-11-27 株式会社豆蔵 Teaching system, teaching method and teaching program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000052289A (en) * 1998-08-03 2000-02-22 Kagawa Univ Sensing method for minute manipulation, manipulation method and its device
JP2001100821A (en) * 1999-09-30 2001-04-13 Japan Science & Technology Corp Method and device for controlling manipulator
JP2003311661A (en) * 2002-04-24 2003-11-05 Hitachi Ltd Remote operation controlling device
JP2004243516A (en) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment
JP2008093813A (en) * 2006-10-16 2008-04-24 Yamatake Corp Operation support device and method thereof
JP2009119579A (en) * 2007-11-16 2009-06-04 Canon Inc Information processor, and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000052289A (en) * 1998-08-03 2000-02-22 Kagawa Univ Sensing method for minute manipulation, manipulation method and its device
JP2001100821A (en) * 1999-09-30 2001-04-13 Japan Science & Technology Corp Method and device for controlling manipulator
JP2003311661A (en) * 2002-04-24 2003-11-05 Hitachi Ltd Remote operation controlling device
JP2004243516A (en) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment
JP2008093813A (en) * 2006-10-16 2008-04-24 Yamatake Corp Operation support device and method thereof
JP2009119579A (en) * 2007-11-16 2009-06-04 Canon Inc Information processor, and information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002057A1 (en) * 2019-07-01 2021-01-07 オムロン株式会社 Work management device and program
JP2021009562A (en) * 2019-07-01 2021-01-28 オムロン株式会社 Work management device and program
JP7386451B2 (en) 2019-10-03 2023-11-27 株式会社豆蔵 Teaching system, teaching method and teaching program

Similar Documents

Publication Publication Date Title
US11534907B2 (en) Management system and control method
US10786906B2 (en) Robot system
WO2019189661A1 (en) Learning dataset creation method and device
JP2020535509A (en) Methods, devices and systems for automatically annotating target objects in images
US9919427B1 (en) Visualizing robot trajectory points in augmented reality
JP7376268B2 (en) 3D data generation device and robot control system
JP7396872B2 (en) Simulation device and robot system using augmented reality
US10614149B2 (en) Coordinate information conversion device and computer readable medium
JP6902369B2 (en) Presentation device, presentation method and program, and work system
WO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
WO2022014312A1 (en) Robot control device and robot control method, and program
US11395102B2 (en) Field cooperation system and management device
JPWO2018043524A1 (en) Robot system, robot system control apparatus, and robot system control method
JP2019063953A (en) Work system, method for controlling work system and program
US11366450B2 (en) Robot localization in a workspace via detection of a datum
CN112655027A (en) Maintenance support system, maintenance support method, program, method for generating processed image, and processed image
CN105320274A (en) Direct three-dimensional pointing using light tracking and relative position detection
CN106203252A (en) Find out manipulator shaft angle by camera and select robot
CN112074705A (en) Method and system for optical inertial tracking of moving object
US20220168902A1 (en) Method And Control Arrangement For Determining A Relation Between A Robot Coordinate System And A Movable Apparatus Coordinate System
KR20190048810A (en) Apparatus and method for providing augmented reality contents
Li et al. A combined vision-inertial fusion approach for 6-DoF object pose estimation
WO2023148804A1 (en) Designation device, robot system, designation method, and recording medium
WO2023148798A1 (en) Designation device, robot system, designation method, and recording medium
KR20170089575A (en) A distribution management system using augment reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803