JP6297784B2 - Manipulator device - Google Patents

Manipulator device Download PDF

Info

Publication number
JP6297784B2
JP6297784B2 JP2013059018A JP2013059018A JP6297784B2 JP 6297784 B2 JP6297784 B2 JP 6297784B2 JP 2013059018 A JP2013059018 A JP 2013059018A JP 2013059018 A JP2013059018 A JP 2013059018A JP 6297784 B2 JP6297784 B2 JP 6297784B2
Authority
JP
Japan
Prior art keywords
manipulator
touch panel
unit
camera
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013059018A
Other languages
Japanese (ja)
Other versions
JP2014184494A (en
Inventor
大志茂 純
純 大志茂
啓一 綿貫
啓一 綿貫
和憲 楓
和憲 楓
千摩 坂井田
千摩 坂井田
雅大 平野
雅大 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsubakimoto Chain Co
Saitama University NUC
Original Assignee
Tsubakimoto Chain Co
Saitama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsubakimoto Chain Co, Saitama University NUC filed Critical Tsubakimoto Chain Co
Priority to JP2013059018A priority Critical patent/JP6297784B2/en
Publication of JP2014184494A publication Critical patent/JP2014184494A/en
Application granted granted Critical
Publication of JP6297784B2 publication Critical patent/JP6297784B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、対象物を処理するマニピュレータを備えたマニピュレータ装置に関する。   The present invention relates to a manipulator device including a manipulator that processes an object.

肉眼又は顕微鏡下で、対象物を処理するマニピュレータ装置がある(例えば、特許文献1、2)。ユーザは、マニピュレータの操作部(例えば、ダイヤル、操作レバー等)を操作して、マニピュレータを操作しながら対象物を処理する。   There are manipulator devices that process an object under the naked eye or under a microscope (for example, Patent Documents 1 and 2). The user operates an operation unit (for example, a dial, an operation lever, etc.) of the manipulator to process the object while operating the manipulator.

特開平10−3043号公報Japanese Patent Laid-Open No. 10-3043 特開2003−84209号公報JP 2003-84209 A

しかしながら、特許文献1、2のマニピュレータ装置の場合、処理対象の対象物を見ているユーザの視野にマニピュレータの操作部は入らない。そのため、ユーザは、マニピュレータの操作に習熟するまで、対象物の処理とマニピュレータの操作とを同時に行うことができない。   However, in the case of the manipulator devices disclosed in Patent Documents 1 and 2, the manipulator operation unit does not enter the field of view of the user who is viewing the object to be processed. Therefore, the user cannot perform the processing of the object and the operation of the manipulator at the same time until he / she becomes familiar with the operation of the manipulator.

本願はかかる事情に鑑みてなされたものである。その目的は、操作が容易であり、ユーザが対象物と操作部とを同一視野に入れることができるマニピュレータ装置を提供することにある。   The present application has been made in view of such circumstances. An object of the present invention is to provide a manipulator device that is easy to operate and allows a user to place an object and an operation unit in the same field of view.

本願の一観点は、マニピュレータの先端部に取り付けられた処理具で対象物を処理するマニピュレータ装置において、前記処理具により処理される対象物を撮像する撮像部と、該撮像部が撮像した画像を画面に表示し、かつ前記マニピュレータの動作を制御するための指示を受け付けるタッチパネルと、該タッチパネルが受け付けた指示に基づいて、前記マニピュレータの動作を制御する制御部と、前記タッチパネルの画面上における距離及び前記先端部の移動距離を対応付けて記憶し、かつ前記対象物の三次元位置を記憶する記憶部とを備え、前記タッチパネルは前記対象物に対応する前記処理具の三次元目標位置を受け付けるようにしてあり、前記制御部は、前記タッチパネルが受け付けた前記三次元目標位置及び前記記憶部に記憶された内容に基づいて、前記マニピュレータの動作を制御するようにしてあり、前記制御部は、前記タッチパネルが受け付けたジェスチャー入力により、前記マニピュレータの粗動作と微動作とを切り替えるようにしてあり、前記タッチパネルがタップ操作を受けた場合には前記粗動作に切り替え、前記タッチパネルがドラッグ操作を受けた場合には前記微動作に切り替えることを特徴とする。 One aspect of the present application is that, in a manipulator device that processes an object with a processing tool attached to a distal end portion of the manipulator, an imaging unit that images the object to be processed by the processing tool, and an image captured by the imaging unit A touch panel that displays on the screen and receives an instruction for controlling the operation of the manipulator, a control unit that controls the operation of the manipulator based on the instruction received by the touch panel, a distance on the screen of the touch panel, and A storage unit that stores the movement distance of the tip in association with each other and stores a three-dimensional position of the object, and the touch panel receives a three-dimensional target position of the processing tool corresponding to the object. The control unit is stored in the three-dimensional target position received by the touch panel and the storage unit. Based on the contents, Yes so as to control the operation of the manipulator, the control unit, the gesture input which the touch panel is accepted, Yes so as to switch between coarse operation and fine operation of the manipulator, said touch panel When a tap operation is received, the operation is switched to the coarse operation, and when the touch panel receives a drag operation, the operation is switched to the fine operation .

本願の一観点によれば、ユーザが対象物と操作部とを同一視野に入れることができる。   According to one aspect of the present application, the user can put the object and the operation unit in the same field of view.

マニピュレータ装置の外観を正面側から示した斜視図である。It is the perspective view which showed the external appearance of the manipulator apparatus from the front side. マニピュレータ装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of a manipulator apparatus. コンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of a computer. マニピュレータ部における構成要素の配置を概略的に示した上面図である。It is the top view which showed roughly arrangement | positioning of the component in a manipulator part. タッチパネルの画面に表示される第一カメラ及び第二カメラの撮像画面を説明する説明図である。It is explanatory drawing explaining the imaging screen of the 1st camera displayed on the screen of a touch panel, and a 2nd camera. タッチパネルの画面に表示される第一カメラ及び第二カメラの撮像画面を説明する説明図である。It is explanatory drawing explaining the imaging screen of the 1st camera displayed on the screen of a touch panel, and a 2nd camera. CPUがマニピュレータにパルス信号を送信する処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process which CPU transmits a pulse signal to a manipulator. CPUがマニピュレータに3次元移動に係るパルス信号を送信する処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process which CPU transmits the pulse signal which concerns on a three-dimensional movement to a manipulator. 入力装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of an input device. マニピュレータ装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of a manipulator apparatus. クリーン箱の構成例を示す説明図である。It is explanatory drawing which shows the structural example of a clean box.

以下、本願の一実施例におけるマニピュレータ装置を、実施の形態を示す図面に基づいて説明する。本願に係るマニピュレータ装置は、微生物、動植物細胞、薄膜、多結晶シリコン、半導体、機械部品、工具、岩石、鉱物等を操作又は加工するために使用される。以下では、茎頂培養(メリクロン)のために、植物体の成長点である茎頂を摘出する場合を例に挙げて、本願に係るマニピュレータ装置を説明する。本実施の形態における処理の対象物は、例えばジャガイモの芽である。   Hereinafter, a manipulator device in one example of the present application will be described based on the drawings showing embodiments. The manipulator device according to the present application is used to manipulate or process microorganisms, animal and plant cells, thin films, polycrystalline silicon, semiconductors, mechanical parts, tools, rocks, minerals, and the like. Below, the case where the shoot tip which is a growth point of a plant body is extracted for shoot tip culture (Mericron) is mentioned as an example, and the manipulator device concerning this application is explained. An object to be processed in the present embodiment is, for example, a potato bud.

実施の形態1
図1は、マニピュレータ装置1の外観を正面側から示した斜視図である。マニピュレータ装置1は、略水平な机面上に載置されている。ここで、マニピュレータ装置1による処理の対象物に対してユーザが正対した場合、対象物からユーザ側を前側又は正面側、その反対を後側又は背面側とする。ユーザから対象物に向かって、対象物の右側方をマニピュレータ装置1の右側、対象物の左側方をマニピュレータ装置1の左側とする。対象物から机面側をマニピュレータ装置1の下側、その反対をマニピュレータ装置1の上側とする。
Embodiment 1
FIG. 1 is a perspective view showing the appearance of the manipulator device 1 from the front side. The manipulator device 1 is placed on a substantially horizontal desk surface. Here, when the user faces the object to be processed by the manipulator device 1, the user side from the object is the front side or the front side, and the opposite is the rear side or the back side. From the user toward the object, the right side of the object is the right side of the manipulator device 1, and the left side of the object is the left side of the manipulator device 1. The desk surface side from the object is the lower side of the manipulator device 1, and the opposite is the upper side of the manipulator device 1.

図2は、マニピュレータ装置1のハードウェア構成例を示すブロック図である。マニピュレータ装置1は、マニピュレータ部10及び操作表示部20を含む。
マニピュレータ部10は、マニピュレータ11により対象物を処理又は操作(把持、切断、剥離、除去、移動、組み立て、分解、分離等)する構成部である。また、マニピュレータ部10は、対象物を処理する作業状況を撮像する構成部でもある。操作表示部20は、マニピュレータ11を操作し、かつジャガイモの芽から茎頂を摘出する作業状況を表示する構成部である。
FIG. 2 is a block diagram illustrating a hardware configuration example of the manipulator device 1. The manipulator device 1 includes a manipulator unit 10 and an operation display unit 20.
The manipulator unit 10 is a component that processes or manipulates (manipulates, cuts, peels, removes, moves, assembles, disassembles, separates, etc.) an object with the manipulator 11. The manipulator unit 10 is also a component that captures an image of a work situation in which an object is processed. The operation display unit 20 is a component that operates the manipulator 11 and displays a work status of extracting the shoot apex from the potato bud.

マニピュレータ部10と、操作表示部20とは、操作信号、画像信号等を伝達するケーブルで接続されている。なお、マニピュレータ部10と、操作表示部20とは、無線で接続されてもよい。
図1の例では、マニピュレータ部10と操作表示部20とは、隣接する位置に配置されている。しかし、操作表示部20はマニピュレータ部10を遠隔操作することができるので、マニピュレータ部10と操作表示部20との配置位置は、物理的な距離の制約を受けない。
The manipulator unit 10 and the operation display unit 20 are connected by a cable that transmits an operation signal, an image signal, and the like. The manipulator unit 10 and the operation display unit 20 may be connected wirelessly.
In the example of FIG. 1, the manipulator unit 10 and the operation display unit 20 are arranged at adjacent positions. However, since the operation display unit 20 can remotely control the manipulator unit 10, the arrangement position of the manipulator unit 10 and the operation display unit 20 is not restricted by a physical distance.

マニピュレータ部10は、マニピュレータ11、カメラ(撮像部)12、可動ステージ13、ベース板14及びクリーン箱(箱体)15を含む。なお、図2では、図1に示すベース板14は省略されている。
マニピュレータ11は、対象物を処理する処理具(エフェクタ)を前後、左右及び上下に移動する3軸アクチュエータである。マニピュレータ11は、例えばステッピングモータ、ピエゾ素子、リニアモータ等により駆動される。以下では、マニピュレータ11は、パルス電力に同期して動作するステッピングモータで駆動されるものとする。
The manipulator unit 10 includes a manipulator 11, a camera (imaging unit) 12, a movable stage 13, a base plate 14, and a clean box (box body) 15. In FIG. 2, the base plate 14 shown in FIG. 1 is omitted.
The manipulator 11 is a three-axis actuator that moves a processing tool (effector) for processing an object back and forth, left and right, and up and down. The manipulator 11 is driven by, for example, a stepping motor, a piezo element, a linear motor, or the like. In the following, it is assumed that the manipulator 11 is driven by a stepping motor that operates in synchronization with pulse power.

マニピュレータ11は、互いに直交する3本の棒状体を有している。当該アームは、マニピュレータ11のアーム111に対応する。1本のアーム111の先端部にジャガイモの芽を操作するための様々な処理具が取り付けられる。当該処理具は、例えば刃、シリンジ(注射器)、鋏11m(メッツェン)、ワイヤ駆動多関節ユニットである。図1では、アーム111の先端部に鋏11mが取り付けられた様子を例示している。   The manipulator 11 has three rod-shaped bodies that are orthogonal to each other. The arm corresponds to the arm 111 of the manipulator 11. Various processing tools for operating the potato buds are attached to the tip of one arm 111. The processing tool is, for example, a blade, a syringe (syringe), a spear 11m (metzen), or a wire-driven articulated unit. FIG. 1 illustrates a state in which a flange 11m is attached to the tip of the arm 111.

カメラ12は、例えばCCDカメラである。カメラ12は、拡大レンズが装着されたマイクロスコープカメラでもよいし、拡大機能のない通常カメラでもよい。カメラ12は、処理対象及び処理内容に応じて、適宜選択されてよい。本実施の形態では、例えば0.2mm前後の微小な茎頂を撮像するために、マイクロスコープカメラがカメラ12として用いられている。   The camera 12 is, for example, a CCD camera. The camera 12 may be a microscope camera equipped with a magnifying lens or a normal camera without a magnifying function. The camera 12 may be appropriately selected according to the processing target and the processing content. In the present embodiment, for example, a microscope camera is used as the camera 12 in order to image a minute shoot apex of about 0.2 mm.

カメラ12の数は、1台でもよいし、複数台でもよい。本実施の形態では、ジャガイモの芽を立体的に撮像することが好ましいため、マニピュレータ装置1は前後及び左右の2方向を夫々光軸とする2台のカメラ12を備えている。勿論、マニピュレータ装置1は、上下方向からジャガイモの芽を撮像する3台目のカメラ12を備えてもよい。また、1方向のみからの画像で作業することができる場合、マニピュレータ装置1は、1台のカメラ12のみを備えていてもよい。   The number of cameras 12 may be one or more. In this embodiment, since it is preferable to three-dimensionally image the potato buds, the manipulator device 1 includes two cameras 12 having front and rear and left and right directions as optical axes, respectively. Of course, the manipulator device 1 may include a third camera 12 that images the potato buds in the vertical direction. Further, when it is possible to work with an image from only one direction, the manipulator device 1 may include only one camera 12.

可動ステージ13は、対象物が載置される載置台である。可動ステージ13は、操作表示部20による制御の下、机面と略平行なステージ面に載置された対象物を例えばモータ駆動により、移動することができる。可動ステージ13の移動は、例えば前後又は左右方向の並進移動でもよいし、対象物が載置された位置を中心に回転する回転移動でもよい。あるいは、可動ステージ13による移動は、並進移動及び回転移動でもよい。   The movable stage 13 is a mounting table on which an object is mounted. The movable stage 13 can move an object placed on a stage surface substantially parallel to the desk surface, for example, by driving a motor under the control of the operation display unit 20. The movement of the movable stage 13 may be, for example, a translational movement in the front-rear or left-right direction, or may be a rotational movement that rotates around the position where the object is placed. Alternatively, the movement by the movable stage 13 may be translational movement and rotational movement.

図1の例では、可動ステージ13の上に、ジャガイモの芽が設置されたトレイ131tと、摘出された茎頂を培養するための培地トレイ132tとが左右方向に配列した状態で載置されている。マニピュレータ11の先端部に取り付けられた鋏11mがジャガイモの茎頂を摘出した場合、可動ステージ13は鋏11mの直下に培地トレイ132tを移動させる。マニピュレータ11は、鋏11mを下方へ移動して、ジャガイモの茎頂を培地トレイ132tに移植する。   In the example of FIG. 1, a tray 131t on which potato buds are installed and a medium tray 132t for cultivating the extracted shoot apex are placed on the movable stage 13 in a state of being arranged in the left-right direction. Yes. When the cocoon 11m attached to the tip of the manipulator 11 extracts the potato shoot apex, the movable stage 13 moves the medium tray 132t immediately below the cocoon 11m. The manipulator 11 moves the cocoon 11m downward, and transplants the potato shoot apex to the medium tray 132t.

ベース板14は、マニピュレータ11、カメラ12及び可動ステージ13が載置される平坦な載置板である。ベース板14は、左右方向に延びた矩形状をなす。   The base plate 14 is a flat mounting plate on which the manipulator 11, the camera 12, and the movable stage 13 are mounted. The base plate 14 has a rectangular shape extending in the left-right direction.

クリーン箱15は、直方体状をなす。クリーン箱15は、例えばスチール製の枠と、当該枠に嵌合する例えば透明なアクリル板とから構成されている。クリーン箱15は、殺菌及び抗菌処理が施されている。クリーン箱15の底部のサイズはベース板14と略同一又はベース板14よりも若干小さい。クリーン箱15の底部は、開放されている。クリーン箱15がベース板14の周に沿って、ベース板14上に載置された場合、ベース板14上に載置されたマニピュレータ11、カメラ12及び可動ステージ13は、外部とクリーン箱15の壁面により、遮断される。クリーン箱15は、異物、微生物等の侵入を阻止することにより、対象物の処理空間をクリーンな無菌状態に保持することができる。   The clean box 15 has a rectangular parallelepiped shape. The clean box 15 is composed of, for example, a steel frame and, for example, a transparent acrylic plate that fits into the frame. The clean box 15 is subjected to sterilization and antibacterial treatment. The size of the bottom of the clean box 15 is substantially the same as or slightly smaller than the base plate 14. The bottom of the clean box 15 is open. When the clean box 15 is placed on the base plate 14 along the circumference of the base plate 14, the manipulator 11, the camera 12 and the movable stage 13 placed on the base plate 14 are connected to the outside of the clean box 15. It is blocked by the wall surface. The clean box 15 can keep the processing space of the target object in a clean aseptic state by preventing the entry of foreign matter, microorganisms, and the like.

なお、マニピュレータ部10は、可動ステージ13上の対象物に光を照射する照明装置を含んでもよい。   The manipulator unit 10 may include an illuminating device that irradiates the object on the movable stage 13 with light.

操作表示部20は、コンピュータ21、タッチパネル22、キーボード23、マウス24及びモニタ25を含む。
コンピュータ21は、マニピュレータ11及び可動ステージ13の制御を行ない、かつカメラ12が撮像した画像をタッチパネル22及びモニタ25に表示するための装置である。コンピュータ21は、デスクトップ型PC(パーソナルコンピュータ)、ノートブックPC、タブレット型PC、スマートフォン等である。以下では、コンピュータ21は、デスクトップ型PCであるものとする。なお、コンピュータ21がタッチパネル22等の入力機能を備えるタブレット型PC、スマートフォン等である場合、マニピュレータ装置1は、タッチパネル22、キーボード23及びマウス24を備えていなくてもよい。
The operation display unit 20 includes a computer 21, a touch panel 22, a keyboard 23, a mouse 24, and a monitor 25.
The computer 21 is a device that controls the manipulator 11 and the movable stage 13 and displays an image captured by the camera 12 on the touch panel 22 and the monitor 25. The computer 21 is a desktop PC (personal computer), a notebook PC, a tablet PC, a smartphone, or the like. In the following, it is assumed that the computer 21 is a desktop PC. When the computer 21 is a tablet PC, a smartphone, or the like having an input function such as the touch panel 22, the manipulator device 1 may not include the touch panel 22, the keyboard 23, and the mouse 24.

図3は、コンピュータ21のハードウェア構成例を示すブロック図である。コンピュータ21は、CPU(制御部)(Central Processing Unit)211、ROM(Read Only Memory)212及びRAM(Random Access Memory)213を含む。また、コンピュータ21は、ハードディスク(記憶部)214、ディスクドライブ215、インタフェース216及び通信部217を含む。コンピュータ21の各構成部は、バス21bを介して相互に接続されている。   FIG. 3 is a block diagram illustrating a hardware configuration example of the computer 21. The computer 21 includes a central processing unit (CPU) 211, a read only memory (ROM) 212, and a random access memory (RAM) 213. The computer 21 includes a hard disk (storage unit) 214, a disk drive 215, an interface 216, and a communication unit 217. Each component of the computer 21 is connected to each other via a bus 21b.

CPU211は、プロセッサであり、マニピュレータ装置1の各構成部を制御する。CPU211は、ハードディスク214に記憶されたプログラム21PをRAM213に読み出し、RAM213に読み出したプログラム21Pを実行する。   The CPU 211 is a processor and controls each component of the manipulator device 1. The CPU 211 reads the program 21P stored in the hard disk 214 to the RAM 213, and executes the program 21P read to the RAM 213.

ROM212は、不揮発性の半導体メモリ又は半導体メモリ以外の読み出し専用記憶媒体である。ROM212は、コンピュータ21の起動時にCPU211が実行するBIOS(Basic Input/Output System)、ファームウェア等を記憶している。
RAM213は、例えばSRAM又はDRAMであり、CPU211が実行する処理の過程で必要な作業変数、データ等を一時的に記憶する。なお、RAM213は主記憶装置の一例であり、RAM213の代わりにフラッシュメモリ、メモリカード等が用いられてもよい。
The ROM 212 is a non-volatile semiconductor memory or a read-only storage medium other than the semiconductor memory. The ROM 212 stores a basic input / output system (BIOS) executed by the CPU 211 when the computer 21 is started up, firmware, and the like.
The RAM 213 is, for example, an SRAM or a DRAM, and temporarily stores work variables, data, and the like that are necessary during the process executed by the CPU 211. The RAM 213 is an example of a main storage device, and a flash memory, a memory card, or the like may be used instead of the RAM 213.

ハードディスク214は、CPU211が実行するプログラム21P及び各種ファイルを記憶する補助記憶装置である。プログラム21Pは、CPU211が実行する処理の手順を記録している。   The hard disk 214 is an auxiliary storage device that stores the program 21P executed by the CPU 211 and various files. The program 21P records a procedure of processing executed by the CPU 211.

ハードディスク214は、コンピュータ21の内部に取り付けられるものであっても、コンピュータ21の外部に置かれるものであってもよい。ハードディスク214は、補助記憶装置の一例であり、大容量の情報の記憶が可能なフラッシュメモリ又はCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc、登録商標)等の光ディスク21aで代替されてもよい。   The hard disk 214 may be attached inside the computer 21 or may be placed outside the computer 21. The hard disk 214 is an example of an auxiliary storage device, and is a flash memory capable of storing a large amount of information or an optical disk such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a BD (Blu-ray Disc, registered trademark). 21a may be substituted.

ディスクドライブ215は、外部の記憶媒体であるCD、DVD、BD等の光ディスク21aから情報を読み出し、光ディスク21aに情報を記録する補助記憶装置である。CPU211は、インタフェース216からディスクドライブ215に対する光ディスク21aの排出命令を受け付けた場合、ディスクドライブ215の図示しないトレイを排出する。   The disk drive 215 is an auxiliary storage device that reads information from an optical disk 21a such as a CD, DVD, or BD, which is an external storage medium, and records information on the optical disk 21a. When the CPU 211 receives a command for ejecting the optical disk 21 a from the interface 216 to the disk drive 215, the CPU 211 ejects a tray (not shown) of the disk drive 215.

インタフェース216は、タッチパネル22、キーボード23、マウス24及びモニタ25とバス21bとを接続するコネクタである。なお、インタフェース216は、USBコネクタ、Light Peakコネクタ等を含んでもよい。
インタフェース216は、マニピュレータ部10のマニピュレータ11、カメラ12及び可動ステージ13とも接続されている。
The interface 216 is a connector that connects the touch panel 22, the keyboard 23, the mouse 24, and the monitor 25 to the bus 21b. Note that the interface 216 may include a USB connector, a Light Peak connector, and the like.
The interface 216 is also connected to the manipulator 11, the camera 12, and the movable stage 13 of the manipulator unit 10.

通信部217は、有線又は無線通信のモデム、LAN(Local Area Network)カード、ルータ等である。通信部217は、LAN、WAN(Wide Area Network)、インターネット、電話回線、衛星回線等の通信ネットワークと接続されている。なお、通信部217は、パラレルポート又はプリンタポートを備えていてもよい。
なお、マニピュレータ部10と操作表示部20とが夫々遠隔地に配置された場合、通信部217は操作表示部20をマニピュレータ部10と接続するための接続装置となる。かかる場合、マニピュレータ部10に通信部217と同様の構成部を追加する。
The communication unit 217 is a wired or wireless communication modem, a LAN (Local Area Network) card, a router, or the like. The communication unit 217 is connected to a communication network such as a LAN, a WAN (Wide Area Network), the Internet, a telephone line, and a satellite line. Note that the communication unit 217 may include a parallel port or a printer port.
In addition, when the manipulator unit 10 and the operation display unit 20 are respectively disposed at remote locations, the communication unit 217 serves as a connection device for connecting the operation display unit 20 to the manipulator unit 10. In such a case, the same configuration unit as the communication unit 217 is added to the manipulator unit 10.

なお、プログラム21Pは、ディスクドライブ215を介して光ディスク21aからRAM213に読み込まれてもよい。あるいは、プログラム21Pは、通信部217を介して外部の情報処理装置又は記録装置からRAM213に読み込まれてもよい。さらに、プログラム21Pを記録したフラッシュメモリ等の半導体メモリ21cが、コンピュータ21内に実装されていてもよい。   The program 21P may be read from the optical disk 21a into the RAM 213 via the disk drive 215. Alternatively, the program 21P may be read into the RAM 213 from an external information processing apparatus or recording apparatus via the communication unit 217. Furthermore, a semiconductor memory 21c such as a flash memory in which the program 21P is recorded may be mounted in the computer 21.

図2に戻り、説明を続ける。
タッチパネル22は、表示装置とタッチパッドのような位置入力装置を組み合わせた電子部品であり、画面上の表示を押すことで機器を操作する入力装置である。タッチパネル22の表示装置は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画面を有している。
Returning to FIG. 2, the description will be continued.
The touch panel 22 is an electronic component that combines a display device and a position input device such as a touch pad, and is an input device that operates a device by pressing a display on a screen. The display device of the touch panel 22 has a screen such as a liquid crystal display, an organic EL (Electro Luminescence) display, or a CRT (Cathode Ray Tube) display.

コンピュータ21は、カメラ12が撮像した画像をタッチパネル22の画面に表示する。タッチパネル22は、ユーザによるタッチ操作に基づいてマニピュレータ11及び可動ステージ13に係る入力信号を生成し、生成した入力信号をコンピュータ21に出力する。コンピュータ21は、タッチパネル22から受け付けた入力信号に基づいて、マニピュレータ11及び可動ステージ13を操作する。   The computer 21 displays an image captured by the camera 12 on the screen of the touch panel 22. The touch panel 22 generates input signals related to the manipulator 11 and the movable stage 13 based on a user's touch operation, and outputs the generated input signals to the computer 21. The computer 21 operates the manipulator 11 and the movable stage 13 based on the input signal received from the touch panel 22.

キーボード23は、文字信号等をコンピュータ21に入力する入力装置である。コンピュータ21は、キーボードから矢印キー等に対応する信号を受け付けた場合、当該信号に応じてマニピュレータ11を操作してもよい。   The keyboard 23 is an input device that inputs character signals and the like to the computer 21. When the computer 21 receives a signal corresponding to an arrow key or the like from the keyboard, the computer 21 may operate the manipulator 11 according to the signal.

マウス24は、タッチパネル22及びモニタ25の画面上に表示されるポインタやアイコンを操作する入力装置である。コンピュータ21は、マウス24からポインタの座標に係る信号を受け付けた場合、当該信号に基づいてマニピュレータ11を操作する。   The mouse 24 is an input device that operates pointers and icons displayed on the screens of the touch panel 22 and the monitor 25. When the computer 21 receives a signal related to the coordinates of the pointer from the mouse 24, the computer 21 operates the manipulator 11 based on the signal.

モニタ25は、カメラ12が撮像した画像を表示する表示装置である。モニタ25は、ユーザがジャガイモの芽から茎頂を摘出する場合、補助的に使用される。モニタ25は、ユーザがマニピュレータ装置1の使用方法を初心者に教える場合、教育用の表示装置として使用されてよい。
なお、カメラ12が撮像した画像は、コンピュータ21を介在させずに、直接モニタ25に送信されてもよい。
The monitor 25 is a display device that displays an image captured by the camera 12. The monitor 25 is used as an auxiliary when the user extracts the shoot apex from the potato sprout. The monitor 25 may be used as an educational display device when the user teaches a beginner how to use the manipulator device 1.
The image captured by the camera 12 may be transmitted directly to the monitor 25 without using the computer 21.

次に、マニピュレータ装置1の動作について説明する。
図4は、マニピュレータ部10における構成要素の配置を概略的に示した上面図である。図4では、ベース板14及びクリーン箱15は、省略されている。図4において、上方はマニピュレータ装置1の前側を、右方はマニピュレータ装置1の左側を示している。
Next, the operation of the manipulator device 1 will be described.
FIG. 4 is a top view schematically showing the arrangement of components in the manipulator unit 10. In FIG. 4, the base plate 14 and the clean box 15 are omitted. In FIG. 4, the upper side shows the front side of the manipulator device 1, and the right side shows the left side of the manipulator device 1.

以下、可動ステージ13は、回転移動を行う円板状の回転ステージ13rであるものとする。ジャガイモの芽1gは、回転ステージ13rの略中心位置に載置されている。図4には、左方から右方へ延びる刃11bの先端が示されている。刃11bは、マニピュレータ11が有するアーム111の先端部に取り付けられる処理具の一例である。
以下、前後、左右及び上下方向を夫々x軸、y軸及びz軸方向と呼ぶ。後側から前側に向かう方向をx軸の+とする。右から左へ向かう方向をy軸の+とする。下から上へ向かう方向をz軸の+とする。
Hereinafter, it is assumed that the movable stage 13 is a disk-shaped rotary stage 13r that performs rotational movement. The potato sprouts 1g are placed at substantially the center position of the rotary stage 13r. FIG. 4 shows the tip of the blade 11b extending from the left to the right. The blade 11b is an example of a processing tool attached to the distal end portion of the arm 111 included in the manipulator 11.
Hereinafter, the front, rear, left, and right directions are referred to as the x-axis, y-axis, and z-axis directions, respectively. The direction from the rear side to the front side is defined as + on the x axis. The direction from right to left is defined as + on the y-axis. The direction from the bottom to the top is defined as + on the z axis.

マニピュレータ部10のカメラ12は、x軸の−側からジャガイモの芽1gを撮像する第一カメラ(撮像部)12xと、y軸の+側からジャガイモの芽1gを撮像する第二カメラ(撮像部)12yとを含む。第一カメラ12x及び第二カメラ12yは、夫々拡大レンズ121x、121yが装着されたマイクロスコープカメラである。   The camera 12 of the manipulator unit 10 includes a first camera (imaging unit) 12x that images 1 g of potato buds from the negative side of the x axis, and a second camera (imaging unit) that images 1 g of potato buds from the positive side of the y axis. ) 12y. The first camera 12x and the second camera 12y are microscope cameras equipped with magnifying lenses 121x and 121y, respectively.

図5は、タッチパネル22の画面に表示される第一カメラ12x及び第二カメラ12yの撮像画面22pを説明する説明図である。撮像画面22pは、第一カメラ画面221p及び第二カメラ画面222pを含む。第一カメラ画面221pは、第一カメラ12xが撮像した画像が表示される撮像画面22pの子画面である。第二カメラ画面222pは、第二カメラ12yが撮像した画像が表示される撮像画面22pの子画面である。   FIG. 5 is an explanatory diagram illustrating the imaging screen 22p of the first camera 12x and the second camera 12y displayed on the screen of the touch panel 22. The imaging screen 22p includes a first camera screen 221p and a second camera screen 222p. The first camera screen 221p is a child screen of the imaging screen 22p on which an image captured by the first camera 12x is displayed. The second camera screen 222p is a child screen of the imaging screen 22p on which an image captured by the second camera 12y is displayed.

第一カメラ画面221p及び第二カメラ画面222pの上方には、カメラ12の位置関係を示す簡単な配置図が夫々表示されている。第一カメラ画面221pの上方の配置図では、第一カメラ12xに対応するカメラの記号が強調表示されている。第二カメラ画面222pの上方の配置図では、第二カメラ12yに対応するカメラの記号が強調表示されている。
当該配置図において、各カメラの記号に夫々対応する各光軸の交点には、刃11bの先端に対応する記号が表示されている。
Simple layout diagrams showing the positional relationship of the cameras 12 are respectively displayed above the first camera screen 221p and the second camera screen 222p. In the layout diagram above the first camera screen 221p, the symbol of the camera corresponding to the first camera 12x is highlighted. In the layout diagram above the second camera screen 222p, the symbol of the camera corresponding to the second camera 12y is highlighted.
In the layout diagram, a symbol corresponding to the tip of the blade 11b is displayed at the intersection of each optical axis corresponding to the symbol of each camera.

第一カメラ画面221p及び第二カメラ画面222pの下方には、夫々第一カメラ12x及び第二カメラ12yが撮像する画像の方位が表示されている。第一カメラ12xは、ジャガイモの芽1gをyz平面に投影した画像として撮像する。他方、第二カメラ12yは、ジャガイモの芽1gをxz平面に投影した画像として撮像する。
第一カメラ画面221p及び第二カメラ画面222pにおいて、刃11bの先端には、夫々ポインタ2pが表示されている。
Below the first camera screen 221p and the second camera screen 222p, the orientations of images captured by the first camera 12x and the second camera 12y are displayed, respectively. The first camera 12x captures an image obtained by projecting 1g of potato buds onto the yz plane. On the other hand, the second camera 12y captures an image obtained by projecting potato buds 1g on the xz plane.
On the first camera screen 221p and the second camera screen 222p, a pointer 2p is displayed at the tip of the blade 11b.

図6は、タッチパネル22の画面に表示される第一カメラ12x及び第二カメラ12yの撮像画面22pを説明する説明図である。図6は、タッチパネル22に対する例えば1回のジェスチャー入力により、マニピュレータ11が刃11bをジャガイモの芽1gの外側近傍に移動した後の状態を示している。図6における黒矢印は、刃11bの移動軌跡を示している。   FIG. 6 is an explanatory diagram illustrating the imaging screen 22p of the first camera 12x and the second camera 12y displayed on the screen of the touch panel 22. FIG. 6 shows a state after the manipulator 11 moves the blade 11b to the vicinity of the outside of the potato sprouts 1g by one gesture input on the touch panel 22, for example. A black arrow in FIG. 6 indicates a movement locus of the blade 11b.

ユーザは、刃11bを移動させるためにマニピュレータ11に指令を送る場合、タッチパネル22に対してジェスチャー入力を行う。
ユーザは、第一カメラ画面221pが表示されたタッチパネル22の表面において、刃11bを移動させたい目標位置1tを例えばタップする。ただし、この目標位置は、刃11bの移動先近傍におけるジャガイモの芽1gの部分である。例えば、図5及び図6では、第一カメラ画面221pにおいて、符号1tで示されたジャガイモの芽1gの部分を目標位置1tに仮定している。ユーザが目標位置1tをタップした場合、マニピュレータ11は刃11bの先端をタップされたジャガイモの芽1gの外側近傍に移動する。図6の例の場合、刃11bは、目標位置1tに対して+y側及び−x側の近傍に移動している。上述のタップ操作による刃11bの移動は、高速な粗動作である。
The user performs a gesture input on the touch panel 22 when sending a command to the manipulator 11 to move the blade 11b.
The user taps the target position 1t to which the blade 11b is to be moved on the surface of the touch panel 22 on which the first camera screen 221p is displayed, for example. However, this target position is the portion of the potato sprout 1g in the vicinity of the movement destination of the blade 11b. For example, in FIGS. 5 and 6, it is assumed that the portion of the potato sprout 1g indicated by reference numeral 1t on the first camera screen 221p is the target position 1t. When the user taps the target position 1t, the manipulator 11 moves the tip of the blade 11b to the vicinity of the outside of the tapped potato sprout 1g. In the case of the example in FIG. 6, the blade 11b has moved to the vicinity of the + y side and the −x side with respect to the target position 1t. The movement of the blade 11b by the tap operation described above is a high-speed coarse operation.

なお、上述において、ユーザが第一カメラ画面221pで目標位置1tをタップした場合、マニピュレータ11はyz平面及びxz平面の両平面における刃11bの移動を実行する。すなわち、マニピュレータ11は、第一カメラ画面221pの奥行き方向についても刃11bの移動を実行する。そのため、図5の第一カメラ画面221pにおいて、例えば移動前の刃11bがジャガイモの芽1gよりも手前側(−x側)に位置していても、マニピュレータ11は刃11bをより奥側に位置するジャガイモの芽1gの近傍に移動する。   In the above description, when the user taps the target position 1t on the first camera screen 221p, the manipulator 11 executes the movement of the blade 11b in both the yz plane and the xz plane. That is, the manipulator 11 performs the movement of the blade 11b also in the depth direction of the first camera screen 221p. Therefore, on the first camera screen 221p of FIG. 5, for example, even if the blade 11b before movement is located on the near side (−x side) from the potato sprouts 1g, the manipulator 11 positions the blade 11b on the far side. Move to the vicinity of 1g of potato sprouts.

ユーザが第一カメラ画面221pにてポインタ2pに対してドラッグ操作を行った場合、マニピュレータ11は刃11bをyz平面上で、ポインタ2pがドラッグされた方向に、ドラッグされた長さに対応する距離だけ刃11bを移動させる。ユーザが第二カメラ画面222pにおいてポインタ2pに対してドラッグ操作を行った場合、マニピュレータ11は刃11bをxz平面上で、ポインタ2pがドラッグされた方向に、ドラッグされた長さに対応する距離だけ刃11bを移動させる。   When the user performs a drag operation on the pointer 2p on the first camera screen 221p, the manipulator 11 moves the blade 11b on the yz plane in the direction in which the pointer 2p is dragged and the distance corresponding to the dragged length. Only the blade 11b is moved. When the user performs a drag operation on the pointer 2p on the second camera screen 222p, the manipulator 11 moves the blade 11b on the xz plane in the direction in which the pointer 2p is dragged by a distance corresponding to the dragged length. The blade 11b is moved.

マニピュレータ11は、ユーザがタッチパネル22上で行ったドラッグ操作に同期させて、刃11bを移動する。マニピュレータ11は、ユーザがタッチパネル22上で行ったドラッグ操作の速度に比例する速度で、刃11bを移動する。そのため、マニピュレータ11に粗動作を実行させるか、微動作を実行させるかを、ユーザはタッチパネル22に対するジェスチャー入力の速度で選択することができる。   The manipulator 11 moves the blade 11b in synchronization with the drag operation performed on the touch panel 22 by the user. The manipulator 11 moves the blade 11b at a speed proportional to the speed of the drag operation performed on the touch panel 22 by the user. Therefore, the user can select whether to cause the manipulator 11 to perform a rough operation or to perform a fine operation at the speed of gesture input to the touch panel 22.

コンピュータ21のCPU211は、タッチパネル22からの入力信号に基づいて、上述の動作をマニピュレータ11に実行させる。以下に、コンピュータ21が実行する処理について説明する。
最初に、ドラッグ操作に基づきCPU211がマニピュレータ11に処理具を一平面の面内方向へ移動させる場合の処理について説明する。次に、タップ操作に基づきCPU211がマニピュレータ11に処理具をジャガイモの芽1gの外側近傍における三次元方向へ移動させる場合の処理について説明する。
The CPU 211 of the computer 21 causes the manipulator 11 to perform the above-described operation based on an input signal from the touch panel 22. Below, the process which the computer 21 performs is demonstrated.
First, processing when the CPU 211 causes the manipulator 11 to move the processing tool in the in-plane direction of one plane based on a drag operation will be described. Next, a process when the CPU 211 moves the processing tool in the three-dimensional direction in the vicinity of the outside of the potato sprouts 1g based on the tap operation will be described.

まず、コンピュータ21にマニピュレータ11を制御させるための準備として、CPU211はタッチパネル22の画面上での距離と、実空間であるxyz空間における距離との対応関係をハードディスク214に記憶させる。   First, as a preparation for causing the computer 21 to control the manipulator 11, the CPU 211 stores in the hard disk 214 the correspondence between the distance on the screen of the touch panel 22 and the distance in the xyz space that is the real space.

CPU211は、第一カメラ12x及び第二カメラ12yが夫々撮像した画像から、撮像物のエッジ検出を一定時間間隔で実行し、実行結果をRAM213に記憶している。CPU211は、各画像に刃11bが含まれている場合、エッジ検出の結果から、刃11の先端位置を一定時間間隔でRAM213に記憶している。CPU211は、タッチパネル22に対してポインタ2pを刃11の先端位置に表示させる。   The CPU 211 executes edge detection of the imaged object from the images captured by the first camera 12x and the second camera 12y at regular time intervals, and stores the execution result in the RAM 213. When the blade 11b is included in each image, the CPU 211 stores the tip position of the blade 11 in the RAM 213 at regular time intervals from the result of edge detection. The CPU 211 causes the touch panel 22 to display the pointer 2p at the tip position of the blade 11.

ユーザは、第一カメラ画面221pに表示されているポインタ2pを任意の方向に任意の長さだけドラッグする。CPU211は、タッチパネル22からユーザのドラッグ終了点に対応する入力信号を受け付ける。CPU211は、ドラッグ開始点の座標及び受け付けたドラッグ終了点の座標から、yz平面での刃11bの移動方向を算出する。CPU211は、算出した方向に一定距離(単位は例えばmm)だけ刃11bを移動させるパルス信号をマニピュレータ11に送信する。マニピュレータ11は、CPU211から受信したパルス信号に基づいて、刃11bをyz平面における面内方向に一定距離だけ移動させる。   The user drags the pointer 2p displayed on the first camera screen 221p by an arbitrary length in an arbitrary direction. The CPU 211 receives an input signal corresponding to the user's drag end point from the touch panel 22. The CPU 211 calculates the moving direction of the blade 11b on the yz plane from the coordinates of the drag start point and the received drag end point. The CPU 211 transmits to the manipulator 11 a pulse signal that moves the blade 11b in the calculated direction by a certain distance (unit: mm, for example). Based on the pulse signal received from the CPU 211, the manipulator 11 moves the blade 11b by a certain distance in the in-plane direction on the yz plane.

第一カメラ12xは、マニピュレータ11が移動した後の刃11bの画像を撮像し、撮像した画像信号をCPU211に送信する。CPU211は、第一カメラ12xから受信した画像信号に基づいて行ったエッジ検出から、第一カメラ画面221pの画像における移動後の刃11bの位置を取得する。CPU211は、第一カメラ画面221pの画像における移動後の刃11bの位置と、移動前の刃11bの位置とから、第一カメラ画面221pにおける刃11bの移動距離を算出する。   The first camera 12x captures an image of the blade 11b after the manipulator 11 has moved, and transmits the captured image signal to the CPU 211. The CPU 211 acquires the position of the blade 11b after movement in the image of the first camera screen 221p from edge detection performed based on the image signal received from the first camera 12x. The CPU 211 calculates the movement distance of the blade 11b on the first camera screen 221p from the position of the blade 11b after movement in the image of the first camera screen 221p and the position of the blade 11b before movement.

CPU211は、算出した第一カメラ画面221pにおける刃11bの移動距離(単位は例えばピクセル)と、ユーザのドラッグ操作に起因してCPU211自身がマニピュレータ11に送信したパルス信号に対応する一定距離(単位は例えばmm)とを対応付けて、ハードディスク214に記憶する。これにより、第一カメラ画面221p上での距離と、実空間であるxyz空間におけるyz面内での距離とが対応付けられてハードディスク214に記憶される。ここで、ハードディスク214に記憶された情報を第一変換情報と呼ぶ。   The CPU 211 calculates the movement distance (unit is, for example, a pixel) of the blade 11b on the calculated first camera screen 221p and a certain distance (unit is the unit) corresponding to the pulse signal transmitted to the manipulator 11 by the CPU 211 itself due to the user's drag operation. For example, mm) is associated and stored in the hard disk 214. Thereby, the distance on the first camera screen 221p and the distance in the yz plane in the xyz space that is the real space are associated with each other and stored in the hard disk 214. Here, the information stored in the hard disk 214 is referred to as first conversion information.

次に、ユーザは、第二カメラ画面222pに表示されているポインタ2pを任意の方向にドラッグする。以降、CPU211は、上述と同様の処理を実行する。CPU211は、算出した第二カメラ画面222pにおける刃11bの移動距離(単位は例えばピクセル)と、ユーザのドラッグ操作に起因してCPU211自身がマニピュレータ11に送信したパルス信号に対応する一定距離(単位は例えばmm)とを対応付けて、ハードディスク214に記憶する。これにより、第二カメラ画面221p上での距離と、実空間であるxyz空間におけるxz面内での距離とが対応付けられてハードディスク214に記憶される。ここで、ハードディスク214に記憶された情報を第二変換情報と呼ぶ。   Next, the user drags the pointer 2p displayed on the second camera screen 222p in an arbitrary direction. Thereafter, the CPU 211 performs the same processing as described above. The CPU 211 calculates the movement distance (unit is, for example, a pixel) of the blade 11b on the calculated second camera screen 222p and a fixed distance (unit is the unit) corresponding to the pulse signal transmitted to the manipulator 11 by the CPU 211 itself due to the user's drag operation. For example, mm) is associated and stored in the hard disk 214. As a result, the distance on the second camera screen 221p and the distance in the xz plane in the xyz space that is the real space are associated with each other and stored in the hard disk 214. Here, the information stored in the hard disk 214 is referred to as second conversion information.

図7は、CPU211がマニピュレータ11にパルス信号を送信する処理の手順の一例を示すフローチャートである。
CPU211は、タップ、ダブルタップ、ドラッグ、ピンチイン、ピンチアウト等のジェスチャー入力に応じて、第一カメラ画面221p又は第二カメラ画面222pから各画面上での距離及び方向に係る情報を受け付ける(ステップS11)。当該情報は、例えば画面上での座標である。CPU211は、受け付けた情報から第一カメラ画面221p又は第二カメラ画面222p上での距離及び処理具の移動方向を算出する(ステップS12)。
FIG. 7 is a flowchart illustrating an example of a processing procedure in which the CPU 211 transmits a pulse signal to the manipulator 11.
The CPU 211 receives information related to the distance and direction on each screen from the first camera screen 221p or the second camera screen 222p in response to a gesture input such as tap, double tap, drag, pinch-in, pinch-out (step S11). ). The information is, for example, coordinates on the screen. The CPU 211 calculates the distance and the moving direction of the processing tool on the first camera screen 221p or the second camera screen 222p from the received information (step S12).

CPU211は、ハードディスク214から第一変換情報及び第二変換情報を読み出す(ステップS13)。CPU211は、読み出した第一変換情報及び第二変換情報に基づいて、算出した各画面上での距離をxyz空間での距離に換算する(ステップS14)。CPU211は、算出した処理具の移動方向及び換算した距離に対応するパルス信号を生成する(ステップS15)。CPU211は、生成したパルス信号をマニピュレータ11に送信し(ステップS16)、処理を終了する。   The CPU 211 reads the first conversion information and the second conversion information from the hard disk 214 (step S13). The CPU 211 converts the calculated distance on each screen into the distance in the xyz space based on the read first conversion information and second conversion information (step S14). The CPU 211 generates a pulse signal corresponding to the calculated movement direction of the processing tool and the converted distance (step S15). The CPU 211 transmits the generated pulse signal to the manipulator 11 (step S16) and ends the process.

次に、CPU211がマニピュレータ11に処理具をジャガイモの芽1gの外側近傍における三次元方向へ移動させる場合の処理について説明する。
まず、コンピュータ21にマニピュレータ11の動作を三次元的に制御させるための準備として、ジャガイモの芽1gの表面における立体座標分布をハードディスク214に記憶させる。そのために、第一カメラ画面221pでのy座標及びz座標並びに第二カメラ画面222pでのx座標及びz座標(単位は例えばピクセル)を、画像に含まれるジャガイモの芽1gに対して実行したエッジ検出処理により取得する。
Next, processing when the CPU 211 moves the processing tool to the manipulator 11 in the three-dimensional direction in the vicinity of the outside of the potato sprouts 1g will be described.
First, as a preparation for causing the computer 21 to three-dimensionally control the operation of the manipulator 11, the solid coordinate distribution on the surface of the potato bud 1g is stored in the hard disk 214. To that end, the y-coordinate and z-coordinate on the first camera screen 221p and the x-coordinate and z-coordinate (unit: pixel, for example) on the second camera screen 222p are executed on the potato bud 1g included in the image. Obtained by detection processing.

他方、第一カメラ画面221p及び第二カメラ画面222pの奥行き方向に夫々対応するx座標及びy座標(単位は例えばmm)は、公知の奥行き方向の距離推定方法により取得する。公知の奥行き方向の距離推定方法として、例えば両眼立体視法、コントラストを用いた方法、レンズの色収差を用いた方法、物体に生じるボケ具合を用いた方法がある。あるいは、奥行き方向の距離は、ジャガイモの芽1gの形状を単純形状に近似し、概略数値として求められてもよい。更には、奥行き方向の距離は、手作業により計測されてもよい。   On the other hand, the x-coordinate and y-coordinate (unit: mm) respectively corresponding to the depth direction of the first camera screen 221p and the second camera screen 222p are acquired by a known depth direction distance estimation method. As a known distance estimation method in the depth direction, there are, for example, a binocular stereoscopic method, a method using contrast, a method using chromatic aberration of a lens, and a method using the degree of blurring generated in an object. Alternatively, the distance in the depth direction may be obtained as an approximate numerical value by approximating the shape of the potato bud 1g to a simple shape. Furthermore, the distance in the depth direction may be measured manually.

ジャガイモの芽1gに対するエッジ検出から取得した第一カメラ画面221pでのy座標及びz座標(単位は例えばピクセル)と、距離推定方法等により取得したx座標(単位は例えばmm)とを対応付けてハードディスク214に記憶させる。ここで、ハードディスク214に記憶された情報を第一奥行き情報と呼ぶ。   The y-coordinate and z-coordinate (unit is, for example, a pixel) on the first camera screen 221p acquired from edge detection for the potato bud 1g are associated with the x-coordinate (the unit is, for example, mm) acquired by a distance estimation method or the like. It is stored in the hard disk 214. Here, the information stored in the hard disk 214 is referred to as first depth information.

また、ジャガイモの芽1gに対するエッジ検出処理から取得した第二カメラ画面222pでのx座標及びz座標(単位は例えばピクセル)と、距離推定方法等により取得したy座標(単位は例えばmm)とを対応付けてハードディスク214に記憶させる。ここで、ハードディスク214に記憶された情報を第二奥行き情報と呼ぶ。   Further, the x-coordinate and z-coordinate (unit is, for example, a pixel) on the second camera screen 222p acquired from the edge detection process for the potato bud 1g, and the y-coordinate (the unit is, for example, mm) acquired by a distance estimation method or the like. The data are stored in the hard disk 214 in association with each other. Here, the information stored in the hard disk 214 is referred to as second depth information.

CPU211は、第一カメラ画面221p又は第二カメラ画面222pにおいて、目標位置1tとして、ジャガイモの芽1gの2次元座標(単位は例えばピクセル)を受け付ける。CPU211は、第一奥行き情報又は第二奥行き情報を参照することにより、目標位置1tから奥行き距離(単位は例えばmm)を取得することができる。   On the first camera screen 221p or the second camera screen 222p, the CPU 211 receives the two-dimensional coordinates (unit is, for example, a pixel) of the potato bud 1g as the target position 1t. The CPU 211 can acquire a depth distance (unit: mm, for example) from the target position 1t by referring to the first depth information or the second depth information.

図8は、CPU211がマニピュレータ11に3次元移動に係るパルス信号を送信する処理の手順の一例を示すフローチャートである。
CPU211は、タップ、ダブルタップ等のジェスチャー入力に応じて、第一カメラ画面221p又は第二カメラ画面222pから目標位置1tを受け付ける(ステップS21)。当該情報は、例えば画面上での二次元座標である。CPU211は、受け付けた情報から第一カメラ画面221p又は第二カメラ画面222p上での距離及び処理具の移動方向を算出する(ステップS22)。
FIG. 8 is a flowchart illustrating an example of a processing procedure in which the CPU 211 transmits a pulse signal related to three-dimensional movement to the manipulator 11.
The CPU 211 receives the target position 1t from the first camera screen 221p or the second camera screen 222p in response to a gesture input such as a tap or double tap (step S21). The information is, for example, two-dimensional coordinates on the screen. The CPU 211 calculates the distance and the moving direction of the processing tool on the first camera screen 221p or the second camera screen 222p from the received information (step S22).

CPU211は、ハードディスク214から第一変換情報及び第二変換情報を読み出す(ステップS23)。CPU211は、読み出した第一変換情報及び第二変換情報に基づいて、算出した各画面上での距離をxyz空間での距離に換算する(ステップS24)。ステップS24で換算される距離は、yz平面又はxz平面上での距離(単位は例えばmm)である。   The CPU 211 reads the first conversion information and the second conversion information from the hard disk 214 (step S23). The CPU 211 converts the calculated distance on each screen into a distance in the xyz space based on the read first conversion information and second conversion information (step S24). The distance converted in step S24 is a distance on the yz plane or the xz plane (unit: mm).

CPU211は、ハードディスク214から第一奥行き情報及び第二奥行き情報を読み出す(ステップS25)。CPU211は、読み出した第一奥行き情報及び第二奥行き情報に基づいて、ステップS21で受け付けた目標位置1tの2次元座標に対応する奥行き距離(単位は例えばmm)を取得する(ステップS26)。   The CPU 211 reads the first depth information and the second depth information from the hard disk 214 (step S25). Based on the read first depth information and second depth information, the CPU 211 acquires a depth distance (unit: mm) corresponding to the two-dimensional coordinates of the target position 1t received in step S21 (step S26).

CPU211は、ステップS22で算出した処理具の移動方向、ステップS24で換算した平面上での距離(単位は例えばmm)及びステップS26で取得した奥行き距離(単位は例えばmm)に基づいて、xyz空間での処理具の移動距離及び移動方向を決定する(ステップ27)。なお、CPU211は、ステップS27において、目標位置1tへの処理具の移動距離及び移動方向を決定するのではない。CPU211が受け付けた目標位置1tそのものは、ジャガイモの芽1tの表面位置なので、目標位置1tに処理具が移動された場合、処理具がジャガイモの芽1tに接触する虞がある。そこで、CPU211は、最終的な移動先位置を、ジャガイモの芽1tの例えば上下方向における中心軸に対して目標位置1tから外側に一定距離だけ離れた位置に決定する。   The CPU 211 determines the xyz space based on the moving direction of the processing tool calculated in step S22, the distance on the plane converted in step S24 (unit: mm) and the depth distance acquired in step S26 (unit: mm). The movement distance and the movement direction of the processing tool are determined (step 27). Note that the CPU 211 does not determine the moving distance and moving direction of the processing tool to the target position 1t in step S27. Since the target position 1t itself received by the CPU 211 is the surface position of the potato sprout 1t, the processing tool may come into contact with the potato sprout 1t when the processing tool is moved to the target position 1t. Therefore, the CPU 211 determines the final destination position at a position away from the target position 1t by a certain distance with respect to the central axis of the potato bud 1t in the vertical direction, for example.

CPU211は、決定したxyz空間での処理具の移動距離及び移動方向に対応するパルス信号を生成する(ステップS28)。CPU211は、生成したパルス信号をマニピュレータ11に送信し(ステップS29)、処理を終了する。   The CPU 211 generates a pulse signal corresponding to the moving distance and moving direction of the processing tool in the determined xyz space (step S28). The CPU 211 transmits the generated pulse signal to the manipulator 11 (step S29) and ends the process.

このように、予めジャガイモの芽1tの3次元的な座標をハードディスク214に記憶しておく。CPU211は、三次元的な座標が記憶されたジャガイモの芽1tの部分を、タッチパネル22から目標位置1tとして、受け付けることにより、xyz空間での処理具の移動距離及び移動方向に対応するパルス信号を生成する。これにより、図8に示した処理により、マニピュレータ装置1は、タッチパネル22から目標位置1tに係る二次元情報を受け付け、マニピュレータ11に三次元的な動作を指示することができる。   In this way, the three-dimensional coordinates of the potato sprouts 1t are stored in the hard disk 214 in advance. The CPU 211 accepts a portion of the potato sprout 1t in which the three-dimensional coordinates are stored as a target position 1t from the touch panel 22, thereby receiving a pulse signal corresponding to the movement distance and movement direction of the processing tool in the xyz space. Generate. Thereby, the manipulator device 1 can receive the two-dimensional information related to the target position 1t from the touch panel 22 and instruct the manipulator 11 to perform a three-dimensional operation by the process shown in FIG.

タッチパネル22が受け付ける処理具の移動は直線的な移動だけではない。マニピュレータ11は、ユーザがタッチパネル22上で曲線を描くドラッグ操作を行った場合、描かれたドラッグ操作に応じた軌跡を描くように、処理具を移動する。CPU211は、マニピュレータ11に対して、細かく、短距離の直線移動を繰り返すことにより、処理具を曲線に沿って移動させることができる。
また、マニピュレータ11は、ユーザがタッチパネル22上で不規則な軌跡を描くドラッグ操作を行った場合、描かれたドラッグ操作に応じた軌跡を描くように、処理具を移動する。すなわち、マニピュレータ11は、タッチパネル22上でユーザが行なったドラッグ操作に追随するように、処理具を移動する。
The movement of the processing tool received by the touch panel 22 is not limited to linear movement. When the user performs a drag operation for drawing a curve on the touch panel 22, the manipulator 11 moves the processing tool so as to draw a locus corresponding to the drawn drag operation. The CPU 211 can move the processing tool along the curve by repeating the linear movement over a short distance with respect to the manipulator 11.
Further, when the user performs a drag operation for drawing an irregular trajectory on the touch panel 22, the manipulator 11 moves the processing tool so as to draw a trajectory corresponding to the drawn drag operation. That is, the manipulator 11 moves the processing tool so as to follow the drag operation performed by the user on the touch panel 22.

タッチパネル22は、回転ステージ13rを回転させる指示もジェスチャー入力により受け付ける。
回転ステージ13rを回転させる場合、ユーザは第一カメラ画面221p又は第二カメラ画面222pの下部領域を、例えば2本の指で左右方向にドラッグする。CPU211は、タッチパネル22から左から右へのドラッグ操作を受け付けた場合、反時計回りの回転をさせるための信号を回転ステージ13rに送信する。CPU211は、タッチパネル22から右から左へのドラッグ操作を受け付けた場合、時計回りの回転をさせるための信号を回転ステージ13rに送信する。回転ステージ13rは、CPU211から回転に係る信号を受信した場合、信号の内容に応じて、反時計回り又は時計回りの回転をする。
The touch panel 22 receives an instruction to rotate the rotary stage 13r by a gesture input.
When rotating the rotary stage 13r, the user drags the lower area of the first camera screen 221p or the second camera screen 222p with, for example, two fingers in the left-right direction. When receiving a drag operation from the left to the right from the touch panel 22, the CPU 211 transmits a signal for rotating counterclockwise to the rotation stage 13r. When the CPU 211 receives a drag operation from the right to the left from the touch panel 22, the CPU 211 transmits a signal for rotating in the clockwise direction to the rotation stage 13r. When the rotation stage 13r receives a rotation signal from the CPU 211, the rotation stage 13r rotates counterclockwise or clockwise depending on the content of the signal.

以上を踏まえ、ユーザは、ジャガイモの芽1gから茎頂を摘出する場合、次のようにマニピュレータ装置1を操作する。
ユーザは、クリーン箱15を把持してベース板14から上方に持ち上げ、マニピュレータ装置1から取り外す。ユーザは、回転ステージ13rの略中央にジャガイモの芽1gを載置する。ユーザは、クリーン箱15を把持してベース14の上に移動し、マニピュレータ部10の構成物をクリーン箱15内部に収容する。
ユーザは、上述の準備作業を実行し、ハードディスク214に第一変換情報、第二変換情報、第一奥行き情報及び第二奥行き情報を記憶させる。
Based on the above, when extracting the shoot apex from 1 g of potato sprouts, the user operates the manipulator device 1 as follows.
The user holds the clean box 15, lifts it upward from the base plate 14, and removes it from the manipulator device 1. The user places 1 g of potato buds in the approximate center of the rotary stage 13r. The user grasps the clean box 15 and moves it onto the base 14 to house the components of the manipulator unit 10 in the clean box 15.
The user performs the above-described preparatory work, and causes the hard disk 214 to store the first conversion information, the second conversion information, the first depth information, and the second depth information.

ユーザは、タッチパネル22に表示される撮像画面22pにおいて、粗動作により処理具(例えば刃11b)をジャガイモの芽1gの近傍へ移動させるため、ジャガイモの芽1gのいずれかの部分を目標位置1tに決定する。ユーザは、第一カメラ画面221p又は第二カメラ画面222pにて目標位置1tをタップする。CPU211は、タッチパネル22からの入力信号及びハードディスク214の記憶内容に基づいて、パルス信号を生成し、生成したパルス信号をマニピュレータ11に送信する。マニピュレータ11は、CPU211から受信したパルス信号により、処理具を目標位置1g近傍かつジャガイモの芽1gの外側位置へ移動する。   On the imaging screen 22p displayed on the touch panel 22, the user moves the processing tool (for example, the blade 11b) to the vicinity of the potato sprout 1g by a rough operation, and therefore any part of the potato sprout 1g is set to the target position 1t. decide. The user taps the target position 1t on the first camera screen 221p or the second camera screen 222p. The CPU 211 generates a pulse signal based on the input signal from the touch panel 22 and the stored contents of the hard disk 214, and transmits the generated pulse signal to the manipulator 11. The manipulator 11 moves the processing tool to the vicinity of the target position 1g and to the outside position of the potato sprout 1g by the pulse signal received from the CPU 211.

ユーザは、タッチパネル22にドラッグ操作を行い、マニピュレータ11に処理具(例えば刃11b)をジャガイモの芽1gの頂上部分へ移動させる。ユーザは、ゆっくりと第一カメラ画面221p又は第二カメラ画面222pに表示されるジャガイモの芽1gの例えば左側表皮に沿って曲線を描きながらドラッグする。マニピュレータ11は、ユーザのドラッグ操作に追随して、処理具をジャガイモの芽1gの左側表皮を剥ぐようにゆっくりと移動させる。ジャガイモの芽1tの左側表皮が剥がれた場合、ユーザは第一カメラ画面221p又は第二カメラ画面222pの下部領域を、2本の指で左右方向にドラッグし、回転ステージ13rを一定角度回転させる。そして、ユーザは、ドラッグ操作により処理具を再びジャガイモの芽1gの頂上部分に移動させる。ユーザは、この操作を繰り返す。   The user performs a drag operation on the touch panel 22 to move the processing tool (for example, the blade 11b) to the top portion of the potato sprout 1g in the manipulator 11. The user slowly drags while drawing a curve along, for example, the left epidermis of the potato sprout 1g displayed on the first camera screen 221p or the second camera screen 222p. The manipulator 11 follows the user's drag operation and slowly moves the processing tool so as to peel off the left epidermis of the potato sprouts 1g. When the left epidermis of the potato sprouts 1t is peeled off, the user drags the lower region of the first camera screen 221p or the second camera screen 222p in the left-right direction with two fingers, and rotates the rotary stage 13r by a certain angle. Then, the user again moves the processing tool to the top portion of the potato sprouts 1g by a drag operation. The user repeats this operation.

ジャガイモの芽1gの表皮が全て除去された場合、ユーザはドラッグ操作により処理具(例えば鋏11m)をジャガイモの芽1gの頂上部分に移動させ、芽1gの上部をスライスして、茎頂を摘出する。ユーザは、ドラッグ操作により、摘出した茎頂が付着した処理具を、例えば培地トレイへ移動させる。
このように、ジャガイモの芽1gから茎頂を摘出するためには、ジャガイモの芽1gの表皮を一枚ずつ剥がし、芽1gの上部をスライスする。この微細な作業を手作業で行う場合に比較して、マニピュレータ装置1はより短時間で実行することができる。
When the entire skin of 1 g of potato sprouts has been removed, the user moves the treatment tool (for example, 11 m) to the top of 1 g of potato sprouts by dragging, slices the top of 1 g of sprouts, and extracts the top of the stem To do. The user moves the treatment tool to which the extracted shoot apex is attached, for example, to a medium tray by a drag operation.
Thus, in order to extract the shoot apex from 1 g of potato sprouts, the epidermis of 1 g of potato sprouts is peeled off one by one and the upper part of 1 g of sprouts is sliced. The manipulator device 1 can be executed in a shorter time than when this fine work is performed manually.

マニピュレータ装置1は、ジェスチャー入力により、処理具を対象物から一定距離以上離れた位置へ移動させる粗動作のための機能も有している。当該機能により、マニピュレータ装置1は、処理具を撮像画面22pの外側の待機位置へ短時間で移動させる。
また、マニピュレータ装置1は、ジェスチャー入力により、対象物から一定距離以上離れた状態の処理具を、元の位置に復帰させる粗動作のための機能も有している。
The manipulator device 1 also has a function for a rough operation of moving the processing tool to a position away from the object by a predetermined distance or more by gesture input. With this function, the manipulator device 1 moves the processing tool to the standby position outside the imaging screen 22p in a short time.
Further, the manipulator device 1 also has a function for a rough operation for returning a processing tool in a state separated from the object by a predetermined distance or more to an original position by a gesture input.

上述の機能を実現するためのマニピュレータ装置1の動作について説明する。例えば、刃11bが第一カメラ画面221p若しくは第二カメラ画面222pにおいて図6の位置にあるものとする。この状態で、ユーザがポインタ11bの位置又は第一カメラ画面221p若しくは第二カメラ画面222pでの任意の位置で、z軸の+方向にフリックをしたとする。CPU211は、タッチパネル22からz軸の+方向へのフリック入力を受け付けた場合、刃11bを現在位置から上方へ一定距離だけ移動させるパルス信号をマニピュレータ11に送信する。マニピュレータ11は、CPU211から受信したパルス信号に基づいて、z軸の+方向へ刃11bを粗動作させるべく、x軸方向に対応するステッピングモータを回転させる。   The operation of the manipulator device 1 for realizing the above function will be described. For example, it is assumed that the blade 11b is in the position of FIG. 6 on the first camera screen 221p or the second camera screen 222p. In this state, it is assumed that the user flicks in the + direction of the z axis at the position of the pointer 11b or an arbitrary position on the first camera screen 221p or the second camera screen 222p. When the CPU 211 receives a flick input in the positive direction of the z axis from the touch panel 22, the CPU 211 transmits a pulse signal that moves the blade 11 b upward from the current position by a certain distance to the manipulator 11. Based on the pulse signal received from the CPU 211, the manipulator 11 rotates the stepping motor corresponding to the x-axis direction so as to roughly move the blade 11b in the positive z-axis direction.

なお、ユーザは、z軸の+方向以外に、x軸の±方向、y軸の±方向にフリックしてもよい。CPU211は、タッチパネル22から受け付けたフリック入力の方向に応じたパルス信号をマニピュレータ11に送信する。あるいは、CPU211は、タッチパネル22からフリック入力を受け付けた場合、刃11bを予め決めておいた待機位置へ移動するためのパルス信号をマニピュレータ11に送信してもよい。
なお、CPU211は、タッチパネル22からフリック入力を受け付けた場合、フリック入力を受け付けた開始時点での刃11bの座標位置(xyz空間での座標位置)をRAM213に記憶する。
The user may flick in the ± direction of the x axis and the ± direction of the y axis in addition to the + direction of the z axis. The CPU 211 transmits a pulse signal corresponding to the direction of the flick input received from the touch panel 22 to the manipulator 11. Alternatively, when the CPU 211 receives a flick input from the touch panel 22, the CPU 211 may transmit a pulse signal for moving the blade 11 b to a predetermined standby position to the manipulator 11.
When CPU 211 receives a flick input from touch panel 22, CPU 211 stores in RAM 213 the coordinate position (coordinate position in xyz space) of blade 11b when the flick input is received.

次に、刃11bの復帰動作について説明する。ユーザは、刃11bが対象物から一定距離以上離れた待機位置にある状態で、第一カメラ画面221p若しくは第二カメラ画面222pの任意位置を例えばダブルタップをする。CPU211は、刃11bが対象物から一定距離以上離れた位置にある状態で、タッチパネル22からダブルタップ入力を受け付けた場合、フリック入力を受け付けた開始時点での刃11bの座標位置をRAM213から読み出す。CPU211は、刃11bを待機位置から読み出した位置へ粗動作により復帰させるパルス信号をマニピュレータ11に送信する。マニピュレータ11は、刃11bを元の位置へ復帰させるべく、CPU211から受信したパルス信号に基づいて、x軸、y軸及びz軸方向に対応するステッピングモータを回転させる。   Next, the returning operation of the blade 11b will be described. The user double taps an arbitrary position on the first camera screen 221p or the second camera screen 222p, for example, in a state where the blade 11b is at a standby position that is a predetermined distance or more away from the object. When the CPU 211 receives a double-tap input from the touch panel 22 in a state where the blade 11b is at a certain distance or more from the object, the CPU 211 reads out the coordinate position of the blade 11b from the RAM 213 when the flick input is received. The CPU 211 transmits to the manipulator 11 a pulse signal that causes the blade 11b to return to the position read from the standby position by a coarse operation. The manipulator 11 rotates stepping motors corresponding to the x-axis, y-axis, and z-axis directions based on the pulse signal received from the CPU 211 in order to return the blade 11b to the original position.

マニピュレータ装置1は、ジェスチャー入力により、処理具の動作を制御する機能も有している。例えば、処理具が鋏11mである場合、ユーザは、マニピュレータ装置1に鋏11mの刃先を開かせる場合、第一カメラ画面221p若しくは第二カメラ画面222pの任意位置でピンチアウトを行なう。また、ユーザは、マニピュレータ装置1に鋏11mの刃先を閉じさせる場合、第一カメラ画面221p若しくは第二カメラ画面222pの任意位置でピンチインを行なう。CPU211は、タッチパネル22からピンチアウト又はピンチインの入力を受け付けた場合、マニピュレータ11に鋏11mの開閉に係る信号を送信する。マニピュレータ11は、CPU211から当該信号を受信した場合、鋏11mの開閉を実行する。   The manipulator device 1 also has a function of controlling the operation of the processing tool by gesture input. For example, when the processing tool is a heel 11m, the user pinches out at an arbitrary position on the first camera screen 221p or the second camera screen 222p when the manipulator device 1 opens the blade edge of the heel 11m. In addition, when the user causes the manipulator device 1 to close the cutting edge of the scissors 11m, the user pinches in at an arbitrary position on the first camera screen 221p or the second camera screen 222p. When the CPU 211 receives a pinch-out or pinch-in input from the touch panel 22, the CPU 211 transmits a signal related to the opening / closing of the bag 11 m to the manipulator 11. When the manipulator 11 receives the signal from the CPU 211, the manipulator 11 opens and closes the bag 11m.

上述では、マニピュレータ装置1は、ユーザからの指示をタッチパネル22から受け付けた。しかし、マニピュレータ装置1は、ユーザからの指示をマウス24から受け付けてもよい。例えば図5において、CPU211は、マウス22の例えばクリック操作により指定された座標を目標位置1tとして受け付けてもよい。また、CPU211は、ポインタ2pに対するタッチパネル22でのドラッグ操作の替わりに、ポインタ2pに対するマウス22を用いたドラッグ操作を受け付けてもよい。   In the above description, the manipulator device 1 has received an instruction from the user from the touch panel 22. However, the manipulator device 1 may accept an instruction from the user from the mouse 24. For example, in FIG. 5, the CPU 211 may accept the coordinates designated by, for example, a click operation of the mouse 22 as the target position 1t. Further, the CPU 211 may accept a drag operation using the mouse 22 for the pointer 2p instead of the drag operation on the touch panel 22 for the pointer 2p.

マニピュレータ装置1は、医療の用途に用いられてもよい。かかる場合、マニピュレータ11の先端部に術具を取り付ける。これにより、マニピュレータ装置1は、例えば縫合処理のような微細作業を行うことができる。また、カメラ12として内視鏡が用いられてもよい。   The manipulator device 1 may be used for medical purposes. In such a case, a surgical instrument is attached to the tip of the manipulator 11. Thereby, the manipulator device 1 can perform a fine work such as a suturing process. An endoscope may be used as the camera 12.

マニピュレータ装置1によれば、ユーザは対象物とマニピュレータ11の操作部とを同一視野に入れることができる。
ユーザは、タッチパネル22の画面に表示される対象物及び対象物を操作する処理具を見ると同時に、タッチパネル22に対するジェスチャー入力によりマニピュレータ11を操作する。そのため、ユーザがタッチパネル22を見る視野は、例えば顕微鏡の対眼レンズにおける視野のように閉鎖されておらず、開放されている。そのため、従来のマニピュレータ装置に比較して、マニピュレータ装置1における操作可能な空間範囲はより広い。このように、ユーザはマニピュレータ装置1をオープン空間で操作することができるので、ユーザの疲労度は従来のマニピュレータ装置よりも軽減される。
According to the manipulator device 1, the user can put the object and the operation unit of the manipulator 11 in the same field of view.
The user operates the manipulator 11 by gesture input on the touch panel 22 at the same time as viewing an object displayed on the screen of the touch panel 22 and a processing tool for operating the object. Therefore, the field of view on which the user looks at the touch panel 22 is not closed, such as the field of view of an eyepiece lens of a microscope, but is open. Therefore, compared with the conventional manipulator device, the space range in which the manipulator device 1 can be operated is wider. Thus, since the user can operate the manipulator device 1 in an open space, the fatigue level of the user is reduced as compared with the conventional manipulator device.

マニピュレータ装置1によれば、ユーザはマニピュレータ11の操作に迅速に習熟することができる。
タッチパネル22からのマニピュレータ11に対する直感的なジェスチャー入力は、複雑なマニピュレータ11の機械構成を理解する必要がないため、初心者でもすぐにマニピュレータ装置1の操作を開始することができる。タッチパネル22からの入力は、微細作業に係る入力であっても容易に行うことができる。そのため、マニピュレータ装置1は、例えば手先が震える高齢者、障碍者であっても、操作可能である。
According to the manipulator device 1, the user can quickly become familiar with the operation of the manipulator 11.
Intuitive gesture input to the manipulator 11 from the touch panel 22 does not require understanding of the complicated mechanical configuration of the manipulator 11, and therefore even a beginner can immediately start operating the manipulator device 1. The input from the touch panel 22 can be easily performed even if the input is related to a fine work. Therefore, the manipulator device 1 can be operated even for an elderly person or a handicapped person whose hands are trembling.

実施の形態2
実施の形態2は、三次元位置を入力する力帰還型の入力装置をマニピュレータ装置1が含む形態に関する。入力装置は、対象物の硬軟に応じて、処理具が対象物に及ぼした力の反力を増幅して、入力装置自身に帰還させる3D入力装置である。
なお、実施の形態2において、実施の形態1と同様である構成要素には同一の参照番号を付してその詳細な説明を省略する。
Embodiment 2
The second embodiment relates to a configuration in which the manipulator device 1 includes a force feedback type input device that inputs a three-dimensional position. The input device is a 3D input device that amplifies the reaction force of the force exerted on the target object by the processing tool according to the hardness of the target object and feeds it back to the input device itself.
In the second embodiment, the same reference numerals are assigned to the same components as those in the first embodiment, and detailed description thereof is omitted.

図9は、入力装置26の外観を示す斜視図である。入力装置26は、ベース261、本体262、第一アーム263、第二アーム264及びペン265を含む。ベース261は、入力装置26の最下部に位置し、上部の構成部材を支える土台である。本体262は、例えば球状をなし、ベース261の上に水平方向に回動可能に固定されている。本体262は、ユーザから受け付けた三次元位置を算出し、算出した三次元位置をコンピュータ21へ出力する構成部である。   FIG. 9 is a perspective view showing an external appearance of the input device 26. The input device 26 includes a base 261, a main body 262, a first arm 263, a second arm 264, and a pen 265. The base 261 is located at the lowermost part of the input device 26 and is a base that supports the upper constituent members. The main body 262 has a spherical shape, for example, and is fixed on the base 261 so as to be rotatable in the horizontal direction. The main body 262 is a component that calculates the three-dimensional position received from the user and outputs the calculated three-dimensional position to the computer 21.

第一アーム263は、基部が本体262と水平軸で枢支されている。第二アーム264は、その一端が第一アーム263の先端部にて水平軸で枢支されている。ペン265は、ユーザが直接把持する棒状体であり、ペン先に近い根元付近にて第二アーム264の他端と水平軸で枢支されている。ユーザは、ペン265に設けられたボタン265bを押下しながら、ペン先の位置を三次元空間で指示することにより、第一アーム263及び第二アーム264を介して、本体262に三次元位置を入力する。マニピュレータ11のアーム111をスレーブアームとした場合、第一アーム263、第二アーム264及びペン265はマスタアームといえる。以下、本体262、第一アーム263、第二アーム264及びペン265を受付部260と呼ぶ。   The base of the first arm 263 is pivotally supported by the main body 262 and a horizontal axis. One end of the second arm 264 is pivotally supported by a horizontal axis at the tip of the first arm 263. The pen 265 is a rod-shaped body directly gripped by the user, and is pivotally supported by the other end of the second arm 264 and a horizontal axis in the vicinity of the root near the pen tip. The user designates the position of the pen tip in the three-dimensional space while pressing the button 265b provided on the pen 265, thereby setting the three-dimensional position on the main body 262 via the first arm 263 and the second arm 264. input. When the arm 111 of the manipulator 11 is a slave arm, the first arm 263, the second arm 264, and the pen 265 can be said to be master arms. Hereinafter, the main body 262, the first arm 263, the second arm 264, and the pen 265 are referred to as a receiving unit 260.

本体262には、ユーザによるペン265の操作に負荷をかけるアクチュエータ(力生成部)266が内蔵されている。アクチュエータ266は、本体262及び第一アーム263、第一アーム263及び第二アーム264並びに第二アーム及びペン265の枢支部に抵抗力を付与する例えばワイヤと接合されている。本体は、コンピュータ21を介したマニピュレータ11からの信号に応じて、アクチュエータ266を動作させて、受付部260を力制御する。これにより、ユーザはペン265から操作への抵抗感を認知することができる。   The main body 262 includes an actuator (force generation unit) 266 that applies a load to the operation of the pen 265 by the user. The actuator 266 is joined to, for example, a wire that applies resistance to the main body 262 and the first arm 263, the first arm 263 and the second arm 264, and the second arm and the pivot of the pen 265. The main body operates the actuator 266 in accordance with a signal from the manipulator 11 via the computer 21 to control the force of the receiving unit 260. Thereby, the user can recognize the resistance to the operation from the pen 265.

なお、入力装置26に対して一定の仮想平面を設定することができる。かかる場合、ユーザがペン265のペン先で仮想平面上の位置を指定することにより、入力装置26はマウス24に代替可能である。   A fixed virtual plane can be set for the input device 26. In such a case, the input device 26 can be replaced with the mouse 24 by the user specifying the position on the virtual plane with the pen tip of the pen 265.

図10は、マニピュレータ装置1のハードウェア構成例を示すブロック図である。マニピュレータ11は、反力検出部(検出部)112及び出力部(検出部)113を含む。
反力検出部112は、マニピュレータ11におけるアーム111の先端部に取り付けられた例えば歪ゲージ、圧力センサ、変位センサである。反力検出部112は、処理具が対象物に及ぼした力の反力を検出し、当該反力に応じた電気信号を生成する。出力部113は、反力検出部112が生成した電気信号を増幅し、検出信号として、入力装置26の本体262に送信する構成部である。
FIG. 10 is a block diagram illustrating a hardware configuration example of the manipulator device 1. The manipulator 11 includes a reaction force detection unit (detection unit) 112 and an output unit (detection unit) 113.
The reaction force detection unit 112 is, for example, a strain gauge, a pressure sensor, or a displacement sensor attached to the tip of the arm 111 in the manipulator 11. The reaction force detection unit 112 detects a reaction force of a force exerted on the object by the processing tool, and generates an electrical signal corresponding to the reaction force. The output unit 113 is a component that amplifies the electrical signal generated by the reaction force detection unit 112 and transmits the amplified signal to the main body 262 of the input device 26 as a detection signal.

CPU211は、入力装置26から入力された三次元位置の変化に応じて、x軸、y軸及びz軸に対応するパルス信号を夫々生成する。CPU211は、生成した各パルス信号をマニピュレータ11に送信する。マニピュレータ11は、CPU211から受信したパルス信号に基づいて、処理具を移動させる。処理具が対象物に接触し、対象物に力を及ぼした場合、反力検出部112は、対象物からの反力を検知し、反力に対応する電気信号を生成する。出力部113は、反力検出部112が検出した検出信号を増幅して、コンピュータ21に送信する。コンピュータ21は、出力部113から受信した検出信号を入力装置26に送信する。入力装置26のアクチュエータ266は、マニピュレータ11から送信された検出信号に応じた力を目標値として生成する。入力装置26は、アクチュエータ266が生成した力で受付部260を力制御する。   The CPU 211 generates pulse signals corresponding to the x-axis, y-axis, and z-axis, respectively, according to the change in the three-dimensional position input from the input device 26. The CPU 211 transmits each generated pulse signal to the manipulator 11. The manipulator 11 moves the processing tool based on the pulse signal received from the CPU 211. When the processing tool comes into contact with the object and exerts a force on the object, the reaction force detection unit 112 detects the reaction force from the object and generates an electrical signal corresponding to the reaction force. The output unit 113 amplifies the detection signal detected by the reaction force detection unit 112 and transmits it to the computer 21. The computer 21 transmits the detection signal received from the output unit 113 to the input device 26. The actuator 266 of the input device 26 generates a force corresponding to the detection signal transmitted from the manipulator 11 as a target value. The input device 26 controls the receiving unit 260 with the force generated by the actuator 266.

マニピュレータ装置1は、ヘッドマウントディスプレイを含んでもよい。例えば視差角をなす位置に2台のカメラ12を配置し、カメラ12が撮像した画像をヘッドマウントディスプレイに表示する。これにより、ユーザは対象物の立体認知をより高めることができるので、対象物が複雑な形状をなす場合であっても、マニピュレータ装置1は対象物に対する処理の作業性を向上させることができる。   The manipulator device 1 may include a head mounted display. For example, two cameras 12 are arranged at a position where a parallax angle is formed, and an image captured by the camera 12 is displayed on a head mounted display. Thereby, since the user can further improve the three-dimensional recognition of the target object, the manipulator device 1 can improve the workability of the process on the target object even when the target object has a complicated shape.

人間は、手作業で対象物に対して把持、切断、剥離、除去等の操作を行なう場合、操作結果を微妙な感覚で認識しながら行っている。マニピュレータ装置1は、処理具が対象物に及ぼす力の反力を増幅して入力装置26の受付部260に帰還させる。これにより、ユーザは、対象物に対してより微細な操作を施すことができる。   When a human performs an operation such as gripping, cutting, peeling, or removing a target manually, it recognizes the operation result with a subtle sense. The manipulator device 1 amplifies the reaction force of the force exerted on the object by the processing tool and returns it to the receiving unit 260 of the input device 26. Thereby, the user can perform a finer operation on the object.

実施の形態3
実施の形態3は、クリーン箱15内の状態を無菌状態に保持する形態に関する。
なお、実施の形態3において、実施の形態1、2と同様である構成要素には同一の参照番号を付してその詳細な説明を省略する。
Embodiment 3
The third embodiment relates to a form in which the state in the clean box 15 is maintained in a sterile state.
In the third embodiment, the same reference numerals are assigned to the same components as those in the first and second embodiments, and detailed description thereof is omitted.

図11は、クリーン箱15の構成例を示す説明図である。図11は、クリーン箱15の側断面を示している。クリーン箱15は、流入口151、フィルタ152、流出口153及び送風ユニット(吹出部)154を含む。   FIG. 11 is an explanatory diagram showing a configuration example of the clean box 15. FIG. 11 shows a side cross section of the clean box 15. The clean box 15 includes an inflow port 151, a filter 152, an outflow port 153, and a blower unit (blowout unit) 154.

流入口151は、外部の空気がクリーン箱15の内部へ流入するための開口である。流入口151は、クリーン箱15の例えば天井板に設けられている。流入口151の上部には、クリーン箱15内へ流入する空気を浄化及び無菌化するためのフィルタ152が流入口151に覆設されている。フィルタ152は、例えばHEPAフィルタ(High Efficiency Particulate Air Filter)である。フィルタ152は、HEPAフィルタの粒子捕集効率をさらに上げたULPAフィルタ(Ultra Low Penetration Air Filter)でもよい。   The inflow port 151 is an opening through which external air flows into the clean box 15. The inflow port 151 is provided on, for example, a ceiling plate of the clean box 15. A filter 152 for purifying and sterilizing the air flowing into the clean box 15 is covered with the inflow port 151 at the upper part of the inflow port 151. The filter 152 is, for example, a HEPA filter (High Efficiency Particulate Air Filter). The filter 152 may be an ULPA filter (Ultra Low Penetration Air Filter) that further increases the particle collection efficiency of the HEPA filter.

流出口153は、クリーン箱15内の空気が外部へ排出されるための開口である。
送風ユニット154は、外部の空気をクリーン箱15内部へ送り出す構成部である。送風ユニット154は、フィルタ152の上側に設けられている。送風ユニット154は、モータ154m及びファン154fを含む。モータ154mはファン154fを回転させるための電動機である。ファン154fは、例えばシロッコファン、サイレントファンである。ファン154fは、モータ154mにより回転し、クリーン箱15上方の空気を流入口151へ送り出す。
The outlet 153 is an opening through which the air in the clean box 15 is discharged to the outside.
The blower unit 154 is a component that sends outside air into the clean box 15. The air blowing unit 154 is provided on the upper side of the filter 152. The blower unit 154 includes a motor 154m and a fan 154f. The motor 154m is an electric motor for rotating the fan 154f. The fan 154f is, for example, a sirocco fan or a silent fan. The fan 154f is rotated by the motor 154m and sends the air above the clean box 15 to the inflow port 151.

なお、クリーン箱15又はベース板14は、対象物を処理する処理具を滅菌する滅菌用ガスバーナ又は動植物の培養環境温度を調節するヒータを備えていてもよい。   The clean box 15 or the base plate 14 may include a sterilizing gas burner for sterilizing a processing tool for processing an object or a heater for adjusting the culture environment temperature of animals and plants.

クリーン箱15によれば、内部に清浄な空気を送り込むことにより、内部の無菌状態を確保することができる。
クリーン箱15は、謂わば卓上サイズの狭小なクリーンベンチといえる。茎頂の摘出、幼苗の分割等の作業を行う場合、作業環境を清浄に保つ必要がある。そのために、クリーンルーム、クリーンベンチ等が必要とされ、高額の設備投資をしなければならない。しかし、クリーン箱15は、その小さい容積部分のみを清浄に保つため、コストの低減に資する。
マニピュレータ装置1は、クリーンな環境が求められる半導体基板又は液晶装置における部品加工、高分子材料を用いた部品加工等にも利用可能である。その際にも、クリーン箱15は、塵埃を排除した清浄な作業環境を提供することができる。
According to the clean box 15, an aseptic condition inside can be secured by sending clean air into the inside.
It can be said that the clean box 15 is a narrow clean bench of a so-called desktop size. When performing operations such as shoot tip extraction and seedling division, it is necessary to keep the working environment clean. Therefore, a clean room, a clean bench, etc. are required, and a large capital investment is required. However, since the clean box 15 keeps only its small volume portion clean, it contributes to cost reduction.
The manipulator device 1 can also be used for component processing in a semiconductor substrate or a liquid crystal device that requires a clean environment, component processing using a polymer material, and the like. At that time, the clean box 15 can provide a clean working environment in which dust is eliminated.

なお、開示された実施の形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上述の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。   The disclosed embodiments should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

また、実施の形態で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。   Further, the technical features (components) described in the embodiments can be combined with each other, and new technical features can be formed by combining them.

以上の実施の形態に関し、さらに以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記7)
前記マニピュレータは、前記処理具が前記対象物に及ぼした力に対する反力を検出し、検出した反力に応じた信号を出力する検出部を有し、
該検出部が出力した信号に応じた力が帰還され、かつ前記処理具の三次元目標位置を受け付ける受付装置を備え、
前記制御部は、前記受付装置が受け付けた三次元目標位置に基づいて、前記マニピュレータの動作を制御するようにしてある
ことを特徴とする付記1から付記6までのいずれか一つに記載のマニピュレータ装置。
(Appendix 7)
The manipulator has a detection unit that detects a reaction force against a force exerted on the object by the processing tool and outputs a signal corresponding to the detected reaction force.
A receiving device for receiving a force corresponding to a signal output from the detection unit and receiving a three-dimensional target position of the processing tool;
The control unit is configured to control the operation of the manipulator based on a three-dimensional target position received by the accepting device. The manipulator according to any one of appendices 1 to 6, apparatus.

(付記10)
前記先端部に植物細胞を処理するための処理具が取り付けられている
ことを特徴とする付記1から付記9までのいずれか一つに記載のマニピュレータ装置。
(Appendix 10)
The manipulator device according to any one of appendix 1 to appendix 9, wherein a treatment tool for treating plant cells is attached to the tip portion.

1 マニピュレータ装置
11 マニピュレータ
111 アーム
112 反力検出部(検出部)
113 出力部(検出部)
12 カメラ(撮像部)
12x 第一カメラ(撮像部)
12y 第二カメラ(撮像部)
121x、121y 拡大レンズ
13 可動ステージ
13r 回転ステージ
14 ベース板
15 クリーン箱(箱体)
151 流入口
152 流出口
153 送風ユニット(吹出部)
154 フィルタ
21 コンピュータ
211 CPU(制御部)
212 ROM
213 RAM
214 ハードディスク(記憶部)
215 通信部
22 タッチパネル
23 キーボード
24 マウス
25 モニタ
26 入力装置(受付装置)
260 受付部
266 アクチュエータ(力生成部)
11b 刃(処理具)
11m 鋏(処理具)
1g ジャガイモの芽(対象物)
DESCRIPTION OF SYMBOLS 1 Manipulator apparatus 11 Manipulator 111 Arm 112 Reaction force detection part (detection part)
113 Output unit (detection unit)
12 Camera (imaging part)
12x first camera (imaging part)
12y Second camera (imaging unit)
121x, 121y Magnifying lens 13 Movable stage 13r Rotating stage 14 Base plate 15 Clean box (box)
151 Inlet 152 Outlet 153 Blower unit (outlet)
154 Filter 21 Computer 211 CPU (Control Unit)
212 ROM
213 RAM
214 Hard disk (storage unit)
215 Communication unit 22 Touch panel 23 Keyboard 24 Mouse 25 Monitor 26 Input device (accepting device)
260 Reception unit 266 Actuator (force generation unit)
11b blade (processing tool)
11m 鋏 (treatment tool)
1g Potato sprouts (object)

Claims (7)

マニピュレータの先端部に取り付けられた処理具で対象物を処理するマニピュレータ装置において、
前記処理具により処理される対象物を撮像する撮像部と、
該撮像部が撮像した画像を画面に表示し、かつ前記マニピュレータの動作を制御するための指示を受け付けるタッチパネルと、
該タッチパネルが受け付けた指示に基づいて、前記マニピュレータの動作を制御する制御部と、
前記タッチパネルの画面上における距離及び前記先端部の移動距離を対応付けて記憶し、かつ前記対象物の三次元位置を記憶する記憶部と
を備え、
前記タッチパネルは前記対象物に対応する前記処理具の三次元目標位置を受け付けるようにしてあり、
前記制御部は、前記タッチパネルが受け付けた前記三次元目標位置及び前記記憶部に記憶された内容に基づいて、前記マニピュレータの動作を制御するようにしてあり、
前記制御部は、前記タッチパネルが受け付けたジェスチャー入力により、前記マニピュレータの粗動作と微動作とを切り替えるようにしてあり、前記タッチパネルがタップ操作を受けた場合には前記粗動作に切り替え、前記タッチパネルがドラッグ操作を受けた場合には前記微動作に切り替える
ことを特徴とするマニピュレータ装置。
In a manipulator device that processes an object with a processing tool attached to the tip of the manipulator,
An imaging unit for imaging an object to be processed by the processing tool;
A touch panel for displaying an image captured by the imaging unit on a screen and receiving an instruction for controlling the operation of the manipulator;
A control unit for controlling the operation of the manipulator based on an instruction received by the touch panel;
A storage unit that stores a distance on the screen of the touch panel and a moving distance of the tip part in association with each other, and stores a three-dimensional position of the object;
The touch panel is adapted to receive a three-dimensional target position of the processing tool corresponding to the object,
The control unit is configured to control the operation of the manipulator based on the three-dimensional target position received by the touch panel and the content stored in the storage unit,
The control unit is configured to switch between a coarse operation and a fine operation of the manipulator by a gesture input received by the touch panel. When the touch panel receives a tap operation, the control unit switches to the coarse operation. A manipulator device that switches to the fine operation when a drag operation is received .
前記マニピュレータ及び撮像部を収容する箱体を備える
ことを特徴とする請求項1に記載のマニピュレータ装置。
The manipulator device according to claim 1, further comprising a box body that houses the manipulator and the imaging unit.
前記対象物を載置する可動ステージを備え、
前記タッチパネルは前記可動ステージの動作を制御するための指示を受け付けるようにしてあり、
前記制御部は、前記タッチパネルが受け付けた指示に基づいて、前記可動ステージの動作を制御するようにしてある
ことを特徴とする請求項1又は請求項2に記載のマニピュレータ装置。
A movable stage on which the object is placed;
The touch panel is adapted to receive instructions for controlling the operation of the movable stage,
The manipulator device according to claim 1, wherein the control unit is configured to control an operation of the movable stage based on an instruction received by the touch panel.
前記撮像部は対象物を拡大して撮像するようにしてある
ことを特徴とする請求項1から請求項3までのいずれか一項に記載のマニピュレータ装置。
The manipulator device according to any one of claims 1 to 3, wherein the imaging unit is configured to magnify and capture an object.
前記マニピュレータは、前記処理具が前記対象物に及ぼした力に対する反力を検出し、検出した反力に応じた信号を出力する検出部を有し、
該検出部が出力した信号に応じた力を生成する力生成部及び該力生成部により生成された力が付与され、付与された力により前記処理具の三次元目標位置を受け付ける受付部を有する受付装置を備え、
前記制御部は、前記受付装置が受け付けた三次元目標位置に基づいて、前記マニピュレータの動作を制御するようにしてある
ことを特徴とする請求項1から請求項4までのいずれか一項に記載のマニピュレータ装置。
The manipulator has a detection unit that detects a reaction force against a force exerted on the object by the processing tool and outputs a signal corresponding to the detected reaction force.
A force generation unit that generates a force according to a signal output from the detection unit, and a reception unit that receives the force generated by the force generation unit and receives the three-dimensional target position of the processing tool by the applied force. A reception device,
The said control part controls the operation | movement of the said manipulator based on the three-dimensional target position which the said receiving apparatus received. The any one of Claim 1 to 4 characterized by the above-mentioned. Manipulator device.
前記箱体は、
空気を吹き出す吹出部と、
該吹出部が吹き出した空気を清浄化するフィルタと、
該フィルタからの清浄空気が内部に流入する流入口と、
内部の空気が流出する流出口と
を有する
ことを特徴とする請求項2に記載のマニピュレータ装置。
The box is
A blowout section for blowing out air;
A filter for purifying the air blown out by the blowing section;
An inlet through which clean air from the filter flows into the interior;
The manipulator device according to claim 2, further comprising: an outflow port from which internal air flows out.
前記撮像部は、前記対象物を異なる方向から撮像する複数の撮像部を有しており、The imaging unit has a plurality of imaging units for imaging the object from different directions,
前記タッチパネルは前記複数の撮像部が夫々撮像した画像を表示する画面領域各々を有し、かつ該画面領域各々にて前記マニピュレータの動作を制御するための指示を受け付けるようにしてあり、The touch panel has screen areas for displaying images captured by the plurality of imaging units, respectively, and receives instructions for controlling the operation of the manipulator in the screen areas.
前記制御部は、前記タッチパネルの画面領域各々が受け付けた指示に基づいて、前記マニピュレータの動作を制御するようにしてあるThe controller controls the operation of the manipulator based on an instruction received by each screen area of the touch panel.
ことを特徴とする請求項1から請求項6までのいずれか一項に記載のマニピュレータ装置。The manipulator device according to any one of claims 1 to 6, wherein the manipulator device is provided.
JP2013059018A 2013-03-21 2013-03-21 Manipulator device Expired - Fee Related JP6297784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013059018A JP6297784B2 (en) 2013-03-21 2013-03-21 Manipulator device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013059018A JP6297784B2 (en) 2013-03-21 2013-03-21 Manipulator device

Publications (2)

Publication Number Publication Date
JP2014184494A JP2014184494A (en) 2014-10-02
JP6297784B2 true JP6297784B2 (en) 2018-03-20

Family

ID=51832569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013059018A Expired - Fee Related JP6297784B2 (en) 2013-03-21 2013-03-21 Manipulator device

Country Status (1)

Country Link
JP (1) JP6297784B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497021B2 (en) * 2014-10-01 2019-04-10 株式会社デンソーウェーブ Robot operation device, robot system, and robot operation program
EP3263290A4 (en) 2015-02-25 2018-11-21 Olympus Corporation Manipulator system and medical system
JP6601201B2 (en) * 2015-03-19 2019-11-06 株式会社デンソーウェーブ Robot operation device and robot operation program
JP6713190B2 (en) * 2015-10-09 2020-06-24 住友重機械工業株式会社 Shovel operating device and shovel operating method
JPWO2018051435A1 (en) * 2016-09-14 2018-09-13 三菱電機株式会社 Numerical controller
JP7226912B2 (en) * 2017-11-20 2023-02-21 株式会社タイトー Game device, game server, and program
JP7053443B2 (en) 2018-12-07 2022-04-12 ファナック株式会社 Control device for robots that perform manual operations with the operating device
WO2023053368A1 (en) * 2021-09-30 2023-04-06 ファナック株式会社 Teaching device and robot system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2645866B2 (en) * 1988-09-05 1997-08-25 株式会社日立製作所 Manipulator control method and device
JP3675004B2 (en) * 1995-10-04 2005-07-27 株式会社安川電機 Robot control device
JPH11262883A (en) * 1998-03-19 1999-09-28 Denso Corp Manual operation device for robot
JP3465613B2 (en) * 1999-01-13 2003-11-10 松下電器産業株式会社 Operating device for fine objects
JP2001072247A (en) * 1999-09-06 2001-03-21 Murata Mach Ltd Conveying system
JP2002253574A (en) * 2001-03-01 2002-09-10 Hitachi Ltd Operation support device
JP2006350602A (en) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd Operation terminal equipment
JP4992491B2 (en) * 2007-03-14 2012-08-08 日本精工株式会社 Manipulator system
JP5217662B2 (en) * 2007-08-02 2013-06-19 日本精工株式会社 Manipulator and manipulator system
JP2009148869A (en) * 2007-12-21 2009-07-09 Olympus Corp Assembly apparatus
EP2279444A4 (en) * 2008-03-19 2014-01-01 Univ Toronto System and method for micromanipulating samples
JP5466965B2 (en) * 2010-02-08 2014-04-09 オリンパス株式会社 Apparatus, method, program, and system for controlling stage
JP5526881B2 (en) * 2010-03-12 2014-06-18 株式会社デンソーウェーブ Robot system
JP2012119557A (en) * 2010-12-02 2012-06-21 Hitachi Kokusai Electric Inc Substrate processing device
JP5739680B2 (en) * 2011-01-27 2015-06-24 株式会社日立製作所 Manipulator device and working device with manipulator
JP5694277B2 (en) * 2012-11-16 2015-04-01 株式会社日立製作所 Automatic culture equipment

Also Published As

Publication number Publication date
JP2014184494A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6297784B2 (en) Manipulator device
US11857278B2 (en) Roboticized surgery system with improved control
US11547520B2 (en) Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display
JP7081584B2 (en) Medical observation system, control device and control method
CN107106245B (en) Interaction between user interface and master controller
CN112099215B (en) Surgical microscope with gesture control and method for gesture control of a surgical microscope
KR20220032635A (en) Systems and methods for onscreen menus in a teleoperational medical system
WO2016109409A1 (en) Virtual lasers for interacting with augmented reality environments
US20190339836A1 (en) Information processing apparatus, method, and program
JP6419487B2 (en) Medical observation system
JP2011508282A (en) Device for controlling the functions of the microscope with one hand
US11703952B2 (en) System and method for assisting operator engagement with input devices
WO2022185127A1 (en) Robot-assisted setup for a surgical robotic system
US20230046644A1 (en) Apparatuses, Methods and Computer Programs for Controlling a Microscope System
JP5711531B2 (en) Sample stage apparatus and electron beam apparatus
WO2020102773A1 (en) Training users using indexed to motion pictures
JP5855656B2 (en) Medical manipulator and method of operating the same
Obushi et al. MagniFinger: Fingertip-mounted microscope for augmenting human perception
US20220378528A1 (en) Systems and methods for controlling a surgical robotic assembly in an internal body cavity
WO2024020223A1 (en) Changing mode of operation of an instrument based on gesture detection
Obushi et al. MagniFinger: magnified perception by a fingertip probe microscope
WO2024097162A1 (en) Systems including a graphical user interface for a surgical robotic system
CN116322559A (en) Steerable viewer mode activation and deactivation
WO2023150449A1 (en) Systems and methods for remote mentoring in a robot assisted medical system
JP2023506355A (en) Computer-assisted surgical system, surgical control device and surgical control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180222

R150 Certificate of patent or registration of utility model

Ref document number: 6297784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees