JP2023047376A - Three-dimensional image control method - Google Patents
Three-dimensional image control method Download PDFInfo
- Publication number
- JP2023047376A JP2023047376A JP2021156249A JP2021156249A JP2023047376A JP 2023047376 A JP2023047376 A JP 2023047376A JP 2021156249 A JP2021156249 A JP 2021156249A JP 2021156249 A JP2021156249 A JP 2021156249A JP 2023047376 A JP2023047376 A JP 2023047376A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- stereoscopic image
- user
- control method
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本開示は、遠隔制御における立体画像制御方法に関する。 The present disclosure relates to a stereoscopic image control method in remote control.
特許文献1は、ディスプレイの画像の中でマニピュレータを動作させることのできる遠隔操作装置を開示する。この遠隔操作装置は、マニピュレータと、作業空間を撮影する複数のカメラユニットと撮影された画像を表示するヘッドマウントディスプレイとユーザーがヘッドマウントディスプレイの画像を見ながら操作するための入力装置とロボット制御用コンピュータとを備える。これにより、ディスプレイの中で常に指示通りの方向へマニピュレータを動作させることができる。
本開示は、ユーザーの操作時の負担を軽減する立体画像制御方法を提供する。 The present disclosure provides a stereoscopic image control method that reduces the user's operational burden.
本開示における立体画像制御方法は、立体画像を撮影可能な複数のカメラと、立体画像の表示が可能な表示部と、対象物に対して作業するエンドエフェクタと、に接続された制御装置の立体画像制御方法であって、エンドエフェクタと対象物との距離に関する情報を含む第1の距離情報と、対象物とカメラとの距離に関する情報を含む第2の距離情報と、を取得し、第1の距離情報が第1の閾値未満かつ第2の距離情報が第2の閾値未満の場合、第2の距離情報に基づいて、表示部で表示される立体画像を調整することを特徴とする。 A stereoscopic image control method according to the present disclosure includes a stereoscopic image of a control device connected to a plurality of cameras capable of capturing stereoscopic images, a display unit capable of displaying stereoscopic images, and an end effector working on an object. An image control method comprising obtaining first distance information including information about the distance between an end effector and an object and second distance information including information about the distance between the object and a camera; is less than the first threshold and the second distance information is less than the second threshold, the stereoscopic image displayed on the display unit is adjusted based on the second distance information.
本開示における立体画像制御方法は、ユーザーの操作時の負担を軽減することができる。 The stereoscopic image control method according to the present disclosure can reduce the user's operational burden.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.
(実施の形態1)
以下、図1~6を用いて、実施の形態1を説明する。
(Embodiment 1)
[1-1.構成]
[1-1-1.遠隔操作ロボットの概要図]
図1は、実施の形態1における遠隔制御ロボットの概念図である。ロボットアーム101はユーザーからの入力に応じて駆動するロボットアームである。ロボットアーム101の各関節には関節の角度を取得するセンサが取り付けられている。ロボットアーム101の先にはエンドエフェクタであるロボットハンド111が取り付けられている。ロボットアームの底部は固定部102に固定されている。ユーザーの操作に応じてロボットアーム101とロボットハンド111を動かすことにより、ユーザーが遠隔制御ロボットの周囲の対象物を把持することが可能となる。
[1-1. composition]
[1-1-1. Schematic diagram of remote control robot]
FIG. 1 is a conceptual diagram of a remote control robot according to
HMD(ヘッドマウントディスプレイ)141はカメラモジュール120で撮影された立体画像を、視差を利用して表示するための表示装置である。ユーザーはHMD141に表示された立体画像を見ながらコントローラ151を操作することで、作業現場にいる感覚で、ロボットハンド111とロボットアーム101とを操作することができる。カメラモジュール120は、対象物、ロボットハンド111、ロボットアーム101が撮影可能な位置に設けられ、ユーザーの頭部に固定したHMD141の動きに追従して撮影範囲を変更することができる。
An HMD (head mounted display) 141 is a display device for displaying a stereoscopic image captured by the
図2は、実施の形態1における画像調整装置の構成例を示す図である。カメラモジュール120は左眼カメラ121と、右眼カメラ122と、カメラ調整部123で構成される。カメラ調整部123は、左眼カメラ121と右眼カメラ122との間の幅と角度を変更することができる。幅と角度を調整することにより、ユーザーに表示する立体画像を調整することが可能である。
FIG. 2 is a diagram illustrating a configuration example of an image adjustment device according to
制御装置131はコントローラ151からの入力に基づき、ロボットアーム101およびロボットハンド111を制御する装置である。また、近接センサ112で取得する距離情報、または、左眼カメラ121、右眼カメラ122から求められる距離情報に基づいて、カメラ間の距離、カメラ間の角度、HMDのレンズ倍率等、を制御し、ユーザーに表示する立体画像を調整する装置である。
The
近接センサ112は、例えば超音波センサなどの、周囲との距離を計測するセンサである。ロボットハンド111の先端に近接センサ112を取り付けることでロボットハンド111の周辺にある対象物とロボットハンドとの第1の距離の計測が可能である。
The
光学系調整部142は、HMD141のレンズの倍率と両眼のレンズの間隔を変更する装置である。レンズの倍率と両眼のレンズの間隔を変更することにより、ユーザーに表示する立体画像を調整することが可能である。なお、立体画像の調整はカメラ調整部123による調整と同時に行うことが可能である。
The optical
[1-1-2.HMD装着時における立体画像の認識]
図3は実施の形態1におけるユーザーに認識される対象物の距離の関係を説明するための図である。ユーザーの目の至近距離にHMD141の光学レンズとディスプレイが設置されている。この光学レンズとディスプレイにより、ユーザーは、ユーザーからの距離Lsの位置に仮想スクリーン220を認識する。距離Lsはユーザーの両目の中間の点から仮想スクリーン220の距離である。立体画像(立体視)は仮想スクリーン220上に、左眼用画像221と右眼用画像222とを表示して実現する。
[1-1-2. Recognition of stereoscopic image when wearing HMD]
3A and 3B are diagrams for explaining the distance relationship between objects recognized by the user according to the first embodiment. FIG. The optical lens and display of the HMD 141 are installed at a close distance from the user's eyes. With this optical lens and display, the user perceives a
右眼用画像222に表示された右眼に認識される対象物232と、左眼用画像221に表示された左眼に認識される対象物231との視差により、ユーザーは、ユーザーからの距離Ltの位置にユーザーに認識される対象物230を認識する。距離Ltはユーザーの両目の中間の点からユーザーに認識される対象物230との距離である。
Due to the parallax between the
[1-2.課題]
[1-2-1.対象物認識時の焦点調整動作によるユーザーへの負担の理由]
図3において、仮想スクリーン220に表示された右眼に認識される対象物232と、左眼に認識される対象物231の画像は、ユーザーには、視差によりユーザーに認識される対象物230として認識される。ユーザーに認識される対象物230は距離Ltの位置にある。
[1-2. Theme]
[1-2-1. Reason for the burden on the user due to focus adjustment operation during object recognition]
In FIG. 3, the images of the
この時、ユーザーの目の焦点は距離Ltの位置に調整される(焦点の状態1)。焦点の状態1の時、実際の画像は距離Lsの位置にある仮想スクリーン上に表示されており、距離Ltに焦点を合わせた状態では、仮想スクリーン220上の対象物の画像がぼやけて見える。
At this time, the focus of the user's eyes is adjusted to the position of the distance Lt (focus state 1). In
この時、ユーザーの目の焦点は、ぼやけた画像を鮮明にするために、実際の画像が表示されている距離Lsの位置に調整される(焦点の状態2)。 At this time, the focus of the user's eyes is adjusted to the position at the distance Ls where the actual image is displayed to sharpen the blurred image (focus state 2).
焦点の状態2の時、ユーザーに認識される対象物230の距離Ltと調整された焦点距離Lsが異なる。そのため、ユーザーの認識と焦点距離を合わせるため、ユーザーの目の焦点は、再び距離Ltの位置に調整される(焦点の状態1)。この焦点調整の繰り返しによる眼球運動をユーザーに強いることがユーザーの負担になる。
In focus state 2, the distance Lt of the
しかしながら、実用上、距離Lsと距離Ltの差が許容範囲内であれば、眼球運動が抑制され、この負担を軽減することができる。この許容範囲は、ユーザーの個人差やカメラの画角・カメラ間距離・スクリーンのサイズ等によって変化する。実施の形態1においては、ユーザーの頭に固定されるHMD141を用いており、距離Lsが固定されているため、距離Ltを考慮すればよい。例えば、本実施形態においては、距離Ltが150[mm]以上であれば、ユーザーの負担を軽減できる。この150[mm]を本実施形態におけるユーザーの負担を軽減できる閾値(距離Ltにおける第2の閾値)とする。
However, practically, if the difference between the distance Ls and the distance Lt is within an allowable range, the eye movement is suppressed, and this burden can be reduced. This allowable range varies depending on the individual difference of the user, the angle of view of the camera, the distance between the cameras, the size of the screen, and the like. In
[1-2-2.対象物位置のHMDへの再現]
図4は遠隔操作実施時の対象物の位置を説明する図である。ユーザーは、HMD141に表示されたユーザーからの距離Ltにあるユーザーに認識される対象物230を見ながら、カメラモジュール120から第2の距離Ltrに存在する対象物を操作する。この時、カメラモジュール120で撮影した立体画像をHMD141にそのまま再現した場合、ユーザーに認識される対象物230はユーザーから距離Lt=Ltrの位置に表示される。そのため、カメラモジュール120から対象物が近い場合つまり、第2の距離Ltrが小さい場合、HMD141に表示されたユーザーからの距離Ltも小さくなり、焦点調整の繰り返しによる眼球運動により、ユーザーへの負担が大きくなる。
[1-2-2. Reproduction of object position on HMD]
FIG. 4 is a diagram for explaining the position of an object when performing remote control. The user operates an object present at a second distance Ltr from the
[1-3.動作]
以上のように構成された遠隔制御ロボットについて、その動作を以下説明する。遠隔制御ロボットは対象物とロボットハンドとの距離に基づくカメラ部の各動作を行う。以下、それぞれの動作について詳細に説明する。
[1-3. motion]
The operation of the remote control robot configured as described above will be described below. The remote control robot performs each operation of the camera section based on the distance between the object and the robot hand. Each operation will be described in detail below.
[1-3-1.対象物把持動作とユーザーの視点の変化]
本実施の形態では、遠隔制御システムを用いて対象物を把持する。ユーザーはHMD141に表示された立体画像を見ながら、ロボットハンド111とロボットアーム101を用いて、遠隔制御を行う。HMD141は、カメラモジュール120で撮影した立体画像を、表示する。
[1-3-1. Object gripping motion and change in user's viewpoint]
In this embodiment, the object is grasped using a remote control system. The user performs remote control using the
動作開始時に、ユーザーは対象物を探すために、周囲を俯瞰的に見渡す。この時、ユーザーの視点は特定の対象に定まっておらず、遠くを見ている。 At the start of the operation, the user looks over the surroundings in order to search for an object. At this time, the user's point of view is not fixed on a specific target, but is looking far away.
次に、ユーザーはHMD141を通してカメラモジュール120から距離Ltr(図
4参照)にある対象物を認識し、周囲を確認し、衝突を避けながら、対象物の方向へロボットハンド111が近づくように、視点を変えながら、ロボットアーム101を操作する。ロボットアーム101の操作により、ロボットハンド111と対象物との距離である第1の距離が近づいた時、ユーザーはロボットハンド111と対象物の詳細な位置関係を把握するために、対象物とロボットハンド111に視点を定める。このユーザーが対象物とロボットハンド111に視点を定めるときのロボットハンド111と対象物である第1の距離を第1の閾値として設定する。
Next, the user recognizes an object at a distance Ltr (see FIG. 4) from the
なお、ユーザーが対象物とロボットハンド111に視点を定めるときをロボットハンド111が作業を開始するタイミングとしている。つまり、第1の閾値はロボットハンド111が作業していると判断される距離となる。
The timing at which the
この時、対象物とカメラモジュール120の距離Ltrが第2の閾値よりも小さかった場合には、焦点調整の繰り返しによる眼球運動が発生し、ユーザーに負担が生じ、その結果、ユーザーが立体視を継続することが難しくなる。そのため、第2の閾値以上である場合は、立体視を継続することが可能な距離であり、第2の閾値未満の場合は、ユーザーが立体視を継続するのが難しい距離となる。
At this time, if the distance Ltr between the object and the
対象物の把持後は把持した対象物に着目しながら、対象物の移動・対象物を用いた作業・対象物の解放を行う。対象物を解放した直後は、対象物付近に着目しながらロボットハンドを遠ざけ、対象物からロボットハンド111が離れた場合には、周囲を確認するために、対象物とロボットハンド以外の点にユーザーの視点が移動する。 After grasping the object, while paying attention to the grasped object, it moves the object, works using the object, and releases the object. Immediately after releasing the object, the robot hand moves away while paying attention to the vicinity of the object. 's viewpoint moves.
つまり、対象物をロボットハンド111にて把持するなど、対象物に対して直接的に作業を行う場合には、ユーザーの視点は対象物にあり、対象物を探す、対象物をロボットハンド111から解放し後、周囲を確認するなど、対象物に対して直接的な作業を行っていない場合には、ユーザーの視点は対象物にないことになる。そして、ユーザーの視点が対象物にあり、その対象物においてカメラモジュール120との距離Ltrが第2の閾値未満の場合、上述したように、焦点調整の繰り返しによる眼球運動が発生し、ユーザーに負担が生じることになる。
In other words, when the
[1-3-2.対象物との距離とユーザーの視点とに応じた立体画像の調整]
前述のように、遠隔制御実施時には、作業によりカメラモジュール120に対する対象物そのものの距離、遠隔制御中の操作内容によりユーザーの視点が変化する。それに伴い遠隔制御中の操作内容によっては、ユーザーの焦点調整の繰り返しによる眼球運動が発生し、その負担を軽減するために、立体画像の調整を行う。本実施の形態では、立体画像を調整する方法の一例として、カメラ間距離の調整を行う場合を説明する。
[1-3-2. Adjustment of a stereoscopic image according to the distance to the object and the user's viewpoint]
As described above, when remote control is performed, the user's viewpoint changes depending on the distance of the object itself from the
図5は右眼カメラ122と左眼カメラ121の距離を調整する動作を説明するためのフローチャートである。ユーザーはHMD141に表示された情報(立体画像)をみながらコントローラ151を操作し、ロボットアーム101、及び、ロボットハンド111を操作する。
FIG. 5 is a flowchart for explaining the operation of adjusting the distance between the right-
ユーザーによる遠隔制御実施中に、制御装置131は図5に示す処理を繰り返し行う。ロボットハンド111の指先に搭載された近接センサ112によりロボットハンド111と対象物との第1の距離を取得する(S501)。
While the user is performing remote control, the
ロボットハンドで対象物をつかむために、ロボットハンドと対象物の第1の距離が第1の閾値以下になった場合(S502におけるYesの場合)、対象物とカメラモジュール120との第2の距離Ltrを取得する(S503)。
When the first distance between the robot hand and the object becomes equal to or less than the first threshold value to grab the object with the robot hand (Yes in S502), the second distance between the object and the
ここで、例えば、第2の距離Ltrは、対象物の位置を右眼カメラ122と左眼カメラ121を用いた三角測量の原理により計測し、計測した対象物の位置を用いて、算出する。
Here, for example, the second distance Ltr is calculated by measuring the position of the object according to the principle of triangulation using the right-
第2の距離が第2の閾値未満であった場合(S504におけるYesの場合)、カメラ調整部123によって左眼カメラ121と右眼カメラ122との距離を、ユーザーに認識される対象物230とユーザーの距離Ltが第2の閾値以上となるように、小さくする(S505)。なお、ユーザーに認識される対象物230とユーザーの距離Ltの調整の原理については後述する。
If the second distance is less than the second threshold (Yes in S504), the
カメラ調整部123によって調整された立体画像を、HMD141を通してユーザーに提示する(S506)。
The stereoscopic image adjusted by the
一方、ロボットハンドと対象物との距離が閾値を超える場合(S502におけるNoの場合)、または、ロボットハンド111と右眼カメラ122の距離が閾値を超える場合(S504におけるNoの場合)、カメラ間距離の調整は行わず、調整されていない立体画像を、HMD141を通してユーザーに提示する(S506)。
On the other hand, when the distance between the robot hand and the object exceeds the threshold (No in S502), or when the distance between the
ここで、ユーザーに認識される対象物230とユーザーの距離Ltの調整方法について、図6を用いて説明する。図6は画像位置変更時のユーザーに認識される対象物位置の変化を説明する図である。
Here, a method of adjusting the distance Lt between the
カメラ間距離の調整を行わない場合、図3に示すようになるが、距離Ltを調整する場合、つまりカメラ間距離を小さくした場合、図6に示すように、それぞれの画像内において右眼用画像222に表示されている右眼に認識される対象物232が右に移動し、左眼用画像221に表示されている左眼に認識される対象物231が左に移動する。
When the inter-camera distance is not adjusted, it becomes as shown in FIG. The
これによって、実際の対象物とカメラモジュール120と距離Ltrは変わっていないにもかかわらず、ユーザーに認識される対象物230は仮想スクリーン220側に移動し、その結果、距離Ltが大きくなる。つまり、カメラ間距離を小さくすることによって、距離Ltを大きくすることができ、実際の距離Ltrが小さくても、ユーザーに認識される対象物230の距離Ltを常に第2の閾値以上に調整することができる。
As a result, although the distance Ltr between the actual object and the
[1-4.効果等]
[1-4-1.遠隔制御システムの効果]
以上のように、本実施の形態において、遠隔制御システムはカメラモジュール120と、ロボットハンド111と、近接センサ112と、ロボットアーム101と、HMD141と、コントローラ151と、を備える。カメラモジュール120はロボットアーム101周辺の立体画像を撮影する。
[1-4. effects, etc.]
[1-4-1. Effect of remote control system]
As described above, in this embodiment, the remote control system includes
カメラ調整部123は、対象物とカメラモジュール120との第2の距離情報に基づいて、左眼カメラ121と右眼カメラ122の距離を、ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように小さくする。
Based on the second distance information between the object and the
そのため、焦点調整の繰り返しによるユーザーの眼球運動を抑制し、ユーザーの操作時の負担を軽減することができる。 Therefore, it is possible to suppress the user's eye movement due to repeated focus adjustment, and reduce the burden on the user during operation.
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。そこで、以下、他の実施の形態を例示する。
(Other embodiments)
As described above,
実施の形態1では、立体画像を調整する方法の一例としてカメラ間距離の変更を説明した。立体画像を調整する方法は、ユーザーに認識される立体画像を調整可能であればよい。したがって、立体画像を調整する方法はカメラ間距離の変更に限定されない。
In
例えば、カメラ間角度の変更を、立体画像を調整する方法として用いてもよい。ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように、光軸がなす角が大きくなる方向にカメラを回転させる。具体的には、左眼カメラ121を時計回りに回転し、右眼カメラ122を反時計周りに回転させる。これにより、カメラ間距離を調整した場合と同じく、右眼用画像222に表示されている右眼に認識される対象物232が右に移動し、左眼用画像221に表示されている左眼に認識される対象物231が左に移動する。そのため、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。
For example, changing the inter-camera angle may be used as a method of adjusting the stereoscopic image. The camera is rotated in a direction that increases the angle formed by the optical axis so that the distance Lt of the object recognized by the user is greater than or equal to the second threshold. Specifically, the left-
また、カメラのレンズの倍率の変更を、立体画像を調整する方法として用いてもよい。ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように、左眼カメラ121と右眼カメラ122のレンズ倍率を小さくする。これにより、右眼用画像222に表示されている右眼に認識される対象物232と、左眼用画像221に表示されている左眼に認識される対象物231が中心に近づく。そのため、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。
Also, changing the magnification of the camera lens may be used as a method of adjusting the stereoscopic image. The lens magnifications of the left-
また、HMD141のレンズの倍率の変更を、立体画像を調整する方法として用いてもよい。仮想スクリーン220の距離Lsが小さくなるように、HMDのレンズのレンズ倍率を大きくする。これにより、仮想スクリーンまでの距離Lsとユーザーに認識される対象物の距離Ltの差を小さくすることができ、ユーザーの眼球運動が抑制され、ユーザーの負担が軽減される。
Also, changing the magnification of the lens of the
また、表示画像の線形変換処理を、立体画像を調整する方法として用いてもよい。仮想スクリーン上に表示されている右眼用画像222と左眼用画像221の画像を互いに近づける。これにより、右眼に認識される対象物232と、左眼に認識される対象物231との距離が小さくなり、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。
Also, the linear transformation processing of the display image may be used as a method of adjusting the stereoscopic image. The right-
また、仮想スクリーン上に表示されている右眼用画像222と左眼用画像221の画像を縮小し、立体画像を調整する。これにより、右眼に認識される対象物232と、左眼に認識される対象物231との距離が小さくなり、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。
Also, the image for the
また、これらの手法を組み合わせることによって画像の調整を行ってもよい。 Also, the image may be adjusted by combining these techniques.
実施の形態1では、対象物とカメラモジュール120との距離を第2の距離として使用したが、第2の距離は、ロボットハンド111とカメラモジュール120との距離であってもよい。つまり、第2の距離はカメラモジュール120からからユーザーが着目する対象までの距離であればよい。特に、第1の距離が小さい場合、ロボットハンド111と対象物が近い位置にあるため有用である。
Although the distance between the object and
なお、ロボットハンド111とカメラモジュール120との距離を第2の距離として用いる場合、三角測量ではなく、カメラモジュール120と相対位置を活用して行うことができる。具体的には、ロボットアーム101の関節角情報と、ロボットアーム101とロボットハンド111とカメラモジュール120との部品寸法情報から計算することができる。
Note that when the distance between the
実施の形態1では、ユーザーに立体画像を提示する装置としてHMDを説明した。ユーザーに立体画像を提示する方法は、ユーザーに視差による立体視を可能にするものであればよい。したがって、ユーザーに立体画像を提示する装置はHMDに限定されない。ただし、ユーザーに立体画像を提示する装置として、HMDを用いれば、没入感を高め、現場での操作感に近づけることが可能である。具体的には、3Dディスプレイをユーザーに立体画像を提示する装置として用いてもよい。ユーザーに立体画像を提示する装置として3Dディスプレイを用いればユーザーが身に着ける装置の軽量化が可能である。
In
実施の形態1では、第1の閾値の一例として、ユーザーの視点が変化するロボットハンド111と対象物の距離を説明した。第1の閾値はユーザーの視点がエンドエフェクタ付近に移動したと判断可能であればよい。例えば、ロボットハンドで対象物を把持する際に、ロボットハンドを開く方向に動作させた場合、ロボットハンドの開き幅が対象物の幅以上であることを第1の閾値としてもよい。また、ハンドを閉じる方向に動作させた時を第1の閾値としてもよい。また、把持後に対象物とロボットハンドの距離がゼロになった時、つまり、対象物とロボットハンドが接触している時を第1の閾値としてもよい。
In
また、第1の閾値はユーザーがエンドエフェクタの付近に着目していると判断可能であればよい。例えば、ロボットハンドでドライバーを把持し、ねじ締を行う場合、第1の閾値をゼロとする。つまり、把持している時のみに立体画像の調整を行う。第1の閾値をゼロにすれば、測距センサを用いずに、安価な接触センサを使用することが可能である。 Also, the first threshold may be determined as long as it can be determined that the user is paying attention to the vicinity of the end effector. For example, when a screwdriver is gripped by a robot hand and the screw is tightened, the first threshold is set to zero. In other words, the adjustment of the stereoscopic image is performed only when the device is held. If the first threshold is set to zero, it is possible to use an inexpensive contact sensor without using a ranging sensor.
実施の形態1では、エンドエフェクタの一例としてロボットハンドを説明した。エンドエフェクタは対象に対して作業を行うものであればよい。また、作業は把持に限定されず、作業に合わせて第1の距離の設定方法は変化する。
In
例えば、他のエンドエフェクタとして、高圧洗浄機が考えられる。図7にエンドエフェクタとして高圧洗浄機を取り付けた場合のロボットの概念図を示す。高圧洗浄機114はロボットアーム101の先端に取り付けられており、水を噴射することで洗浄対象181を洗浄する。高圧洗浄機では、水の噴射方向にのみ、作用を及ぼすことが可能である。そのため、水の噴射方向に一定の距離以内に洗浄対象がある場合に視点が移動し、噴射方向以外に他の対象物が近づいた場合は視点が移動しないと考えられる。
For example, another end effector may be a high pressure washer. FIG. 7 shows a conceptual diagram of the robot when a high-pressure washer is attached as an end effector. The high-
つまり、エンドエフェクタ(高圧洗浄機)と対象物との距離だけではなく、エンドエフェクタの先端の方向(高圧洗浄機では水を噴射する先端方向)に基づいて、ユーザーが対象物(ここでは洗浄対象181)に着目しているか否か判断する。 In other words, not only the distance between the end effector (high-pressure washer) and the object, but also the direction of the tip of the end effector (in the case of a high-pressure washer, the direction in which water is sprayed) is used to determine the object (here, the object to be cleaned). 181) is determined.
エンドエフェクタの作業として高圧洗浄機による洗浄を設定した場合、第1の距離情報は、水の噴射方向に存在する対象までの距離とすることができる。第1の閾値は、水の噴射方向の洗浄可能な距離とする。ただし、第1の閾値は、高圧洗浄機114の水圧の設定に追従し、変更することができる。
When cleaning with a high-pressure cleaner is set as the work of the end effector, the first distance information can be the distance to the target existing in the water jet direction. The first threshold is the washable distance in the water jetting direction. However, the first threshold follows the water pressure setting of the
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Note that the above-described embodiment is for illustrating the technology in the present disclosure, and various changes, replacements, additions, omissions, etc. can be made within the scope of the claims or equivalents thereof.
本開示は、対象物とカメラとの距離に応じて立体画像の調整を行うシステムに適用可能である。具体的には、遠隔操作ロボット、作業用ロボットの画像撮影などに、本開示は適用可能である。 INDUSTRIAL APPLICABILITY The present disclosure is applicable to systems that adjust stereoscopic images according to the distance between an object and a camera. Specifically, the present disclosure can be applied to image capturing of remote-controlled robots, working robots, and the like.
101 ロボットアーム
102 固定部
111 ロボットハンド
112 近接センサ
114 高圧洗浄機
120 カメラモジュール
121 左眼カメラ
122 右眼カメラ
123 カメラ調整部
131 制御装置
141 HMD(ヘッドマウントディスプレイ)
142 光学系調整部
151 コントローラ
181 洗浄対象
220 仮想スクリーン
221 左眼用画像
222 右眼用画像
230 ユーザーに認識される対象物
231 左眼に認識される対象物
232 右眼に認識される対象物
101
142 optical
Claims (12)
前記エンドエフェクタと前記対象物との距離に関する情報を含む第1の距離情報と、前記対象物と前記カメラとの距離に関する情報を含む第2の距離情報と、を取得し、
前記第1の距離情報が第1の閾値未満かつ前記第2の距離情報が第2の閾値未満の場合、前記第2の距離情報に基づいて、前記表示部で表示される立体画像を調整することを特徴とする立体画像制御方法。 A stereoscopic image control method for a control device connected to a plurality of cameras capable of capturing stereoscopic images, a display unit capable of displaying the stereoscopic images, and an end effector working on an object,
Acquiring first distance information including information about the distance between the end effector and the object, and second distance information including information about the distance between the object and the camera;
When the first distance information is less than a first threshold and the second distance information is less than a second threshold, the stereoscopic image displayed on the display unit is adjusted based on the second distance information. A stereoscopic image control method characterized by:
前記立体画像の調整は、前記ヘッドマウントディスプレイの光学系の制御することを特徴とする請求項1から請求項10のいずれか1項に記載の立体画像制御方法。 The display unit is a head-mounted display,
11. The stereoscopic image control method according to any one of claims 1 to 10, wherein the adjustment of the stereoscopic image is performed by controlling an optical system of the head mounted display.
12. The stereoscopic image control method according to claim 11, wherein the optical system is controlled to increase the magnification of a lens of the head-mounted display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156249A JP2023047376A (en) | 2021-09-27 | 2021-09-27 | Three-dimensional image control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156249A JP2023047376A (en) | 2021-09-27 | 2021-09-27 | Three-dimensional image control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023047376A true JP2023047376A (en) | 2023-04-06 |
Family
ID=85779111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021156249A Pending JP2023047376A (en) | 2021-09-27 | 2021-09-27 | Three-dimensional image control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023047376A (en) |
-
2021
- 2021-09-27 JP JP2021156249A patent/JP2023047376A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fernando et al. | Design of TELESAR V for transferring bodily consciousness in telexistence | |
US20220296317A1 (en) | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools | |
US20170099433A1 (en) | Eye/Head Controls for Camera Pointing | |
JP6188440B2 (en) | Robot apparatus and robot control method | |
US11833698B2 (en) | Vision system for a robot | |
CN115666406A (en) | System and method for determining depth perception in vivo in a surgical robotic system | |
US11864841B2 (en) | Method of operating a surgical microscope and surgical microscope | |
JP2011101915A (en) | Robot system | |
Tripicchio et al. | A stereo-panoramic telepresence system for construction machines | |
Kawanobe et al. | iRIS: a remote surrogate for mutual reference | |
Luo et al. | Towards robot avatars: Systems and methods for teleinteraction at avatar xprize semi-finals | |
Lin et al. | The implementation of augmented reality in a robotic teleoperation system | |
JP3482228B2 (en) | Manipulator control system by gaze detection | |
CN105828021A (en) | Specialized robot image acquisition control method and system based on augmented reality technology | |
JP2006329747A (en) | Imaging device | |
JPH0421105A (en) | Stereoscopic teaching device for manipulator | |
JP2023509038A (en) | Method of operating surgical microscope and surgical microscope | |
JP2023047376A (en) | Three-dimensional image control method | |
JP2008233081A (en) | Method of recognizing and tracking spatial point | |
US20150097930A1 (en) | Stereo camera | |
WO2012017585A1 (en) | Imaging device | |
CN111970502A (en) | Humanoid binocular follow-up virtual reality system suitable for teleoperation of robot | |
EP2717582B1 (en) | Camera module and apparatus for calibrating position thereof | |
JPH03119890A (en) | Stereoscopic viewing device | |
JPH07328971A (en) | Manipulator with tv camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20221021 |