JP2023047376A - Three-dimensional image control method - Google Patents

Three-dimensional image control method Download PDF

Info

Publication number
JP2023047376A
JP2023047376A JP2021156249A JP2021156249A JP2023047376A JP 2023047376 A JP2023047376 A JP 2023047376A JP 2021156249 A JP2021156249 A JP 2021156249A JP 2021156249 A JP2021156249 A JP 2021156249A JP 2023047376 A JP2023047376 A JP 2023047376A
Authority
JP
Japan
Prior art keywords
distance
stereoscopic image
user
control method
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156249A
Other languages
Japanese (ja)
Inventor
雄之 内田
Takeyuki Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021156249A priority Critical patent/JP2023047376A/en
Publication of JP2023047376A publication Critical patent/JP2023047376A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a three-dimensional image control method capable of reducing a burden on a user in operation.SOLUTION: A three-dimensional image control method of a control device connected to a plurality of cameras capable of capturing a three-dimensional image, a display unit capable of displaying the three-dimensional image, and an end effector for executing work for an object acquires first distance information including information on a distance between the end effector and the object, and second distance information including information on a distance between the object and the camera, and adjusts the three-dimensional image displayed in the display unit on the basis of the second distance information when the first distance information is less than a first threshold and the second distance information is less than a second threshold.SELECTED DRAWING: Figure 5

Description

本開示は、遠隔制御における立体画像制御方法に関する。 The present disclosure relates to a stereoscopic image control method in remote control.

特許文献1は、ディスプレイの画像の中でマニピュレータを動作させることのできる遠隔操作装置を開示する。この遠隔操作装置は、マニピュレータと、作業空間を撮影する複数のカメラユニットと撮影された画像を表示するヘッドマウントディスプレイとユーザーがヘッドマウントディスプレイの画像を見ながら操作するための入力装置とロボット制御用コンピュータとを備える。これにより、ディスプレイの中で常に指示通りの方向へマニピュレータを動作させることができる。 Patent Literature 1 discloses a remote control device capable of operating a manipulator in an image on a display. This remote control device consists of a manipulator, multiple camera units that capture images of the work space, a head-mounted display that displays the captured images, an input device that allows the user to operate while viewing the image on the head-mounted display, and a robot control device. a computer; This allows the manipulator to always move in the direction indicated in the display.

特開2000-42960号公報JP-A-2000-42960

本開示は、ユーザーの操作時の負担を軽減する立体画像制御方法を提供する。 The present disclosure provides a stereoscopic image control method that reduces the user's operational burden.

本開示における立体画像制御方法は、立体画像を撮影可能な複数のカメラと、立体画像の表示が可能な表示部と、対象物に対して作業するエンドエフェクタと、に接続された制御装置の立体画像制御方法であって、エンドエフェクタと対象物との距離に関する情報を含む第1の距離情報と、対象物とカメラとの距離に関する情報を含む第2の距離情報と、を取得し、第1の距離情報が第1の閾値未満かつ第2の距離情報が第2の閾値未満の場合、第2の距離情報に基づいて、表示部で表示される立体画像を調整することを特徴とする。 A stereoscopic image control method according to the present disclosure includes a stereoscopic image of a control device connected to a plurality of cameras capable of capturing stereoscopic images, a display unit capable of displaying stereoscopic images, and an end effector working on an object. An image control method comprising obtaining first distance information including information about the distance between an end effector and an object and second distance information including information about the distance between the object and a camera; is less than the first threshold and the second distance information is less than the second threshold, the stereoscopic image displayed on the display unit is adjusted based on the second distance information.

本開示における立体画像制御方法は、ユーザーの操作時の負担を軽減することができる。 The stereoscopic image control method according to the present disclosure can reduce the user's operational burden.

実施の形態1における遠隔制御ロボットの概念図Conceptual diagram of a remote-controlled robot according to Embodiment 1 実施の形態1における画像調整装置の構成例を示す図1 is a diagram showing a configuration example of an image adjustment device according to Embodiment 1; FIG. 実施の形態1におけるユーザーに認識される対象物の距離の関係を説明するための図FIG. 4 is a diagram for explaining the distance relationship between objects recognized by the user in the first embodiment; 遠隔操作実施時の対象物の位置を説明する図Diagram explaining the position of the target object during remote operation 右眼カメラと左眼カメラの距離を調整する動作を説明するためのフローチャート4 is a flowchart for explaining the operation of adjusting the distance between the right-eye camera and the left-eye camera; 画像位置変更時の操作者に認識される対象物位置の変化を説明する図Diagram for explaining the change in the object position recognized by the operator when the image position is changed. エンドエフェクタとして高圧洗浄機を取り付けた場合のロボットの概念図Conceptual diagram of a robot with a high pressure washer attached as an end effector

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

(実施の形態1)
以下、図1~6を用いて、実施の形態1を説明する。
(Embodiment 1)
Embodiment 1 will be described below with reference to FIGS. 1 to 6. FIG.

[1-1.構成]
[1-1-1.遠隔操作ロボットの概要図]
図1は、実施の形態1における遠隔制御ロボットの概念図である。ロボットアーム101はユーザーからの入力に応じて駆動するロボットアームである。ロボットアーム101の各関節には関節の角度を取得するセンサが取り付けられている。ロボットアーム101の先にはエンドエフェクタであるロボットハンド111が取り付けられている。ロボットアームの底部は固定部102に固定されている。ユーザーの操作に応じてロボットアーム101とロボットハンド111を動かすことにより、ユーザーが遠隔制御ロボットの周囲の対象物を把持することが可能となる。
[1-1. composition]
[1-1-1. Schematic diagram of remote control robot]
FIG. 1 is a conceptual diagram of a remote control robot according to Embodiment 1. FIG. A robot arm 101 is a robot arm driven according to an input from a user. Each joint of the robot arm 101 is equipped with a sensor for acquiring the angle of the joint. A robot hand 111 as an end effector is attached to the tip of the robot arm 101 . The bottom of the robot arm is fixed to the fixed part 102 . By moving the robot arm 101 and the robot hand 111 according to the user's operation, the user can grasp objects around the remote control robot.

HMD(ヘッドマウントディスプレイ)141はカメラモジュール120で撮影された立体画像を、視差を利用して表示するための表示装置である。ユーザーはHMD141に表示された立体画像を見ながらコントローラ151を操作することで、作業現場にいる感覚で、ロボットハンド111とロボットアーム101とを操作することができる。カメラモジュール120は、対象物、ロボットハンド111、ロボットアーム101が撮影可能な位置に設けられ、ユーザーの頭部に固定したHMD141の動きに追従して撮影範囲を変更することができる。 An HMD (head mounted display) 141 is a display device for displaying a stereoscopic image captured by the camera module 120 using parallax. By operating the controller 151 while viewing the stereoscopic image displayed on the HMD 141, the user can operate the robot hand 111 and the robot arm 101 as if they were at the work site. The camera module 120 is provided at a position where the object, the robot hand 111, and the robot arm 101 can be photographed, and can change the photographing range by following the movement of the HMD 141 fixed to the user's head.

図2は、実施の形態1における画像調整装置の構成例を示す図である。カメラモジュール120は左眼カメラ121と、右眼カメラ122と、カメラ調整部123で構成される。カメラ調整部123は、左眼カメラ121と右眼カメラ122との間の幅と角度を変更することができる。幅と角度を調整することにより、ユーザーに表示する立体画像を調整することが可能である。 FIG. 2 is a diagram illustrating a configuration example of an image adjustment device according to Embodiment 1. FIG. The camera module 120 is composed of a left-eye camera 121 , a right-eye camera 122 , and a camera adjustment section 123 . The camera adjuster 123 can change the width and angle between the left-eye camera 121 and the right-eye camera 122 . By adjusting the width and angle, it is possible to adjust the stereoscopic image displayed to the user.

制御装置131はコントローラ151からの入力に基づき、ロボットアーム101およびロボットハンド111を制御する装置である。また、近接センサ112で取得する距離情報、または、左眼カメラ121、右眼カメラ122から求められる距離情報に基づいて、カメラ間の距離、カメラ間の角度、HMDのレンズ倍率等、を制御し、ユーザーに表示する立体画像を調整する装置である。 The control device 131 is a device that controls the robot arm 101 and the robot hand 111 based on inputs from the controller 151 . Also, based on the distance information acquired by the proximity sensor 112 or the distance information obtained from the left-eye camera 121 and the right-eye camera 122, the distance between the cameras, the angle between the cameras, the lens magnification of the HMD, etc. are controlled. , is a device that adjusts the stereoscopic image displayed to the user.

近接センサ112は、例えば超音波センサなどの、周囲との距離を計測するセンサである。ロボットハンド111の先端に近接センサ112を取り付けることでロボットハンド111の周辺にある対象物とロボットハンドとの第1の距離の計測が可能である。 The proximity sensor 112 is a sensor such as an ultrasonic sensor that measures the distance to the surroundings. By attaching a proximity sensor 112 to the tip of the robot hand 111, it is possible to measure a first distance between an object around the robot hand 111 and the robot hand.

光学系調整部142は、HMD141のレンズの倍率と両眼のレンズの間隔を変更する装置である。レンズの倍率と両眼のレンズの間隔を変更することにより、ユーザーに表示する立体画像を調整することが可能である。なお、立体画像の調整はカメラ調整部123による調整と同時に行うことが可能である。 The optical system adjustment unit 142 is a device that changes the magnification of the lens of the HMD 141 and the distance between the lenses of both eyes. By changing the magnification of the lenses and the distance between the lenses of the eyes, it is possible to adjust the stereoscopic image displayed to the user. Note that the adjustment of the stereoscopic image can be performed simultaneously with the adjustment by the camera adjustment unit 123 .

[1-1-2.HMD装着時における立体画像の認識]
図3は実施の形態1におけるユーザーに認識される対象物の距離の関係を説明するための図である。ユーザーの目の至近距離にHMD141の光学レンズとディスプレイが設置されている。この光学レンズとディスプレイにより、ユーザーは、ユーザーからの距離Lsの位置に仮想スクリーン220を認識する。距離Lsはユーザーの両目の中間の点から仮想スクリーン220の距離である。立体画像(立体視)は仮想スクリーン220上に、左眼用画像221と右眼用画像222とを表示して実現する。
[1-1-2. Recognition of stereoscopic image when wearing HMD]
3A and 3B are diagrams for explaining the distance relationship between objects recognized by the user according to the first embodiment. FIG. The optical lens and display of the HMD 141 are installed at a close distance from the user's eyes. With this optical lens and display, the user perceives a virtual screen 220 at a distance Ls from the user. Distance Ls is the distance of virtual screen 220 from a point halfway between the user's eyes. A stereoscopic image (stereoscopic view) is realized by displaying a left-eye image 221 and a right-eye image 222 on the virtual screen 220 .

右眼用画像222に表示された右眼に認識される対象物232と、左眼用画像221に表示された左眼に認識される対象物231との視差により、ユーザーは、ユーザーからの距離Ltの位置にユーザーに認識される対象物230を認識する。距離Ltはユーザーの両目の中間の点からユーザーに認識される対象物230との距離である。 Due to the parallax between the object 232 recognized by the right eye displayed in the image 222 for the right eye and the object 231 recognized by the left eye displayed in the image 221 for the left eye, the user can see the distance from the user. An object 230 recognized by the user is recognized at the position of Lt. The distance Lt is the distance from the point midway between the user's eyes to the object 230 perceived by the user.

[1-2.課題]
[1-2-1.対象物認識時の焦点調整動作によるユーザーへの負担の理由]
図3において、仮想スクリーン220に表示された右眼に認識される対象物232と、左眼に認識される対象物231の画像は、ユーザーには、視差によりユーザーに認識される対象物230として認識される。ユーザーに認識される対象物230は距離Ltの位置にある。
[1-2. Theme]
[1-2-1. Reason for the burden on the user due to focus adjustment operation during object recognition]
In FIG. 3, the images of the object 232 recognized by the right eye and the object 231 recognized by the left eye displayed on the virtual screen 220 are viewed by the user as the object 230 recognized by the user due to parallax. Recognized. An object 230 recognized by the user is located at a distance Lt.

この時、ユーザーの目の焦点は距離Ltの位置に調整される(焦点の状態1)。焦点の状態1の時、実際の画像は距離Lsの位置にある仮想スクリーン上に表示されており、距離Ltに焦点を合わせた状態では、仮想スクリーン220上の対象物の画像がぼやけて見える。 At this time, the focus of the user's eyes is adjusted to the position of the distance Lt (focus state 1). In focus state 1, the actual image is displayed on the virtual screen at the distance Ls, and the image of the object on the virtual screen 220 appears blurred when the focus is on the distance Lt.

この時、ユーザーの目の焦点は、ぼやけた画像を鮮明にするために、実際の画像が表示されている距離Lsの位置に調整される(焦点の状態2)。 At this time, the focus of the user's eyes is adjusted to the position at the distance Ls where the actual image is displayed to sharpen the blurred image (focus state 2).

焦点の状態2の時、ユーザーに認識される対象物230の距離Ltと調整された焦点距離Lsが異なる。そのため、ユーザーの認識と焦点距離を合わせるため、ユーザーの目の焦点は、再び距離Ltの位置に調整される(焦点の状態1)。この焦点調整の繰り返しによる眼球運動をユーザーに強いることがユーザーの負担になる。 In focus state 2, the distance Lt of the object 230 recognized by the user is different from the adjusted focal length Ls. Therefore, in order to match the user's perception and the focal length, the user's eye focus is again adjusted to the position of the distance Lt (focus state 1). Forcing the user to perform eye movements due to the repetition of this focus adjustment is a burden on the user.

しかしながら、実用上、距離Lsと距離Ltの差が許容範囲内であれば、眼球運動が抑制され、この負担を軽減することができる。この許容範囲は、ユーザーの個人差やカメラの画角・カメラ間距離・スクリーンのサイズ等によって変化する。実施の形態1においては、ユーザーの頭に固定されるHMD141を用いており、距離Lsが固定されているため、距離Ltを考慮すればよい。例えば、本実施形態においては、距離Ltが150[mm]以上であれば、ユーザーの負担を軽減できる。この150[mm]を本実施形態におけるユーザーの負担を軽減できる閾値(距離Ltにおける第2の閾値)とする。 However, practically, if the difference between the distance Ls and the distance Lt is within an allowable range, the eye movement is suppressed, and this burden can be reduced. This allowable range varies depending on the individual difference of the user, the angle of view of the camera, the distance between the cameras, the size of the screen, and the like. In Embodiment 1, the HMD 141 fixed to the user's head is used, and the distance Ls is fixed, so the distance Lt should be considered. For example, in this embodiment, if the distance Lt is 150 [mm] or more, the burden on the user can be reduced. Let this 150 [mm] be the threshold (the second threshold for the distance Lt) that can reduce the burden on the user in this embodiment.

[1-2-2.対象物位置のHMDへの再現]
図4は遠隔操作実施時の対象物の位置を説明する図である。ユーザーは、HMD141に表示されたユーザーからの距離Ltにあるユーザーに認識される対象物230を見ながら、カメラモジュール120から第2の距離Ltrに存在する対象物を操作する。この時、カメラモジュール120で撮影した立体画像をHMD141にそのまま再現した場合、ユーザーに認識される対象物230はユーザーから距離Lt=Ltrの位置に表示される。そのため、カメラモジュール120から対象物が近い場合つまり、第2の距離Ltrが小さい場合、HMD141に表示されたユーザーからの距離Ltも小さくなり、焦点調整の繰り返しによる眼球運動により、ユーザーへの負担が大きくなる。
[1-2-2. Reproduction of object position on HMD]
FIG. 4 is a diagram for explaining the position of an object when performing remote control. The user operates an object present at a second distance Ltr from the camera module 120 while looking at the object 230 displayed on the HMD 141 and recognized by the user at a distance Lt from the user. At this time, if the stereoscopic image captured by the camera module 120 is reproduced on the HMD 141 as it is, the target object 230 recognized by the user is displayed at a distance Lt=Ltr from the user. Therefore, when the object is close to the camera module 120, that is, when the second distance Ltr is small, the distance Lt from the user displayed on the HMD 141 is also small, and eye movement due to repeated focus adjustment reduces the burden on the user. growing.

[1-3.動作]
以上のように構成された遠隔制御ロボットについて、その動作を以下説明する。遠隔制御ロボットは対象物とロボットハンドとの距離に基づくカメラ部の各動作を行う。以下、それぞれの動作について詳細に説明する。
[1-3. motion]
The operation of the remote control robot configured as described above will be described below. The remote control robot performs each operation of the camera section based on the distance between the object and the robot hand. Each operation will be described in detail below.

[1-3-1.対象物把持動作とユーザーの視点の変化]
本実施の形態では、遠隔制御システムを用いて対象物を把持する。ユーザーはHMD141に表示された立体画像を見ながら、ロボットハンド111とロボットアーム101を用いて、遠隔制御を行う。HMD141は、カメラモジュール120で撮影した立体画像を、表示する。
[1-3-1. Object gripping motion and change in user's viewpoint]
In this embodiment, the object is grasped using a remote control system. The user performs remote control using the robot hand 111 and the robot arm 101 while viewing the stereoscopic image displayed on the HMD 141 . HMD 141 displays a stereoscopic image captured by camera module 120 .

動作開始時に、ユーザーは対象物を探すために、周囲を俯瞰的に見渡す。この時、ユーザーの視点は特定の対象に定まっておらず、遠くを見ている。 At the start of the operation, the user looks over the surroundings in order to search for an object. At this time, the user's point of view is not fixed on a specific target, but is looking far away.

次に、ユーザーはHMD141を通してカメラモジュール120から距離Ltr(図
4参照)にある対象物を認識し、周囲を確認し、衝突を避けながら、対象物の方向へロボットハンド111が近づくように、視点を変えながら、ロボットアーム101を操作する。ロボットアーム101の操作により、ロボットハンド111と対象物との距離である第1の距離が近づいた時、ユーザーはロボットハンド111と対象物の詳細な位置関係を把握するために、対象物とロボットハンド111に視点を定める。このユーザーが対象物とロボットハンド111に視点を定めるときのロボットハンド111と対象物である第1の距離を第1の閾値として設定する。
Next, the user recognizes an object at a distance Ltr (see FIG. 4) from the camera module 120 through the HMD 141, checks the surroundings, and moves the robot hand 111 toward the object while avoiding collision. is changed, the robot arm 101 is operated. When the first distance, which is the distance between the robot hand 111 and the object, is approached by the operation of the robot arm 101, the user can grasp the detailed positional relationship between the robot hand 111 and the object. A viewpoint is fixed on the hand 111 . A first distance between the robot hand 111 and the object when the user sets a viewpoint on the object and the robot hand 111 is set as a first threshold.

なお、ユーザーが対象物とロボットハンド111に視点を定めるときをロボットハンド111が作業を開始するタイミングとしている。つまり、第1の閾値はロボットハンド111が作業していると判断される距離となる。 The timing at which the robot hand 111 starts working is when the user sets the viewpoint on the object and the robot hand 111 . That is, the first threshold is the distance at which it is determined that the robot hand 111 is working.

この時、対象物とカメラモジュール120の距離Ltrが第2の閾値よりも小さかった場合には、焦点調整の繰り返しによる眼球運動が発生し、ユーザーに負担が生じ、その結果、ユーザーが立体視を継続することが難しくなる。そのため、第2の閾値以上である場合は、立体視を継続することが可能な距離であり、第2の閾値未満の場合は、ユーザーが立体視を継続するのが難しい距離となる。 At this time, if the distance Ltr between the object and the camera module 120 is smaller than the second threshold, eye movement occurs due to repeated focus adjustment, causing a burden on the user. It becomes difficult to continue. Therefore, when the distance is equal to or greater than the second threshold, it is a distance at which stereoscopic vision can be continued, and when it is less than the second threshold, it is a distance at which it is difficult for the user to continue stereoscopic vision.

対象物の把持後は把持した対象物に着目しながら、対象物の移動・対象物を用いた作業・対象物の解放を行う。対象物を解放した直後は、対象物付近に着目しながらロボットハンドを遠ざけ、対象物からロボットハンド111が離れた場合には、周囲を確認するために、対象物とロボットハンド以外の点にユーザーの視点が移動する。 After grasping the object, while paying attention to the grasped object, it moves the object, works using the object, and releases the object. Immediately after releasing the object, the robot hand moves away while paying attention to the vicinity of the object. 's viewpoint moves.

つまり、対象物をロボットハンド111にて把持するなど、対象物に対して直接的に作業を行う場合には、ユーザーの視点は対象物にあり、対象物を探す、対象物をロボットハンド111から解放し後、周囲を確認するなど、対象物に対して直接的な作業を行っていない場合には、ユーザーの視点は対象物にないことになる。そして、ユーザーの視点が対象物にあり、その対象物においてカメラモジュール120との距離Ltrが第2の閾値未満の場合、上述したように、焦点調整の繰り返しによる眼球運動が発生し、ユーザーに負担が生じることになる。 In other words, when the robot hand 111 grips the target object and directly works on the target object, the user's viewpoint is on the target object, and the robot hand 111 searches for the target object. After release, if the user does not perform any direct work on the object, such as checking the surroundings, the user's viewpoint is not on the object. Then, when the user's viewpoint is on an object and the distance Ltr from the camera module 120 to the object is less than the second threshold, as described above, repeated focus adjustment causes eye movement, which is a burden on the user. will occur.

[1-3-2.対象物との距離とユーザーの視点とに応じた立体画像の調整]
前述のように、遠隔制御実施時には、作業によりカメラモジュール120に対する対象物そのものの距離、遠隔制御中の操作内容によりユーザーの視点が変化する。それに伴い遠隔制御中の操作内容によっては、ユーザーの焦点調整の繰り返しによる眼球運動が発生し、その負担を軽減するために、立体画像の調整を行う。本実施の形態では、立体画像を調整する方法の一例として、カメラ間距離の調整を行う場合を説明する。
[1-3-2. Adjustment of a stereoscopic image according to the distance to the object and the user's viewpoint]
As described above, when remote control is performed, the user's viewpoint changes depending on the distance of the object itself from the camera module 120 and the details of the operation during remote control. Along with this, depending on the content of the operation during remote control, eye movement occurs due to repeated focus adjustment by the user, and the stereoscopic image is adjusted in order to reduce the burden. In this embodiment, as an example of a method of adjusting a stereoscopic image, a case of adjusting the inter-camera distance will be described.

図5は右眼カメラ122と左眼カメラ121の距離を調整する動作を説明するためのフローチャートである。ユーザーはHMD141に表示された情報(立体画像)をみながらコントローラ151を操作し、ロボットアーム101、及び、ロボットハンド111を操作する。 FIG. 5 is a flowchart for explaining the operation of adjusting the distance between the right-eye camera 122 and the left-eye camera 121. FIG. The user operates the controller 151 while viewing the information (stereoscopic image) displayed on the HMD 141 to operate the robot arm 101 and the robot hand 111 .

ユーザーによる遠隔制御実施中に、制御装置131は図5に示す処理を繰り返し行う。ロボットハンド111の指先に搭載された近接センサ112によりロボットハンド111と対象物との第1の距離を取得する(S501)。 While the user is performing remote control, the control device 131 repeatedly performs the processing shown in FIG. A first distance between the robot hand 111 and the object is acquired by the proximity sensor 112 mounted on the fingertip of the robot hand 111 (S501).

ロボットハンドで対象物をつかむために、ロボットハンドと対象物の第1の距離が第1の閾値以下になった場合(S502におけるYesの場合)、対象物とカメラモジュール120との第2の距離Ltrを取得する(S503)。 When the first distance between the robot hand and the object becomes equal to or less than the first threshold value to grab the object with the robot hand (Yes in S502), the second distance between the object and the camera module 120 Ltr is acquired (S503).

ここで、例えば、第2の距離Ltrは、対象物の位置を右眼カメラ122と左眼カメラ121を用いた三角測量の原理により計測し、計測した対象物の位置を用いて、算出する。 Here, for example, the second distance Ltr is calculated by measuring the position of the object according to the principle of triangulation using the right-eye camera 122 and the left-eye camera 121 and using the measured position of the object.

第2の距離が第2の閾値未満であった場合(S504におけるYesの場合)、カメラ調整部123によって左眼カメラ121と右眼カメラ122との距離を、ユーザーに認識される対象物230とユーザーの距離Ltが第2の閾値以上となるように、小さくする(S505)。なお、ユーザーに認識される対象物230とユーザーの距離Ltの調整の原理については後述する。 If the second distance is less than the second threshold (Yes in S504), the camera adjustment unit 123 adjusts the distance between the left-eye camera 121 and the right-eye camera 122 to the object 230 recognized by the user. The distance Lt of the user is reduced so as to be greater than or equal to the second threshold (S505). The principle of adjusting the distance Lt between the object 230 recognized by the user and the user will be described later.

カメラ調整部123によって調整された立体画像を、HMD141を通してユーザーに提示する(S506)。 The stereoscopic image adjusted by the camera adjustment unit 123 is presented to the user through the HMD 141 (S506).

一方、ロボットハンドと対象物との距離が閾値を超える場合(S502におけるNoの場合)、または、ロボットハンド111と右眼カメラ122の距離が閾値を超える場合(S504におけるNoの場合)、カメラ間距離の調整は行わず、調整されていない立体画像を、HMD141を通してユーザーに提示する(S506)。 On the other hand, when the distance between the robot hand and the object exceeds the threshold (No in S502), or when the distance between the robot hand 111 and the right-eye camera 122 exceeds the threshold (No in S504), the inter-camera The distance is not adjusted, and the unadjusted stereoscopic image is presented to the user through the HMD 141 (S506).

ここで、ユーザーに認識される対象物230とユーザーの距離Ltの調整方法について、図6を用いて説明する。図6は画像位置変更時のユーザーに認識される対象物位置の変化を説明する図である。 Here, a method of adjusting the distance Lt between the object 230 recognized by the user and the user will be described with reference to FIG. FIG. 6 is a diagram for explaining the change in the object position recognized by the user when the image position is changed.

カメラ間距離の調整を行わない場合、図3に示すようになるが、距離Ltを調整する場合、つまりカメラ間距離を小さくした場合、図6に示すように、それぞれの画像内において右眼用画像222に表示されている右眼に認識される対象物232が右に移動し、左眼用画像221に表示されている左眼に認識される対象物231が左に移動する。 When the inter-camera distance is not adjusted, it becomes as shown in FIG. The object 232 recognized by the right eye displayed in the image 222 moves to the right, and the object 231 recognized by the left eye displayed in the image 221 for the left eye moves left.

これによって、実際の対象物とカメラモジュール120と距離Ltrは変わっていないにもかかわらず、ユーザーに認識される対象物230は仮想スクリーン220側に移動し、その結果、距離Ltが大きくなる。つまり、カメラ間距離を小さくすることによって、距離Ltを大きくすることができ、実際の距離Ltrが小さくても、ユーザーに認識される対象物230の距離Ltを常に第2の閾値以上に調整することができる。 As a result, although the distance Ltr between the actual object and the camera module 120 remains unchanged, the object 230 recognized by the user moves toward the virtual screen 220, resulting in an increase in the distance Lt. That is, the distance Lt can be increased by reducing the inter-camera distance, and even if the actual distance Ltr is small, the distance Lt of the object 230 recognized by the user is always adjusted to be equal to or greater than the second threshold. be able to.

[1-4.効果等]
[1-4-1.遠隔制御システムの効果]
以上のように、本実施の形態において、遠隔制御システムはカメラモジュール120と、ロボットハンド111と、近接センサ112と、ロボットアーム101と、HMD141と、コントローラ151と、を備える。カメラモジュール120はロボットアーム101周辺の立体画像を撮影する。
[1-4. effects, etc.]
[1-4-1. Effect of remote control system]
As described above, in this embodiment, the remote control system includes camera module 120 , robot hand 111 , proximity sensor 112 , robot arm 101 , HMD 141 and controller 151 . The camera module 120 captures stereoscopic images around the robot arm 101 .

カメラ調整部123は、対象物とカメラモジュール120との第2の距離情報に基づいて、左眼カメラ121と右眼カメラ122の距離を、ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように小さくする。 Based on the second distance information between the object and the camera module 120, the camera adjustment unit 123 adjusts the distance between the left-eye camera 121 and the right-eye camera 122 so that the distance Lt of the object recognized by the user is the second distance. Reduce it so that it is equal to or greater than the threshold.

そのため、焦点調整の繰り返しによるユーザーの眼球運動を抑制し、ユーザーの操作時の負担を軽減することができる。 Therefore, it is possible to suppress the user's eye movement due to repeated focus adjustment, and reduce the burden on the user during operation.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。そこで、以下、他の実施の形態を例示する。
(Other embodiments)
As described above, Embodiment 1 has been described as an example of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments with modifications, replacements, additions, omissions, and the like. Therefore, other embodiments will be exemplified below.

実施の形態1では、立体画像を調整する方法の一例としてカメラ間距離の変更を説明した。立体画像を調整する方法は、ユーザーに認識される立体画像を調整可能であればよい。したがって、立体画像を調整する方法はカメラ間距離の変更に限定されない。 In Embodiment 1, changing the inter-camera distance has been described as an example of a method for adjusting a stereoscopic image. Any method for adjusting the stereoscopic image may be used as long as the stereoscopic image recognized by the user can be adjusted. Therefore, the method of adjusting stereoscopic images is not limited to changing the inter-camera distance.

例えば、カメラ間角度の変更を、立体画像を調整する方法として用いてもよい。ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように、光軸がなす角が大きくなる方向にカメラを回転させる。具体的には、左眼カメラ121を時計回りに回転し、右眼カメラ122を反時計周りに回転させる。これにより、カメラ間距離を調整した場合と同じく、右眼用画像222に表示されている右眼に認識される対象物232が右に移動し、左眼用画像221に表示されている左眼に認識される対象物231が左に移動する。そのため、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。 For example, changing the inter-camera angle may be used as a method of adjusting the stereoscopic image. The camera is rotated in a direction that increases the angle formed by the optical axis so that the distance Lt of the object recognized by the user is greater than or equal to the second threshold. Specifically, the left-eye camera 121 is rotated clockwise, and the right-eye camera 122 is rotated counterclockwise. As a result, as in the case where the inter-camera distance is adjusted, the object 232 recognized by the right eye displayed in the right-eye image 222 moves to the right, and the left-eye image displayed in the left-eye image 221 moves to the right. , the object 231 to be recognized moves to the left. Therefore, the distance Lt of the target object recognized by the user becomes equal to or greater than the second threshold, thereby reducing the burden on the user.

また、カメラのレンズの倍率の変更を、立体画像を調整する方法として用いてもよい。ユーザーに認識される対象物の距離Ltが第2の閾値以上となるように、左眼カメラ121と右眼カメラ122のレンズ倍率を小さくする。これにより、右眼用画像222に表示されている右眼に認識される対象物232と、左眼用画像221に表示されている左眼に認識される対象物231が中心に近づく。そのため、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。 Also, changing the magnification of the camera lens may be used as a method of adjusting the stereoscopic image. The lens magnifications of the left-eye camera 121 and the right-eye camera 122 are reduced so that the distance Lt of the object recognized by the user is greater than or equal to the second threshold. As a result, the object 232 displayed in the right-eye image 222 and recognized by the right eye and the object 231 displayed in the left-eye image 221 and recognized by the left eye move closer to the center. Therefore, the distance Lt of the target object recognized by the user becomes equal to or greater than the second threshold, thereby reducing the burden on the user.

また、HMD141のレンズの倍率の変更を、立体画像を調整する方法として用いてもよい。仮想スクリーン220の距離Lsが小さくなるように、HMDのレンズのレンズ倍率を大きくする。これにより、仮想スクリーンまでの距離Lsとユーザーに認識される対象物の距離Ltの差を小さくすることができ、ユーザーの眼球運動が抑制され、ユーザーの負担が軽減される。 Also, changing the magnification of the lens of the HMD 141 may be used as a method of adjusting the stereoscopic image. The lens magnification of the HMD lens is increased so that the distance Ls of the virtual screen 220 is reduced. As a result, the difference between the distance Ls to the virtual screen and the distance Lt of the object recognized by the user can be reduced, the user's eye movement is suppressed, and the user's burden is reduced.

また、表示画像の線形変換処理を、立体画像を調整する方法として用いてもよい。仮想スクリーン上に表示されている右眼用画像222と左眼用画像221の画像を互いに近づける。これにより、右眼に認識される対象物232と、左眼に認識される対象物231との距離が小さくなり、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。 Also, the linear transformation processing of the display image may be used as a method of adjusting the stereoscopic image. The right-eye image 222 and the left-eye image 221 displayed on the virtual screen are brought closer to each other. As a result, the distance between the object 232 recognized by the right eye and the object 231 recognized by the left eye becomes smaller, and the distance Lt of the object recognized by the user becomes equal to or greater than the second threshold. Reduced burden.

また、仮想スクリーン上に表示されている右眼用画像222と左眼用画像221の画像を縮小し、立体画像を調整する。これにより、右眼に認識される対象物232と、左眼に認識される対象物231との距離が小さくなり、ユーザーに認識される対象物の距離Ltが第2の閾値以上となり、ユーザーの負担が軽減される。 Also, the image for the right eye 222 and the image for the left eye 221 displayed on the virtual screen are reduced to adjust the stereoscopic image. As a result, the distance between the object 232 recognized by the right eye and the object 231 recognized by the left eye becomes smaller, and the distance Lt of the object recognized by the user becomes equal to or greater than the second threshold. Reduced burden.

また、これらの手法を組み合わせることによって画像の調整を行ってもよい。 Also, the image may be adjusted by combining these techniques.

実施の形態1では、対象物とカメラモジュール120との距離を第2の距離として使用したが、第2の距離は、ロボットハンド111とカメラモジュール120との距離であってもよい。つまり、第2の距離はカメラモジュール120からからユーザーが着目する対象までの距離であればよい。特に、第1の距離が小さい場合、ロボットハンド111と対象物が近い位置にあるため有用である。 Although the distance between the object and camera module 120 is used as the second distance in Embodiment 1, the second distance may be the distance between robot hand 111 and camera module 120 . In other words, the second distance may be the distance from the camera module 120 to the target of the user's attention. In particular, when the first distance is small, it is useful because the robot hand 111 and the object are located close to each other.

なお、ロボットハンド111とカメラモジュール120との距離を第2の距離として用いる場合、三角測量ではなく、カメラモジュール120と相対位置を活用して行うことができる。具体的には、ロボットアーム101の関節角情報と、ロボットアーム101とロボットハンド111とカメラモジュール120との部品寸法情報から計算することができる。 Note that when the distance between the robot hand 111 and the camera module 120 is used as the second distance, the relative position to the camera module 120 can be used instead of triangulation. Specifically, it can be calculated from joint angle information of the robot arm 101 and component dimension information of the robot arm 101 , the robot hand 111 and the camera module 120 .

実施の形態1では、ユーザーに立体画像を提示する装置としてHMDを説明した。ユーザーに立体画像を提示する方法は、ユーザーに視差による立体視を可能にするものであればよい。したがって、ユーザーに立体画像を提示する装置はHMDに限定されない。ただし、ユーザーに立体画像を提示する装置として、HMDを用いれば、没入感を高め、現場での操作感に近づけることが可能である。具体的には、3Dディスプレイをユーザーに立体画像を提示する装置として用いてもよい。ユーザーに立体画像を提示する装置として3Dディスプレイを用いればユーザーが身に着ける装置の軽量化が可能である。 In Embodiment 1, the HMD has been described as a device that presents a stereoscopic image to the user. A method for presenting a stereoscopic image to the user may be any method as long as it enables the user to view stereoscopically by parallax. Therefore, devices that present stereoscopic images to users are not limited to HMDs. However, if an HMD is used as a device for presenting a stereoscopic image to a user, it is possible to enhance the feeling of immersion and bring the feeling of operation closer to that of the actual site. Specifically, a 3D display may be used as a device that presents a stereoscopic image to a user. If a 3D display is used as a device for presenting a stereoscopic image to a user, it is possible to reduce the weight of the device worn by the user.

実施の形態1では、第1の閾値の一例として、ユーザーの視点が変化するロボットハンド111と対象物の距離を説明した。第1の閾値はユーザーの視点がエンドエフェクタ付近に移動したと判断可能であればよい。例えば、ロボットハンドで対象物を把持する際に、ロボットハンドを開く方向に動作させた場合、ロボットハンドの開き幅が対象物の幅以上であることを第1の閾値としてもよい。また、ハンドを閉じる方向に動作させた時を第1の閾値としてもよい。また、把持後に対象物とロボットハンドの距離がゼロになった時、つまり、対象物とロボットハンドが接触している時を第1の閾値としてもよい。 In Embodiment 1, as an example of the first threshold, the distance between the robot hand 111 and the object at which the user's viewpoint changes has been described. The first threshold should be sufficient if it can be determined that the user's viewpoint has moved to the vicinity of the end effector. For example, when gripping an object with the robot hand, the opening width of the robot hand may be equal to or greater than the width of the object when the robot hand is moved in the opening direction. Alternatively, the time when the hand is moved in the closing direction may be set as the first threshold. Alternatively, the time when the distance between the object and the robot hand becomes zero after gripping, that is, the time when the object and the robot hand are in contact may be set as the first threshold.

また、第1の閾値はユーザーがエンドエフェクタの付近に着目していると判断可能であればよい。例えば、ロボットハンドでドライバーを把持し、ねじ締を行う場合、第1の閾値をゼロとする。つまり、把持している時のみに立体画像の調整を行う。第1の閾値をゼロにすれば、測距センサを用いずに、安価な接触センサを使用することが可能である。 Also, the first threshold may be determined as long as it can be determined that the user is paying attention to the vicinity of the end effector. For example, when a screwdriver is gripped by a robot hand and the screw is tightened, the first threshold is set to zero. In other words, the adjustment of the stereoscopic image is performed only when the device is held. If the first threshold is set to zero, it is possible to use an inexpensive contact sensor without using a ranging sensor.

実施の形態1では、エンドエフェクタの一例としてロボットハンドを説明した。エンドエフェクタは対象に対して作業を行うものであればよい。また、作業は把持に限定されず、作業に合わせて第1の距離の設定方法は変化する。 In Embodiment 1, the robot hand has been described as an example of the end effector. Any end effector may be used as long as it works on an object. Moreover, the work is not limited to gripping, and the setting method of the first distance changes according to the work.

例えば、他のエンドエフェクタとして、高圧洗浄機が考えられる。図7にエンドエフェクタとして高圧洗浄機を取り付けた場合のロボットの概念図を示す。高圧洗浄機114はロボットアーム101の先端に取り付けられており、水を噴射することで洗浄対象181を洗浄する。高圧洗浄機では、水の噴射方向にのみ、作用を及ぼすことが可能である。そのため、水の噴射方向に一定の距離以内に洗浄対象がある場合に視点が移動し、噴射方向以外に他の対象物が近づいた場合は視点が移動しないと考えられる。 For example, another end effector may be a high pressure washer. FIG. 7 shows a conceptual diagram of the robot when a high-pressure washer is attached as an end effector. The high-pressure washer 114 is attached to the tip of the robot arm 101 and cleans the object 181 to be cleaned by jetting water. High pressure washers can only act in the direction of the water jet. Therefore, it is considered that the viewpoint moves when there is an object to be cleaned within a certain distance in the water jetting direction, and the viewpoint does not move when another object approaches other than the jetting direction.

つまり、エンドエフェクタ(高圧洗浄機)と対象物との距離だけではなく、エンドエフェクタの先端の方向(高圧洗浄機では水を噴射する先端方向)に基づいて、ユーザーが対象物(ここでは洗浄対象181)に着目しているか否か判断する。 In other words, not only the distance between the end effector (high-pressure washer) and the object, but also the direction of the tip of the end effector (in the case of a high-pressure washer, the direction in which water is sprayed) is used to determine the object (here, the object to be cleaned). 181) is determined.

エンドエフェクタの作業として高圧洗浄機による洗浄を設定した場合、第1の距離情報は、水の噴射方向に存在する対象までの距離とすることができる。第1の閾値は、水の噴射方向の洗浄可能な距離とする。ただし、第1の閾値は、高圧洗浄機114の水圧の設定に追従し、変更することができる。 When cleaning with a high-pressure cleaner is set as the work of the end effector, the first distance information can be the distance to the target existing in the water jet direction. The first threshold is the washable distance in the water jetting direction. However, the first threshold follows the water pressure setting of the high pressure washer 114 and can be changed.

なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Note that the above-described embodiment is for illustrating the technology in the present disclosure, and various changes, replacements, additions, omissions, etc. can be made within the scope of the claims or equivalents thereof.

本開示は、対象物とカメラとの距離に応じて立体画像の調整を行うシステムに適用可能である。具体的には、遠隔操作ロボット、作業用ロボットの画像撮影などに、本開示は適用可能である。 INDUSTRIAL APPLICABILITY The present disclosure is applicable to systems that adjust stereoscopic images according to the distance between an object and a camera. Specifically, the present disclosure can be applied to image capturing of remote-controlled robots, working robots, and the like.

101 ロボットアーム
102 固定部
111 ロボットハンド
112 近接センサ
114 高圧洗浄機
120 カメラモジュール
121 左眼カメラ
122 右眼カメラ
123 カメラ調整部
131 制御装置
141 HMD(ヘッドマウントディスプレイ)
142 光学系調整部
151 コントローラ
181 洗浄対象
220 仮想スクリーン
221 左眼用画像
222 右眼用画像
230 ユーザーに認識される対象物
231 左眼に認識される対象物
232 右眼に認識される対象物
101 Robot Arm 102 Fixed Part 111 Robot Hand 112 Proximity Sensor 114 High Pressure Washer 120 Camera Module 121 Left Eye Camera 122 Right Eye Camera 123 Camera Adjustment Part 131 Control Device 141 HMD (Head Mounted Display)
142 optical system adjustment unit 151 controller 181 cleaning object 220 virtual screen 221 image for left eye 222 image for right eye 230 object recognized by user 231 object recognized by left eye 232 object recognized by right eye

Claims (12)

立体画像を撮影可能な複数のカメラと、前記立体画像の表示が可能な表示部と、対象物に対して作業するエンドエフェクタと、に接続された制御装置の立体画像制御方法であって、
前記エンドエフェクタと前記対象物との距離に関する情報を含む第1の距離情報と、前記対象物と前記カメラとの距離に関する情報を含む第2の距離情報と、を取得し、
前記第1の距離情報が第1の閾値未満かつ前記第2の距離情報が第2の閾値未満の場合、前記第2の距離情報に基づいて、前記表示部で表示される立体画像を調整することを特徴とする立体画像制御方法。
A stereoscopic image control method for a control device connected to a plurality of cameras capable of capturing stereoscopic images, a display unit capable of displaying the stereoscopic images, and an end effector working on an object,
Acquiring first distance information including information about the distance between the end effector and the object, and second distance information including information about the distance between the object and the camera;
When the first distance information is less than a first threshold and the second distance information is less than a second threshold, the stereoscopic image displayed on the display unit is adjusted based on the second distance information. A stereoscopic image control method characterized by:
前記第1の閾値は、前記対象物に対して前記エンドエフェクタが作業していると判断される前記エンドエフェクタと前記対象物との距離であることを特徴とする請求項1に記載の立体画像制御方法。 2. The stereoscopic image according to claim 1, wherein the first threshold is a distance between the end effector determined to be working on the object and the object. control method. 前記作業していると判断される前記エンドエフェクタと前記対象物との距離は、ゼロであることを特徴とする請求項2に記載の立体画像制御方法。 3. The stereoscopic image control method according to claim 2, wherein the distance between the end effector determined to be working and the object is zero. 前記第2の閾値は、前記表示部おいて、ユーザーが立体視を継続することが可能な前記対象物と前記カメラとの距離であることを特徴とする請求項1から請求項3のいずれか1項に記載の立体画像制御方法。 4. The second threshold is a distance between the camera and the object that allows a user to continue stereoscopic viewing on the display unit. The stereoscopic image control method according to item 1. 前記第2の閾値は、前記表示部の表示位置とユーザーとの距離、および前記ユーザーと前記表示部から認識される前記対象物の位置との距離に基づく所定値である請求項1から3いずれか1項に記載の立体画像制御方法。 4. Any one of claims 1 to 3, wherein the second threshold value is a predetermined value based on a distance between the display position of the display unit and the user and a distance between the user and the position of the object recognized by the display unit. 1. The stereoscopic image control method according to 1. 前記第1の距離情報は、前記エンドエフェクタの先端の向きを示す方向情報を含み、前記第1の距離情報が第1の閾値未満かつ前記第2の距離情報が第2の閾値未満、かつ前記方向情報が所定の方向の場合、前記第2の距離情報に基づいて、前記表示部で表示される立体画像を調整することを特徴とする請求項1から5いずれか1項に記載の立体画像制御方法。 The first distance information includes direction information indicating the direction of the tip of the end effector, the first distance information is less than a first threshold, the second distance information is less than a second threshold, and the 6. The stereoscopic image according to any one of claims 1 to 5, wherein the stereoscopic image displayed by the display unit is adjusted based on the second distance information when the direction information indicates a predetermined direction. control method. 前記立体画像の調整は、前記複数のカメラ間の距離を小さくするように制御することを特徴とする請求項1から請求項6のいずれか1項に記載の立体画像制御方法。 7. The stereoscopic image control method according to any one of claims 1 to 6, wherein the adjustment of the stereoscopic image is controlled so as to reduce the distance between the plurality of cameras. 前記立体画像の調整は、前記複数のカメラの光軸がなす角度を大きくするように制御することを特徴とする請求項1から請求項7のいずれか1項に記載の立体画像制御方法。 8. The stereoscopic image control method according to any one of claims 1 to 7, wherein the adjustment of the stereoscopic image is controlled so as to increase an angle formed by optical axes of the plurality of cameras. 前記立体画像の調整は、前記複数のカメラのレンズの倍率を小さくするように制御することを特徴とする請求項1から請求項8のいずれか1項に記載の立体画像制御方法。 9. The stereoscopic image control method according to any one of claims 1 to 8, wherein the adjustment of the stereoscopic image is controlled so as to reduce magnification of lenses of the plurality of cameras. 前記立体画像の調整は、前記立体画像に使用される複数の画像を近づける方向に移動する、または前記立体画像に使用される複数の画像のサイズを小さくすることを特徴とする請求項1から請求項9のいずれか1項に記載の立体画像制御方法。 The adjustment of the stereoscopic image is characterized in that the plurality of images used for the stereoscopic image are moved in a direction to bring them closer together, or the sizes of the plurality of images used for the stereoscopic image are reduced. Item 9. The stereoscopic image control method according to any one of Items 9. 前記表示部はヘッドマウントディスプレイであり、
前記立体画像の調整は、前記ヘッドマウントディスプレイの光学系の制御することを特徴とする請求項1から請求項10のいずれか1項に記載の立体画像制御方法。
The display unit is a head-mounted display,
11. The stereoscopic image control method according to any one of claims 1 to 10, wherein the adjustment of the stereoscopic image is performed by controlling an optical system of the head mounted display.
前記光学系の制御は、前記ヘッドマウントディスプレイのレンズの倍率を大きくするよう制御することを特徴とする請求項11に記載の立体画像制御方法。
12. The stereoscopic image control method according to claim 11, wherein the optical system is controlled to increase the magnification of a lens of the head-mounted display.
JP2021156249A 2021-09-27 2021-09-27 Three-dimensional image control method Pending JP2023047376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021156249A JP2023047376A (en) 2021-09-27 2021-09-27 Three-dimensional image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156249A JP2023047376A (en) 2021-09-27 2021-09-27 Three-dimensional image control method

Publications (1)

Publication Number Publication Date
JP2023047376A true JP2023047376A (en) 2023-04-06

Family

ID=85779111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156249A Pending JP2023047376A (en) 2021-09-27 2021-09-27 Three-dimensional image control method

Country Status (1)

Country Link
JP (1) JP2023047376A (en)

Similar Documents

Publication Publication Date Title
Fernando et al. Design of TELESAR V for transferring bodily consciousness in telexistence
US20220296317A1 (en) Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US20170099433A1 (en) Eye/Head Controls for Camera Pointing
JP6188440B2 (en) Robot apparatus and robot control method
US11833698B2 (en) Vision system for a robot
CN115666406A (en) System and method for determining depth perception in vivo in a surgical robotic system
US11864841B2 (en) Method of operating a surgical microscope and surgical microscope
JP2011101915A (en) Robot system
Tripicchio et al. A stereo-panoramic telepresence system for construction machines
Kawanobe et al. iRIS: a remote surrogate for mutual reference
Luo et al. Towards robot avatars: Systems and methods for teleinteraction at avatar xprize semi-finals
Lin et al. The implementation of augmented reality in a robotic teleoperation system
JP3482228B2 (en) Manipulator control system by gaze detection
CN105828021A (en) Specialized robot image acquisition control method and system based on augmented reality technology
JP2006329747A (en) Imaging device
JPH0421105A (en) Stereoscopic teaching device for manipulator
JP2023509038A (en) Method of operating surgical microscope and surgical microscope
JP2023047376A (en) Three-dimensional image control method
JP2008233081A (en) Method of recognizing and tracking spatial point
US20150097930A1 (en) Stereo camera
WO2012017585A1 (en) Imaging device
CN111970502A (en) Humanoid binocular follow-up virtual reality system suitable for teleoperation of robot
EP2717582B1 (en) Camera module and apparatus for calibrating position thereof
JPH03119890A (en) Stereoscopic viewing device
JPH07328971A (en) Manipulator with tv camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20221021