JP7321459B2 - Mobile terminal, operation method, and program - Google Patents

Mobile terminal, operation method, and program Download PDF

Info

Publication number
JP7321459B2
JP7321459B2 JP2020048955A JP2020048955A JP7321459B2 JP 7321459 B2 JP7321459 B2 JP 7321459B2 JP 2020048955 A JP2020048955 A JP 2020048955A JP 2020048955 A JP2020048955 A JP 2020048955A JP 7321459 B2 JP7321459 B2 JP 7321459B2
Authority
JP
Japan
Prior art keywords
operator
image
mobile terminal
operation signal
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020048955A
Other languages
Japanese (ja)
Other versions
JP2021149527A (en
Inventor
誉宗 巻口
英明 高田
大介 坂本
哲雄 小野
中也 木ノ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Nippon Telegraph and Telephone Corp filed Critical Hokkaido University NUC
Priority to JP2020048955A priority Critical patent/JP7321459B2/en
Publication of JP2021149527A publication Critical patent/JP2021149527A/en
Application granted granted Critical
Publication of JP7321459B2 publication Critical patent/JP7321459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、指定した機器を操作する操作システム、操作方法、及びプログラムに関する。 The present invention relates to an operation system, an operation method, and a program for operating designated equipment.

操作者の視線を画像認識して推定し、操作者の視線上にあるオブジェクト(指定した機器)を操作する方法が、例えば非特許文献1に開示されている。 Non-Patent Document 1, for example, discloses a method of estimating an operator's line of sight through image recognition and operating an object (specified device) on the operator's line of sight.

Xucong Zhang,Yusuke Sugano,Andreas Bulling, Evaluation of Appearance-Based Methods and Implications for Gaze-Based Applications.〔令和2年2月25日検索〕、インターネット(URL:https://perceptual.mpi-inf.mpg.de/opengaze-toolkit-released)Xucong Zhang, Yusuke Sugano, Andreas Bulling, Evaluation of Appearance-Based Methods and Implications for Gaze-Based Applications. .de/opengaze-toolkit-released)

非特許文献1に開示された技術では、例えばテーブル上に置かれた機器を操作する場合、操作者の顔とテーブル上の機器を同時に撮影するカメラが必要である。また、死角や遮蔽が生じないようにするために複数のカメラが必要である。複数のカメラは、操作者の移動を阻害する場合がある。また、カメラ間の時刻同期及び座標変換に伴う処理が増加するので操作システムのコストを高くしてしまう。このように従来の操作者の視線を利用した操作方法は、複数のカメラ(機器)が必要であり、システムの構成が複雑でコストが高くなるという課題がある。 With the technique disclosed in Non-Patent Document 1, for example, when operating a device placed on a table, a camera is required to photograph the operator's face and the device on the table at the same time. Also, multiple cameras are required to avoid blind spots and shading. A plurality of cameras may hinder the movement of the operator. In addition, the processing associated with time synchronization and coordinate conversion between cameras increases, which increases the cost of the operation system. As described above, the conventional operation method using the line of sight of the operator requires a plurality of cameras (equipment), and has the problem that the system configuration is complicated and the cost is high.

本発明は、この課題に鑑みてなされたものであり、一つの携帯端末で指定した機器を操作できる操作システム、操作方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of this problem, and it is an object of the present invention to provide an operation system, an operation method, and a program that can operate a specified device with a single mobile terminal.

本発明の一態様に係る操作システムは、一つ以上の機器と該機器を操作する携帯端末とから成る操作システムであって、前記携帯端末は、前記機器を撮影するカメラと、前記カメラで撮影した機器画像を取得し、該機器画像の基準点に位置する前記機器を指定する機器指定部と、指定した前記機器を操作する操作信号を生成する操作信号生成部とを備えることを要旨とする。 An operation system according to an aspect of the present invention is an operation system comprising one or more devices and a mobile terminal that operates the devices, wherein the mobile terminal includes a camera that captures images of the devices and a camera that captures images with the camera. a device designating unit that acquires a device image and designates the device positioned at a reference point of the device image; and an operation signal generating unit that generates an operation signal for operating the designated device. .

また、本発明の一態様に係る操作方法は、上記の操作システムが行う操作方法であって、一つ以上の機器を撮影して機器画像を取得する撮影ステップと、前記機器画像の基準点に位置する前記機器を指定する機器指定ステップと、指定した前記機器を操作する操作信号を生成する操作信号生成ステップとを行うことを要旨とする。 Further, an operation method according to an aspect of the present invention is an operation method performed by the above operation system, comprising: a photographing step of photographing one or more devices to obtain a device image; The gist is to perform a device designation step of designating the device to be positioned, and an operation signal generation step of generating an operation signal for operating the designated device.

また、本発明の一態様に係るプログラムは、上記の操作システムとしてコンピュータを機能させるためのプログラムであることを要旨とする。 A program according to an aspect of the present invention is summarized as a program for causing a computer to function as the above operation system.

本発明によれば、一つの携帯端末で指定した機器を操作することができる。よって、システムの構成が簡単でコストを安くすることができる。 According to the present invention, a designated device can be operated with one mobile terminal. Therefore, the system configuration is simple and the cost can be reduced.

本発明の実施形態に係る操作システムの構成例を示す構成図である。1 is a configuration diagram showing a configuration example of an operation system according to an embodiment of the present invention; FIG. 図1に示す携帯端末の機能構成例を示すブロック図である。2 is a block diagram showing a functional configuration example of the mobile terminal shown in FIG. 1; FIG. 図2に示すカメラで操作対象の機器を撮影した機器画像を模式的に示す図である。3 is a diagram schematically showing a device image of a device to be operated taken by the camera shown in FIG. 2; FIG. 図1に示す携帯端末の側面を模式的に示す図である。It is a figure which shows typically the side surface of the portable terminal shown in FIG. 図4に示す2つの魚眼レンズで撮影した半球画像の例を模式的に示す図である。5 is a diagram schematically showing an example of hemispherical images taken with the two fisheye lenses shown in FIG. 4; FIG. 図5に示す2つの半球画像(全天球画像)を正距円筒図に変換した例を模式的に示す図である。6 is a diagram schematically showing an example of converting the two hemispherical images (omnidirectional images) shown in FIG. 5 into an equirectangular view. FIG. 図6に示す正距円筒図から操作者の視線方向を抽出する方法を説明する図である。FIG. 7 is a diagram for explaining a method of extracting the line-of-sight direction of an operator from the equirectangular diagram shown in FIG. 6; 図2に示すカメラの変形例の構成を模式的に示す図である。3 is a diagram schematically showing the configuration of a modified example of the camera shown in FIG. 2; FIG. 2つの機器画像と操作者画像から三次元座標情報を生成する原理を模式的に示す図である。FIG. 4 is a diagram schematically showing the principle of generating three-dimensional coordinate information from two device images and an operator image; 図1に示す操作システムが行う操作方法の処理手順を示すフローチャートである。2 is a flow chart showing a processing procedure of an operation method performed by the operation system shown in FIG. 1; 汎用的なコンピュータシステムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a general-purpose computer system; FIG.

以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。 An embodiment of the present invention will be described below with reference to the drawings. The same reference numerals are given to the same items in multiple drawings, and the description will not be repeated.

図1は、本発明の実施形態に係る操作システムの構成例を示す構成図である。図1に示す操作システム100は、一つ以上の機器20a,20b,20cと、携帯端末10とで構成される。 FIG. 1 is a configuration diagram showing a configuration example of an operation system according to an embodiment of the present invention. An operation system 100 shown in FIG. 1 is composed of one or more devices 20 a , 20 b , 20 c and a mobile terminal 10 .

図1に示す例は、人の背丈よりも高い棚30の上に機器20a,20b,20cが置かれ、操作者Uが携帯端末10でそれらの機器20a,20b,20cを操作する様子を示している。携帯端末10は、操作者Uが手で持つ例を示すがこの例に限られない。携帯端末10は、操作者Uの腕、肩、胸、及び足等の何れの部分で携帯しても構わない。 The example shown in FIG. 1 shows devices 20a, 20b, and 20c placed on a shelf 30 taller than a person, and an operator U operating these devices 20a, 20b, and 20c with a portable terminal 10. ing. Although an example in which the mobile terminal 10 is held by the operator U is shown, the mobile terminal 10 is not limited to this example. The mobile terminal 10 may be carried by any part of the operator U, such as the arm, shoulder, chest, leg, or the like.

また、機器20a,20b,20cは、操作者Uよりも低い位置の例えばテーブル(図示せず)上に置いてあってもよい。図1は、操作者Uが比較的操作し難い位置の例を示す。 Also, the devices 20a, 20b, and 20c may be placed at a position lower than the operator U, for example, on a table (not shown). FIG. 1 shows an example of positions that are relatively difficult for the operator U to operate.

機器20aは、例えば遠隔操作で照度が調整できる照明である。機器20bは、例えば遠隔操作が可能なラジオである。機器20cは、例えば遠隔操作で加湿量が調整できる加湿器である。機器はこの例に限られない。例えば、床の上に配置される自走式掃除機等であっても構わない。なお、以降の説明において、機器20a,20b,20cの何れかを指定する必要がない場合、単に機器20と表記する。 The device 20a is, for example, a lighting whose illuminance can be adjusted by remote control. The device 20b is, for example, a radio that can be remotely controlled. The device 20c is, for example, a humidifier that can adjust the amount of humidification by remote control. Devices are not limited to this example. For example, it may be a self-propelled cleaner or the like arranged on the floor. In the following description, when it is not necessary to designate any one of the devices 20a, 20b, and 20c, the device 20 is simply referred to.

図2は、携帯端末10の機能構成例を示すブロックである。図2に示すように、携帯端末10は、カメラ11、機器指定部12、及び操作信号生成部13を備える。 FIG. 2 is a block diagram showing an example of the functional configuration of the mobile terminal 10. As shown in FIG. As shown in FIG. 2 , the mobile terminal 10 has a camera 11 , a device designating section 12 and an operation signal generating section 13 .

カメラ11は、携帯端末10の先端部分に取付けられる。操作者Uは、その先端を機器20に向けてそれらの機器画像を撮影する。カメラ11は、一般的なディジタルカメラである。 The camera 11 is attached to the tip portion of the mobile terminal 10 . The operator U directs the tip toward the device 20 and takes an image of those devices. Camera 11 is a general digital camera.

機器指定部12は、カメラ11で撮影した機器画像を取得し、機器画像の基準点に位置する機器20を指定する。機器画像の基準点とは、カメラ11で撮影する機器画像の例えば中心座標である。 The device designation unit 12 acquires the device image captured by the camera 11 and designates the device 20 located at the reference point of the device image. The reference point of the device image is, for example, center coordinates of the device image captured by the camera 11 .

中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。例えば、画像枠に含まれる外形が球体であれば機器20a、外形が立方体であれば機器20b、外形が円柱であれば機器20cと指定する。また、画像枠内の文字列(機器の型式等)を認識して機器20を指定するようにしてもよい。 An image frame (frame) having a predetermined number of pixels is set around the pixel of the central coordinates, and the device 20 is designated by recognizing the image within the image frame. For example, if the outer shape included in the image frame is spherical, the device 20a is specified, if the outer shape is a cube, the device 20b is specified, and if the outer shape is a cylinder, the device 20c is specified. Alternatively, the device 20 may be specified by recognizing a character string (device model, etc.) in the image frame.

機器指定部12は、外形と機器名、文字列と機器名等の情報を備えており、機器画像から操作対象の機器を指定する。外形と機器名、及び文字列と機器名等は図示を省略しているメモリに予め記憶させておく。 The device designation unit 12 has information such as the external shape and device name, character string and device name, and designates the device to be operated from the device image. The external shape, device name, character string, device name, etc. are stored in advance in a memory (not shown).

操作信号生成部13は、指定した機器20を操作する操作信号を生成する。操作信号は、携帯端末10に設けられたスイッチから得られるスイッチ信号と、メモリ(図示せず)に記憶された機器の操作仕様とを対応付けて生成する。機器指定部12が機器20bを指定した場合、操作信号生成部13は所定のスイッチのスイッチ信号に対応させて、例えば機器20b(ラジオ)の音量を高くする操作信号を生成する。 The operation signal generator 13 generates an operation signal for operating the designated device 20 . The operation signal is generated by associating a switch signal obtained from a switch provided on the mobile terminal 10 with an operation specification of the device stored in a memory (not shown). When the device designation unit 12 designates the device 20b, the operation signal generation unit 13 generates an operation signal for increasing the volume of the device 20b (radio), for example, in correspondence with the switch signal of a predetermined switch.

操作信号は、赤外線(IrDA)又は電磁波(WiFi,Bluetooth)に変換されて指定した機器20に送信される。このように、携帯端末10で指し示した機器20を指定して操作することができる。 The operation signal is converted into infrared rays (IrDA) or electromagnetic waves (WiFi, Bluetooth) and transmitted to the designated device 20 . In this way, the device 20 pointed at by the mobile terminal 10 can be designated and operated.

以上説明したように、本実施形態に係る操作システム100は、一つ以上の機器20と該機器20を操作する携帯端末10とから成る操作システムであって、携帯端末10は、機器20を撮影するカメラ11と、カメラ11で撮影した機器画像を取得し、該機器画像の基準点に位置する機器20を指定する機器指定部12と、指定した機器20を操作する操作信号を生成する操作信号生成部13とを備える。これにより、一つの携帯端末10で指定した機器20を操作することができる。また、操作システム100を構成する構成要素が少ないのでコストを安くすることができる。 As described above, the operation system 100 according to the present embodiment is an operation system including one or more devices 20 and the mobile terminal 10 that operates the devices 20. The mobile terminal 10 shoots the device 20. a camera 11 that acquires a device image captured by the camera 11, a device designation unit 12 that designates a device 20 positioned at a reference point of the device image, and an operation signal that generates an operation signal for operating the designated device 20 and a generation unit 13 . As a result, the specified device 20 can be operated with one mobile terminal 10 . Also, since the number of components constituting the operation system 100 is small, the cost can be reduced.

(機器画像)
図3は、機器画像の例を模式的に示す図である。図3に示す機器画像OGは、携帯端末10のカメラ11で撮影した画像である。
(equipment image)
FIG. 3 is a diagram schematically showing an example of a device image. A device image OG shown in FIG. 3 is an image captured by the camera 11 of the mobile terminal 10 .

機器画像OGは、例えば500万画素の画像であると仮定する。その場合、機器画像OGの横方向(x)は2560画素、縦方向(y)は1920画素で表される。 Assume that the equipment image OG is, for example, an image of 5 million pixels. In that case, the horizontal direction (x) of the equipment image OG is represented by 2560 pixels, and the vertical direction (y) is represented by 1920 pixels.

図3に示す基準点αは、例えば機器画像OGの中心(x=1280,y=960)である。図3では、説明の都合上、基準点αを表記しているが、基準点αは表示する必要はない。また、図3では基準点αを画素数1の点よりも大きく表記している。 The reference point α shown in FIG. 3 is, for example, the center (x=1280, y=960) of the equipment image OG. Although the reference point α is shown in FIG. 3 for convenience of explanation, it is not necessary to display the reference point α. In addition, in FIG. 3, the reference point α is shown larger than the point with one pixel.

機器指定部12は、基準点αを中心に所定の画素数の画像枠(フレーム)を設定し、その画像枠に含まれる物体を画像認識する。したがって、操作者Uがどの機器20を指しているか、基準点αと画像枠(図示せず)から検出することができる。つまり、操作者Uが操作したい機器20を指定することができる。画像枠の大きさは、物体(機器20)を含むように自動で調整してもよい。 The device designation unit 12 sets an image frame (frame) having a predetermined number of pixels around the reference point α, and performs image recognition of an object included in the image frame. Therefore, which device 20 the operator U is pointing at can be detected from the reference point α and the image frame (not shown). That is, the operator U can designate the device 20 that he/she wants to operate. The size of the image frame may be automatically adjusted to include the object (device 20).

次に、カメラ11を360度カメラで構成した例について説明する。 Next, an example in which the camera 11 is composed of a 360-degree camera will be described.

(360度カメラを用いた携帯端末)
図4は、携帯端末10のカメラ11を、360度カメラ21で構成した場合の側面を示す図である。
(mobile terminal with 360-degree camera)
FIG. 4 is a side view of the camera 11 of the mobile terminal 10 configured with a 360-degree camera 21. As shown in FIG.

図4に示すように、360度カメラ21は、例えば棒状の柄15の先端部分に取付けられる。柄15は操作者Uが手で握る部分である。柄15の表面には、操作者Uが操作するスイッチ131,132が設けられている。また、柄15の内部には、360度カメラ21の天頂方向を検出する3軸加速度センサ14が設けられている。3軸加速度センサ14は、360度カメラ21で撮影した全天球画像の天地を調整する。なお、3軸加速度センサ14を用いて天地を調整する方法は周知である。 As shown in FIG. 4, the 360-degree camera 21 is attached, for example, to the tip of a bar-shaped handle 15 . The handle 15 is a part that the operator U holds with his/her hand. Switches 131 and 132 operated by the operator U are provided on the surface of the handle 15 . A three-axis acceleration sensor 14 for detecting the zenith direction of the 360-degree camera 21 is provided inside the handle 15 . The triaxial acceleration sensor 14 adjusts the top and bottom of the omnidirectional image captured by the 360-degree camera 21 . The method of adjusting the top and bottom using the three-axis acceleration sensor 14 is well known.

360度カメラ21は、2つの魚眼レンズ211,212で撮影した2枚の半球画像をつなぎ合わせた1つの360度全天球画像を撮影する。魚眼レンズ211,212の直径の中心部分には、撮像素子(図示せず)が設けられる。 The 360-degree camera 21 captures one 360-degree omnidirectional image by joining two hemispherical images captured by two fisheye lenses 211 and 212 . An imaging device (not shown) is provided at the central portion of the diameter of the fisheye lenses 211 and 212 .

全天球画像は、縦方向(z)、横方向(x)のそれぞれを360度撮影した画像である。奥行方向(y)は、z方向とx方向の全天球画像に含まれる。 A spherical image is an image obtained by photographing 360 degrees in both the vertical direction (z) and the horizontal direction (x). The depth direction (y) is included in the z-direction and x-direction omnidirectional images.

魚眼レンズ211は機器画像OG(半球画像)を撮影する。魚眼レンズ212は、携帯端末10を携帯する操作者Uの操作者画像SG(半球画像)を撮影する。 The fisheye lens 211 captures an equipment image OG (hemispherical image). The fisheye lens 212 captures an operator image SG (hemispherical image) of the operator U carrying the mobile terminal 10 .

図5は、機器画像OGと操作者画像SGを模式的に示す図である。機器画像OGは、棚30と、その上に置かれた機器20a,20b,20cの画像を含む。操作者画像SGは、携帯端末10を左手で持つ操作者Uの上半身の画像を含む。 FIG. 5 is a diagram schematically showing the equipment image OG and the operator image SG. The device image OG includes images of the shelf 30 and the devices 20a, 20b, and 20c placed thereon. The operator image SG includes an image of the upper body of the operator U holding the mobile terminal 10 with his left hand.

図6は、360度カメラ21で撮影した全天球画像を正距円筒図に変換した図を模式的に示す図である。正距円筒図は、全天球画像の緯度・経度を、x-y座標に変換した図である。その変換方法は周知である。 FIG. 6 is a diagram schematically showing a diagram in which an omnidirectional image captured by the 360-degree camera 21 is converted into an equirectangular diagram. The equirectangular diagram is a diagram obtained by converting the latitude and longitude of the omnidirectional image into xy coordinates. The conversion method is well known.

図6に示す縦・横方向の0は、緯度(φ)の0度と経度(θ)の0度を表す。λ=0度、φ=0度は360度カメラ21の中心位置である(図6に示すA)。緯度0~90度は、360度カメラ21から見た仰角であり、0~-90度は360度カメラ21から見た俯角である。経度0~180度は360度カメラ21からx方向、経度0~-180度は360度カメラ21から-x方向を表す。 0 in the vertical and horizontal directions shown in FIG. 6 represents 0 degrees of latitude (φ) and 0 degrees of longitude (θ). λ=0 degree and φ=0 degree is the center position of the 360-degree camera 21 (A shown in FIG. 6). Latitudes of 0 to 90 degrees are elevation angles viewed from the 360-degree camera 21, and 0 to -90 degrees are depression angles viewed from the 360-degree camera 21. Longitude 0 to 180 degrees represents the x direction from the 360 degree camera 21, and longitude 0 to -180 degrees represents the -x direction from the 360 degree camera 21.

魚眼レンズ211の-x側の頂点を、機器20bに向けた場合(図1)は、機器20bは横軸-90度上の第二象限に位置する(図6に示すC)。一方、その姿勢の魚眼レンズ212で撮影した操作者Uは、魚眼レンズ212の正面なので横軸90度上に位置する。 When the −x side vertex of the fisheye lens 211 is directed toward the device 20b (FIG. 1), the device 20b is located in the second quadrant above −90 degrees on the horizontal axis (C shown in FIG. 6). On the other hand, the operator U photographed with the fisheye lens 212 in that posture is located in front of the fisheye lens 212 and is located 90 degrees above the horizontal axis.

360度カメラ21を基準とする操作者Uの視点位置(Vθ[deg],Vφ[deg])は、特徴点の検出と特徴点同士の関係を検出する技術であるOpenPoseを用いることで取得できる。OpenPose(姿勢推定ライブラリ)は周知である。 The viewpoint position (V θ [deg], V φ [deg]) of the operator U with respect to the 360-degree camera 21 can be obtained by using OpenPose, which is a technique for detecting feature points and detecting relationships between feature points. can be obtained. OpenPose (a pose estimation library) is well known.

次に、視点位置(Vθ[deg],Vφ[deg])を基準とする視線方向(Gθ[deg],Gφ[deg])を取得する。視線方向(Gθ[deg],Gφ[deg])は、視線を検出するOpenGazeを用いることで取得できる。OpenGazeは周知である。 Next, the line-of-sight direction (G θ [deg], G φ [deg]) based on the viewpoint position (V θ [deg], V φ [deg]) is acquired. The line-of-sight direction (G θ [deg], G φ [deg]) can be obtained by using OpenGaze that detects the line of sight. OpenGaze is well known.

次に、操作対象の機器20の位置(L[20]θ[deg],L[20]φ[deg])を取得する。機器20の位置(L[20]θ[deg],L[20]φ[deg])は、物体検出手法であるYOLOを用いることで取得できる。YOLO(You Look Only Onse)は周知である。 Next, the position (L[20] θ [deg], L[20] φ [deg]) of the device 20 to be operated is acquired. The position (L[20] θ [deg], L[20] φ [deg]) of the device 20 can be obtained by using YOLO, which is an object detection method. YOLO (You Look Only Once) is well known.

操作者Uの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])から操作者Uが注視する注視点(Tθ[deg],Tφ[deg])を計算することができる。 A gaze point ( T θ [ deg ] , T φ [deg]) can be calculated.

図7は、操作者Uの注視点(Tθ[deg],Tφ[deg])の計算方法の一例を模式的に示す図である。図7に示す「A」は、360度カメラ21の位置、「B」は操作者Uの視点位置(Vθ[deg])、「C」は操作対象の機器20である。計算方法は仰角方向で説明する。 FIG. 7 is a diagram schematically showing an example of a method of calculating the gaze point (T θ [deg], T φ [deg]) of the operator U. As shown in FIG. "A" shown in FIG. 7 is the position of the 360-degree camera 21, "B" is the viewpoint position (V θ [deg]) of the operator U, and "C" is the device 20 to be operated. The calculation method will be explained in the elevation direction.

図7において、360度カメラ21の位置「A」を中心として視点位置(Vθ[deg])の「B」と機器20「C」を通る円を想定する。この場合、360度カメラ21から機器20までの距離と、360度カメラ21から操作者Uの視点位置(Vθ[deg])までの距離は等しい。 In FIG. 7, a circle is assumed centering on the position "A" of the 360-degree camera 21 and passing through the viewpoint position (V θ [deg]) "B" and the device 20 "C". In this case, the distance from the 360-degree camera 21 to the device 20 is equal to the distance from the 360-degree camera 21 to the viewpoint position (V θ [deg]) of the operator U.

ここで、360度カメラ21の位置「A」を原点とするx軸と平行な視点位置「B」を通る直線x′を想定する。そうすると、視点位置「B」から機器20を見る角度は視線方向(Gθ[deg])である。また、線分ABと直線x′とが成す角度は、視点位置(Vθ[deg])と同じである。 Here, a straight line x' is assumed which has a position "A" of the 360-degree camera 21 as an origin and passes through a viewpoint position "B" parallel to the x-axis. Then, the angle at which the device 20 is viewed from the viewpoint position "B" is the line-of-sight direction (G θ [deg]). Also, the angle formed by the line segment AB and the straight line x' is the same as the viewpoint position (V θ [deg]).

視線方向(Gθ[deg])と視点位置(Vθ[deg])は既知であるので、操作者Uの注視点(Tφ[deg])は次式で計算することができる。 Since the line-of-sight direction (G θ [deg]) and the viewpoint position (V θ [deg]) are known, the gaze point (T φ [deg]) of the operator U can be calculated by the following equation.

Figure 0007321459000001
Figure 0007321459000001

経度方向の操作者Uの注視点(Tθ[deg])も同様に計算することができる。なお、注視点(Tφ[deg])は、Tφ[deg]+ Vφ[deg]で表わしても構わない。 The gaze point (T θ [deg]) of the operator U in the longitude direction can be similarly calculated. Note that the gaze point (T φ [deg]) may be represented by T φ [deg]+V φ [deg].

求めた注視点(Tθ[deg],Tφ[deg])から操作者Uが操作したい機器20を指定する。つまり、図7に示す線分ABと線分ACが成す角度、又はx軸と線分ACが成す角度にある(近い)機器20を操作対象として指定する。 The device 20 that the operator U wants to operate is specified from the obtained point of gaze (T θ [deg], T φ [deg]). That is, the device 20 at (close to) the angle formed by the line segment AB and the line segment AC shown in FIG. 7 or the angle formed by the x-axis and the line segment AC is designated as the operation target.

以上説明したように、機器指定部12は、操作者画像SGから該操作者Uの視線方向を検出し、該視線方向に基づいて例えば機器20bを指定する。また、機器画像OG及び操作者画像SGは、360度カメラ21で撮影した全天球画像情報から取得するようにしてもよい。これにより、一つの携帯端末10で指定した機器20を操作することができる。 As described above, the device specifying unit 12 detects the line-of-sight direction of the operator U from the operator image SG, and specifies, for example, the device 20b based on the line-of-sight direction. Also, the equipment image OG and the operator image SG may be obtained from omnidirectional image information captured by the 360-degree camera 21 . As a result, the specified device 20 can be operated with one mobile terminal 10 .

つまり、操作者Uが操作したい機器20を指定することができれば、操作信号生成部13はその機器20の仕様に合わせた操作信号を容易に生成することができる。 That is, if the operator U can specify the device 20 that he/she wants to operate, the operation signal generator 13 can easily generate an operation signal that matches the specifications of the device 20 .

なお、携帯端末10の操作スイッチ131,132から得られるスイッチ信号に基づいて操作信号を生成する例を説明したが、操作スイッチ131,132を用いずに操作信号を生成する方法も考えられる。その場合、操作者画像SGに含まれる操作者Uの所作を認識し、該所作に対応する操作信号を生成させる。所作は、例えば瞬きの回数及び指の本数等が考えられる。これにより、携帯端末10の操作スイッチ131,132を無くすことができる。操作スイッチ131,132を無くすことで、携帯端末10の外装ケースのコストを安くすることができる。 Although the example of generating the operation signal based on the switch signal obtained from the operation switches 131 and 132 of the portable terminal 10 has been described, a method of generating the operation signal without using the operation switches 131 and 132 is also conceivable. In that case, the action of the operator U included in the operator image SG is recognized, and an operation signal corresponding to the action is generated. The gesture can be, for example, the number of blinks and the number of fingers. Thereby, the operation switches 131 and 132 of the mobile terminal 10 can be eliminated. By eliminating the operation switches 131 and 132, the cost of the exterior case of the mobile terminal 10 can be reduced.

また、操作信号に、操作者Uを識別する識別情報を含めてもよい。操作者Uの識別は、携帯端末10を持つ人の顔を認識することで行える。つまり、機器指定部12は、携帯端末10を携帯する操作者Uの操作者画像も取得し、該操作者画像を認識して操作者Uを指定し、操作信号生成部13は、操作者Uを識別する識別情報を操作信号に含める。これにより、該操作信号を受信した機器20は操作者Uに対応させたサービスを提供することができる。操作者Uに対応させたサービスは、例えば機器20がテレビであれば、操作者Uが過去に視聴したジャンルの最新のビデオプログラムを表示する等のことである。 Further, identification information for identifying the operator U may be included in the operation signal. Identification of the operator U can be performed by recognizing the face of the person holding the mobile terminal 10 . That is, the device designating unit 12 also obtains an operator image of the operator U carrying the portable terminal 10, recognizes the operator image and designates the operator U, and the operation signal generating unit 13 generates the operator U The operation signal includes identification information that identifies the As a result, the device 20 that has received the operation signal can provide a service corresponding to the operator U. FIG. For example, if the device 20 is a television, the service corresponding to the operator U is, for example, displaying the latest video program of the genre that the operator U has viewed in the past.

なお、カメラは360度カメラ21に限られない。1つの一般的なディジタルカメラ(カメラ11)で機器画像OGと操作者画像SGを撮影するようにしてもよい。 Note that the camera is not limited to the 360-degree camera 21 . The device image OG and the operator image SG may be captured by one general digital camera (camera 11).

図8は、1つのカメラ11で機器画像OGと操作者画像SGを撮影する変形例の構成を示す図である。カメラ11に対向して2枚の鏡40a,40bが配置されている。鏡40aの-x方向には機器20は配置され、鏡40bのx方向には操作者Uが位置している。 FIG. 8 is a diagram showing a configuration of a modification in which one camera 11 captures the equipment image OG and the operator image SG. Two mirrors 40 a and 40 b are arranged facing the camera 11 . The device 20 is arranged in the -x direction of the mirror 40a, and the operator U is positioned in the x direction of the mirror 40b.

図8に示すように構成したカメラ11で機器画像OGと操作者画像SGを撮影するようにしても構わない。360度カメラ21を用いた場合と同じ作用効果が得られる。 The device image OG and the operator image SG may be captured by the camera 11 configured as shown in FIG. The same effects as when the 360-degree camera 21 is used can be obtained.

また、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成するようにしてもよい。 Also, the device designation unit 12 may generate three-dimensional coordinate information from the two device images OG and the operator image SG.

図9は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成する原理を説明する模式図である。図9は、図6で説明した状態から操作者Uが携帯端末10を機器20側に突き出し、その突き出した距離と同じ距離、操作者Uが顔を携帯端末10から遠ざけた(のけぞる)場合を仮定した正距円筒図である。 FIG. 9 is a schematic diagram illustrating the principle of generating three-dimensional coordinate information from two equipment images OG and operator image SG. FIG. 9 shows a case where the operator U sticks out the mobile terminal 10 toward the device 20 from the state described in FIG. FIG. 4 is a hypothetical equirectangular diagram;

この場合、360度カメラ21の位置「A」を中心とする2つの二等辺三角形ABCとAB′C′とが得られる。この2つの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])も用いステレオカメラの原理で三次元座標情報を取得することができる。 In this case, two isosceles triangles ABC and AB'C' centered on position "A" of the 360-degree camera 21 are obtained. Using these two viewpoint positions (V θ [deg], V φ [deg]) and the line-of-sight direction (G θ [deg], G φ [deg]), three-dimensional coordinate information can be obtained on the principle of a stereo camera. can.

このように、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成し、該三次元座標で機器20を指定することができる。これにより、例えば、床に置かれた複数の自走式掃除機に対して選択的に操作信号を送信することができる。 In this way, the device designation unit 12 can generate three-dimensional coordinate information from the two device images OG and the operator image SG, and designate the device 20 by the three-dimensional coordinates. Thereby, for example, an operation signal can be selectively transmitted to a plurality of self-propelled cleaners placed on the floor.

(操作方法)
図10は、本実施形態に係る操作システム100が実行する操作方法の処理手順を示すフローチャートである。
(Method of operation)
FIG. 10 is a flow chart showing the processing procedure of the operation method executed by the operation system 100 according to this embodiment.

操作システム100が動作を開始すると、カメラ11は、一つ以上の機器20を撮影して機器画像OGを取得する(ステップS1)。カメラ11が360度カメラ21の場合は、操作者画像SGも同時に取得する。 When the operation system 100 starts operating, the camera 11 captures one or more devices 20 to obtain a device image OG (step S1). When the camera 11 is a 360-degree camera 21, the operator image SG is also acquired at the same time.

機器指定部12は、機器画像OGの基準点αに位置する機器20を指定する(ステップS2)。基準点αは、例えばカメラ11で撮影する画像の中心座標である。中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。 The device designation unit 12 designates the device 20 located at the reference point α of the device image OG (step S2). The reference point α is, for example, central coordinates of an image captured by the camera 11 . An image frame (frame) having a predetermined number of pixels is set around the pixel of the central coordinates, and the device 20 is designated by recognizing the image within the image frame.

操作信号生成部13は、機器指定部12が指定した機器を操作する操作信号を生成する(ステップS3)。操作信号は、物理的なスイッチを操作して得られるスイッチ信号に基づいて生成してもよいし、操作者Uの所作を認識して所作に対応させた操作信号にしてもよい。 The operation signal generation unit 13 generates an operation signal for operating the device specified by the device specification unit 12 (step S3). The operation signal may be generated based on a switch signal obtained by operating a physical switch, or may be an operation signal corresponding to the action of the operator U recognized.

このように、本実施形態に係る操作方法は、操作システム100が行う操作方法であって、一つ以上の機器20を撮影して機器画像OGを取得する撮影ステップS1と、機器画像OGの基準点αに位置する機器20を指定する機器指定ステップS2と、指定した機器20を操作する操作信号を生成する操作信号生成ステップS3とを行う。一つの携帯端末10で指定した機器を操作することができる。 As described above, the operation method according to the present embodiment is an operation method performed by the operation system 100, and includes a photographing step S1 of photographing one or more devices 20 to acquire the device image OG, and a reference of the device image OG. A device designation step S2 of designating the device 20 positioned at the point α and an operation signal generation step S3 of generating an operation signal for operating the designated device 20 are performed. A designated device can be operated with one mobile terminal 10 .

操作システム100及び操作方法は、図11に示す汎用的なコンピュータシステムで実現することができる、例えば、CPU90、メモリ91、ストレージ92、通信部93、入力部94、及び出力部95を備える汎用的なコンピュータシテムにおいて、CPU90がメモリ91上にロードされた所定のプログラムを実行することにより、操作システム100のカメラ11を除く各機能が実現される。所定のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記録することも、ネットワークを介して配信することも可能である。 The operation system 100 and the operation method can be realized by a general-purpose computer system shown in FIG. In such a computer system, each function of the operation system 100 except for the camera 11 is realized by executing a predetermined program loaded on the memory 91 by the CPU 90 . The prescribed program can be recorded on a computer-readable recording medium such as HDD, SSD, USB memory, CD-ROM, DVD-ROM, MO, etc., or can be distributed via a network.

本実施形態に係る操作システム100及び操作方法によれば、操作者Uの手の届かない機器20を操作することができる。また、操作が他者の妨げになることもない。また、少ない例えば手の動きで機器20を操作することができる。また、ヘッドアップディスプレイ等の装着に違和感を伴うものが不要である。また、複数人の間で操作権の譲渡が容易に行える。 According to the operating system 100 and the operating method according to this embodiment, the device 20 out of reach of the operator U can be operated. Also, the operation does not interfere with others. Also, the device 20 can be operated with less, for example, hand movement. In addition, there is no need for a head-up display or the like that causes discomfort when worn. Also, the operation right can be easily transferred among a plurality of persons.

本発明は、上記の実施形態に限定されるものではなく、その要旨の範囲内で変形が可能である。例えば、全天球画像の天地の修正は3軸加速度センサ14を用いる例を説明したが、本発明はこの例に限定されない。例えば、操作システム100を配置する環境に事前にマーカーを配置し、そのマーカーを画像認識することで全天球画像の天地を修正することができる。 The present invention is not limited to the above-described embodiments, and modifications can be made within the scope of the gist of the present invention. For example, although an example using the triaxial acceleration sensor 14 has been described for correcting the top and bottom of the omnidirectional image, the present invention is not limited to this example. For example, a marker can be placed in advance in the environment where the operation system 100 is placed, and the image of the marker can be recognized to correct the top and bottom of the omnidirectional image.

また、操作者Uを特定するのに操作者画像を認識する例を説明したが、この例に限定されない。上記のOpenPoseで検出されるボーン情報を元に携帯端末10を保持している操作者Uを特定し、操作したい機器20を指定するようにしてもよい。 Also, although an example of recognizing an operator image to identify the operator U has been described, the present invention is not limited to this example. The operator U who holds the mobile terminal 10 may be specified based on the bone information detected by the above OpenPose, and the device 20 to be operated may be specified.

また、操作する対象の機器20は棚30の上に配置される例(図1)を示したが、操作者Uの視点よりも低い例えばテーブルの上に置かれた機器20に対しても同様に操作信号を送信することができる。 Also, although an example (FIG. 1) in which the device 20 to be operated is arranged on the shelf 30 is shown, the same applies to the device 20 placed on a table lower than the operator U's viewpoint, for example. can send operation signals to

このように、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明指定事項によってのみ定められるものである。 Thus, the present invention naturally includes various embodiments and the like not described here. Therefore, the technical scope of the present invention is defined only by the matters specified in the scope of claims that are valid from the above description.

10:携帯端末
11:カメラ
12:機器指定部
13:操作信号生成部
20,20a,20b,20c:機器
21:360度カメラ
30:棚
40a,40b:鏡
10: mobile terminal 11: camera 12: device designation unit 13: operation signal generators 20, 20a, 20b, 20c: device 21: 360-degree camera 30: shelves 40a, 40b: mirror

Claims (5)

一つ以上の機器操作する携帯端末であって
前記機器と前記携帯端末の操作者を撮影するカメラで撮影された画像を取得し、前記機器を指定する機器指定部と、
指定した前記機器を操作する操作信号を生成する操作信号生成部と
を備え
前記画像は、前記カメラの第1レンズで撮像した前記機器の機器画像と、第2レンズで撮像した前記操作者の操作者画像とをつなぎ合わせた360度全天球画像であり、
前記機器指定部は、前記360度全天球画像を正距円筒図に変換し、前記正距円筒図上の前記操作者の視点位置と、前記視点位置を基準とする視線方向とを用いて算出される、前記操作者が注視する注視点に基づいて前記機器を指定する
ことを特徴とする携帯端末
A mobile terminal that operates one or more devices ,
a device designation unit that acquires an image captured by a camera that captures the device and the operator of the mobile terminal and specifies the device;
an operation signal generation unit that generates an operation signal for operating the specified device ,
The image is a 360-degree omnidirectional image obtained by joining the device image of the device captured by the first lens of the camera and the operator image of the operator captured by the second lens,
The device designation unit converts the 360-degree omnidirectional image into an equirectangular view, and uses the viewpoint position of the operator on the equirectangular view and the line-of-sight direction with the viewpoint position as a reference. Designating the device based on the calculated gaze point that the operator gazes at
A mobile terminal characterized by :
前記機器指定部は、
前記操作者画像を認識して前記操作者を指定し、
前記操作信号生成部は、
前記操作者を識別する識別情報を前記操作信号に含める
請求項1に記載の携帯端末
The device designation unit
recognizing the operator image and designating the operator;
The operation signal generation unit
The mobile terminal according to claim 1, wherein identification information for identifying the operator is included in the operation signal.
前記操作信号生成部は、
前記操作者画像から前記操作者の所作を認識し、該所作に対応する前記操作信号を生成する
請求項1または2に記載の携帯端末
The operation signal generation unit
3. The portable terminal according to claim 1, wherein a gesture of the operator is recognized from the operator image, and the operation signal corresponding to the gesture is generated.
一つ以上の機器を操作する携帯端末が行う操作方法であって、
前記機器と前記携帯端末の操作者を撮影するカメラで撮影された画像を取得し、前記機器を指定する機器指定ステップと、
指定した前記機器を操作する操作信号を生成する操作信号生成ステップとを行い、
前記画像は、前記カメラの第1レンズで撮像した前記機器の機器画像と、第2レンズで撮像した前記操作者の操作者画像とをつなぎ合わせた360度全天球画像であり、
前記機器指定ステップは、前記360度全天球画像を正距円筒図に変換し、前記正距円筒図上の前記操作者の視点位置と、前記視点位置を基準とする視線方向とを用いて算出される、前記操作者が注視する注視点に基づいて前記機器を指定する
ことを特徴とする操作方法。
An operation method performed by a mobile terminal that operates one or more devices ,
a device designation step of acquiring an image captured by a camera that captures the device and the operator of the mobile terminal , and designating the device;
an operation signal generation step of generating an operation signal for operating the specified device ;
The image is a 360-degree omnidirectional image obtained by joining the device image of the device captured by the first lens of the camera and the operator image of the operator captured by the second lens,
The device specifying step converts the 360-degree omnidirectional image into an equirectangular view, and uses the viewpoint position of the operator on the equirectangular view and the line-of-sight direction based on the viewpoint position. Designating the device based on the calculated gaze point that the operator gazes at
A method of operation characterized by
請求項1乃至の何れかに記載の携帯端末としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the portable terminal according to any one of claims 1 to 3 .
JP2020048955A 2020-03-19 2020-03-19 Mobile terminal, operation method, and program Active JP7321459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020048955A JP7321459B2 (en) 2020-03-19 2020-03-19 Mobile terminal, operation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020048955A JP7321459B2 (en) 2020-03-19 2020-03-19 Mobile terminal, operation method, and program

Publications (2)

Publication Number Publication Date
JP2021149527A JP2021149527A (en) 2021-09-27
JP7321459B2 true JP7321459B2 (en) 2023-08-07

Family

ID=77849021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020048955A Active JP7321459B2 (en) 2020-03-19 2020-03-19 Mobile terminal, operation method, and program

Country Status (1)

Country Link
JP (1) JP7321459B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352355A (en) 2005-06-14 2006-12-28 Funai Electric Co Ltd Control unit and electronic apparatus
JP2011146796A (en) 2010-01-12 2011-07-28 Sony Corp Image processing device, object selection method, and program
JP2011175336A (en) 2010-02-23 2011-09-08 Panasonic Corp Device position specifying device
JP2013106198A (en) 2011-11-14 2013-05-30 Toshiba Corp Apparatus controller, method for the same, and program
JP2013197737A (en) 2012-03-16 2013-09-30 Sharp Corp Equipment operation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352355A (en) 2005-06-14 2006-12-28 Funai Electric Co Ltd Control unit and electronic apparatus
JP2011146796A (en) 2010-01-12 2011-07-28 Sony Corp Image processing device, object selection method, and program
JP2011175336A (en) 2010-02-23 2011-09-08 Panasonic Corp Device position specifying device
JP2013106198A (en) 2011-11-14 2013-05-30 Toshiba Corp Apparatus controller, method for the same, and program
JP2013197737A (en) 2012-03-16 2013-09-30 Sharp Corp Equipment operation device

Also Published As

Publication number Publication date
JP2021149527A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
TWI722280B (en) Controller tracking for multiple degrees of freedom
JP5728009B2 (en) Instruction input device, instruction input method, program, recording medium, and integrated circuit
JP2023175052A (en) Estimating pose in 3d space
EP2993894B1 (en) Image capturing method and electronic apparatus
CN111353355B (en) Motion tracking system and method
JP2013258614A (en) Image generation device and image generation method
CN102959616A (en) Interactive reality augmentation for natural interaction
CN108090463B (en) Object control method, device, storage medium and computer equipment
KR101892735B1 (en) Apparatus and Method for Intuitive Interaction
WO2017147748A1 (en) Wearable system gesture control method and wearable system
KR101256046B1 (en) Method and system for body tracking for spatial gesture recognition
JP6452235B2 (en) Face detection method, face detection device, and face detection program
EP3399738B1 (en) Omnidirectional image capturing method and device for performing method
JP2019192116A (en) Image generation device and image generation program
JP2017191426A (en) Input device, input control method, computer program, and storage medium
JP7321459B2 (en) Mobile terminal, operation method, and program
JP6200604B1 (en) Spherical camera robot altitude adjustment system, Spherical camera robot altitude adjustment method and program
WO2022176450A1 (en) Information processing device, information processing method, and program
JP2019192224A (en) Image generation device and image generation program
KR20150028623A (en) Method and apparatus for processing images
JP6461394B1 (en) Image generating apparatus and image generating program
JP2018056845A (en) Work support apparatus, system, method and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
WO2023157499A1 (en) Information processing device and device position estimation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230718

R150 Certificate of patent or registration of utility model

Ref document number: 7321459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150