JP7321459B2 - Mobile terminal, operation method, and program - Google Patents
Mobile terminal, operation method, and program Download PDFInfo
- Publication number
- JP7321459B2 JP7321459B2 JP2020048955A JP2020048955A JP7321459B2 JP 7321459 B2 JP7321459 B2 JP 7321459B2 JP 2020048955 A JP2020048955 A JP 2020048955A JP 2020048955 A JP2020048955 A JP 2020048955A JP 7321459 B2 JP7321459 B2 JP 7321459B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- mobile terminal
- operation signal
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、指定した機器を操作する操作システム、操作方法、及びプログラムに関する。 The present invention relates to an operation system, an operation method, and a program for operating designated equipment.
操作者の視線を画像認識して推定し、操作者の視線上にあるオブジェクト(指定した機器)を操作する方法が、例えば非特許文献1に開示されている。 Non-Patent Document 1, for example, discloses a method of estimating an operator's line of sight through image recognition and operating an object (specified device) on the operator's line of sight.
非特許文献1に開示された技術では、例えばテーブル上に置かれた機器を操作する場合、操作者の顔とテーブル上の機器を同時に撮影するカメラが必要である。また、死角や遮蔽が生じないようにするために複数のカメラが必要である。複数のカメラは、操作者の移動を阻害する場合がある。また、カメラ間の時刻同期及び座標変換に伴う処理が増加するので操作システムのコストを高くしてしまう。このように従来の操作者の視線を利用した操作方法は、複数のカメラ(機器)が必要であり、システムの構成が複雑でコストが高くなるという課題がある。 With the technique disclosed in Non-Patent Document 1, for example, when operating a device placed on a table, a camera is required to photograph the operator's face and the device on the table at the same time. Also, multiple cameras are required to avoid blind spots and shading. A plurality of cameras may hinder the movement of the operator. In addition, the processing associated with time synchronization and coordinate conversion between cameras increases, which increases the cost of the operation system. As described above, the conventional operation method using the line of sight of the operator requires a plurality of cameras (equipment), and has the problem that the system configuration is complicated and the cost is high.
本発明は、この課題に鑑みてなされたものであり、一つの携帯端末で指定した機器を操作できる操作システム、操作方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of this problem, and it is an object of the present invention to provide an operation system, an operation method, and a program that can operate a specified device with a single mobile terminal.
本発明の一態様に係る操作システムは、一つ以上の機器と該機器を操作する携帯端末とから成る操作システムであって、前記携帯端末は、前記機器を撮影するカメラと、前記カメラで撮影した機器画像を取得し、該機器画像の基準点に位置する前記機器を指定する機器指定部と、指定した前記機器を操作する操作信号を生成する操作信号生成部とを備えることを要旨とする。 An operation system according to an aspect of the present invention is an operation system comprising one or more devices and a mobile terminal that operates the devices, wherein the mobile terminal includes a camera that captures images of the devices and a camera that captures images with the camera. a device designating unit that acquires a device image and designates the device positioned at a reference point of the device image; and an operation signal generating unit that generates an operation signal for operating the designated device. .
また、本発明の一態様に係る操作方法は、上記の操作システムが行う操作方法であって、一つ以上の機器を撮影して機器画像を取得する撮影ステップと、前記機器画像の基準点に位置する前記機器を指定する機器指定ステップと、指定した前記機器を操作する操作信号を生成する操作信号生成ステップとを行うことを要旨とする。 Further, an operation method according to an aspect of the present invention is an operation method performed by the above operation system, comprising: a photographing step of photographing one or more devices to obtain a device image; The gist is to perform a device designation step of designating the device to be positioned, and an operation signal generation step of generating an operation signal for operating the designated device.
また、本発明の一態様に係るプログラムは、上記の操作システムとしてコンピュータを機能させるためのプログラムであることを要旨とする。 A program according to an aspect of the present invention is summarized as a program for causing a computer to function as the above operation system.
本発明によれば、一つの携帯端末で指定した機器を操作することができる。よって、システムの構成が簡単でコストを安くすることができる。 According to the present invention, a designated device can be operated with one mobile terminal. Therefore, the system configuration is simple and the cost can be reduced.
以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。 An embodiment of the present invention will be described below with reference to the drawings. The same reference numerals are given to the same items in multiple drawings, and the description will not be repeated.
図1は、本発明の実施形態に係る操作システムの構成例を示す構成図である。図1に示す操作システム100は、一つ以上の機器20a,20b,20cと、携帯端末10とで構成される。
FIG. 1 is a configuration diagram showing a configuration example of an operation system according to an embodiment of the present invention. An
図1に示す例は、人の背丈よりも高い棚30の上に機器20a,20b,20cが置かれ、操作者Uが携帯端末10でそれらの機器20a,20b,20cを操作する様子を示している。携帯端末10は、操作者Uが手で持つ例を示すがこの例に限られない。携帯端末10は、操作者Uの腕、肩、胸、及び足等の何れの部分で携帯しても構わない。
The example shown in FIG. 1 shows
また、機器20a,20b,20cは、操作者Uよりも低い位置の例えばテーブル(図示せず)上に置いてあってもよい。図1は、操作者Uが比較的操作し難い位置の例を示す。
Also, the
機器20aは、例えば遠隔操作で照度が調整できる照明である。機器20bは、例えば遠隔操作が可能なラジオである。機器20cは、例えば遠隔操作で加湿量が調整できる加湿器である。機器はこの例に限られない。例えば、床の上に配置される自走式掃除機等であっても構わない。なお、以降の説明において、機器20a,20b,20cの何れかを指定する必要がない場合、単に機器20と表記する。
The
図2は、携帯端末10の機能構成例を示すブロックである。図2に示すように、携帯端末10は、カメラ11、機器指定部12、及び操作信号生成部13を備える。
FIG. 2 is a block diagram showing an example of the functional configuration of the
カメラ11は、携帯端末10の先端部分に取付けられる。操作者Uは、その先端を機器20に向けてそれらの機器画像を撮影する。カメラ11は、一般的なディジタルカメラである。
The
機器指定部12は、カメラ11で撮影した機器画像を取得し、機器画像の基準点に位置する機器20を指定する。機器画像の基準点とは、カメラ11で撮影する機器画像の例えば中心座標である。
The
中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。例えば、画像枠に含まれる外形が球体であれば機器20a、外形が立方体であれば機器20b、外形が円柱であれば機器20cと指定する。また、画像枠内の文字列(機器の型式等)を認識して機器20を指定するようにしてもよい。
An image frame (frame) having a predetermined number of pixels is set around the pixel of the central coordinates, and the
機器指定部12は、外形と機器名、文字列と機器名等の情報を備えており、機器画像から操作対象の機器を指定する。外形と機器名、及び文字列と機器名等は図示を省略しているメモリに予め記憶させておく。
The
操作信号生成部13は、指定した機器20を操作する操作信号を生成する。操作信号は、携帯端末10に設けられたスイッチから得られるスイッチ信号と、メモリ(図示せず)に記憶された機器の操作仕様とを対応付けて生成する。機器指定部12が機器20bを指定した場合、操作信号生成部13は所定のスイッチのスイッチ信号に対応させて、例えば機器20b(ラジオ)の音量を高くする操作信号を生成する。
The
操作信号は、赤外線(IrDA)又は電磁波(WiFi,Bluetooth)に変換されて指定した機器20に送信される。このように、携帯端末10で指し示した機器20を指定して操作することができる。
The operation signal is converted into infrared rays (IrDA) or electromagnetic waves (WiFi, Bluetooth) and transmitted to the designated
以上説明したように、本実施形態に係る操作システム100は、一つ以上の機器20と該機器20を操作する携帯端末10とから成る操作システムであって、携帯端末10は、機器20を撮影するカメラ11と、カメラ11で撮影した機器画像を取得し、該機器画像の基準点に位置する機器20を指定する機器指定部12と、指定した機器20を操作する操作信号を生成する操作信号生成部13とを備える。これにより、一つの携帯端末10で指定した機器20を操作することができる。また、操作システム100を構成する構成要素が少ないのでコストを安くすることができる。
As described above, the
(機器画像)
図3は、機器画像の例を模式的に示す図である。図3に示す機器画像OGは、携帯端末10のカメラ11で撮影した画像である。
(equipment image)
FIG. 3 is a diagram schematically showing an example of a device image. A device image OG shown in FIG. 3 is an image captured by the
機器画像OGは、例えば500万画素の画像であると仮定する。その場合、機器画像OGの横方向(x)は2560画素、縦方向(y)は1920画素で表される。 Assume that the equipment image OG is, for example, an image of 5 million pixels. In that case, the horizontal direction (x) of the equipment image OG is represented by 2560 pixels, and the vertical direction (y) is represented by 1920 pixels.
図3に示す基準点αは、例えば機器画像OGの中心(x=1280,y=960)である。図3では、説明の都合上、基準点αを表記しているが、基準点αは表示する必要はない。また、図3では基準点αを画素数1の点よりも大きく表記している。 The reference point α shown in FIG. 3 is, for example, the center (x=1280, y=960) of the equipment image OG. Although the reference point α is shown in FIG. 3 for convenience of explanation, it is not necessary to display the reference point α. In addition, in FIG. 3, the reference point α is shown larger than the point with one pixel.
機器指定部12は、基準点αを中心に所定の画素数の画像枠(フレーム)を設定し、その画像枠に含まれる物体を画像認識する。したがって、操作者Uがどの機器20を指しているか、基準点αと画像枠(図示せず)から検出することができる。つまり、操作者Uが操作したい機器20を指定することができる。画像枠の大きさは、物体(機器20)を含むように自動で調整してもよい。
The
次に、カメラ11を360度カメラで構成した例について説明する。
Next, an example in which the
(360度カメラを用いた携帯端末)
図4は、携帯端末10のカメラ11を、360度カメラ21で構成した場合の側面を示す図である。
(mobile terminal with 360-degree camera)
FIG. 4 is a side view of the
図4に示すように、360度カメラ21は、例えば棒状の柄15の先端部分に取付けられる。柄15は操作者Uが手で握る部分である。柄15の表面には、操作者Uが操作するスイッチ131,132が設けられている。また、柄15の内部には、360度カメラ21の天頂方向を検出する3軸加速度センサ14が設けられている。3軸加速度センサ14は、360度カメラ21で撮影した全天球画像の天地を調整する。なお、3軸加速度センサ14を用いて天地を調整する方法は周知である。
As shown in FIG. 4, the 360-
360度カメラ21は、2つの魚眼レンズ211,212で撮影した2枚の半球画像をつなぎ合わせた1つの360度全天球画像を撮影する。魚眼レンズ211,212の直径の中心部分には、撮像素子(図示せず)が設けられる。
The 360-
全天球画像は、縦方向(z)、横方向(x)のそれぞれを360度撮影した画像である。奥行方向(y)は、z方向とx方向の全天球画像に含まれる。 A spherical image is an image obtained by photographing 360 degrees in both the vertical direction (z) and the horizontal direction (x). The depth direction (y) is included in the z-direction and x-direction omnidirectional images.
魚眼レンズ211は機器画像OG(半球画像)を撮影する。魚眼レンズ212は、携帯端末10を携帯する操作者Uの操作者画像SG(半球画像)を撮影する。
The
図5は、機器画像OGと操作者画像SGを模式的に示す図である。機器画像OGは、棚30と、その上に置かれた機器20a,20b,20cの画像を含む。操作者画像SGは、携帯端末10を左手で持つ操作者Uの上半身の画像を含む。
FIG. 5 is a diagram schematically showing the equipment image OG and the operator image SG. The device image OG includes images of the
図6は、360度カメラ21で撮影した全天球画像を正距円筒図に変換した図を模式的に示す図である。正距円筒図は、全天球画像の緯度・経度を、x-y座標に変換した図である。その変換方法は周知である。
FIG. 6 is a diagram schematically showing a diagram in which an omnidirectional image captured by the 360-
図6に示す縦・横方向の0は、緯度(φ)の0度と経度(θ)の0度を表す。λ=0度、φ=0度は360度カメラ21の中心位置である(図6に示すA)。緯度0~90度は、360度カメラ21から見た仰角であり、0~-90度は360度カメラ21から見た俯角である。経度0~180度は360度カメラ21からx方向、経度0~-180度は360度カメラ21から-x方向を表す。
0 in the vertical and horizontal directions shown in FIG. 6 represents 0 degrees of latitude (φ) and 0 degrees of longitude (θ). λ=0 degree and φ=0 degree is the center position of the 360-degree camera 21 (A shown in FIG. 6). Latitudes of 0 to 90 degrees are elevation angles viewed from the 360-
魚眼レンズ211の-x側の頂点を、機器20bに向けた場合(図1)は、機器20bは横軸-90度上の第二象限に位置する(図6に示すC)。一方、その姿勢の魚眼レンズ212で撮影した操作者Uは、魚眼レンズ212の正面なので横軸90度上に位置する。
When the −x side vertex of the
360度カメラ21を基準とする操作者Uの視点位置(Vθ[deg],Vφ[deg])は、特徴点の検出と特徴点同士の関係を検出する技術であるOpenPoseを用いることで取得できる。OpenPose(姿勢推定ライブラリ)は周知である。
The viewpoint position (V θ [deg], V φ [deg]) of the operator U with respect to the 360-
次に、視点位置(Vθ[deg],Vφ[deg])を基準とする視線方向(Gθ[deg],Gφ[deg])を取得する。視線方向(Gθ[deg],Gφ[deg])は、視線を検出するOpenGazeを用いることで取得できる。OpenGazeは周知である。 Next, the line-of-sight direction (G θ [deg], G φ [deg]) based on the viewpoint position (V θ [deg], V φ [deg]) is acquired. The line-of-sight direction (G θ [deg], G φ [deg]) can be obtained by using OpenGaze that detects the line of sight. OpenGaze is well known.
次に、操作対象の機器20の位置(L[20]θ[deg],L[20]φ[deg])を取得する。機器20の位置(L[20]θ[deg],L[20]φ[deg])は、物体検出手法であるYOLOを用いることで取得できる。YOLO(You Look Only Onse)は周知である。
Next, the position (L[20] θ [deg], L[20] φ [deg]) of the
操作者Uの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])から操作者Uが注視する注視点(Tθ[deg],Tφ[deg])を計算することができる。 A gaze point ( T θ [ deg ] , T φ [deg]) can be calculated.
図7は、操作者Uの注視点(Tθ[deg],Tφ[deg])の計算方法の一例を模式的に示す図である。図7に示す「A」は、360度カメラ21の位置、「B」は操作者Uの視点位置(Vθ[deg])、「C」は操作対象の機器20である。計算方法は仰角方向で説明する。
FIG. 7 is a diagram schematically showing an example of a method of calculating the gaze point (T θ [deg], T φ [deg]) of the operator U. As shown in FIG. "A" shown in FIG. 7 is the position of the 360-
図7において、360度カメラ21の位置「A」を中心として視点位置(Vθ[deg])の「B」と機器20「C」を通る円を想定する。この場合、360度カメラ21から機器20までの距離と、360度カメラ21から操作者Uの視点位置(Vθ[deg])までの距離は等しい。
In FIG. 7, a circle is assumed centering on the position "A" of the 360-
ここで、360度カメラ21の位置「A」を原点とするx軸と平行な視点位置「B」を通る直線x′を想定する。そうすると、視点位置「B」から機器20を見る角度は視線方向(Gθ[deg])である。また、線分ABと直線x′とが成す角度は、視点位置(Vθ[deg])と同じである。
Here, a straight line x' is assumed which has a position "A" of the 360-
視線方向(Gθ[deg])と視点位置(Vθ[deg])は既知であるので、操作者Uの注視点(Tφ[deg])は次式で計算することができる。 Since the line-of-sight direction (G θ [deg]) and the viewpoint position (V θ [deg]) are known, the gaze point (T φ [deg]) of the operator U can be calculated by the following equation.
経度方向の操作者Uの注視点(Tθ[deg])も同様に計算することができる。なお、注視点(Tφ[deg])は、Tφ[deg]+ Vφ[deg]で表わしても構わない。 The gaze point (T θ [deg]) of the operator U in the longitude direction can be similarly calculated. Note that the gaze point (T φ [deg]) may be represented by T φ [deg]+V φ [deg].
求めた注視点(Tθ[deg],Tφ[deg])から操作者Uが操作したい機器20を指定する。つまり、図7に示す線分ABと線分ACが成す角度、又はx軸と線分ACが成す角度にある(近い)機器20を操作対象として指定する。
The
以上説明したように、機器指定部12は、操作者画像SGから該操作者Uの視線方向を検出し、該視線方向に基づいて例えば機器20bを指定する。また、機器画像OG及び操作者画像SGは、360度カメラ21で撮影した全天球画像情報から取得するようにしてもよい。これにより、一つの携帯端末10で指定した機器20を操作することができる。
As described above, the
つまり、操作者Uが操作したい機器20を指定することができれば、操作信号生成部13はその機器20の仕様に合わせた操作信号を容易に生成することができる。
That is, if the operator U can specify the
なお、携帯端末10の操作スイッチ131,132から得られるスイッチ信号に基づいて操作信号を生成する例を説明したが、操作スイッチ131,132を用いずに操作信号を生成する方法も考えられる。その場合、操作者画像SGに含まれる操作者Uの所作を認識し、該所作に対応する操作信号を生成させる。所作は、例えば瞬きの回数及び指の本数等が考えられる。これにより、携帯端末10の操作スイッチ131,132を無くすことができる。操作スイッチ131,132を無くすことで、携帯端末10の外装ケースのコストを安くすることができる。
Although the example of generating the operation signal based on the switch signal obtained from the operation switches 131 and 132 of the
また、操作信号に、操作者Uを識別する識別情報を含めてもよい。操作者Uの識別は、携帯端末10を持つ人の顔を認識することで行える。つまり、機器指定部12は、携帯端末10を携帯する操作者Uの操作者画像も取得し、該操作者画像を認識して操作者Uを指定し、操作信号生成部13は、操作者Uを識別する識別情報を操作信号に含める。これにより、該操作信号を受信した機器20は操作者Uに対応させたサービスを提供することができる。操作者Uに対応させたサービスは、例えば機器20がテレビであれば、操作者Uが過去に視聴したジャンルの最新のビデオプログラムを表示する等のことである。
Further, identification information for identifying the operator U may be included in the operation signal. Identification of the operator U can be performed by recognizing the face of the person holding the
なお、カメラは360度カメラ21に限られない。1つの一般的なディジタルカメラ(カメラ11)で機器画像OGと操作者画像SGを撮影するようにしてもよい。
Note that the camera is not limited to the 360-
図8は、1つのカメラ11で機器画像OGと操作者画像SGを撮影する変形例の構成を示す図である。カメラ11に対向して2枚の鏡40a,40bが配置されている。鏡40aの-x方向には機器20は配置され、鏡40bのx方向には操作者Uが位置している。
FIG. 8 is a diagram showing a configuration of a modification in which one
図8に示すように構成したカメラ11で機器画像OGと操作者画像SGを撮影するようにしても構わない。360度カメラ21を用いた場合と同じ作用効果が得られる。
The device image OG and the operator image SG may be captured by the
また、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成するようにしてもよい。
Also, the
図9は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成する原理を説明する模式図である。図9は、図6で説明した状態から操作者Uが携帯端末10を機器20側に突き出し、その突き出した距離と同じ距離、操作者Uが顔を携帯端末10から遠ざけた(のけぞる)場合を仮定した正距円筒図である。
FIG. 9 is a schematic diagram illustrating the principle of generating three-dimensional coordinate information from two equipment images OG and operator image SG. FIG. 9 shows a case where the operator U sticks out the
この場合、360度カメラ21の位置「A」を中心とする2つの二等辺三角形ABCとAB′C′とが得られる。この2つの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])も用いステレオカメラの原理で三次元座標情報を取得することができる。
In this case, two isosceles triangles ABC and AB'C' centered on position "A" of the 360-
このように、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成し、該三次元座標で機器20を指定することができる。これにより、例えば、床に置かれた複数の自走式掃除機に対して選択的に操作信号を送信することができる。
In this way, the
(操作方法)
図10は、本実施形態に係る操作システム100が実行する操作方法の処理手順を示すフローチャートである。
(Method of operation)
FIG. 10 is a flow chart showing the processing procedure of the operation method executed by the
操作システム100が動作を開始すると、カメラ11は、一つ以上の機器20を撮影して機器画像OGを取得する(ステップS1)。カメラ11が360度カメラ21の場合は、操作者画像SGも同時に取得する。
When the
機器指定部12は、機器画像OGの基準点αに位置する機器20を指定する(ステップS2)。基準点αは、例えばカメラ11で撮影する画像の中心座標である。中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。
The
操作信号生成部13は、機器指定部12が指定した機器を操作する操作信号を生成する(ステップS3)。操作信号は、物理的なスイッチを操作して得られるスイッチ信号に基づいて生成してもよいし、操作者Uの所作を認識して所作に対応させた操作信号にしてもよい。
The operation
このように、本実施形態に係る操作方法は、操作システム100が行う操作方法であって、一つ以上の機器20を撮影して機器画像OGを取得する撮影ステップS1と、機器画像OGの基準点αに位置する機器20を指定する機器指定ステップS2と、指定した機器20を操作する操作信号を生成する操作信号生成ステップS3とを行う。一つの携帯端末10で指定した機器を操作することができる。
As described above, the operation method according to the present embodiment is an operation method performed by the
操作システム100及び操作方法は、図11に示す汎用的なコンピュータシステムで実現することができる、例えば、CPU90、メモリ91、ストレージ92、通信部93、入力部94、及び出力部95を備える汎用的なコンピュータシテムにおいて、CPU90がメモリ91上にロードされた所定のプログラムを実行することにより、操作システム100のカメラ11を除く各機能が実現される。所定のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記録することも、ネットワークを介して配信することも可能である。
The
本実施形態に係る操作システム100及び操作方法によれば、操作者Uの手の届かない機器20を操作することができる。また、操作が他者の妨げになることもない。また、少ない例えば手の動きで機器20を操作することができる。また、ヘッドアップディスプレイ等の装着に違和感を伴うものが不要である。また、複数人の間で操作権の譲渡が容易に行える。
According to the
本発明は、上記の実施形態に限定されるものではなく、その要旨の範囲内で変形が可能である。例えば、全天球画像の天地の修正は3軸加速度センサ14を用いる例を説明したが、本発明はこの例に限定されない。例えば、操作システム100を配置する環境に事前にマーカーを配置し、そのマーカーを画像認識することで全天球画像の天地を修正することができる。
The present invention is not limited to the above-described embodiments, and modifications can be made within the scope of the gist of the present invention. For example, although an example using the
また、操作者Uを特定するのに操作者画像を認識する例を説明したが、この例に限定されない。上記のOpenPoseで検出されるボーン情報を元に携帯端末10を保持している操作者Uを特定し、操作したい機器20を指定するようにしてもよい。
Also, although an example of recognizing an operator image to identify the operator U has been described, the present invention is not limited to this example. The operator U who holds the
また、操作する対象の機器20は棚30の上に配置される例(図1)を示したが、操作者Uの視点よりも低い例えばテーブルの上に置かれた機器20に対しても同様に操作信号を送信することができる。
Also, although an example (FIG. 1) in which the
このように、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明指定事項によってのみ定められるものである。 Thus, the present invention naturally includes various embodiments and the like not described here. Therefore, the technical scope of the present invention is defined only by the matters specified in the scope of claims that are valid from the above description.
10:携帯端末
11:カメラ
12:機器指定部
13:操作信号生成部
20,20a,20b,20c:機器
21:360度カメラ
30:棚
40a,40b:鏡
10: mobile terminal 11: camera 12: device designation unit 13:
Claims (5)
前記機器と前記携帯端末の操作者を撮影するカメラで撮影された画像を取得し、前記機器を指定する機器指定部と、
指定した前記機器を操作する操作信号を生成する操作信号生成部と
を備え、
前記画像は、前記カメラの第1レンズで撮像した前記機器の機器画像と、第2レンズで撮像した前記操作者の操作者画像とをつなぎ合わせた360度全天球画像であり、
前記機器指定部は、前記360度全天球画像を正距円筒図に変換し、前記正距円筒図上の前記操作者の視点位置と、前記視点位置を基準とする視線方向とを用いて算出される、前記操作者が注視する注視点に基づいて前記機器を指定する
ことを特徴とする携帯端末。 A mobile terminal that operates one or more devices ,
a device designation unit that acquires an image captured by a camera that captures the device and the operator of the mobile terminal and specifies the device;
an operation signal generation unit that generates an operation signal for operating the specified device ,
The image is a 360-degree omnidirectional image obtained by joining the device image of the device captured by the first lens of the camera and the operator image of the operator captured by the second lens,
The device designation unit converts the 360-degree omnidirectional image into an equirectangular view, and uses the viewpoint position of the operator on the equirectangular view and the line-of-sight direction with the viewpoint position as a reference. Designating the device based on the calculated gaze point that the operator gazes at
A mobile terminal characterized by :
前記操作者画像を認識して前記操作者を指定し、
前記操作信号生成部は、
前記操作者を識別する識別情報を前記操作信号に含める
請求項1に記載の携帯端末。 The device designation unit
recognizing the operator image and designating the operator;
The operation signal generation unit
The mobile terminal according to claim 1, wherein identification information for identifying the operator is included in the operation signal.
前記操作者画像から前記操作者の所作を認識し、該所作に対応する前記操作信号を生成する
請求項1または2に記載の携帯端末。 The operation signal generation unit
3. The portable terminal according to claim 1, wherein a gesture of the operator is recognized from the operator image, and the operation signal corresponding to the gesture is generated.
前記機器と前記携帯端末の操作者を撮影するカメラで撮影された画像を取得し、前記機器を指定する機器指定ステップと、
指定した前記機器を操作する操作信号を生成する操作信号生成ステップとを行い、
前記画像は、前記カメラの第1レンズで撮像した前記機器の機器画像と、第2レンズで撮像した前記操作者の操作者画像とをつなぎ合わせた360度全天球画像であり、
前記機器指定ステップは、前記360度全天球画像を正距円筒図に変換し、前記正距円筒図上の前記操作者の視点位置と、前記視点位置を基準とする視線方向とを用いて算出される、前記操作者が注視する注視点に基づいて前記機器を指定する
ことを特徴とする操作方法。 An operation method performed by a mobile terminal that operates one or more devices ,
a device designation step of acquiring an image captured by a camera that captures the device and the operator of the mobile terminal , and designating the device;
an operation signal generation step of generating an operation signal for operating the specified device ;
The image is a 360-degree omnidirectional image obtained by joining the device image of the device captured by the first lens of the camera and the operator image of the operator captured by the second lens,
The device specifying step converts the 360-degree omnidirectional image into an equirectangular view, and uses the viewpoint position of the operator on the equirectangular view and the line-of-sight direction based on the viewpoint position. Designating the device based on the calculated gaze point that the operator gazes at
A method of operation characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048955A JP7321459B2 (en) | 2020-03-19 | 2020-03-19 | Mobile terminal, operation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048955A JP7321459B2 (en) | 2020-03-19 | 2020-03-19 | Mobile terminal, operation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021149527A JP2021149527A (en) | 2021-09-27 |
JP7321459B2 true JP7321459B2 (en) | 2023-08-07 |
Family
ID=77849021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020048955A Active JP7321459B2 (en) | 2020-03-19 | 2020-03-19 | Mobile terminal, operation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7321459B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006352355A (en) | 2005-06-14 | 2006-12-28 | Funai Electric Co Ltd | Control unit and electronic apparatus |
JP2011146796A (en) | 2010-01-12 | 2011-07-28 | Sony Corp | Image processing device, object selection method, and program |
JP2011175336A (en) | 2010-02-23 | 2011-09-08 | Panasonic Corp | Device position specifying device |
JP2013106198A (en) | 2011-11-14 | 2013-05-30 | Toshiba Corp | Apparatus controller, method for the same, and program |
JP2013197737A (en) | 2012-03-16 | 2013-09-30 | Sharp Corp | Equipment operation device |
-
2020
- 2020-03-19 JP JP2020048955A patent/JP7321459B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006352355A (en) | 2005-06-14 | 2006-12-28 | Funai Electric Co Ltd | Control unit and electronic apparatus |
JP2011146796A (en) | 2010-01-12 | 2011-07-28 | Sony Corp | Image processing device, object selection method, and program |
JP2011175336A (en) | 2010-02-23 | 2011-09-08 | Panasonic Corp | Device position specifying device |
JP2013106198A (en) | 2011-11-14 | 2013-05-30 | Toshiba Corp | Apparatus controller, method for the same, and program |
JP2013197737A (en) | 2012-03-16 | 2013-09-30 | Sharp Corp | Equipment operation device |
Also Published As
Publication number | Publication date |
---|---|
JP2021149527A (en) | 2021-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10574889B2 (en) | Information processing device, information processing method, and program | |
TWI722280B (en) | Controller tracking for multiple degrees of freedom | |
JP5728009B2 (en) | Instruction input device, instruction input method, program, recording medium, and integrated circuit | |
JP2023175052A (en) | Estimating pose in 3d space | |
EP2993894B1 (en) | Image capturing method and electronic apparatus | |
CN111353355B (en) | Motion tracking system and method | |
JP2013258614A (en) | Image generation device and image generation method | |
CN102959616A (en) | Interactive reality augmentation for natural interaction | |
CN108090463B (en) | Object control method, device, storage medium and computer equipment | |
KR101892735B1 (en) | Apparatus and Method for Intuitive Interaction | |
WO2017147748A1 (en) | Wearable system gesture control method and wearable system | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
EP3399738B1 (en) | Omnidirectional image capturing method and device for performing method | |
JP2019192116A (en) | Image generation device and image generation program | |
JP2017191426A (en) | Input device, input control method, computer program, and storage medium | |
JP7321459B2 (en) | Mobile terminal, operation method, and program | |
JP6200604B1 (en) | Spherical camera robot altitude adjustment system, Spherical camera robot altitude adjustment method and program | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
JP2019192224A (en) | Image generation device and image generation program | |
KR20150028623A (en) | Method and apparatus for processing images | |
JP6461394B1 (en) | Image generating apparatus and image generating program | |
JP2018056845A (en) | Work support apparatus, system, method and program | |
JP2017184025A (en) | Communication terminal, image communication system, image transmission method, image display method, and program | |
WO2023157499A1 (en) | Information processing device and device position estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7321459 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |