JP2021149527A - 操作システム、操作方法、及びプログラム - Google Patents

操作システム、操作方法、及びプログラム Download PDF

Info

Publication number
JP2021149527A
JP2021149527A JP2020048955A JP2020048955A JP2021149527A JP 2021149527 A JP2021149527 A JP 2021149527A JP 2020048955 A JP2020048955 A JP 2020048955A JP 2020048955 A JP2020048955 A JP 2020048955A JP 2021149527 A JP2021149527 A JP 2021149527A
Authority
JP
Japan
Prior art keywords
image
operator
operation signal
camera
operation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020048955A
Other languages
English (en)
Other versions
JP7321459B2 (ja
Inventor
誉宗 巻口
Takamune Makiguchi
誉宗 巻口
英明 高田
Hideaki Takada
英明 高田
大介 坂本
Daisuke Sakamoto
大介 坂本
哲雄 小野
Tetsuo Ono
哲雄 小野
中也 木ノ原
Nakaya Kinohara
中也 木ノ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Nippon Telegraph and Telephone Corp filed Critical Hokkaido University NUC
Priority to JP2020048955A priority Critical patent/JP7321459B2/ja
Publication of JP2021149527A publication Critical patent/JP2021149527A/ja
Application granted granted Critical
Publication of JP7321459B2 publication Critical patent/JP7321459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】一つの携帯端末で指定した機器を操作できる操作システムを提供する。【解決手段】一つ以上の機器と該機器を操作する携帯端末10とから成る操作システムであって、携帯端末10は、機器を撮影するカメラ11と、カメラ11で撮影した機器画像を取得し、該機器画像の基準点に位置する機器を指定する機器指定部12と、指定した機器を操作する操作信号を生成する操作信号生成部13とを備える。【選択図】図2

Description

本発明は、指定した機器を操作する操作システム、操作方法、及びプログラムに関する。
操作者の視線を画像認識して推定し、操作者の視線上にあるオブジェクト(指定した機器)を操作する方法が、例えば非特許文献1に開示されている。
Xucong Zhang,Yusuke Sugano,Andreas Bulling, Evaluation of Appearance-Based Methods and Implications for Gaze-Based Applications.〔令和2年2月25日検索〕、インターネット(URL:https://perceptual.mpi-inf.mpg.de/opengaze-toolkit-released)
非特許文献1に開示された技術では、例えばテーブル上に置かれた機器を操作する場合、操作者の顔とテーブル上の機器を同時に撮影するカメラが必要である。また、死角や遮蔽が生じないようにするために複数のカメラが必要である。複数のカメラは、操作者の移動を阻害する場合がある。また、カメラ間の時刻同期及び座標変換に伴う処理が増加するので操作システムのコストを高くしてしまう。このように従来の操作者の視線を利用した操作方法は、複数のカメラ(機器)が必要であり、システムの構成が複雑でコストが高くなるという課題がある。
本発明は、この課題に鑑みてなされたものであり、一つの携帯端末で指定した機器を操作できる操作システム、操作方法、及びプログラムを提供することを目的とする。
本発明の一態様に係る操作システムは、一つ以上の機器と該機器を操作する携帯端末とから成る操作システムであって、前記携帯端末は、前記機器を撮影するカメラと、前記カメラで撮影した機器画像を取得し、該機器画像の基準点に位置する前記機器を指定する機器指定部と、指定した前記機器を操作する操作信号を生成する操作信号生成部とを備えることを要旨とする。
また、本発明の一態様に係る操作方法は、上記の操作システムが行う操作方法であって、一つ以上の機器を撮影して機器画像を取得する撮影ステップと、前記機器画像の基準点に位置する前記機器を指定する機器指定ステップと、指定した前記機器を操作する操作信号を生成する操作信号生成ステップとを行うことを要旨とする。
また、本発明の一態様に係るプログラムは、上記の操作システムとしてコンピュータを機能させるためのプログラムであることを要旨とする。
本発明によれば、一つの携帯端末で指定した機器を操作することができる。よって、システムの構成が簡単でコストを安くすることができる。
本発明の実施形態に係る操作システムの構成例を示す構成図である。 図1に示す携帯端末の機能構成例を示すブロック図である。 図2に示すカメラで操作対象の機器を撮影した機器画像を模式的に示す図である。 図1に示す携帯端末の側面を模式的に示す図である。 図4に示す2つの魚眼レンズで撮影した半球画像の例を模式的に示す図である。 図5に示す2つの半球画像(全天球画像)を正距円筒図に変換した例を模式的に示す図である。 図6に示す正距円筒図から操作者の視線方向を抽出する方法を説明する図である。 図2に示すカメラの変形例の構成を模式的に示す図である。 2つの機器画像と操作者画像から三次元座標情報を生成する原理を模式的に示す図である。 図1に示す操作システムが行う操作方法の処理手順を示すフローチャートである。 汎用的なコンピュータシステムの構成例を示すブロック図である。
以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。
図1は、本発明の実施形態に係る操作システムの構成例を示す構成図である。図1に示す操作システム100は、一つ以上の機器20a,20b,20cと、携帯端末10とで構成される。
図1に示す例は、人の背丈よりも高い棚30の上に機器20a,20b,20cが置かれ、操作者Uが携帯端末10でそれらの機器20a,20b,20cを操作する様子を示している。携帯端末10は、操作者Uが手で持つ例を示すがこの例に限られない。携帯端末10は、操作者Uの腕、肩、胸、及び足等の何れの部分で携帯しても構わない。
また、機器20a,20b,20cは、操作者Uよりも低い位置の例えばテーブル(図示せず)上に置いてあってもよい。図1は、操作者Uが比較的操作し難い位置の例を示す。
機器20aは、例えば遠隔操作で照度が調整できる照明である。機器20bは、例えば遠隔操作が可能なラジオである。機器20cは、例えば遠隔操作で加湿量が調整できる加湿器である。機器はこの例に限られない。例えば、床の上に配置される自走式掃除機等であっても構わない。なお、以降の説明において、機器20a,20b,20cの何れかを指定する必要がない場合、単に機器20と表記する。
図2は、携帯端末10の機能構成例を示すブロックである。図2に示すように、携帯端末10は、カメラ11、機器指定部12、及び操作信号生成部13を備える。
カメラ11は、携帯端末10の先端部分に取付けられる。操作者Uは、その先端を機器20に向けてそれらの機器画像を撮影する。カメラ11は、一般的なディジタルカメラである。
機器指定部12は、カメラ11で撮影した機器画像を取得し、機器画像の基準点に位置する機器20を指定する。機器画像の基準点とは、カメラ11で撮影する機器画像の例えば中心座標である。
中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。例えば、画像枠に含まれる外形が球体であれば機器20a、外形が立方体であれば機器20b、外形が円柱であれば機器20cと指定する。また、画像枠内の文字列(機器の型式等)を認識して機器20を指定するようにしてもよい。
機器指定部12は、外形と機器名、文字列と機器名等の情報を備えており、機器画像から操作対象の機器を指定する。外形と機器名、及び文字列と機器名等は図示を省略しているメモリに予め記憶させておく。
操作信号生成部13は、指定した機器20を操作する操作信号を生成する。操作信号は、携帯端末10に設けられたスイッチから得られるスイッチ信号と、メモリ(図示せず)に記憶された機器の操作仕様とを対応付けて生成する。機器指定部12が機器20bを指定した場合、操作信号生成部13は所定のスイッチのスイッチ信号に対応させて、例えば機器20b(ラジオ)の音量を高くする操作信号を生成する。
操作信号は、赤外線(IrDA)又は電磁波(WiFi,Bluetooth)に変換されて指定した機器20に送信される。このように、携帯端末10で指し示した機器20を指定して操作することができる。
以上説明したように、本実施形態に係る操作システム100は、一つ以上の機器20と該機器20を操作する携帯端末10とから成る操作システムであって、携帯端末10は、機器20を撮影するカメラ11と、カメラ11で撮影した機器画像を取得し、該機器画像の基準点に位置する機器20を指定する機器指定部12と、指定した機器20を操作する操作信号を生成する操作信号生成部13とを備える。これにより、一つの携帯端末10で指定した機器20を操作することができる。また、操作システム100を構成する構成要素が少ないのでコストを安くすることができる。
(機器画像)
図3は、機器画像の例を模式的に示す図である。図3に示す機器画像OGは、携帯端末10のカメラ11で撮影した画像である。
機器画像OGは、例えば500万画素の画像であると仮定する。その場合、機器画像OGの横方向(x)は2560画素、縦方向(y)は1920画素で表される。
図3に示す基準点αは、例えば機器画像OGの中心(x=1280,y=960)である。図3では、説明の都合上、基準点αを表記しているが、基準点αは表示する必要はない。また、図3では基準点αを画素数1の点よりも大きく表記している。
機器指定部12は、基準点αを中心に所定の画素数の画像枠(フレーム)を設定し、その画像枠に含まれる物体を画像認識する。したがって、操作者Uがどの機器20を指しているか、基準点αと画像枠(図示せず)から検出することができる。つまり、操作者Uが操作したい機器20を指定することができる。画像枠の大きさは、物体(機器20)を含むように自動で調整してもよい。
次に、カメラ11を360度カメラで構成した例について説明する。
(360度カメラを用いた携帯端末)
図4は、携帯端末10のカメラ11を、360度カメラ21で構成した場合の側面を示す図である。
図4に示すように、360度カメラ21は、例えば棒状の柄15の先端部分に取付けられる。柄15は操作者Uが手で握る部分である。柄15の表面には、操作者Uが操作するスイッチ131,132が設けられている。また、柄15の内部には、360度カメラ21の天頂方向を検出する3軸加速度センサ14が設けられている。3軸加速度センサ14は、360度カメラ21で撮影した全天球画像の天地を調整する。なお、3軸加速度センサ14を用いて天地を調整する方法は周知である。
360度カメラ21は、2つの魚眼レンズ211,212で撮影した2枚の半球画像をつなぎ合わせた1つの360度全天球画像を撮影する。魚眼レンズ211,212の直径の中心部分には、撮像素子(図示せず)が設けられる。
全天球画像は、縦方向(z)、横方向(x)のそれぞれを360度撮影した画像である。奥行方向(y)は、z方向とx方向の全天球画像に含まれる。
魚眼レンズ211は機器画像OG(半球画像)を撮影する。魚眼レンズ212は、携帯端末10を携帯する操作者Uの操作者画像SG(半球画像)を撮影する。
図5は、機器画像OGと操作者画像SGを模式的に示す図である。機器画像OGは、棚30と、その上に置かれた機器20a,20b,20cの画像を含む。操作者画像SGは、携帯端末10を左手で持つ操作者Uの上半身の画像を含む。
図6は、360度カメラ21で撮影した全天球画像を正距円筒図に変換した図を模式的に示す図である。正距円筒図は、全天球画像の緯度・経度を、x−y座標に変換した図である。その変換方法は周知である。
図6に示す縦・横方向の0は、緯度(φ)の0度と経度(θ)の0度を表す。λ=0度、φ=0度は360度カメラ21の中心位置である(図6に示すA)。緯度0〜90度は、360度カメラ21から見た仰角であり、0〜-90度は360度カメラ21から見た俯角である。経度0〜180度は360度カメラ21からx方向、経度0〜-180度は360度カメラ21から-x方向を表す。
魚眼レンズ211の−x側の頂点を、機器20bに向けた場合(図1)は、機器20bは横軸-90度上の第二象限に位置する(図6に示すC)。一方、その姿勢の魚眼レンズ212で撮影した操作者Uは、魚眼レンズ212の正面なので横軸90度上に位置する。
360度カメラ21を基準とする操作者Uの視点位置(Vθ[deg],Vφ[deg])は、特徴点の検出と特徴点同士の関係を検出する技術であるOpenPoseを用いることで取得できる。OpenPose(姿勢推定ライブラリ)は周知である。
次に、視点位置(Vθ[deg],Vφ[deg])を基準とする視線方向(Gθ[deg],Gφ[deg])を取得する。視線方向(Gθ[deg],Gφ[deg])は、視線を検出するOpenGazeを用いることで取得できる。OpenGazeは周知である。
次に、操作対象の機器20の位置(L[20]θ[deg],L[20]φ[deg])を取得する。機器20の位置(L[20]θ[deg],L[20]φ[deg])は、物体検出手法であるYOLOを用いることで取得できる。YOLO(You Look Only Onse)は周知である。
操作者Uの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])から操作者Uが注視する注視点(Tθ[deg],Tφ[deg])を計算することができる。
図7は、操作者Uの注視点(Tθ[deg],Tφ[deg])の計算方法の一例を模式的に示す図である。図7に示す「A」は、360度カメラ21の位置、「B」は操作者Uの視点位置(Vθ[deg])、「C」は操作対象の機器20である。計算方法は仰角方向で説明する。
図7において、360度カメラ21の位置「A」を中心として視点位置(Vθ[deg])の「B」と機器20「C」を通る円を想定する。この場合、360度カメラ21から機器20までの距離と、360度カメラ21から操作者Uの視点位置(Vθ[deg])までの距離は等しい。
ここで、360度カメラ21の位置「A」を原点とするx軸と平行な視点位置「B」を通る直線x′を想定する。そうすると、視点位置「B」から機器20を見る角度は視線方向(Gθ[deg])である。また、線分ABと直線x′とが成す角度は、視点位置(Vθ[deg])と同じである。
視線方向(Gθ[deg])と視点位置(Vθ[deg])は既知であるので、操作者Uの注視点(Tφ[deg])は次式で計算することができる。
Figure 2021149527
経度方向の操作者Uの注視点(Tθ[deg])も同様に計算することができる。なお、注視点(Tφ[deg])は、Tφ[deg]+ Vφ[deg]で表わしても構わない。
求めた注視点(Tθ[deg],Tφ[deg])から操作者Uが操作したい機器20を指定する。つまり、図7に示す線分ABと線分ACが成す角度、又はx軸と線分ACが成す角度にある(近い)機器20を操作対象として指定する。
以上説明したように、機器指定部12は、操作者画像SGから該操作者Uの視線方向を検出し、該視線方向に基づいて例えば機器20bを指定する。また、機器画像OG及び操作者画像SGは、360度カメラ21で撮影した全天球画像情報から取得するようにしてもよい。これにより、一つの携帯端末10で指定した機器20を操作することができる。
つまり、操作者Uが操作したい機器20を指定することができれば、操作信号生成部13はその機器20の仕様に合わせた操作信号を容易に生成することができる。
なお、携帯端末10の操作スイッチ131,132から得られるスイッチ信号に基づいて操作信号を生成する例を説明したが、操作スイッチ131,132を用いずに操作信号を生成する方法も考えられる。その場合、操作者画像SGに含まれる操作者Uの所作を認識し、該所作に対応する操作信号を生成させる。所作は、例えば瞬きの回数及び指の本数等が考えられる。これにより、携帯端末10の操作スイッチ131,132を無くすことができる。操作スイッチ131,132を無くすことで、携帯端末10の外装ケースのコストを安くすることができる。
また、操作信号に、操作者Uを識別する識別情報を含めてもよい。操作者Uの識別は、携帯端末10を持つ人の顔を認識することで行える。つまり、機器指定部12は、携帯端末10を携帯する操作者Uの操作者画像も取得し、該操作者画像を認識して操作者Uを指定し、操作信号生成部13は、操作者Uを識別する識別情報を操作信号に含める。これにより、該操作信号を受信した機器20は操作者Uに対応させたサービスを提供することができる。操作者Uに対応させたサービスは、例えば機器20がテレビであれば、操作者Uが過去に視聴したジャンルの最新のビデオプログラムを表示する等のことである。
なお、カメラは360度カメラ21に限られない。1つの一般的なディジタルカメラ(カメラ11)で機器画像OGと操作者画像SGを撮影するようにしてもよい。
図8は、1つのカメラ11で機器画像OGと操作者画像SGを撮影する変形例の構成を示す図である。カメラ11に対向して2枚の鏡40a,40bが配置されている。鏡40aの−x方向には機器20は配置され、鏡40bのx方向には操作者Uが位置している。
図8に示すように構成したカメラ11で機器画像OGと操作者画像SGを撮影するようにしても構わない。360度カメラ21を用いた場合と同じ作用効果が得られる。
また、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成するようにしてもよい。
図9は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成する原理を説明する模式図である。図9は、図6で説明した状態から操作者Uが携帯端末10を機器20側に突き出し、その突き出した距離と同じ距離、操作者Uが顔を携帯端末10から遠ざけた(のけぞる)場合を仮定した正距円筒図である。
この場合、360度カメラ21の位置「A」を中心とする2つの二等辺三角形ABCとAB′C′とが得られる。この2つの視点位置(Vθ[deg],Vφ[deg])と視線方向(Gθ[deg],Gφ[deg])も用いステレオカメラの原理で三次元座標情報を取得することができる。
このように、機器指定部12は、2つの機器画像OGと操作者画像SGから三次元座標情報を生成し、該三次元座標で機器20を指定することができる。これにより、例えば、床に置かれた複数の自走式掃除機に対して選択的に操作信号を送信することができる。
(操作方法)
図10は、本実施形態に係る操作システム100が実行する操作方法の処理手順を示すフローチャートである。
操作システム100が動作を開始すると、カメラ11は、一つ以上の機器20を撮影して機器画像OGを取得する(ステップS1)。カメラ11が360度カメラ21の場合は、操作者画像SGも同時に取得する。
機器指定部12は、機器画像OGの基準点αに位置する機器20を指定する(ステップS2)。基準点αは、例えばカメラ11で撮影する画像の中心座標である。中心座標の画素を中心に、所定の画素数の画像枠(フレーム)を設定し、画像枠内の画像を認識して機器20を指定する。
操作信号生成部13は、機器指定部12が指定した機器を操作する操作信号を生成する(ステップS3)。操作信号は、物理的なスイッチを操作して得られるスイッチ信号に基づいて生成してもよいし、操作者Uの所作を認識して所作に対応させた操作信号にしてもよい。
このように、本実施形態に係る操作方法は、操作システム100が行う操作方法であって、一つ以上の機器20を撮影して機器画像OGを取得する撮影ステップS1と、機器画像OGの基準点αに位置する機器20を指定する機器指定ステップS2と、指定した機器20を操作する操作信号を生成する操作信号生成ステップS3とを行う。一つの携帯端末10で指定した機器を操作することができる。
操作システム100及び操作方法は、図11に示す汎用的なコンピュータシステムで実現することができる、例えば、CPU90、メモリ91、ストレージ92、通信部93、入力部94、及び出力部95を備える汎用的なコンピュータシテムにおいて、CPU90がメモリ91上にロードされた所定のプログラムを実行することにより、操作システム100のカメラ11を除く各機能が実現される。所定のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記録することも、ネットワークを介して配信することも可能である。
本実施形態に係る操作システム100及び操作方法によれば、操作者Uの手の届かない機器20を操作することができる。また、操作が他者の妨げになることもない。また、少ない例えば手の動きで機器20を操作することができる。また、ヘッドアップディスプレイ等の装着に違和感を伴うものが不要である。また、複数人の間で操作権の譲渡が容易に行える。
本発明は、上記の実施形態に限定されるものではなく、その要旨の範囲内で変形が可能である。例えば、全天球画像の天地の修正は3軸加速度センサ14を用いる例を説明したが、本発明はこの例に限定されない。例えば、操作システム100を配置する環境に事前にマーカーを配置し、そのマーカーを画像認識することで全天球画像の天地を修正することができる。
また、操作者Uを特定するのに操作者画像を認識する例を説明したが、この例に限定されない。上記のOpenPoseで検出されるボーン情報を元に携帯端末10を保持している操作者Uを特定し、操作したい機器20を指定するようにしてもよい。
また、操作する対象の機器20は棚30の上に配置される例(図1)を示したが、操作者Uの視点よりも低い例えばテーブルの上に置かれた機器20に対しても同様に操作信号を送信することができる。
このように、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明指定事項によってのみ定められるものである。
10:携帯端末
11:カメラ
12:機器指定部
13:操作信号生成部
20,20a,20b,20c:機器
21:360度カメラ
30:棚
40a,40b:鏡

Claims (8)

  1. 一つ以上の機器と該機器を操作する携帯端末とから成る操作システムであって、
    前記携帯端末は、
    前記機器を撮影するカメラと、
    前記カメラで撮影した機器画像を取得し、該機器画像の基準点に位置する前記機器を指定する機器指定部と、
    指定した前記機器を操作する操作信号を生成する操作信号生成部と
    を備える操作システム。
  2. 前記機器指定部は、
    前記携帯端末を携帯する操作者の操作者画像も取得し、該操作者画像を認識して前記操作者を指定し、
    前記操作信号生成部は、
    前記操作者を識別する識別情報を前記操作信号に含める
    請求項1に記載の操作システム。
  3. 前記機器指定部は、
    前記操作者画像から該操作者の視線方向を検出し、該視線方向に基づいて前記機器を指定する
    請求項2に記載の操作システム。
  4. 前記機器画像及び前記操作者画像は、360度カメラで撮影した全天球画像情報から取得する請求項2又は3に記載の操作システム。
  5. 前記操作信号生成部は、
    前記操作者画像から前記操作者の所作を認識し、該所作に対応する前記操作信号を生成する
    請求項2乃至4の何れかに記載の操作システム。
  6. 前記機器指定部は、
    2つの前記機器画像と前記操作者画像から三次元座標情報を生成し、該三次元座標情報で前記機器を指定する
    請求項2乃至5の何れかに記載の操作システム。
  7. 操作システムが行う操作方法であって、
    一つ以上の機器を撮影して機器画像を取得する撮影ステップと、
    前記機器画像の基準点に位置する前記機器を指定する機器指定ステップと、
    指定した前記機器を操作する操作信号を生成する操作信号生成ステップと
    を行う操作方法。
  8. 請求項1乃至6の何れかに記載の操作システムとしてコンピュータを機能させるためのプログラム。
JP2020048955A 2020-03-19 2020-03-19 携帯端末、操作方法、及びプログラム Active JP7321459B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020048955A JP7321459B2 (ja) 2020-03-19 2020-03-19 携帯端末、操作方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020048955A JP7321459B2 (ja) 2020-03-19 2020-03-19 携帯端末、操作方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021149527A true JP2021149527A (ja) 2021-09-27
JP7321459B2 JP7321459B2 (ja) 2023-08-07

Family

ID=77849021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020048955A Active JP7321459B2 (ja) 2020-03-19 2020-03-19 携帯端末、操作方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7321459B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352355A (ja) * 2005-06-14 2006-12-28 Funai Electric Co Ltd 制御装置及び電子機器
JP2011146796A (ja) * 2010-01-12 2011-07-28 Sony Corp 画像処理装置、物体選択方法及びプログラム
JP2011175336A (ja) * 2010-02-23 2011-09-08 Panasonic Corp 機器位置特定装置
JP2013106198A (ja) * 2011-11-14 2013-05-30 Toshiba Corp 機器制御装置、その方法、及び、そのプログラム
JP2013197737A (ja) * 2012-03-16 2013-09-30 Sharp Corp 機器操作装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352355A (ja) * 2005-06-14 2006-12-28 Funai Electric Co Ltd 制御装置及び電子機器
JP2011146796A (ja) * 2010-01-12 2011-07-28 Sony Corp 画像処理装置、物体選択方法及びプログラム
JP2011175336A (ja) * 2010-02-23 2011-09-08 Panasonic Corp 機器位置特定装置
JP2013106198A (ja) * 2011-11-14 2013-05-30 Toshiba Corp 機器制御装置、その方法、及び、そのプログラム
JP2013197737A (ja) * 2012-03-16 2013-09-30 Sharp Corp 機器操作装置

Also Published As

Publication number Publication date
JP7321459B2 (ja) 2023-08-07

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
TWI722280B (zh) 用於多個自由度之控制器追蹤
JP2023175052A (ja) 3次元空間内の姿勢推定
WO2018051815A1 (ja) 情報処理装置および方法、並びにプログラム
EP2993894B1 (en) Image capturing method and electronic apparatus
JP2020531965A (ja) 支援型の拡張現実
JP2013258614A (ja) 画像生成装置および画像生成方法
CN111353355B (zh) 动作追踪系统及方法
CN102959616A (zh) 自然交互的交互真实性增强
US20220084243A1 (en) Video synthesis device, video synthesis method and recording medium
US10838515B1 (en) Tracking using controller cameras
JP7204346B2 (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2011217202A (ja) 画像取得装置
JP2013207344A (ja) 検出装置、撮像装置、及びプログラム
Nayar et al. Omnidirectional vision systems: 1998 PI report
JP7321459B2 (ja) 携帯端末、操作方法、及びプログラム
CN109804408B (zh) 一致的球面照片和视频朝向校正
KR20150028623A (ko) 영상 처리 방법 및 영상 처리 장치
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
US10013736B1 (en) Image perspective transformation system
KR20180058199A (ko) 영상 회의를 위한 전자 장치 및 그의 동작 방법
WO2023157499A1 (ja) 情報処理装置およびデバイス位置推定方法
JP7241628B2 (ja) 動画合成装置、動画合成方法、および動画合成プログラム
KR20210106763A (ko) 객체의 움직임을 추적하는 전자 장치 및 방법
JP6197849B2 (ja) 画像表示装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230718

R150 Certificate of patent or registration of utility model

Ref document number: 7321459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150