JP5617246B2 - 画像処理装置、物体選択方法及びプログラム - Google Patents
画像処理装置、物体選択方法及びプログラム Download PDFInfo
- Publication number
- JP5617246B2 JP5617246B2 JP2010004170A JP2010004170A JP5617246B2 JP 5617246 B2 JP5617246 B2 JP 5617246B2 JP 2010004170 A JP2010004170 A JP 2010004170A JP 2010004170 A JP2010004170 A JP 2010004170A JP 5617246 B2 JP5617246 B2 JP 5617246B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing apparatus
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4108—Peripherals receiving signals from specially adapted client devices characterised by an identification number or address, e.g. local network address
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42208—Display device provided on the remote control
- H04N21/42209—Display device provided on the remote control for displaying non-command information, e.g. electronic program guide [EPG], e-mail, messages or a second television channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/4222—Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/20—Binding and programming of remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42226—Reprogrammable remote control devices
Description
実空間を映した入力画像を用いて生成される環境マップであって前記実空間内に存在する1つ以上の物体の位置を表現する当該環境マップに含まれる物体のうち、操作可能な物体を識別するための物体識別データに基づいて操作可能であると認識される少なくとも1つの物体を、ユーザによる操作の対象の候補である候補物体として選択すること、を含む画像処理方法が提供される。
1.一実施形態に係る画像処理装置の概要
2.一実施形態に係る画像処理装置の構成例
2−1.撮像部
2−2.環境マップ生成部
2−3.環境マップ記憶部
2−4.データ記憶部
2−5.機器認識部
2−6.選択部
2−7.画像出力部
2−8.ユーザインタフェース
2−9.送信部
3.ハードウェア構成
4.まとめ
5.変形例
図1は、本発明の一実施形態に係る画像処理装置の概要を説明するための模式図である。図1には、本発明の一実施形態に係る画像処理装置100を持つユーザが存在する環境1が示されている。
図2は、本発明の一実施形態に係る画像処理装置100の構成の一例を示すブロック図である。図2を参照すると、画像処理装置100は、撮像部102、環境マップ生成部110、環境マップ記憶部120、データ記憶部130、機器認識部140、選択部160、画像出力部170、ユーザインタフェース180、及び送信部190を備える。
撮像部102は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有する撮像装置として実現され得る。撮像部102は、図1に例示した環境1などの実空間を撮影することにより生成した画像を、入力画像として、環境マップ生成部110、機器認識部140、及び画像出力部170へ出力する。
環境マップ生成部110は、撮像部102から入力される入力画像、及びデータ記憶部130により記憶されている後述するオブジェクトの特徴データに基づいて、実空間内に存在する1つ以上の物体の位置等を表現する環境マップを生成する。
自己位置検出部112は、撮像部102から入力される入力画像、及びデータ記憶部130により記憶されている特徴データに基づいて、入力画像を撮影した撮像装置の位置を動的に検出する。例えば、自己位置検出部112は、Andrew J.Davisonによる“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されているSLAM技術を応用することにより、撮像装置が単眼カメラを有する場合にも、当該カメラの位置及び姿勢、並びにカメラの撮像面における特徴点の位置を、フレームごとに動的に決定することができる。
本実施形態において、データ記憶部130は、実空間内に存在し得る物体に対応するオブジェクトの特徴を表す特徴データを予め記憶している。特徴データには、例えば、各オブジェクトの外観の特徴を表す1つ以上の特徴点についての小画像、即ちパッチ(Patch)が含まれる。パッチとは、例えば、特徴点を中心とする3×3=9画素よりなる小画像であってよい。
本実施形態において、自己位置検出部112は、拡張カルマンフィルタを適用すべき状態変数として、次式に示す状態変数Xを用いる。
そして、自己位置検出部112は、観測方程式を用いて、例えば状態変数の予測値から予測される観測情報と、特徴点の追跡結果として得られる実際の観測情報との誤差を評価する。なお、式(8)におけるνがその誤差である。
画像認識部114は、データ記憶部130により記憶されている特徴データを用いて、入力画像に映っている物体がそれぞれどのオブジェクトに対応するかを特定する。そこで、まず、データ記憶部130により記憶されている特徴データについて説明する。
図8は、特徴データの構成の一例について説明するための説明図である。図8を参照すると、オブジェクトの一例である物体10gについての特徴データFD1が示されている。特徴データFD1は、オブジェクト識別子(ID:Identifier)FD11、6方向から撮影した画像データFD12、パッチデータDF13、3次元形状データFD14、及びオントロジーデータFD15を含む。
図9は、画像認識部114によるオブジェクト認識処理の流れの一例を示すフローチャートである。図9を参照すると、まず、画像認識部114は、撮像部102から入力画像を取得する(ステップS212)。次に、画像認識部114は、入力画像に含まれる部分画像と、特徴データに含まれる各オブジェクトの1つ以上の特徴点のパッチとを照合し、入力画像に含まれる特徴点を抽出する(ステップS214)。なお、画像認識部114によるオブジェクト認識処理に用いられる特徴点と、自己位置検出部112による自己位置検出処理に用いられる特徴点とは、必ずしも同じでなくてもよい。但し、双方の処理で用いられる特徴点が共通している場合には、画像認識部114は、自己位置検出部112による特徴点の追跡結果を再利用してもよい。
構築部116は、自己位置検出部112から入力されるカメラの位置及び姿勢、画像認識部114から入力される特徴点の撮像面上の位置、及びデータ記憶部130に記憶されている特徴データを用いて、環境マップを生成する。本明細書において、環境マップとは、実空間内に存在する1つ以上の物体の位置(及び姿勢)を表現するデータの集合である。環境マップには、例えば、物体に対応するオブジェクト識別子、当該物体に属す特徴点の3次元位置、及び当該物体の形状を構成するポリゴン情報などが含まれ得る。環境マップは、例えば、画像認識部114から入力される特徴点の撮像面上の位置から、上述したピンホールモデルに従って各特徴点の3次元位置を求めることにより構築され得る。
環境マップ記憶部120は、ハードディスク又は半導体メモリなどの記憶媒体を用いて、環境マップ生成部110の構築部116により構築される上述した環境マップを記憶する。さらに、環境マップ記憶部120は、環境マップ生成部110の自己位置検出部112により検出されるカメラの位置及び姿勢を含む撮像位置データを記憶する。なお、環境マップ記憶部120は、次に説明するデータ記憶部130と物理的に同一の記憶媒体を用いて実装されてもよい。
データ記憶部130は、上述したように、ハードディスク又は半導体メモリなどの記憶媒体を用いて、実空間内に存在し得る物体に対応するオブジェクトの特徴を表す特徴データを予め記憶する。また、データ記憶部130は、実空間内に存在し得る物体のうちユーザにより操作可能な物体を識別するための物体識別データを予め記憶する。物体識別データは、後に説明する機器認識部140による機器認識処理において使用される。
機器認識部140は、上述した物体識別データに含まれる各物体画像を撮像部102から入力される入力画像と照合することにより、入力画像に映っている操作可能な物体を認識する。そして、機器認識部140は、操作可能な物体が存在する場合には、入力画像内の各操作可能な物体の位置、並びに自己位置検出部112から入力されるカメラの位置及び姿勢を用いて、式(14)に従い、環境マップ120内での各操作可能な物体の3次元位置を計算する。さらに、機器認識部140は、計算した3次元位置に基づいて、新たに認識された操作可能な物体を環境マップに登録する。
選択部160は、環境マップ記憶部120により記憶されている環境マップに含まれる物体のうち、物体識別データに基づいて操作可能であると認識された少なくとも1つの物体を、ユーザによる操作の対象の候補として選択する。選択部160により操作の対象の候補として選択された物体を、本明細書では、候補物体という。
画像出力部170は、選択部160により選択された候補物体の画面上での位置をユーザに認識させるための出力画像を、撮像部102から入力される入力画像から生成する。そして、画像出力部170は、生成した当該出力画像を表示装置へ出力する。より具体的には、例えば、画像出力部170は、画面上で各候補物体を囲む枠を当該候補物体の2次元形状データに基づいて生成し、生成した枠を入力画像に重畳することにより、出力画像を生成する。その代わりに、画像出力部170は、例えば、出力画像において各候補物体に対応する画面上の領域と他の領域との間で明暗又は色の濃淡などを変化させることにより、候補物体の画面上での位置をユーザに認識させてもよい。また、画像出力部170は、例えば、各候補物体に当該物体の名称等を表す文字列を付すことにより、候補物体の画面上での位置をユーザに認識させてもよい。
ユーザインタフェース180は、候補物体のうち操作すべき物体をユーザに指定させるためのインタフェースを提供する。ユーザインタフェース180は、例えば、ボタン、タッチパネル、スイッチ又はキーパッドなどの、ユーザ入力を検出可能な任意の入力手段であってよい。例えば、図14の出力画像Im12又は図16の出力画像Im22などのように1つの候補物体のみが表示されている場合には、ユーザ入力(例えばボタンの押下など)が検知された時点で表示されている候補物体が、操作すべき物体であるものと決定され得る。また、図13の出力画像Im11のように複数の候補物体が表示されている場合には、例えば、ユーザ入力が検知された時点で表示されている出力画像の中央又は当該中央の近傍に位置している物体が、操作すべき物体であるものとして決定され得る。また、ユーザ入力が検知された時に複数の候補物体が出力画像の中央に位置している場合には、例えば、ユーザインタフェース180は、出力画像内での大きさが最も小さい候補物体を操作すべき物体であるものとして決定してもよい。また、ユーザインタフェース180は、GUI(graphical User Interface)を含んでもよい。例えば、図15の出力画像Im13内のコマンド欄14は、GUIの一種である。例えば、コマンド欄14に表示された制御コマンドをユーザが画面上で選択した場合に、次に説明する送信部190は、当該制御コマンドを含む制御信号を、コマンド欄14が付された操作対象の物体へ送信することができる。
送信部190は、ユーザインタフェース180に対するユーザ入力に基づいて決定した操作対象の物体への制御コマンドを含む制御信号を生成し、生成した当該制御信号を送信する。制御信号は、例えば、IrDA(Infrared Data Association)に準拠した赤外線信号として送信されてもよい。その代わりに、制御信号は、例えば、無線LAN(Local Area Network)などによる無線信号として送信されてもよい。かかる制御信号を操作対象の物体(被制御機器)が受信することにより、ユーザの望む操作が当該物体において行われる。
上述した画像処理装置100による一連の処理をハードウェアで実現するかソフトウェアで実現するかは問わない。一連の処理又はその一部をソフトウェアで実行させる場合には、ソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれたコンピュータ、又は例えば図19に示した汎用コンピュータなどを用いて実行される。
ここまで、図1〜図19を用いて、本発明の一実施形態に係る画像処理装置100について説明した。画像処理装置100によれば、実空間内に存在する1つ以上の物体の位置を表現する環境マップに含まれる物体のうち、物体識別データに基づいて操作可能であると認識される少なくとも1つの物体が、ユーザによる操作の対象の候補である候補物体として選択される。従って、撮像装置が移動して入力画像内の物体の外観が変化した場合、又は操作すべき物体が他の物体に隠された場合などにおいても、これら物体を互いに区別して遠隔制御の対象として容易に選択することができる。また、シースルー方式のディスプレイを用いた直感的な操作対象の選択が可能となる。さらに、電子機器に個別に操作用のディスプレイを設けることなく、あるいは個別の専用の遠隔制御装置を用意することなく、1つの画像処理装置100を用いて各電子機器を操作することが可能となる。
なお、上述した画像処理装置100の一変形例として、環境マップを構築することなく遠隔制御装置として動作可能な画像処理装置を構成することもできる。図20は、そのような一変形例に係る画像処理装置200の構成の一例を示すブロック図である。図20を参照すると、画像処理装置200は、撮像部102、データ記憶部130、機器認識部240、選択部260、画像出力部270、ユーザインタフェース180、及び送信部190を備える。
102 撮像部
110 環境マップ生成部
120 環境マップ記憶部
130 データ記憶部
140 機器認識部
160 選択部
170 画像出力部
180 ユーザインタフェース
190 送信部
Claims (10)
- 実空間を映した入力画像を用いて生成される環境マップであって前記実空間内に存在する1つ以上の物体の位置を表現する当該環境マップに含まれる物体のうち、ユーザにより操作可能な物体を識別するための物体識別データに基づいて操作可能であると認識される少なくとも1つの候補物体から、操作すべき物体を選択する選択部、
を備え、
前記選択部は、ユーザインタフェースを介してユーザ入力が検知された時点で前記入力画像の中央又は当該中央の近傍に位置している候補物体を前記操作すべき物体として選択する、
画像処理装置。 - 前記選択部は、複数の前記候補物体が前記入力画像の中央に位置している場合には、画面上での大きさが最も小さい前記候補物体を前記操作すべき物体として選択する、請求項1に記載の画像処理装置。
- 前記画像処理装置は、
前記候補物体を操作するための制御コマンドを表示する第1の表示オブジェクトを、表示装置の画面上の前記候補物体の位置に付すように、前記表示装置への画像の出力を制御する制御部、をさらに備える、
請求項1又は請求項2に記載の画像処理装置。 - 前記物体識別データは、前記実空間内に存在する前記1つ以上の物体の各々がユーザにより操作可能であるかを示すフラグを含み、
前記選択部は、前記フラグに基づいて前記候補物体を選択する、
請求項1〜3のいずれか1項に記載の画像処理装置。 - 前記入力画像は、前記実空間を撮影する撮像装置から取得され、
前記画像処理装置は、
前記候補物体の画面上での位置をユーザに認識させるための出力画像を前記入力画像から生成し、生成した当該出力画像を表示装置へ出力する画像出力部、
をさらに備える、請求項1に記載の画像処理装置。 - 前記出力画像内の各候補物体の位置は、前記環境マップ及び前記撮像装置の位置を表す撮像位置データに基づいて計算される、
請求項5に記載の画像処理装置。 - 前記画像出力部は、前記画面上で各候補物体を囲む枠を、各物体の3次元的な形状を表す形状データに基づいて生成し、生成した当該枠を前記入力画像に重畳することにより前記出力画像を生成する、
請求項5又は請求項6に記載の画像処理装置。 - 前記画像処理装置は、
前記撮像装置及び前記表示装置をさらに備え、
前記撮像装置の撮像面と前記表示装置の画面とは、互いに反対方向に向けて配置される、
請求項5〜7のいずれか1項に記載の画像処理装置。 - 画像処理装置により実行される画像処理方法において、
実空間を映した入力画像を用いて生成される環境マップであって前記実空間内に存在する1つ以上の物体の位置を表現する当該環境マップに含まれる物体のうち、ユーザにより操作可能な物体を識別するための物体識別データに基づいて操作可能であると認識される少なくとも1つの候補物体から、操作すべき物体を選択すること、
を含み、
前記画像処理装置は、ユーザインタフェースを介してユーザ入力が検知された時点で前記入力画像の中央又は当該中央の近傍に位置している候補物体を前記操作すべき物体として選択する、
画像処理方法。 - 画像処理装置を制御するコンピュータを、
実空間を映した入力画像を用いて生成される環境マップであって前記実空間内に存在する1つ以上の物体の位置を表現する当該環境マップに含まれる物体のうち、ユーザにより操作可能な物体を識別するための物体識別データに基づいて操作可能であると認識される少なくとも1つの候補物体から、操作すべき物体を選択する選択部、
として機能させ、
前記選択部は、ユーザインタフェースを介してユーザ入力が検知された時点で前記入力画像の中央又は当該中央の近傍に位置している候補物体を前記操作すべき物体として選択する、
プログラム。
Priority Applications (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004170A JP5617246B2 (ja) | 2010-01-12 | 2010-01-12 | 画像処理装置、物体選択方法及びプログラム |
EP10196760.2A EP2343882B1 (en) | 2010-01-12 | 2010-12-23 | Image processing device, object selection method and program |
US12/983,424 US8345925B2 (en) | 2010-01-12 | 2011-01-03 | Image processing device, object selection method and program |
KR20110000456A KR20110083509A (ko) | 2010-01-12 | 2011-01-04 | 화상 처리 장치, 화상 처리 방법 및 프로그램 |
CN201110006622.1A CN102129290B (zh) | 2010-01-12 | 2011-01-05 | 图像处理设备和对象选择方法 |
US13/670,750 US8548199B2 (en) | 2010-01-12 | 2012-11-07 | Image processing device, object selection method and program |
US14/014,785 US8744130B2 (en) | 2010-01-12 | 2013-08-30 | Image processing device, object selection method and program |
US14/190,321 US9014431B2 (en) | 2010-01-12 | 2014-02-26 | Image processing device, object selection method and program |
US14/657,431 US9288423B2 (en) | 2010-01-12 | 2015-03-13 | Image processing device, object selection method and program |
US15/052,335 US9778735B2 (en) | 2010-01-12 | 2016-02-24 | Image processing device, object selection method and program |
US15/711,198 US10386917B2 (en) | 2010-01-12 | 2017-09-21 | Image processing device, object selection method and program |
US16/521,015 US10908676B2 (en) | 2010-01-12 | 2019-07-24 | Image processing device, object selection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010004170A JP5617246B2 (ja) | 2010-01-12 | 2010-01-12 | 画像処理装置、物体選択方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011146796A JP2011146796A (ja) | 2011-07-28 |
JP2011146796A5 JP2011146796A5 (ja) | 2013-01-17 |
JP5617246B2 true JP5617246B2 (ja) | 2014-11-05 |
Family
ID=43987556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010004170A Active JP5617246B2 (ja) | 2010-01-12 | 2010-01-12 | 画像処理装置、物体選択方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (8) | US8345925B2 (ja) |
EP (1) | EP2343882B1 (ja) |
JP (1) | JP5617246B2 (ja) |
KR (1) | KR20110083509A (ja) |
CN (1) | CN102129290B (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101219933B1 (ko) * | 2010-09-13 | 2013-01-08 | 현대자동차주식회사 | 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법 |
JP5731272B2 (ja) * | 2011-05-09 | 2015-06-10 | 双葉電子工業株式会社 | 被操縦体の無線操縦装置 |
JPWO2013136702A1 (ja) | 2012-03-12 | 2015-08-03 | パナソニックIpマネジメント株式会社 | 無線通信装置、無線通信方法、および無線通信制御プログラム |
JP2013191163A (ja) * | 2012-03-15 | 2013-09-26 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US9218526B2 (en) | 2012-05-24 | 2015-12-22 | HJ Laboratories, LLC | Apparatus and method to detect a paper document using one or more sensors |
JP5550124B2 (ja) * | 2012-08-17 | 2014-07-16 | Necシステムテクノロジー株式会社 | 入力装置、機器、入力方法およびプログラム |
KR101921610B1 (ko) * | 2012-08-31 | 2018-11-23 | 에스케이 텔레콤주식회사 | 촬영영상으로부터 객체를 감시하기 위한 장치 및 방법 |
JP2014053667A (ja) * | 2012-09-05 | 2014-03-20 | Sony Corp | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
CN108337525B (zh) | 2012-09-28 | 2020-08-25 | 杜比国际公司 | 图像解码装置 |
US10824313B2 (en) * | 2013-04-04 | 2020-11-03 | P.J. Factory Co., Ltd. | Method and device for creating and editing object-inserted images |
US20140320387A1 (en) * | 2013-04-24 | 2014-10-30 | Research In Motion Limited | Device, System and Method for Generating Display Data |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
KR102044493B1 (ko) * | 2013-07-30 | 2019-11-13 | 삼성전자주식회사 | 타겟 장치의 위치를 결정하기 위한 방법 및 그 전자 장치 |
JP2015049372A (ja) * | 2013-09-02 | 2015-03-16 | 有限会社Bruce Interface | 外国語学習支援装置及び外国語学習支援プログラム |
CN105005145B (zh) * | 2015-08-03 | 2018-02-09 | 众景视界(北京)科技有限公司 | 智能眼镜及智能眼镜的外接设备 |
US9881191B2 (en) * | 2015-12-14 | 2018-01-30 | Leadot Innovation, Inc. | Method of controlling operation of cataloged smart devices |
CN106997236B (zh) * | 2016-01-25 | 2018-07-13 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
WO2018047458A1 (ja) * | 2016-09-07 | 2018-03-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN108266960B (zh) * | 2017-01-03 | 2020-09-22 | 三星电子株式会社 | 食物储存装置及其控制方法 |
US10887195B2 (en) | 2017-04-28 | 2021-01-05 | Optim Corporation | Computer system, remote control notification method and program |
CN110293554A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机器人的控制方法、装置和系统 |
JP7139762B2 (ja) * | 2018-07-31 | 2022-09-21 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
US11445107B2 (en) | 2019-08-08 | 2022-09-13 | Qorvo Us, Inc. | Supervised setup for control device with imager |
CN110706147B (zh) * | 2019-09-29 | 2023-08-11 | 阿波罗智联(北京)科技有限公司 | 图像处理的环境确定方法、装置、电子设备和存储介质 |
EP3842911B1 (en) * | 2019-12-26 | 2023-04-05 | Dassault Systèmes | A 3d interface with an improved object selection |
JP7321459B2 (ja) * | 2020-03-19 | 2023-08-07 | 日本電信電話株式会社 | 携帯端末、操作方法、及びプログラム |
CN114527899A (zh) * | 2020-10-30 | 2022-05-24 | 北京中地泓科环境科技有限公司 | 基于图件显示环境信息的方法 |
US11335091B1 (en) | 2020-12-22 | 2022-05-17 | Sony Group Corporation | Enabling a device with camera and display to control other devices (universal remote control app) |
US11879231B2 (en) | 2021-04-19 | 2024-01-23 | Deere & Company | System and method of selective automation of loading operation stages for self-propelled work vehicles |
US11965308B2 (en) | 2021-05-12 | 2024-04-23 | Deere & Company | System and method of truck loading assistance for work machines |
US11953337B2 (en) | 2021-05-12 | 2024-04-09 | Deere & Company | System and method for assisted positioning of transport vehicles for material discharge in a worksite |
US11966220B2 (en) | 2021-05-25 | 2024-04-23 | Deere & Company | Method and user interface for selectively assisted automation of loading operation stages for work vehicles |
US20230168786A1 (en) * | 2021-11-30 | 2023-06-01 | Verizon Patent And Licensing Inc. | Methods and Systems for Location-Based Accessing of Predesignated Data Payloads Using Extended Reality |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5887216A (en) * | 1997-03-19 | 1999-03-23 | Ricoh Company, Ltd. | Method and system to diagnos a business office device based on operating parameters set by a user |
US6968375B1 (en) * | 1997-03-28 | 2005-11-22 | Health Hero Network, Inc. | Networked system for interactive communication and remote monitoring of individuals |
JP2973311B1 (ja) | 1998-06-03 | 1999-11-08 | 日本電気株式会社 | リモコン装置 |
US6848104B1 (en) * | 1998-12-21 | 2005-01-25 | Koninklijke Philips Electronics N.V. | Clustering of task-associated objects for effecting tasks among a system and its environmental devices |
US8055752B1 (en) * | 1999-11-16 | 2011-11-08 | Ricoh Company, Ltd. | Application unit monitoring and reporting system and method with usage data logged into a map structure |
US7174512B2 (en) * | 2000-12-01 | 2007-02-06 | Thomson Licensing S.A. | Portal for a communications system |
JP3811025B2 (ja) * | 2001-07-03 | 2006-08-16 | 株式会社日立製作所 | ネットワーク・システム |
KR100441605B1 (ko) * | 2001-10-17 | 2004-07-23 | 삼성전자주식회사 | 원격제어장치, 원격제어가능한 전자기기, 전자기기의원격제어시스템 및 전자기기의 원격제어방법 |
US7177737B2 (en) * | 2002-12-17 | 2007-02-13 | Evolution Robotics, Inc. | Systems and methods for correction of drift via global localization with a visual landmark |
JP4281400B2 (ja) * | 2003-04-14 | 2009-06-17 | ソニー株式会社 | 通信装置、その表示方法、コンピュータプログラム、および通信方法 |
CN2626745Y (zh) * | 2003-05-21 | 2004-07-21 | 任宗勇 | 热驱动叶片旋转装饰物 |
JPWO2004106009A1 (ja) * | 2003-06-02 | 2006-07-20 | 松下電器産業株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
WO2005043484A1 (en) * | 2003-11-04 | 2005-05-12 | Koninklijke Philips Electronics N.V. | Universal remote control device with touch screen |
KR100703692B1 (ko) * | 2004-11-03 | 2007-04-05 | 삼성전자주식회사 | 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법 |
US7720436B2 (en) * | 2006-01-09 | 2010-05-18 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
CN101213506B (zh) * | 2005-06-30 | 2011-06-22 | 皇家飞利浦电子股份有限公司 | 控制方法、控制设备及包括控制设备的娱乐系统和照明系统 |
US7558950B2 (en) * | 2005-10-27 | 2009-07-07 | Sony Ericsson Mobile Communications Ab | Methods of configuring an electronic device to be operable with an electronic apparatus based on automatic identification thereof and related devices |
JP2007243726A (ja) * | 2006-03-09 | 2007-09-20 | Fujifilm Corp | 遠隔制御装置、方法およびシステム |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
JP2008067219A (ja) * | 2006-09-08 | 2008-03-21 | Sony Corp | 撮像装置、撮像方法 |
US8089455B1 (en) * | 2006-11-28 | 2012-01-03 | Wieder James W | Remote control with a single control button |
JP5380789B2 (ja) * | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP4569613B2 (ja) * | 2007-09-19 | 2010-10-27 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
JP5564946B2 (ja) * | 2007-09-20 | 2014-08-06 | 日本電気株式会社 | 映像提供システム、および映像提供方法 |
JP2009105574A (ja) * | 2007-10-22 | 2009-05-14 | Sony Corp | テレビジョン放送受信システム |
JPWO2009110204A1 (ja) * | 2008-03-05 | 2011-07-14 | パナソニック株式会社 | 機器選択制御装置 |
JP5292937B2 (ja) | 2008-06-18 | 2013-09-18 | 富士通モバイルコミュニケーションズ株式会社 | 情報処理装置 |
KR101657565B1 (ko) * | 2010-04-21 | 2016-09-19 | 엘지전자 주식회사 | 증강 원격제어장치 및 그 동작 방법 |
-
2010
- 2010-01-12 JP JP2010004170A patent/JP5617246B2/ja active Active
- 2010-12-23 EP EP10196760.2A patent/EP2343882B1/en active Active
-
2011
- 2011-01-03 US US12/983,424 patent/US8345925B2/en active Active
- 2011-01-04 KR KR20110000456A patent/KR20110083509A/ko not_active Application Discontinuation
- 2011-01-05 CN CN201110006622.1A patent/CN102129290B/zh active Active
-
2012
- 2012-11-07 US US13/670,750 patent/US8548199B2/en active Active
-
2013
- 2013-08-30 US US14/014,785 patent/US8744130B2/en active Active
-
2014
- 2014-02-26 US US14/190,321 patent/US9014431B2/en active Active
-
2015
- 2015-03-13 US US14/657,431 patent/US9288423B2/en active Active
-
2016
- 2016-02-24 US US15/052,335 patent/US9778735B2/en active Active
-
2017
- 2017-09-21 US US15/711,198 patent/US10386917B2/en active Active
-
2019
- 2019-07-24 US US16/521,015 patent/US10908676B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10386917B2 (en) | 2019-08-20 |
US9778735B2 (en) | 2017-10-03 |
US8345925B2 (en) | 2013-01-01 |
US20180018013A1 (en) | 2018-01-18 |
EP2343882A3 (en) | 2013-01-23 |
US20150189216A1 (en) | 2015-07-02 |
US8744130B2 (en) | 2014-06-03 |
US20160170479A1 (en) | 2016-06-16 |
US20130064429A1 (en) | 2013-03-14 |
EP2343882A2 (en) | 2011-07-13 |
US20140177917A1 (en) | 2014-06-26 |
US9288423B2 (en) | 2016-03-15 |
US20110170742A1 (en) | 2011-07-14 |
KR20110083509A (ko) | 2011-07-20 |
US8548199B2 (en) | 2013-10-01 |
US20140003667A1 (en) | 2014-01-02 |
JP2011146796A (ja) | 2011-07-28 |
US20190346914A1 (en) | 2019-11-14 |
CN102129290B (zh) | 2014-06-25 |
US10908676B2 (en) | 2021-02-02 |
CN102129290A (zh) | 2011-07-20 |
US9014431B2 (en) | 2015-04-21 |
EP2343882B1 (en) | 2018-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5617246B2 (ja) | 画像処理装置、物体選択方法及びプログラム | |
JP3926837B2 (ja) | 表示制御方法および装置、プログラム、並びに携帯機器 | |
US8860760B2 (en) | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene | |
JP5488011B2 (ja) | 通信制御装置、通信制御方法及びプログラム | |
JP2011203823A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN104471511A (zh) | 无触摸用户接口 | |
JP2011146796A5 (ja) | ||
JP2011159163A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2011203824A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5668587B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2017084335A (ja) | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 | |
WO2015093130A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2005063225A (ja) | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム | |
JP2016095557A (ja) | 表示制御装置、及び、表示制御方法 | |
CN115830280A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
JP6358996B2 (ja) | 警備シミュレーション装置 | |
JP6358998B2 (ja) | 警備シミュレーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140901 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5617246 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |