TW201428545A - 輸入裝置、機器、輸入方法及記錄媒體 - Google Patents

輸入裝置、機器、輸入方法及記錄媒體 Download PDF

Info

Publication number
TW201428545A
TW201428545A TW102129619A TW102129619A TW201428545A TW 201428545 A TW201428545 A TW 201428545A TW 102129619 A TW102129619 A TW 102129619A TW 102129619 A TW102129619 A TW 102129619A TW 201428545 A TW201428545 A TW 201428545A
Authority
TW
Taiwan
Prior art keywords
information
coordinate
image
motion
predetermined
Prior art date
Application number
TW102129619A
Other languages
English (en)
Other versions
TWI526877B (zh
Inventor
Takafumi Kurokawa
Original Assignee
Nec System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec System Technologies Ltd filed Critical Nec System Technologies Ltd
Publication of TW201428545A publication Critical patent/TW201428545A/zh
Application granted granted Critical
Publication of TWI526877B publication Critical patent/TWI526877B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

輸入裝置(1)之影像解析部(12),解析影像取得部(11)所取得的影像,萃取出用戶之身體部分之影像區域。座標萃取部(13),從身體部分之影像區域,萃取出身體部分之特徵點之座標,產生表示身體部分之移動之軌跡之身體動作資訊(200d)。身體動作判定部(15),以身體動作資訊(200d)當基準,在判定為既定的身體動作被執行之時,來測出既定的身體動作之軌跡形狀之中央之座標。開始座標測出部(16),以身體動作資訊(200d)當基準,測出既定的身體動作之開始座標。命令產生部(17),以中央之座標點及開始座標點之位置關係當基準,產生表示命令之命令資訊(100a),並將產生的命令資訊(100a),傳送至對象之機器(100)。

Description

輸入裝置、機器、輸入方法及記錄媒體
本發明,係有關於從用戶的動作,來操作機器,或產生讓機器之功能執行之資訊之輸入裝置、機器、輸入方法及記錄媒體。
有判別用戶之手勢,輸入對應至判別後之手勢之命令或資料之輸入技術。
例如,專利文獻1,公告了解析操作者之拍攝影像,將操作者手部動作所表示的資訊,輸入至機器之輸入裝置。此輸入裝置,能夠測出‧辨識手之圓軌道之移動。
又,專利文獻2,公告了實現以用戶之手部動作等當基準之輸入之裝置及方法。
[先行技術文件]
[專利文獻1]特開2007-172577號公報
[專利文獻2]特開2007-034525號公報
在專利文獻1、2所示的技術,將手部動作的軌跡之1個形狀,分配成1個命令。因此,隨著命令的個數變多, 身體動作之軌跡之形狀樣式之數目亦增多,造成為了輸入之動作變得複雜而且煩雜。又,一旦身體動作之軌跡之形狀樣式增多,形狀樣式之辨識率即降低。
本發明,係有鑑於上述情況的發明,其目的在於能夠以容易的動作,輸入較多的命令。
又,本發明,其另一個目的在於可以將相對較多數的命令,分配在相對上較少的軌跡形狀。
有關本發明之第一個觀點之輸入裝置,係根據用戶的動作,產生操作機器的資訊之輸入裝置,其特徵在於包括:取得影像之影像取得裝置;解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生裝置。
有關本發明之第二個觀點之機器,係包括執行功能之功能部,根據用戶的動作,產生使上述功能執行之資訊之機器,其特徵在於包括:取得影像之影像取得裝置;解析以上述 影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生裝置。
有關本發明之第三個觀點之輸入方法,包括:取得影像之影像取得步驟;解析以上述影像取得步驟取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析步驟;從上述影像解析步驟萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取步驟;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀的中央之座標之動作判定步驟;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出步驟;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生步驟。
有關本發明之第四個觀點之記錄媒體,其特徵在於記錄使電腦有取得影像之影像取得裝置;解析以上述影像取得 裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生裝置功能之程式。
本發明,係有關於使用影像,讓以用戶之動作,來操作機器成為可能之資訊輸入技術,並可以將一個用戶動作之軌跡形成的形狀,分配成複數的資訊。藉此,用戶,因為無須記憶每一個資訊之移動軌跡所形成的形狀,所以用戶能夠減輕記憶軌跡形成的形狀的勞力。
1‧‧‧輸入裝置
11‧‧‧影像取得部
12‧‧‧影像解析部
13‧‧‧座標萃取部
14‧‧‧記憶部
15‧‧‧身體動作判定部
16‧‧‧開始座標測出部
17‧‧‧命令產生部
30‧‧‧內部匯流排
31‧‧‧控制部
32‧‧‧主記憶部
33‧‧‧外部記憶部
34‧‧‧輸入部
35‧‧‧通信部
39‧‧‧控制程式
100‧‧‧機器
100a‧‧‧命令資訊
101‧‧‧功能部
200‧‧‧攝影機
200a‧‧‧影像資訊
200b‧‧‧影像資訊
200c‧‧‧手區域資訊
200d‧‧‧身體動作資訊
200d1‧‧‧特徵點座標資訊
200e‧‧‧重心座標資訊
200f‧‧‧開始座標資訊
200g‧‧‧命令對應表資訊
[第1圖]係表示有關本發明之實施例之輸入裝置之構造例之方塊圖。
[第2圖]係表示有關實施例之輸入裝置之動作之一個範例之流程圖。
[第3A圖]係表示有關實施例之圓形手勢之範例圖。
[第3B圖]係表示有關實施例之圓形手勢之範例圖。
[第3C圖]係表示有關實施例之圓形手勢之範例圖。
[第3D圖]係表示有關實施例之圓形手勢之範例圖。
[第4圖]係表示和在第1圖所示的輸入裝置及對像之機器之配置不同的配置圖。
[第5圖]係表示和在第1圖所示的輸入裝置及攝影機之配置不同的配置圖。
[第6圖]係表示有關實施例之命令對應表之一個範例圖。
[第7圖]係在第2圖中所示的流程圖之一部份之變形例。
[第8圖]係表示在第1圖中所示的輸入裝置之構造例之變形例之方塊圖。
[第9圖]係表示在第3A圖~第3D圖中所示的之圓形手勢之變形例之圖。
[第10圖]係表示有關實施例之輸入裝置之硬體構造之一個範例之方塊圖。
以下,關於本發明之實施例,作說明。
第1圖,係表示有關本發明之實施例之輸入裝置之構造例,同時表示攝影機及對象之機器之方塊圖。有關實施例之輸入裝置1,由影像取得部11、影像解析部12、座標萃取部13、記憶部14、身體動作判定部15、開始座標測出部16、命令產生部17來構成。輸入裝置1,產生表示操作對象之機器100之命令之命令資訊100a,例如,傳送至如電視之對象之機器100。然而,輸入裝置1,亦可如第4圖中所示,內建在機 器100。
影像取得部11,連接至攝影機200,接收攝影機200拍攝的影像A之影像資訊200a。以能夠辨識用戶被拍攝的方向,來固定攝影機200之面向。影像取得部11,將取得的影像資訊200a,遞送至影像解析部12。又,影像取得部11,使取得的影像資訊200a記憶在記憶部14。然而,如第5圖上所示地,輸入裝置1,亦可內建攝影機200。此時,影像取得部11,取得攝影機200拍攝的影像A之影像資訊200a。
影像解析部12,解析從影像取得部11接受的影像資訊200a,和記憶部14記憶之過去影像之影像資訊200b,並萃取出表示從影像資訊200b之取得時到影像資訊200a之取得時為止之移動的範圍之影像區域(以下,稱為移動區域)。影像解析部12,藉由樣式匹配(pattern matching)等,從移動區域測出手,而萃取出手之影像區域。影像解析部12,將表示萃取出的手之影像區域之手區域資訊200c,遞送至座標萃取部13。
又,移動區域之萃取方法,並不限定於此。例如,將攝影機固定著,如果用戶以外的主題不動,則事先記憶不拍攝用戶的影像(不動之影像),藉由和這作比較,亦可萃取出移動區域。或者,亦可將取得之影像,以時間序列作比較,萃取出前後不一致的座標,作為移動區域。又,影像解析部12,亦可藉由樣式匹配等,從影像測出手,直接地萃取出手之影像區域。
座標萃取部13,從表示由影像解析部12接受的手區域資訊200c之手之影像區域,萃取出特徵點之座標。在本 實施例,特徵點之座標,係表示手之重心之座標。座標萃取部13,從表示萃取出之手之重心之座標,算出手之移動量與方向,產生表示手部動作之身體動作資訊200d。座標萃取部13,將產生的身體動作資訊200d,記憶在記憶部14。
然而,特徵點之座標,並不局限於表示手之重心之座標,例如亦可是1根手指前端指出的之座標,或縱向長之中心線和橫向長之中心線之交叉點等,在手之影像區域中含有之其他的特定之座標。
記憶部14,依序地記憶從影像取得部11,以既定之時間間隔,例如10秒,接受的影像資訊200a。又,記憶部14,記憶從座標萃取部13接受的身體動作資訊200d。
身體動作判定部15,根據記憶部14記憶之身體動作資訊200d表示的手部動作,來判定是否圓形手勢被執行。所謂的圓形手勢,係以手描繪概略之圓之身體動作。是否為圓形手勢,例如判定身體動作資訊200d表示的手部動作,是否符合事先記憶之圓軌道樣式。
然而,身體動作判定部15判定的身體動作,並不局限於圓形手勢,如果可以測出中央之座標之軌跡形狀之身體動作,則例如亦可以是圓弧之軌跡形狀之身體動作。特別地,如果是圓或三角或四角等之封閉軌跡之其他軌跡,如不封閉但身體動作之起點和終點接近的軌跡形狀所形成之身體動作,則用戶容易辨識開始座標和中央之座標之位置關係。所謂的中央之座標,例如係重心、內心‧外心、中點、縱向長之中心線和橫向長之中心線之交叉點等,位於身體動作之軌跡形狀之大致 中央的位置。
在判定為圓形手勢被執行之時,身體動作判定部15,根據身體動作資訊200d表示的手的移動量與方向,測出圓形手勢之軌跡形狀之中央之座標。在本實施例,中央之座標,係表示圓形之重心之座標。身體動作判定部15,將測出之表示圓形之重心之座標之重心座標資訊200e,遞送至開始座標測出部16。
開始座標測出部16,一旦從身體動作判定部15,接受重心座標資訊200e,即根據記憶部14記憶的身體動作資訊200d所表示的手部動作,測出圓形手勢之開始座標。開始座標測出部16,將測出的表示圓形動作之開始座標資訊200f,和重心座標資訊200e,遞送至命令產生部17。
假使開始座標測出部16,使表示測出的圓形手勢之開始座標之開始座標資訊200f,記憶至記憶部14,則在無法測出圓形手勢之開始座標時,亦可利用上次測出的表示圓形手勢之開始座標200f。
記憶部14,事先記憶表示對應開始座標與重心座標之位置關係,和表示操作對象之機器100之命令之命令資訊之命令對應表之命令對應表資訊200g。
命令產生部17,比對從開始座標測出部16接受的開始座標資訊200f所表示之開始座標與重心座標資訊200e所表示之重心座標之位置關係,和記憶部14記憶的命令對應表資訊200g所表示的命令對應表,來特定被輸入的命令。命令產生部17,產生表示特定的命令之命令資訊100a,傳送至對 象之機器100。在機器100內建輸入裝置1之時,命令產生部17,遞送命令資訊100a至執行機器100之功能之功能部101。
影像解析部12等,在不利用表示記憶部14所記憶之過去之影像之影像資訊200b或身體動作資訊200d時,命令產生部17,一旦將命令資訊100a傳送至對象之機器100,即刪除表示記憶部14所記憶的影像之影像資訊200a或身體動作資訊200d。
身體動作判定部15判定的身體動作,在為封閉軌跡形狀之身體動作時,身體動作判定部15,亦可又根據身體動作資訊200d表示的動作,測出身體動作之軌跡之方向。此時,在命令對應表,對應開始座標與重心座標之位置關係、身體動作之軌跡之方向、及操作對象之機器100之命令。命令產生部17,比對從開始座標測出部16接受的開始座標資訊200f所表示的開始座標與重心座標資訊200e所表示之重心座標、身體動作之軌跡之方向、及記憶部14記憶之命令對應表資訊200g所表示的命令對應表,來特定被輸入之命令。因此,因對應命令之要素加上身體動作之軌跡之方向之組合之個數增加,所以可以分配更多的命令給一個身體動作之軌跡形狀。
第2圖,係表示有關實施例之輸入裝置之動作之一個範例之流程圖。第2圖之處理,從輸入裝置1之電源成為ON時開始。
影像取得部11,在取得攝影機200之拍攝影像之時(步驟S11:YES),影像解析部12,比較表示從影像取得部11接受的影像之影像資訊200a,和表示記憶部14記憶之過去影 像之影像資訊200b,來萃取出動作區域(步驟S12)。在沒取得攝影機200之拍攝影像之時(步驟S11:NO),重複S11。
例如,攝影機200包括測知人之移動之人體感知器,一旦這感知器測知人之移動,攝影機200即啟動,開始攝影,而影像取得部11取得攝影機之拍攝影像。或者,用戶一旦使攝影機200啟動,攝影機200即開始攝影,影像取得部11取得攝影機200之拍攝影像。又,影像取得部11,亦可在輸入裝置1之電源成為ON時之期間,一直取得影像。
影像解析部12,從移動區域測出手,而萃取出手之影像區域(步驟S13)。影像解析部12,將表示萃取出之手之影像區域之手區域資訊200c,遞送至座標萃取部13。座標萃取部13,從由影像解析部12接受的手區域資訊200c表示的手之影像區域,萃取出表示手之重心之座標(步驟S14)。
座標萃取部13,從表示萃取出的手之重心之座標,算出手之移動量與方向,產生表示這些算出值之身體動作資訊200d(步驟S15)。座標萃取部13,使記憶部14記憶產生的身體動作資訊200d。
身體動作判定部15,從記憶部14記憶之身體動作資訊200d表示的手之移動量與方向,來判定手部動作是否為圓形手勢(步驟S16)。在不為圓形手勢之時(步驟S16:NO),返回至步驟S11,而重複步驟S11~步驟S16。
在有圓形手勢之時(步驟S16:YES),身體動作判定部15,又根據記憶部14記憶的身體動作資訊200d表示的手之移動量與方向,來測出圓形手勢之圓形重心之座標(步驟 S17)。身體動作判定部15,將表示萃取出之重心座標之重心座標資訊200e,遞送至開始座標測出部16。
開始座標測出部16,一旦從身體動作判定部15接受重心座標資訊200e,即根據記憶部14記憶的身體動作資訊200d表示的手部動作,來測出圓形手勢之開始座標(步驟S18)。
在測出圓形手勢之開始座標之時(步驟S18:YES),開始座標測出部16,將表示這次測出的圓形手勢之開始座標之開始座標資訊200f,和重心座標資訊200e,遞送至命令產生部17。開始座標測出部16,使記憶部14記憶測出的圓形手勢之開始座標。命令產生部17,以開始座標資訊200f與重心座標資訊200e當基準,比較這次測出的圓形手勢之開始座標之位置和圓形之重心座標之位置,來判定開始座標與重心座標之位置關係(步驟S19)。
在無法測出圓形手勢之開始座標之時(步驟S18:NO),開始座標測出部16,將表示上次測出的圓形手勢之開始座標之開始座標資訊200f,和重心座標資訊200e,遞送至命令產生部17。命令產生部17,以開始座標資訊200f與重心座標資訊200e當基準,比較上次測出的圓形手勢之開始座標之位置和圓形之重心座標之位置,來判定開始座標點與重心座標點之位置關係(步驟S20)。
命令產生部17,比對圓形手勢之開始座標與圓形之重心座標之位置關係,和記憶部14記憶的命令對應表資訊200g表示的命令對應表,來特定哪一個命令被輸入(步驟S21)。命令產生部17,產生表示特定的命令之命令資訊,傳送 至對象之機器100(步驟S22)。
如果輸入裝置1之電源不為OFF(步驟S23:NO),返回步驟S11,重複步驟S11~步驟S22。輸入裝置1之電源一旦成為OFF(步驟S23:YES),則結束處理。
然而,在無法測出圓形手勢之開始座標之時(步驟S18:NO),亦可遷移至步驟S23。此時,開始座標測出部16,亦可不使記憶部14記憶測出的圓形手勢之開始座標。
第3A圖~第3D圖,係表示有關實施例之圓形手勢之範例圖。輸入裝置1,雖然描繪同一圓形之身體動作之軌跡形狀,但根據圓形之重心座標G和圓形手勢CG之開始座標S之位置關係,來辨識當作不同的身體動作。在第3A圖~第3D圖之例子,表示開始座標S在重心座標G下面的圓形手勢CG、開始座標S在重心座標G左邊的圓形手勢CG、開始座標S在重心座標G上面的圓形手勢CG、開始座標S在重心座標G右邊的圓形手勢CG。
第6圖,係表示有關實施例之命令對應表之一個範例圖。在第6圖,表示對象之機器100為電視的情況之範例。在第3A圖~第3D圖之4個圓形手勢CG,各自對應所謂的「音量變大」、「頻道往前」、「音量變小」、「頻道返回」之操作電視之命令。
例如,在用戶往前選下一頻道時,如第3B圖所示地,可執行開始座標S在重心座標G左邊的圓形手勢CG。關於此操作,參照第2圖之流程圖,作說明。
用戶,一旦執行開始座標S在重心座標G左邊的 圓形手勢CG,影像取得部11,以一定時間,例如10秒期間,取得攝影機200之攝影影像,記憶在記憶部14(步驟S11:YES)。影像解析部12,比對從表示影像取得部11接受的影像之影像資訊200a,和在這影像之前接受的影像,亦即,記憶部14已經記憶之表示過去之影像之影像資訊200b,萃取出移動區域(步驟S12)。影像解析部12,從移動區域測出手,萃取出表示手之影像區域之手區域資訊200c(步驟S13)。
座標萃取部13,從影像解析部12萃取出的手區域資訊200c表示的手之影像區域,來萃取出表示手的重心之座標(步驟S14),產生表示手部動作之身體動作資訊200d(步驟S15)。身體動作判定部15,從身體動作資訊200d,將手部動作判定為圓形手勢(步驟S16:YES),測出圓形手勢CG之圓形之重心座標G(步驟S17)。
開始座標測出部16,以身體動作資訊200d當基準,測出圓形手勢CG之開始座標S(步驟S18:YES)。命令產生部17,比較這次測出的圓形手勢CG之開始座標S和圓形之重心座標G之位置(步驟S19),比對所謂的「開始座標S在重心座標G左邊」之位置關係,和第6圖所示的命令對應表,來特定所謂的「頻道往前」的命令(步驟S21)。命令產生部17,產生表示所謂的「頻道往前」之命令之命令資訊100a,傳送至電視(步驟S22)。
電視100,一旦接收表示所謂的「頻道往前」之命令之命令資訊100a,即執行所謂的「頻道往前」之命令。如此地,用戶,能夠以遠端操作將電視100之頻道推進至下一頻道。
本實施例之輸入裝置1,係有關於使用攝影機影像,以用戶之身體動作,使機器100之遠端操作,成為可能之命令輸入技術,其能夠根據表示身體動作之軌跡形狀之中央位置之座標點,和表示身體動作之開始位置之位置關係,將1個身體動作辨識成不同的身體動作。因此,藉由使位置關係變化,能夠分配複數的命令給1個身體動作之軌跡形狀。
在實施例,辨識手部動作之身體動作,當作不直接操作機器100之操作部之用戶之身體動作,但是本發明,並不限定於此。例如,亦可辨識用戶之頭或臉等,搖頭、點頭,轉頭等之身體動作,亦可辨識使用腳之身體動作。或亦可辨識使用全身之身體動作。
(變形例)
上述實施例之輸入裝置1,使用開始座標測出部16測出的表示身體動作之開始位置之座標,作為開始座標,但是,也能夠使用表示座標萃取部13萃取出的手之重心之座標,作為開始座標。此時,代替執行第2圖所示的步驟S18~步驟S20,開始座標測出部16,如第7圖中之步驟S18a所示地,從記憶部14記憶的身體動作資訊,測出座標萃取部13萃取出之特徵點之座標,作為圓形手勢之開始座標。
又,代替測出特徵點之座標,開始座標測出部16,如第8圖所示地,亦可從座標萃取部13,接受表示特徵點之座標之資訊200d1。
又,在上述實施例,圓形手勢CG之軌跡形狀,為圓形,但是如第9圖所示地,亦可為橢圓形。此時,將手之食 指之指尖作為開始座標S,一旦手之移動方向為橢圓形之長軸方向,則容易描繪成橢圓形。又,因為用戶能夠直覺地理解圖中之虛線箭頭之方向,所以能夠容易地特定根據開始座標S之點和重心座標G之點之位置關係之命令。
又,在上述實施例,將用戶之身體部分,亦即,手部動作,作為用戶所移動之移動體之範例來說明,但是亦可代替手,而為用戶操作的物體,例如筆,或筆型燈等。又,記載了為軌跡之起點之開始座標S之點,作為特定之座標之點,但是除了軌跡之起點外,亦可為從軌跡之起點到終點之任意的中點。又,記載了命令資訊100a,作為操作機器100之資訊之範例,但是例如在機器100包括顯示功能時,亦可代替命令資訊100a,而為顯示資訊,例如文字資訊、數值資訊、影像資訊。
第10圖,係表示有關實施例之輸入裝置之硬體構造之一個範例之方塊圖。
控制部31,由CPU(Central Processor Unit)等所構成,遵從記憶在外部記憶部33之控制程式39,執行影像解析部12、座標萃取部13、身體動作判定部15、開始座標測出部16、及命令產生部17之各個處理。
主記憶部32,由RAM(Random-Access Memory)等所構成,載入記憶在外部記憶部33之控制程式39,使用作為控制部31之工作區域。
外部記憶部33,由快閃記憶體(Flash memory)、硬碟、DVD-RAM(Digital Versatile Disc Random-Access Memory)、DVD-RW(Digital Versatile Disc ReWritable)等之非 揮發性記憶體所構成,事先記憶為了使控制部31執行輸入裝置1之處理之程式,又遵從控制部31之指示,供給此程式記憶的資料至控制部31,記憶由控制部31所供給之資料。記憶部14,在外部記憶部33被構成。
輸入部34,由串列介面(Serial interface)或並列介面(parallel interface)所構成。在輸入裝置1和攝影機200連接之時,輸入部34和攝影機200連接,作為影像取得部11之功能。然而,在輸入裝置1內建攝影機200時,包括攝影機200,來代替輸入部34。
通信部35,由連接至網路(Network)之網路終端裝置或無線通信裝置、與和這些連接之串列介面或LAN(Local Area Network)介面等所構成,作為命令產生部17之功能。
第1圖所示的影像取得部11、影像解析部12、座標萃取部13、身體動作判定部15、開始座標測出部16、及命令產生部17之處理,藉由控制程式39,將控制部31、主記憶部32、外部記憶部33、輸入部34、及通信部35當作資源使用處理,來執行其功能。
除此之外,上述硬體構造或流程,係一個範例,可以任意的變更與修正。
執行由控制部31、主記憶部32、外部記憶部33、內部匯流排30等所構成的控制處理的中心之部分,不需藉由專用系統,亦可以使用一般的電腦系統來實現。例如亦可將為了執行上述動作之電腦程式,分配儲存在電腦可以讀取的記錄媒體(軟碟,CD-ROM、DVD-ROM等),藉由在電腦安裝上述電 腦程式,來構成執行上述之處理之輸入裝置1。又,亦可是將電腦程式,先儲存在具有網際網路等通信網路上之伺服器裝置之記憶裝置,藉由一般的電腦系統來下載等,而構成輸入裝置1。
又,亦可在輸入裝置1之功能,藉著OS和應用程式的分擔,或OS和應用程式之合作來實現等之情況,只將應用程式的部分儲存在記錄媒體或記憶裝置。
又,亦可以將電腦程式重疊在載波,透過通信網路來傳遞。例如,將上述電腦程式,揭示在通信網路上之佈告欄(BBS:Bulletin Board System),透過網路,傳遞上述電腦程式。如此地,亦可以是能夠藉由啟動此電腦程式,在OS的控制下,和其他的應用程式同樣地執行,來執行上述之處理之構造。
上述的實施例的一部分或全部,夠在以下的附記記載,但並不局限於以下所記載的。
(附記1)
一種輸入裝置,係根據用戶的動作,產生操作機器的資訊之輸入裝置,其特徵在於包括:取得影像之影像取得裝置;解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行, 在判定為上述既定之動作被執行時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生裝置。
(附記2)
如附記1所述的輸入裝置,其特徵在於包括記憶對應上述中央之座標點和上述特定之座標點之位置關係,和操作上述機器之資訊之資訊對應表之記憶裝置;上述資訊產生裝置,比對上述動作判定裝置測出的上述中央之座標與上述座標測出裝置測出的上述特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
(附記3)
如附記2所述的輸入裝置,其特徵在於上述座標測出裝置,在沒測出上述既定之動作之特定之座標時,上述資訊產生裝置,比對上述動作判定裝置測出的形成上述既定之移動軌跡之形狀之中央之座標與上述座標測出裝置在上次所測出的上述既定之動作之特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
(附記4)
如附記2及3所述的輸入裝置,其特徵在於上述既定之動作,係描繪封閉軌跡之動作;上述資訊對應表,對應上述中央之座標點和上述特定之座 標點之位置關係、上述既定之動作之軌跡之方向、及操作上述機器之上述資訊;上述動作判定裝置,在判定為上述既定之動作被執行之時,進一步測出上述既定之移動軌跡之方向;上述資訊產生裝置,比對上述中央之座標與上述特定之座標、上述既定之移動軌跡之方向、和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
(附記5)
如附記1至3任一附記所述的輸入裝置,其特徵在於上述中央之座標,係以上述軌跡圍繞的圓形之重心之座標。
(附記6)
如附記1至3任一附記所述的輸入裝置,其特徵在於上述移動體,係上述用戶之身體部分或上述用戶操作的物體。
(附記7)
如附記1至3任一附記所述的輸入裝置,其特徵在於上述特定之座標點,係上述軌跡之起點、上述軌跡之中點、或上述軌跡之終點。
(附記8)
如附記1至3任一附記所述的輸入裝置,其特徵在於上述資訊,係操作上述機器之命令資訊。
(附記9)
一種機器,係包括執行功能之功能部,根據用戶的動作,產生使上述功能執行之資訊之機器,其特徵在於包括:取得影像之影像取得裝置; 解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生使上述功能執行之資訊之資訊產生裝置。
(附記10)
如附記9所述的機器,其特徵在於包括記憶對應上述中央之座標點與上述特定之座標點之位置關係,和使上述功能執行之資訊之資訊對應表之記憶裝置;上述資訊產生裝置,比對上述中央之座標與上述特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
(附記11)
一種輸入方法,係其特徵在於包括:取得影像之影像取得步驟;解析以上述影像取得步驟取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析步驟; 從上述影像解析步驟萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取步驟;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀的中央之座標之動作判定步驟;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出步驟;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作機器之資訊之資訊產生步驟。
(附記12)
如附記11所述的輸入方法,其特徵在於包括記憶對應上述中央之座標點與上述特定之座標點之位置關係,和操作上述機器之資訊之資訊對應表之記憶步驟;上述資訊產生步驟,比對上述中央之座標與上述特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
(附記13)
一種電腦可以讀取之記錄媒體,其特徵在於記錄使電腦實現以下裝置之功能之程式,這些裝置包括:取得影像之影像取得裝置;解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域之影像解析裝置;從上述影像解析裝置萃取出的上述移動體之影像區域,萃 取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊之座標萃取裝置;以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標之動作判定裝置;以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標之座標測出裝置;以及以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊之資訊產生裝置。
(附記14)
如附記13所述的電腦可以讀取之記錄媒體,其特徵在於記錄了使電腦具有記憶對應上述中央之座標點與上述特定之座標點之位置關係,和操作上述機器之資訊之資訊對應表之記憶裝置之功能之程式;上述資訊產生裝置,比對上述中央之座標與上述特定之座標,和上述資訊對應表,特定對應的上述資訊,並產生特定的上述資訊。
然而,上述實施例,係本發明之具體的實施狀態,但並不限定本發明之技術範圍。本發明,在專利申請範圍所述的技術的思想範圍,能夠自如地變形、應用、或改良來實施。
本發明,以在2012年8月17日所申請的日本國專利申請2012-180912號為基準。本說明書中,係參照日本國專利申請2012-180912號之說明書、申請專利範圍、全體圖面,而整合的說明書。
1‧‧‧輸入裝置
11‧‧‧影像取得部
12‧‧‧影像解析部
13‧‧‧座標萃取部
14‧‧‧記憶部
15‧‧‧身體動作判定部
16‧‧‧開始座標測出部
17‧‧‧命令產生部
100‧‧‧對象之機器(電視)
200‧‧‧攝影機
200a‧‧‧影像資訊
200b‧‧‧影像資訊
200c‧‧‧手區域資訊
200d‧‧‧身體動作資訊
200e‧‧‧重心座標資訊
200f‧‧‧開始座標資訊
200g‧‧‧命令對應表資訊

Claims (11)

  1. 一種輸入裝置,根據用戶的動作,產生操作機器的資訊,其特徵在於包括:影像取得裝置,取得影像;影像解析裝置,解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域;座標萃取裝置,從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊;動作判定裝置,以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行時,測出形成上述既定之移動軌跡之形狀之中央之座標;座標測出裝置,以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標;以及資訊產生裝置,以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作上述機器之資訊。
  2. 如申請專利範圍第1項所述的輸入裝置,包括記憶對應上述中央之座標點和上述特定之座標點之位置關係,和操作上述機器之資訊之資訊對應表之記憶裝置;其中,上述資訊產生裝置,比對上述動作判定裝置測出的上述中央之座標與上述座標測出裝置測出的上述特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
  3. 如申請專利範圍第2項所述的輸入裝置,其中,上述座標 測出裝置,在沒測出上述既定之動作之特定之座標時,上述資訊產生裝置,比對上述動作判定裝置測出的形成上述既定之移動軌跡之形狀之中央之座標與上述座標測出裝置在上次所測出的上述既定之動作之特定之座標,和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
  4. 如申請專利範圍第2或3項所述的輸入裝置,其中,上述既定之動作,係描繪封閉軌跡之動作;上述資訊對應表,對應上述中央之座標點和上述特定之座標點之位置關係、上述既定之移動軌跡之方向、及操作上述機器之上述資訊;上述動作判定裝置,在判定為上述既定之動作被執行之時,進一步測出上述既定之移動軌跡之方向;上述資訊產生裝置,比對上述中央之座標與上述特定之座標、上述既定之移動軌跡之方向、和上述資訊對應表,來特定對應的上述資訊,並產生特定的上述資訊。
  5. 如申請專利範圍第1至3項中任一項所述的輸入裝置,其中,上述中央之座標,係以上述軌跡圍繞的圓形之重心之座標。
  6. 如申請專利範圍第1至3項中任一項所述的輸入裝置,其中,上述移動體,係上述用戶之身體部分或上述用戶操作的物體。
  7. 如申請專利範圍第1至3項中任一項所述的輸入裝置,其中,上述特定之座標點,係上述軌跡之起點、上述軌跡之 中點、或上述軌跡之終點。
  8. 如申請專利範圍第1至3項中任一項所述的輸入裝置,其中,上述資訊,係操作上述機器之命令資訊。
  9. 一種機器,包括執行功能之功能部,根據用戶的動作,產生使上述功能執行之資訊,其特徵在於包括:影像取得裝置,取得影像;影像解析裝置,解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域;座標萃取裝置,從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊;動作判定裝置,以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標;座標測出裝置,以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標;以及資訊產生裝置,以上述中央之座標點和上述特定之座標點之位置關係當基準,產生使上述功能執行之資訊。
  10. 一種輸入方法,其特徵在於包括:影像取得步驟,取得影像;影像解析步驟,解析以上述影像取得步驟取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域;座標萃取步驟,從上述影像解析步驟萃取出的上述移動體 之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊;動作判定步驟,以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀的中央之座標;座標測出步驟,以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標;以及資訊產生步驟,以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作機器之資訊。
  11. 一種電腦可以讀取之記錄媒體,其特徵在於記錄使電腦實現以下裝置之功能之程式,這些裝置包括:影像取得裝置,取得影像;影像解析裝置,解析以上述影像取得裝置取得的上述影像,並萃取出上述用戶所移動之移動體之影像區域;座標萃取裝置,從上述影像解析裝置萃取出的上述移動體之影像區域,萃取出上述移動體之事先決定之點之座標,產生表示上述移動體之移動軌跡之動作資訊;動作判定裝置,以上述動作資訊當基準,來判定是否既定之動作被執行,在判定為上述既定之動作被執行之時,測出形成上述既定之移動軌跡之形狀之中央之座標;座標測出裝置,以上述動作資訊當基準,測出上述既定之移動軌跡上之特定之座標;以及資訊產生裝置,以上述中央之座標點和上述特定之座標點之位置關係當基準,產生操作機器之資訊。
TW102129619A 2012-08-17 2013-08-19 Input device, machine, input method and recording medium TWI526877B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180912A JP5550124B2 (ja) 2012-08-17 2012-08-17 入力装置、機器、入力方法およびプログラム

Publications (2)

Publication Number Publication Date
TW201428545A true TW201428545A (zh) 2014-07-16
TWI526877B TWI526877B (zh) 2016-03-21

Family

ID=50286605

Family Applications (2)

Application Number Title Priority Date Filing Date
TW102129619A TWI526877B (zh) 2012-08-17 2013-08-19 Input device, machine, input method and recording medium
TW105100351A TWI574177B (zh) 2012-08-17 2013-08-19 Input device, machine, input method and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
TW105100351A TWI574177B (zh) 2012-08-17 2013-08-19 Input device, machine, input method and recording medium

Country Status (10)

Country Link
US (1) US9965041B2 (zh)
EP (1) EP2887317A4 (zh)
JP (1) JP5550124B2 (zh)
KR (1) KR20150034257A (zh)
CN (1) CN104584078A (zh)
CA (1) CA2882005A1 (zh)
HK (1) HK1207462A1 (zh)
IL (1) IL237223A0 (zh)
TW (2) TWI526877B (zh)
WO (1) WO2014027659A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
US10389969B2 (en) * 2014-02-14 2019-08-20 Nec Corporation Video processing system
JP6524619B2 (ja) * 2014-08-18 2019-06-05 株式会社リコー 軌跡描画装置、軌跡描画方法、軌跡描画システム、及びプログラム
JP2018085575A (ja) * 2016-11-21 2018-05-31 カシオ計算機株式会社 画像処理装置、解析システム、画像処理方法及びプログラム
US10341648B1 (en) * 2017-09-20 2019-07-02 Amazon Technologies, Inc. Automated detection of problem indicators in video of display output
JP2019168394A (ja) * 2018-03-26 2019-10-03 株式会社エクォス・リサーチ 身体向推定装置および身体向推定プログラム
CN108509107A (zh) * 2018-03-26 2018-09-07 百度在线网络技术(北京)有限公司 应用功能信息显示方法、装置及终端设备
KR102491207B1 (ko) * 2018-03-29 2023-01-25 주식회사 네틱스 멀티 터치 인식 장치 및 방법
JP7471999B2 (ja) 2020-11-09 2024-04-22 株式会社Nttドコモ 情報処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3585357B2 (ja) * 1997-11-19 2004-11-04 シャープ株式会社 情報処理装置及び方法並びに情報処理プログラムを記録した記録媒体
JP2007034525A (ja) 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007172577A (ja) 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
CA2591808A1 (en) 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
JP5217505B2 (ja) * 2008-02-29 2013-06-19 富士通株式会社 画像表示処理装置、画像表示処理方法および画像表示処理プログラム
EP2352078B1 (en) * 2008-10-01 2022-09-07 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, information recording medium, and program
JP5464416B2 (ja) * 2008-10-31 2014-04-09 ソニー株式会社 入力装置および方法、並びにプログラム
JP4702475B2 (ja) * 2008-12-25 2011-06-15 ソニー株式会社 入力装置、ハンドヘルド装置及び制御方法
US8823749B2 (en) * 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
JP5617246B2 (ja) 2010-01-12 2014-11-05 ソニー株式会社 画像処理装置、物体選択方法及びプログラム
US8422034B2 (en) * 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
KR20120068253A (ko) * 2010-12-17 2012-06-27 삼성전자주식회사 사용자 인터페이스의 반응 제공 방법 및 장치

Also Published As

Publication number Publication date
JP2014038513A (ja) 2014-02-27
US9965041B2 (en) 2018-05-08
IL237223A0 (en) 2015-04-30
CN104584078A (zh) 2015-04-29
KR20150034257A (ko) 2015-04-02
TWI526877B (zh) 2016-03-21
TW201614430A (en) 2016-04-16
CA2882005A1 (en) 2014-02-20
WO2014027659A1 (ja) 2014-02-20
EP2887317A4 (en) 2016-11-09
US20150193001A1 (en) 2015-07-09
HK1207462A1 (zh) 2016-01-29
JP5550124B2 (ja) 2014-07-16
EP2887317A1 (en) 2015-06-24
TWI574177B (zh) 2017-03-11

Similar Documents

Publication Publication Date Title
TWI574177B (zh) Input device, machine, input method and recording medium
JP6201379B2 (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
KR101082829B1 (ko) 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
JP6146094B2 (ja) 情報操作表示システム、表示プログラム、および、表示方法
US9836130B2 (en) Operation input device, operation input method, and program
KR101360149B1 (ko) 센서리스 기반 손가락 모션 트래킹 방법 및 그 장치
JP2010067062A (ja) 入力システム及び入力方法
JP6141108B2 (ja) 情報処理装置およびその方法
CN105242888A (zh) 一种系统控制方法及电子设备
JP6325659B2 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
KR101404018B1 (ko) 손동작 인식 장치 및 그 방법
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
WO2018006481A1 (zh) 一种移动终端的体感操作方法及装置
JP6229554B2 (ja) 検出装置および検出方法
JP2013225013A5 (zh)
JP5756762B2 (ja) ジェスチャ認識装置及びそのプログラム
JP2016525235A (ja) 文字入力のための方法及びデバイス
US9405375B2 (en) Translation and scale invariant features for gesture recognition
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP2012113653A (ja) 制御装置、入力装置、入力判定方法、プログラム
CN112445325A (zh) 虚拟触控方法、装置、计算机设备和存储介质
CN117453108A (zh) 一种屏幕交互方法、装置、系统及可读存储介质
AU2021463303A1 (en) Electronic apparatus and program

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees