TWI636395B - 基於深度值之手勢操作方法及其系統 - Google Patents
基於深度值之手勢操作方法及其系統 Download PDFInfo
- Publication number
- TWI636395B TWI636395B TW105136594A TW105136594A TWI636395B TW I636395 B TWI636395 B TW I636395B TW 105136594 A TW105136594 A TW 105136594A TW 105136594 A TW105136594 A TW 105136594A TW I636395 B TWI636395 B TW I636395B
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- stereo image
- photography
- unit
- gesture
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
- G06V10/85—Markov-related models; Markov random fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
- G06V2201/121—Acquisition of 3D measurements of objects using special illumination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
本發明係一種基於深度值之手勢操作方法及其系統,係以立體影像攝影模組取得第一立體影像以演算法判斷第一立體影像是否包含觸發手勢,再以立體影像攝影模組取得第二立體影像,以演算法判斷第二立體影像是否包含指令手勢,並執行對應指令手勢之操作。
Description
本發明係有關於一種手勢操作方法,特別係有關於識別於移動載具所取得之立體影像之深度值中之操作手勢以進行操作之基於深度值之手勢操作方法。
汽車為現在家庭中最常使用的移動載具,汽車廠商每年都會推出不同的新車型,消費者也會逐步的汰換自家使用較久汽車,在換新車後,消費者更會添購諸如衛星導航系統、胎壓監測系統、車內影音設備或是行車監視器、抬頭顯示器等裝設於移動載具之電子系統,因此消費市場龐大,各製作、研發裝設於移動載具之電子設備之廠商亦不斷的開發各種運用於移動載具之電子設備,每年都創造出龐大的利潤。
因此,近年來的移動載具中通常會裝設有一個以上之電子設置,使用者可以依目前的使用需求自行開關所裝設之電子設備,例如:在駕駛移動載具前往熟識的目的地時,駕駛者可以關閉衛星導航;當要前往不熟悉路途的地方時,駕駛者可以開啟衛星導航並且撥放音樂。然而,當移動載具上的電子設備越多時,駕駛者一次所要操作的電子設備也就越多,再加上移動載具上原本就需要駕駛者操作的雨刷、車燈、車窗等基本電子裝置,時常會造成駕駛者手忙腳亂的情況進而影響行車安全。
為了解決這樣的情況,有部分業者進一步的整合移動載具上之設備,駕駛人員可以藉由車內的觸控螢幕操作整合到此系統上之設備,如此一來,駕駛人員即可透過單一螢幕操作移動載具上大部分的設備,然而,這樣的整合系統之螢幕通常裝設於駕駛人員旁邊,但是如此一來,駕駛人員若要操作設備時,勢必還是要暫時移開視線,故,以此方法依然可能造成行車安全上的疑慮。
本發明之主要目的,係提供一種基於深度值之手勢操作方法,藉由取得立體影像後,以演算法識別立體影像中是否包含有指令手勢,並依據指令手勢執行對應之操作。
為達上述之指稱之各目的與功效,本發明之一實施例係揭示一種基於深度值之手勢操作方法,其用於移動載具,其步驟包含:取得第一立體影像,以第一演算法識別第一立體影像之複數個深度值中包含觸發手勢,取得第二立體影像,以第二演算法識別第二立體影像之複數個深度值中包含指令手勢,處理單元執行對應於指令手勢之操作。
於本發明之一實施例中,其中以分群演算法識別該觸發手勢於該移動載具之位置,處理單元依據觸發手勢於移動載具之位置判斷是否有執行指令手勢對應之操作之權限,若有則,處理單元執行對應於指令手勢之操作。
於本發明之一實施例中,其中第一攝影單元取得第一影像,第二攝影單元取得第二影像,處理單元依據第一影像、第二影像及夾角取得第一立體影像。
於本發明之一實施例中,其中第一攝影單元取得第三影像,第二攝影單元取得第四影像,處理單元依據第三影像、第四影像及夾角取得第二立體影像。
於本發明之一實施例中,其中結構光投影模組連續投影複數個光平面,結構光攝像單元接收複數個光圖像訊息,依據光圖像訊息計算取得第一立體影像或第二立體影像。
於本發明之一實施例中,其中第一攝影單元取得第一影像,第二攝影單元取得第二影像,處理單元依據第一影像、第二影像及夾角取得第一立體影像,處理單元判斷第一立體影像之該些深度值之數量是否低於門檻值,若是,則結構光投影模組連續投影複數個光平面,結構光攝像單元接收複數個光圖像訊息,依據該些光圖像訊息計算取得第三立體影像,處理單元融合第一立體影像及第三立體影像成為融合後第一立體影像。
於本發明之一實施例中,其中第一攝影單元取得第三影像,第二攝影單元取得第四影像,處理單元依據第三影像、第四影像及夾角取得第二立體影像,處理單元判斷第二立體影像之該些深度值之數量是否低於門檻值,若是,則結構光投影模組連續投影複數個光平面,結構光攝像單元接收複數個光圖像訊息,依據該些光圖像訊息計算取得第四立體影像,處理單元融合第二立體影像及第四立體影像成為融合後第二立體影像。
於本發明之一實施例中,其中結構光投影模組連續投影複數個光平面,結構光攝像單元接收複數個光圖像訊息,依據該些光圖像訊息計算取得第一立體影像,處理單元判斷第一立體影像之該些深度值之數量是否低於門檻值,若是,則第一攝影單元取得第一影像; 第二攝影單元取得第二影像,處理單元依據第一影像、第二影像及夾角取得第三立體影像,處理單元融合第一立體影像及第三立體影像成為融合後第一立體影像。
於本發明之一實施例中,其中結構光投影模組連續投影複數個光平面,結構光攝像單元接收複數個光圖像訊息,依據該些光圖像訊息計算取得該第二立體影像; 該處理單元判斷該第二立體影像之該些深度值之數量是否低於一門檻值,若是,則第一攝影單元取得第三影像,第二攝影單元取得第四影像,依據該第三影像、該第四影像及該夾角取得一第四立體影像,處理單元融合第二立體影像及第四立體影像成為融合後第二立體影像。
此外,本發明提供另一種基於深度值之手勢操作系統,該系統包含:立體影像攝影模組,取得第一立體影像及第二立體影像,以及處理單元,以第一演算法識別第一立體影像之複數個深度值中包含觸發手勢,以第二演算法識別第二立體影像之複數個深度值中包含指令手勢,其中,處理單元執行對應於指令手勢之操作。
為使對本發明之特徵及所達成之功效有更進一步之瞭解與認識,謹佐以較佳之實施例及配合詳細之說明,說明如後:
先前之技術中,駕駛者於操控裝設於移動載具之設備時常需要短暫轉移視線或因為所需操控的設備過多而影響行車安全,因此提出一種手勢操作方法。
在此說明本發明之第一實施例之基於深度值之手勢操作方法之流程,請參閱第一圖,其係為本發明之第一實施例之基於深度值之手勢操作方法之流程圖。如圖所示,本實施例之基於深度值之手勢操作方法其步驟包含:
步驟S1:取得第一立體影像;
步驟S3:是否包含觸發手勢;
步驟S5:取得第二立體影像;
步驟S7:是否包含指令手勢;以及
步驟S9:執行對應指令手勢之操作。
接著說明為達成本發明之基於深度值之手勢操作方法所需之系統,請參閱第二A圖,其係為本發明之第一實施例之基於深度值之手勢操作方法之系統示意圖。如圖所示,本發明之基於深度值之手勢操作方法之系統包含:一手勢操控系統1。手勢操控系統1包含一立體影像攝影模組10及一處理單元30。
上述之手勢操控系統1裝設於一移動載具,使立體影像攝影模組10拍攝移動載具之內部,換言之,立體影像攝影模組10裝設之位置可使得立體影像攝影模組10拍攝移動載具之駕駛空間或/及乘坐空間。移動載具可為汽車、卡車、巴士、電動車或其他移動載具。
如第二B圖所示,於本發明之一較佳實施例中,立體影像攝影模組10是裝設於移動載具之內,使立體影像攝影模組10拍攝移動載具之內部。
如第三圖所示,上述之立體影像攝影模組10包含一第一攝影單元101及一第二攝影單元103,第一攝影單元101及第二攝影單元103之間有一夾角105。
上述之處理單元30為一可進行算術、邏輯運算及影像運算之電子組件。
以下將說明本發明之第一實施例之基於深度值之手勢操作方法執行時之流程,請參閱第一圖、第二圖及第三圖。當要操作裝設於移動載具之電子裝置時,將執行步驟S1至步驟S9。
於步驟S1中,取得第一立體影像,第一攝影單元101取得一第一影像,第二攝影單元103取得一第二影像,處理單元30依據第一影像、第二影像及夾角105計算取得一第一立體影像。
於步驟S3中,是否包含觸發手勢,處理單元30以一第一演算法識別第一立體影像之複數個深度值中是否包含一觸發手勢,若是,則執行步驟S5;若否,則回到步驟S1。第一演算法為手勢識別演算法。換言之,處理單元30以手勢識別演算法依據第一立體影像中複數個像素點之深度值(Z值)識別第一立體影像中是否包含觸發手勢。
於步驟S5中,取得第二立體影像,第一攝影單元101取得一第三影像,第二攝影單元103取得一第四影像,處理單元30依據第三影像、第四影像及夾角105計算取得一第二立體影像。
於步驟S7中,是否包含指令手勢,處理單元30以一第二演算法識別第二立體影像之複數個深度值中是否包含一指令手勢,若是,則執行步驟S9;若否,則回到步驟S5。第二演算法為手勢識別演算法。換言之,處理單元30以手勢識別演算法依據第二立體影像中複數個像素點之深度值(Z值)識別第二立體影像中是否包含指令手勢。
於步驟S9中,執行對應指令手勢之操作,於識別指令手勢後,處理單元30執行對應指令手勢之操作。舉例而言,當指令手勢為開啟衛星導航時,處理單元30則開啟衛星導航;當指令手勢為開啟音響時,處理單元30則開啟音響。
於此,即完成本發明之第一實施例之基於深度值之手勢操作方法,相較於使用平面影像進行手勢辨識之方法,本發明使用立體影像之深度值進行手勢辨識,可以更準確的取得手部之輪廓達到更精確的辨識效果。
除此之外,使用平面影像進行手勢辨識時,使用者之手是僅限於平面移動(即為上、下、左、右),而本發明使用立體影像之深度值進行手勢辨識時,則可更進一步的識別使用者之手之立體移動(即為前、後、上、下、左、右),因此使用者可於手勢操作系統1中紀錄更多手勢,以達到操作至少一裝設於移動載具之裝置之目的。
更進一步的,本發明於識別指令手勢前更會先識別觸發手勢,而後使用者輸入觸發手勢,手勢操作系統1才會進行觸發手勢之識別,如此可防止使用者無心揮動手時,手勢操作系統1又識別到使用者揮手之動作為指令手勢產生錯誤操作之情況。
接著說明本發明之第二實施例之基於深度值之手勢操作方法,請參閱第四圖,其係為本發明之第一實施例之基於深度值之手勢操作方法之所需之系統。本實施例與第一實施例之差異在於:本實施例中手勢操作系統1包含一結構光投影模組107及結構光攝像單元109。其餘皆與第一實施例相同,於此不再贅述。
結構光投影模組107包含一雷射光源單元1071以及一透鏡組1073。如第五圖所示,利用結構光源向物體2之表面投射可控制的光點、光條或光平面,再由攝像機等感測器獲得反射之圖像,經幾何計算就可獲得物體2之立體影像。本發明在一較佳實施例中,係採用不可見雷射作為光源,利用其同調性好、衰減慢、量測距離長、精準度高等特性,加上其不易受其他光源影響,因此較一般的光線投射為佳。雷射光源單元1071提供之雷射光在穿過透鏡組1073後發散,其在空間中即為一光平面1075。本發明所使用的透鏡組1073當中可包含圖案化透鏡(pattern lens),其具有圖案化之微結構而可使穿透的雷射光所形成的光平面具有圖案化特徵,例如在二維平面呈現光點陣列,如第六圖所示。
於本實施例中,於步驟S1及步驟S5中,結構光投影模組107連續投射複數個光平面1075至移動載具內之至少一物體2之表面,結構光射攝像單元109取得物體2之表面經該光平面1075之投影後所反射之複數個光圖像訊息,處理單元則依據所接收到之該些光圖像訊息計算取得第一立體影像及第二立體影像。
在另一實施例中,可透過調整雷射光源單元1071之功率進一步的增加或降低雷射光投射之距離,例如:在較空曠處可增加雷射光源單元1071之功率,在較擁擠處則可降低雷射光源單元1071之功率。
於本發明之第二實施例之基於深度值之手勢操作方法,由於結構光投影模組107會主動投射結構光至周圍之物體2,可於夜晚或光線較弱時使用。
接著說明本發明之第三實施例之基於深度值之手勢操作方法,請參閱第七圖,本實施例與第一實施例之差異在於,本實施例之方法中更包含:步驟S4及步驟S8。其餘皆與第一實施例相同,於此不再贅述。
於步驟S4,識別觸發手勢於移動載具之位置,處理單元30以一分群演算法識別觸發手勢於移動載具之位置。換言之,處理單元30以分群演算法識別做出此觸發手勢之使用者是位於移動載具的哪一個位置,例如觸發手勢之使用者是位於駕駛座、副駕駛座或後座。
於本發明之一實施例中,在識別觸發手勢之使用者是位於移動載具的哪一個位置後,可以進一步的得知此使用者之身分,例如說位於駕駛座的使用者為駕駛、位於副駕駛座的為副駕駛或乘客,或位於後座的為乘客。
於本發明之一實施例中,分群演算法為K-measns分群演算法或其他可將物體分群之演算法。
於步驟S8,是否有執行指令手勢之權限,處理單元30依據觸發手勢於移動載具之位置判斷是否有執行指令手勢對應之該操作之權限。換言之,處理單元30會依據觸發手勢之使用者之位置判斷是否要執行對應操作指令之操作。
於此即完成本發明之第三實施例之基於深度值之手勢操作方法,藉由本實施例可以依據不同位置之使用者給予不同之權限,舉例而言,駕駛具有操作雨刷、車燈、衛星導航權限,副駕駛具有操作衛星導航、影音系統權限,乘客具有操作影音系統之權限,可降低使用者誤觸之風險,例如:乘客誤觸雨刷干擾駕駛,更進一步的增加本發明之安全性。
接著說明本發明之第四實施例之基於深度值之手勢操作方法,請參閱第八圖及第九圖,其係為本發明之第一實施例之基於深度值之手勢操作方法之步驟S1中更包含步驟S101至步驟S105之流程圖及所需之系統。本實施例與第一實施例之差異在於:步驟S1後更包含步驟S101至步驟S105,手勢操作系統1包含第一攝影單元101、第二攝影單元103、一結構光投影模組107及結構光攝像單元109。
於步驟S1中:取得第一立體影像,第一攝影單元101取得一第一影像,第二攝影單元103取得一第二影像,處理單元30依據第一影像、第二影像及夾角105計算取的一第一立體影像。
於步驟S101中:第一立體影像之深度值之數量是否低於門檻,處理單元30判斷第一立體影像之深度值之數量是否低於門檻值,若是,則進入步驟S103,若否,則進入步驟S3。換言之,處理單元30掃描第一立體影像之像素並統計像素中包含有深度值之像素數量以取得深度值之數量,並判斷深度值之數量是否低於門檻值。
於步驟S103中:取得第三立體影像,結構光投影模組107連續投射複數個光平面1075至移動載具內之至少一物體2之表面,結構光射攝像單元109取得物體2之表面經該光平面1075之投影後所反射之複數個光圖像訊息,處理單元30依據所接收到之該些光圖像訊息計算取得第三立體影像。
於步驟S105中:融合第一立體影像及第三立體影像,處理單元30以一影像融合演算法融合第一立體影像及第三立體影像取得一融合後第一立體影像。
而後,於步驟S3中,處理單元30則以第一演算法判斷融合後第一立體影像是否包含觸發手勢。
於本實施例中,於執行步驟S1時,亦可以以結構光投影模組107及結構光攝像單元109取得第一立體影像,在這樣的狀況下,於步驟S103時,處理單元30以第一攝影單元101取得之第一影像、第二攝影單元103取得之第二影像及夾角105計算取得第三立體影像。
由於第一攝影單元101及第二攝影單元103在光線較不足夠的地方所取得之第一影像及第二影像中會有部分較暗或是全暗處,在這樣的情況下所取得之第一立體影像會有部分像素沒有深度值,此外,以結構光投影模組107及結構光攝像單元109取得之第一立體影像在光線較明亮時會因為光線干擾而造成結構光攝像單元109所取得之光圖像訊息較不完整,在這樣的情況下所取得之第一立體影像亦會有部分像素沒有深度值,若第一立體影像中有太多像素沒有深度值時,第一演算法會較難以識別出第一立體影像中是否包含觸發手勢,而於本實施例中,則在判斷第一立體影像中之深度值低於門檻時取得第三立體影像,並將第一立體影像及第三立體影像融合,所產生之融合後第一立體影像將會有足夠的深度值,以利第一演算法識別於融合後第一立體影像中是否包含有觸發手勢。
於本發明之一實施例中,門檻值為第一立體影像之像素數量之百分之五十,換言之,當第一立體影像有1000個像素時,門檻值為500。
接著說明本發明之第五實施例之基於深度值之手勢操作方法,請參閱第十圖,其係為本發明之第一實施例之基於深度值之手勢操作方法之步驟S5中更包含步驟S501至步驟S505之流程圖。本實施例與第一實施例之差異在於:步驟S5後更包含步驟S501至步驟S505。本實施例所需之系統同第四實施例,請參閱第九圖,手勢操作系統1包含第一攝影單元101、第二攝影單元103、一結構光投影模組107及結構光攝像單元109。
於步驟S5中:取得第二立體影像,第一攝影單元101取得一第三影像,第二攝影單元103取得一第四影像,處理單元30依據第三影像、第四影像及夾角105計算取的一第二立體影像。
於步驟S501中:第二立體影像之深度值之數量是否低於門檻,處理單元30判斷第二立體影像之深度值之數量是否低於門檻值,若是,則進入步驟S503,若否,則進入步驟S7。換言之,處理單元30掃描第二立體影像之像素並統計像素中包含有深度值之像素數量以取得深度值之數量,並判斷深度值之數量是否低於門檻值。
於步驟S503中:取得第四立體影像,結構光投影模組107連續投射複數個光平面1075至移動載具內之至少一物體2之表面,結構光射攝像單元109取得物體2之表面經該光平面1075之投影後所反射之複數個光圖像訊息,處理單元30依據所接收到之該些光圖像訊息計算取得第四立體影像。
於步驟S505中:融合第二立體影像及第四立體影像,處理單元30以一影像融合演算法融合第二立體影像及第四立體影像取得一融合後第二立體影像。
而後,於步驟S7中,處理單元30則以第二演算法判斷融合後第一立體影像是否包含觸發手勢。
於本實施例中,於執行步驟S5時,亦可以以結構光投影模組107及結構光攝像單元109取得第二立體影像,在這樣的狀況下,於步驟S503時,處理單元30以第一攝影單元101取得之第三影像、第二攝影單元103取得之第四影像及夾角105計算取得第四立體影像。
於本發明之一實施例中,門檻值為第二立體影像之像素數量之百分之五十,換言之,當第二立體影像有1000個像素時,門檻值為500。
於本發明之一實施例中,第一立體影像可為連續影像,觸發手勢為連續之手勢,於步驟S3,處理單元30中以第一演算法及隱藏式馬可夫模型(HMM,Hidden Markov Model)識別第一立體影像中是否包含觸發手勢。
於本發明之一實施例中,第二立體影像可為連續影像,指令手勢為連續之手勢,於步驟S7,處理單元30中以第二演算法及隱藏式馬可夫模型識別第二立體影像中是否包含指令手勢。
於本發明之一實施例中,其中該些個光圖像訊息是該些個光平面投影至至少一物體後反射而成。
惟以上所述者,僅為本發明之較佳實施例而已,並非用來限定本發明實施之範圍,舉凡依本發明申請專利範圍所述之形狀、構造、特徵及精神所為之均等變化與修飾,均應包括於本發明之申請專利範圍內。
1‧‧‧手勢操控系統
10‧‧‧立體影像攝影模組
101‧‧‧第一攝影單元
103‧‧‧第二攝影單元
105‧‧‧夾角
107‧‧‧結構光投影模組
1071‧‧‧雷射光源單元
1073‧‧‧透鏡組
1075‧‧‧光平面
109‧‧‧結構光設像單元
2‧‧‧物體
30‧‧‧處理單元
第一圖:其係為本發明之第一實施例之基於深度值之手勢操作方法之流程圖; 第二A圖:其係為本發明之第一實施例之基於深度值之手勢操作方法之系統示意圖; 第二B圖:其係為本發明之第一實施例之基於深度值之手勢操作方法之系統示意圖,用以表示立體影像攝影模組裝設於移動載具之內; 第三圖:其係為本發明之第一實施例之基於深度值之手勢操作方法之立體影像攝影模組示意圖; 第四圖:其係為本發明之第二實施例之基於深度值之手勢操作方法之立體影像攝影模組示意圖; 第五圖:其係為本發明之第二實施例之基於深度值之手勢操作方法之示意圖,用以表示光平面投影於物體; 第六圖:其係為本發明之第二實施例之基於深度值之手勢操作方法之光平面係包含二維點陣列之示意圖; 第七圖:其係為本發明之第三實施例之基於深度值之手勢操作方法之流程圖; 第八圖:其係為本發明之第四實施例之基於深度值之手勢操作方法之步驟S1之流程圖,用以表示步驟S1中更包含步驟S101至步驟S105 ; 第九圖:其係為本發明之第四實施例之基於深度值之手勢操作方法之系統示意圖;以及 第十圖:其係為本發明之第五實施例之基於深度值之手勢操作方法之步驟S5之流程圖,用以表示步驟S5中更包含步驟S501至步驟S505。
Claims (18)
- 一種基於深度值之手勢操作方法,其用於一移動載具,其步驟包含:取得一第一立體影像;以一第一演算法僅取得該第一立體影像之複數個像素點之深度值(Z值)並識別該第一立體影像之該些個像素點之深度值(Z值)中包含一觸發手勢;取得一第二立體影像;以一第二演算法僅取得該第二立體影像之複數個像素點之深度值(Z值)並識別該第二立體影像之該些個像素點之深度值(Z值)中包含一指令手勢;以及一處理單元執行對應於該指令手勢之一操作。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中於以一第一演算法識別該第一立體影像之複數個像素點之深度值(Z值)中包含一觸發手勢之步驟後,該方法更包含:以一分群演算法識別該觸發手勢於該移動載具之一位置;該處理單元依據該觸發手勢於該移動載具之該位置判斷是否有執行該指令手勢對應之該操作之一權限;若有則,該處理單元執行對應於該指令手勢之該操作。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具內裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元及一第二攝影單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該第一攝影單元取得一第一影像;該第二攝影單元取得一第二影像;以及該處理單元依據該第一影像、該第二影像及該夾角取得該第一立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具內裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元及一第二攝影單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該第一攝影單元取得一第三影像;該第二攝影單元取得一第四影像;以及該處理單元依據該第三影像、該第四影像及該夾角取得該第二立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具內裝設有一立體影像攝影模組,該立體影像攝影模組包含一結構光投影模組及一結構光攝像單元,該方法更包含:該結構光投影模組連續投影複數個光平面;該結構光攝像單元接收複數個光圖像訊息;以及依據該些光圖像訊息計算取得該第一立體影像或該第二立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該第一攝影單元取得一第一影像;該第二攝影單元取得一第二影像;該處理單元依據該第一影像、該第二影像及該夾角取得該第一立體影像;該處理單元判斷該第一立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值;若是,則該結構光投影模組連續投影複數個光平面;該結構光攝像單元接收複數個光圖像訊息;依據該些光圖像訊息計算取得一第三立體影像;以及該處理單元融合該第一立體影像及該第三立體影像成為一融合後第一立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該第一攝影單元取得一第三影像;該第二攝影單元取得一第四影像;該處理單元依據該第三影像、該第四影像及該夾角取得該第二立體影像;該處理單元判斷該第二立體影像之該些像素點之深度值(Z值)之數量是否低於一門檻值;若是,則該結構光投影模組連續投影複數個光平面;該結構光攝像單元接收複數個光圖像訊息;依據該些光圖像訊息計算取得一第四立體影像;以及該處理單元融合該第二立體影像及該第四立體影像成為一融合後第二立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該結構光投影模組連續投影複數個光平面;該結構光攝像單元接收複數個光圖像訊息;依據該些光圖像訊息計算取得該第一立體影像;該處理單元判斷該第一立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值;若是,則該第一攝影單元取得一第一影像;該第二攝影單元取得一第二影像;該處理單元依據該第一影像、該第二影像及該夾角取得一第三立體影像;以及該處理單元融合該第一立體影像及該第三立體影像成為一融合後第一立體影像。
- 如專利申請範圍第1項所述之基於深度值之手勢操作方法,其中該移動載具裝設有一立體影像攝影模組,該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該方法更包含:該結構光投影模組連續投影複數個光平面;該結構光攝像單元接收複數個光圖像訊息;依據該些光圖像訊息計算取得該第二立體影像;該處理單元判斷該第二立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值;若是,則該第一攝影單元取得一第三影像;該第二攝影單元取得一第四影像;該處理單元依據該第三影像、該第四影像及該夾角取得一第四立體影像;以及該處理單元融合該第二立體影像及該第四立體影像成為一融合後第二立體影像。
- 一種基於深度值之移動載具系統之手勢操作系統,該系統包含:一立體影像攝影模組,取得一第一立體影像及一第二立體影像;以及一處理單元,以一第一演算法僅取得該第一立體影像之複數個像素點之深度值(Z值)並識別該第一立體影像之該些個像素點之深度值(Z值)中是否包含一觸發手勢,以一第二演算法僅取得該第二立體影像之複數個像素點之深度值(Z值)並識別該第二立體影像之該些個像素點之深度值(Z值)中是否包含一指令手勢;其中,該處理單元執行對應於該指令手勢之一操作。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該處理單元以一分群演算法識別該觸發手勢於該移動載具之一位置,並依據該觸發手勢於該移動載具之該位置判斷是否有執行該指令手勢對應之該操作之一權限,若有則,該處理單元執行對應於該指令手勢之該操作。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元及一第二攝影單元,該第一攝影單元及該第二攝影單元之間有一夾角,該處理單元依據該第一攝影單元所取得之一第一影像、該第二攝影單元所取得之一第二影像及該夾角取得該第一立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元及一第二攝影單元,該第一攝影單元及該第二攝影單元之間有一夾角,該處理單元依據該第一攝影單元所取得之一第三影像、該第二攝影單元所取得之一第四影像及該夾角取得該第二立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一結構光投影模組及一結構光攝像單元,該結構光投影模組連續投影複數個光平面,該結構光攝像單元接收複數個光圖像訊息,該處理單元依據該些光圖像訊息計算取得該第一立體影像或該第二立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該處理單元依據該第一攝影單元所取得之一第一影像、該第二攝影單元所取得之一第二影像及該夾角取得該第一立體影像,其中該處理單元判斷該第一立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值,若是,則該結構光投影模組連續投影複數個光平面,該結構光攝像單元接收複數個光圖像訊息,該處理單元依據該些光圖像訊息計算取得一第三立體影像並融合該第一立體影像及該第三立體影像成為一融合後第一立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該處理單元依據該第一攝影單元所取得之一第三影像、該第二攝影單元所取得之一第四影像及該夾角取得該第二立體影像,其中該處理單元判斷該第二立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值,若是,則該結構光投影模組連續投影複數個光平面,該結構光攝像單元接收複數個光圖像訊息,該處理單元依據該些光圖像訊息計算取得一第四立體影像並融合該第二立體影像及該第四立體影像成為一融合後第二立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該結構光投影模組連續投影複數個光平面,該結構光攝像單元接收複數個光圖像訊息,該處理單元依據該些光圖像訊息計算取得該第一立體影像並判斷該第一立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值,若是,則該處理單元依據該第一攝影單元所取得之一第一影像、該第二攝影單元所取得之一第二影像及該夾角取得一第三立體影像並融合該第一立體影像及該第三立體影像成為一融合後第一立體影像。
- 如專利申請範圍第10項所述之基於深度值之手勢操作系統,其中該立體影像攝影模組包含一第一攝影單元、一第二攝影單元、一結構光投影模組及一結構光攝像單元,該第一攝影單元及該第二攝影單元之間有一夾角,該結構光投影模組連續投影複數個光平面,該結構光攝像單元接收複數個光圖像訊息,該處理單元依據該些光圖像訊息計算取得該第二立體影像並判斷該第二立體影像之該些個像素點之深度值(Z值)之數量是否低於一門檻值,若是,則該處理單元依據該第一攝影單元所取得之一第三影像、該第二攝影單元所取得之一第四影像及該夾角取得一第四立體影像並融合該第二立體影像及該第四立體影像成為一融合後第二立體影像。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105136594A TWI636395B (zh) | 2016-11-10 | 2016-11-10 | 基於深度值之手勢操作方法及其系統 |
CN201710574740.XA CN108073274B (zh) | 2016-11-10 | 2017-07-14 | 基于深度值的手势操作方法及其系统 |
US15/788,944 US10386934B2 (en) | 2016-11-10 | 2017-10-20 | Gesture operation method based on depth values and system thereof |
JP2017205684A JP6600342B2 (ja) | 2016-11-10 | 2017-10-25 | 深度値に基づいたジェスチャ操作方法および深度値に基づいたジェスチャ操作システム |
DE102017125578.8A DE102017125578A1 (de) | 2016-11-10 | 2017-11-02 | Auf Tiefenwerten basierendes Gestenbedienungsverfahren und System dafür |
US16/435,726 US10824240B2 (en) | 2016-11-10 | 2019-06-10 | Gesture operation method based on depth values and system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105136594A TWI636395B (zh) | 2016-11-10 | 2016-11-10 | 基於深度值之手勢操作方法及其系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201818226A TW201818226A (zh) | 2018-05-16 |
TWI636395B true TWI636395B (zh) | 2018-09-21 |
Family
ID=62026703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW105136594A TWI636395B (zh) | 2016-11-10 | 2016-11-10 | 基於深度值之手勢操作方法及其系統 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10386934B2 (zh) |
JP (1) | JP6600342B2 (zh) |
CN (1) | CN108073274B (zh) |
DE (1) | DE102017125578A1 (zh) |
TW (1) | TWI636395B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460690B (zh) * | 2017-09-01 | 2022-10-14 | 虹软科技股份有限公司 | 一种用于模式识别的方法和装置 |
CN110047093B (zh) * | 2019-04-23 | 2021-04-27 | 南昌航空大学 | 高精度边缘保护型rgbd场景流估计方法 |
CN112686231B (zh) * | 2021-03-15 | 2021-06-01 | 南昌虚拟现实研究院股份有限公司 | 动态手势识别方法、装置、可读存储介质及计算机设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324008A1 (en) * | 2008-06-27 | 2009-12-31 | Wang Kongqiao | Method, appartaus and computer program product for providing gesture analysis |
US20160091978A1 (en) * | 2014-09-25 | 2016-03-31 | Hyundai Motor Company | Gesture recognition apparatus, vehicle having the same and method for controlling the same |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4311190B2 (ja) * | 2003-12-17 | 2009-08-12 | 株式会社デンソー | 車載機器用インターフェース |
JP4403172B2 (ja) * | 2006-12-22 | 2010-01-20 | 富士フイルム株式会社 | ファイル生成方法および装置並びに立体画像の表示制御方法および装置 |
WO2012117508A1 (ja) * | 2011-02-28 | 2012-09-07 | 株式会社Pfu | 情報処理装置、方法およびプログラム |
DE102011054848B4 (de) * | 2011-10-27 | 2014-06-26 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Steuer- und Überwachungseinrichtung für Fahrzeuge |
TW201419087A (zh) | 2012-11-01 | 2014-05-16 | Viadac Co Ltd | 微體感偵測模組及其微體感偵測方法 |
EP2738645A1 (en) * | 2012-11-30 | 2014-06-04 | Harman Becker Automotive Systems GmbH | Vehicle gesture recognition system and method |
CN103514437B (zh) * | 2012-12-24 | 2017-04-05 | Tcl集团股份有限公司 | 一种三维手势识别装置及三维手势识别方法 |
JP2016040520A (ja) * | 2013-01-10 | 2016-03-24 | 三洋電機株式会社 | 物体検出装置 |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US20150177842A1 (en) * | 2013-12-23 | 2015-06-25 | Yuliya Rudenko | 3D Gesture Based User Authorization and Device Control Methods |
EP2891950B1 (en) * | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
KR20150087544A (ko) * | 2014-01-22 | 2015-07-30 | 엘지이노텍 주식회사 | 제스처 장치, 그 동작 방법 및 이를 구비한 차량 |
CN104113746B (zh) * | 2014-06-30 | 2016-11-23 | 小米科技有限责任公司 | 终端连接装置及应用该装置的图像处理方法及设备 |
GB2532464B (en) * | 2014-11-19 | 2020-09-02 | Bae Systems Plc | Apparatus and method for selectively displaying an operational environment |
CN105652286A (zh) * | 2014-12-04 | 2016-06-08 | 财团法人金属工业研究发展中心 | 用于防撞的立体深度感测系统及其运作方法 |
US20180292907A1 (en) * | 2015-05-28 | 2018-10-11 | Itay Katz | Gesture control system and method for smart home |
CN104866106A (zh) * | 2015-06-03 | 2015-08-26 | 深圳市光晕网络科技有限公司 | 一种结合hud与红外识别的人机交互方法和系统 |
US20180091798A1 (en) * | 2016-09-26 | 2018-03-29 | Imec Taiwan Co. | System and Method for Generating a Depth Map Using Differential Patterns |
US10289951B2 (en) * | 2016-11-02 | 2019-05-14 | Adobe Inc. | Video deblurring using neural networks |
-
2016
- 2016-11-10 TW TW105136594A patent/TWI636395B/zh active
-
2017
- 2017-07-14 CN CN201710574740.XA patent/CN108073274B/zh active Active
- 2017-10-20 US US15/788,944 patent/US10386934B2/en active Active
- 2017-10-25 JP JP2017205684A patent/JP6600342B2/ja active Active
- 2017-11-02 DE DE102017125578.8A patent/DE102017125578A1/de active Pending
-
2019
- 2019-06-10 US US16/435,726 patent/US10824240B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324008A1 (en) * | 2008-06-27 | 2009-12-31 | Wang Kongqiao | Method, appartaus and computer program product for providing gesture analysis |
US20160091978A1 (en) * | 2014-09-25 | 2016-03-31 | Hyundai Motor Company | Gesture recognition apparatus, vehicle having the same and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP6600342B2 (ja) | 2019-10-30 |
CN108073274A (zh) | 2018-05-25 |
JP2018077839A (ja) | 2018-05-17 |
TW201818226A (zh) | 2018-05-16 |
CN108073274B (zh) | 2021-04-06 |
US10824240B2 (en) | 2020-11-03 |
US20180129296A1 (en) | 2018-05-10 |
US10386934B2 (en) | 2019-08-20 |
US20190294253A1 (en) | 2019-09-26 |
DE102017125578A1 (de) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11503251B2 (en) | Vehicular vision system with split display | |
US9639990B2 (en) | Display control apparatus, computer-implemented method, storage medium, and projection apparatus | |
JP6316559B2 (ja) | 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム | |
US9346358B2 (en) | Vehicle control apparatus | |
EP3118047B1 (en) | Display control device, display device, display control program, display control method, and recording medium | |
JP5155915B2 (ja) | 車載用表示システム、表示方法及び車両 | |
JP6413207B2 (ja) | 車両用表示装置 | |
KR102578517B1 (ko) | 전자 장치 및 그 제어 방법 | |
JP2015000630A (ja) | 車載表示装置およびプログラム | |
JP2017538304A (ja) | ボウル型イメージングシステムにおけるオブジェクト追跡 | |
TWI636395B (zh) | 基於深度值之手勢操作方法及其系統 | |
KR101543159B1 (ko) | 카메라를 이용한 영상 조정 시스템 및 방법 | |
US20150293585A1 (en) | System and method for controlling heads up display for vehicle | |
US20190339535A1 (en) | Automatic eye box adjustment | |
JP2010130647A (ja) | 車両周辺確認装置 | |
US20150274176A1 (en) | Moving amount derivation apparatus | |
US20210072831A1 (en) | Systems and methods for gaze to confirm gesture commands in a vehicle | |
JP2017097759A (ja) | 視線方向検出装置、及び視線方向検出システム | |
WO2018061413A1 (ja) | ジェスチャ検出装置 | |
KR102446387B1 (ko) | 전자 장치 및 그의 텍스트 제공 방법 | |
WO2017096821A1 (zh) | 安全驾驶检测方法及装置 | |
KR20190071781A (ko) | 열에너지 정보를 표시하는 나이트 비젼 시스템 및 그 제어방법 | |
JP6727400B2 (ja) | 表示制御装置及び表示制御方法 | |
JP5617678B2 (ja) | 車両用表示装置 | |
WO2019004237A1 (ja) | 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置 |