TW201301131A - 影像處理裝置及方法,以及程式 - Google Patents

影像處理裝置及方法,以及程式 Download PDF

Info

Publication number
TW201301131A
TW201301131A TW101106739A TW101106739A TW201301131A TW 201301131 A TW201301131 A TW 201301131A TW 101106739 A TW101106739 A TW 101106739A TW 101106739 A TW101106739 A TW 101106739A TW 201301131 A TW201301131 A TW 201301131A
Authority
TW
Taiwan
Prior art keywords
display
icon
depth
image
distance
Prior art date
Application number
TW101106739A
Other languages
English (en)
Inventor
Maiko Nakagawa
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of TW201301131A publication Critical patent/TW201301131A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

控制單元、方法及電腦程式產品協作以提供圖形使用者介面之至少一部分之可控制的顯示深度。此外,控制單元包括控制電路,其控制做為該圖形使用者介面之一部分之圖符的深度顯示,該圖符可以是使用者可選擇的圖符。當偵測到物件靠近該顯示器時,控制電路改變圖符之顯示的深度。按此方式,當使用者與圖形使用者介面互動時,使用者被提供以視覺回饋。

Description

影像處理裝置及方法,以及程式
本揭示與影像處理設備及方法、以及電腦程式產品有關,更明確地說,與允許不碰觸顯示螢幕即能夠選擇並執行配置給圖符或類似物之功能的影像處理設備及方法、以及電腦程式產品有關。
現已有嘗試從相關的技術來擴充GUI(圖形使用者介面)功能。
例如,GUI係顯示在觸控螢幕上,如採用圖符的GUI,而觸控螢幕係由諸如用來顯示圖符或類似物之液晶面板的顯示面板整體建構而成,且觸控面板偵測使用者之手指的觸摸。
在使用觸控螢幕的GUI中,當顯示在觸控螢幕上的圖符被觸摸時,指配給該圖符的功能被執行。
此外,也提出偵測手指接近顯示螢幕及圖符被放大及顯示的技術(例如,參考PTL1及PTL2)。
引用文獻
PTL1:JP-A-2006-236143
PTL2:JP-A-2005-51876
不過,在PTL1與PTL2中,為選擇及執行配置給圖符的功能,必須碰觸顯示該圖符的顯示螢幕。
如上所述,當諸如液晶面板的顯示螢幕被手指碰觸時,諸如皮脂等污染會黏附在面板上。此外,當顯示螢幕被多次大力按壓時,液晶面板或類似物可能損壞。
另一方面,在不碰觸顯示螢幕而允許執行配置給圖符之功能的情況中,例如,其問題在於很難將能讓使用者很清楚感覺到圖符之選擇的反饋回傳給使用者。
在此情況下,吾人希望允許不碰觸顯示螢幕即能夠選擇並執行配置給圖符或類似物之功能。
【發明內容】
按照一實施例,控制單元包括控制電路,其控制顯示於顯示器上之圖形使用者介面之一部分的深度顯示,當偵測到物件靠近該顯示器時,該控制電路改變該部分之顯示的該深度。
按照實施例的態樣,該控制單元藉由減少顯示的該深度來改變顯示的該深度。
按照實施例的另一態樣,該部分係顯示在該顯示器上的圖符。
按照實施例的另一態樣,該圖符係可供使用者選擇的圖符,且該控制電路回應在離該圖符之預定距離內偵測到該物件而改變顯示的該深度。
按照實施例的另一態樣,當在該顯示器之預定距離內偵測到該物件時,該控制電路將該圖符從第一狀態改變到 第二狀態,該第二狀態致使該圖符被視覺地感知位在與該第一狀態不同距離。
按照實施例的另一態樣,該單元進一步包括感知器,其偵測出當該物件與該顯示器之間為預定距離時。
按照實施例的另一態樣,該感知器係靜電電容式感知器,其被包括做為該顯示器的一整體部分。
按照實施例的另一態樣,該單元進一步包括顯示器,該顯示器係為3維顯示器。
按照實施例的另一態樣,該3維顯示器包括左影像與右影像。
按照實施例的另一態樣,該控制電路改變該部分的視差,以便產生該部分之顯示深度之視覺感知的改變。
按照實施例的另一態樣,該圖形使用者介面之該部分係圖符,以及當該物件離該顯示器第一距離時,該控制電路改變該部分之顯示的該深度,且當該物件被偵測到位在離該顯示器第二距離之內時,該控制電路執行與該圖符相關的功能,該第二距離小於該第一距離。
按照實施例的另一態樣,當該物件位在該顯示器之該第二距離內時,該控制電路改變該圖符的顏色。
按照實施例的另一態樣,該控制電路回應該物件在該第二距離內被偵測到,致使該圖符逐漸消失,並觸發該功能之執行。
按照一方法實施例,該方法包括在顯示器上顯示圖形使用者介面的一部分;偵測物件 接近該顯示器;以控制電路來控制圖形使用者介面之該部分的深度顯示,該控制包括改變該部分之顯示的該深度。
按照該方法的態樣,該控制包括藉由減少顯示的該深度來改變顯示的該深度。
按照該方法的態樣,該部分係顯示在該顯示器上的圖符。
按照該方法的態樣,該圖符係可供使用者選擇的圖符,且該控制回應在離該圖符之預定距離內偵測到該物件而改變顯示的該深度。
按照該方法的態樣,該控制包括當在該顯示器之預定距離內偵測到該物件時,將該圖符從第一狀態改變到第二狀態,該第二狀態致使該圖符被視覺地感知位在與該第一狀態不同距離。
按照該方法的態樣,該方法進一步包括以感知器偵測出當該物件離該顯示器預定距離時。
按照非暫時性電腦可讀取儲存裝置的實施例,該儲存裝置具有電腦可讀取之指令,當以處理電路執行該指令時,該指令實行顯示控制方法,該方法包括:在顯示器上顯示圖形使用者介面的一部分;偵測物件接近該顯示器;以控制電路來控制圖形使用者介面之該部分的深度顯示,該控制包括改變該部分之顯示的該深度。
按照本揭示的實施例,其可允許不碰觸顯示螢幕即可 選擇及執行配置給圖符或類似物的功能。
在下文中,將參考附圖來描述本揭示的實施例。
在以下所描述的實施例中,係顯示3D影像(亦即以3維方式來顯示影像)。因此,在描述本揭示的實施例之前,將提供產生包括左眼影像及右眼影像之3D影像之方法的概述,以便容易理解本揭示的實施例。
圖1顯示的圖說明產生3D影像之方法。
第一種產生方法係使用成像設備中設置兩個透鏡的方法。亦即,在第一種產生方法中,使用者保持成像設備的兩個透鏡配置在近似水平的方向,並一次取得一個圖像。於是,在兩個透鏡中,左眼影像的資料係由通過左側透鏡傳送之光所產生,而右眼影像的資料係由通過右側透鏡傳送之光所產生。
此外,可對應於由CG(電腦繪圖)所產生的影像來產生左眼影像資料與右眼影像資料,而不使用成像設備或類似物。
按此方式所產生之包括對應物件的左眼影像及右眼影像每一個位在間隔與成像設備之兩透鏡間之距離一致的位置。在此,包括在左眼影像與右眼影像每一個中之對應物件在實質水平方向中之配置位置間的差(亦即,距離)稱為視差。視差愈大,物件的深度愈深,亦即成為3維顯示。亦即,凸凹的程度更加明顯。因此,具有上述特徵的視 差,可用做為決定3維顯示之物件之凸凹程度的參數。
圖2顯示的圖說明顯示上述3D影像之顯示器的架構例。在相同圖中所顯示的顯示器係3D顯示器30,其以稱為視差屏障系統的系統來顯示3D影像,並允許使用者經由以祼眼觀看3D顯示器30而感受到以3維顯示之物件的凸凹。
如圖2所示,3D顯示器30包括顯示層31及視差屏障層32。在顯示層31中,每一單位像素(一行)的左眼影像與右眼影像在水平方向中交替顯示。在同一圖中,顯示層31中顯示左眼影像的行以“L”指示,而顯示右眼影像的行“R”以“R”指示。
視差屏障層32係由具有與顯示層31上之影像相同周期性行的格形視差屏障所構成,且屏障之開口部的寬度被設定成與顯示層31上之一條影像行的寬度相同。當使用者從相隔預定距離之位置通過視差屏障層32觀看顯示在顯示層31上的影像時,“L”與“R”影像分別地呈現於使用者的左眼與右眼,且因此出現視差。
例如,如圖3所示,當使用者40從相隔預定距離之位置通過視差屏障層32觀看顯示在顯示層31上的影像時,由左眼影像之行所組成的影像呈現給使用者40之左眼,及由右眼影像之行所組成的影像呈現給使用者40之右眼。在同一圖的例中,由“L1(代表第一個左眼影像)”、...、“Ln(代表第n個左眼影像)”、...、“LN(代表第N個左眼影像)”之每一行所組成的影像呈現給使用者40的 左眼。此外,由“R1(代表第一個右眼影像)”、...、“Rn(代表第n個右眼影像)”、...、“RN(代表第N個右眼影像)”之每一行所組成的影像呈現給使用者40的右眼。
按此方式,可允許使用者40藉由以裸眼觀看3D顯示器30而感受到以3維顯示之物件的凸凹度。此外,通過視差屏障層32觀看影像,可表現出顯示層31在水平方向之原始解析度一半的解析度。因此,如圖3所示,3D顯示器30可開啟視差屏障來顯示影像,及關閉視差屏障來顯示影像,如圖4所示。
圖4顯示的圖說明關閉視差屏障來顯示影像的例子。在圖4之例的情況中,顯示層31之每一行中所顯示的影像,分別呈現給使用者40的左眼與右眼。因此,在以視差屏障關閉來顯示影像的情況中,顯示層31之每一行中都顯示呈現給左與右眼兩者的影像“LR1”、“LR2”、...,且因此,可用顯示層31在水平方向的原始解析度來顯示影像。不過,在圖4的情況中,由於影像的視差沒有呈現給使用者,因此很難以3維來顯示影像,且僅能實行2維顯示(2D顯示)。
按此方式,3D顯示器30被架構成以3D來顯示影像,如圖3中所示,或以2D來顯示影像,如圖4中所示。
圖5A及5B顯示的圖說明應用本揭示之技術,做為影像處理設備實施例之成像設備50的外觀架構例。
圖5A顯示成像設備50之正面,及圖5B顯示其背面。
如圖5A所示,例如,成像設備50之正面的右側被組構成數位相機,設置有鏡頭單元111。鏡頭單元111包括光學系統,諸如聚集發射自物體之光的聚光透鏡、調整焦聚的聚焦透鏡、光圈、及其它(全部未顯示)。當開啟成像設備50的電源時,鏡頭單元111從成像設備50的機殼中伸出,且當電源關閉時,其收納於成像設備50的機殼之內。在圖5A中,鏡頭單元111係收納於成像設備50的機殼之內。
在位於成像設備50正面之鏡頭單元111的右上側設置AF(自動對焦)輔助光發射單元112。AF輔助光發射單元112在鏡頭單元111之光學系統的光軸方向放射出光以做為AF輔助光,並藉以照明物體。按此方式,例如,所謂的自動對焦功能操作,即使是在黑暗的處所中仍能捕捉物體的影像,並根據影像將物體帶入焦點內。
在成像設備50之正面的中間上側配置有閃光燈113。
當從正面側看時,電源按鈕114設置在成像設備50之頂面的右側,於開啟及關閉電源時操作,及從正面側看時,快門按鈕(釋放按鈕)115設置在其左側,於記錄要被捕捉之影像時操作。
如圖5B所示,變焦按鈕116設置在成像設備50之背面的右上側。
例如,當使用者藉由使用成像設備50捕捉物體之影像時,當下達遠距攝影(Tele)指令時,使用者按壓變焦按鈕116中標記為“T”的部分(在下文中稱為T按鈕)。 另一方面,當下達廣角(Wide)指令時,使用者按壓變焦按鈕116中標記為“W”的部分(在下文中稱為W按鈕)。此外,使用者可藉由保持T按鈕或W按鈕被按壓之狀態而連續下達遠距攝影(Tele)或廣角(Wide)指令。
模式轉盤117設置在變焦按鈕116的下方側。當選擇成像設備50之各不同模式或類似動作時操作此模式轉盤117。關於成像設備50的操作模式,例如,在拍攝模式中對物體拍攝,或在影像顯示模式中顯示由於物體之拍攝所得到之被拍攝的影像。此外,例如關於在拍攝模式中與各種操作相關的模式,強迫閃光燈113開或關之模式、使用定時自拍之模式、在液晶面板120上顯示選單螢幕之模式(稍後描述)等。
在模式轉盤117的下方側設置有操作按鈕118。當使用者實施事先指定之指令操作時,使用此操作按鈕118。
例如,使用者操作此操作按鈕118並藉以在選單螢幕上移動游標,且因此可選擇在游標配置位置之項目。
觸控螢幕119包括液晶面板120及配置在液晶面板120上與其一體成形的接近面板121。觸控螢幕119藉由液晶面板120來顯示各種影像,並藉由接近面板121接受使用者的操作。
例如,液晶面板120被組構成具有與前文參考圖2至4所描述之3D顯示器30相同架構的顯示器,且被組構成可視需要而顯示2維或3維影像。
接近面板121經由與靜電電容法之觸控螢幕相同的方 法來偵測靜電電容之變異,並從而偵測使用者之手指或類似物對其的靠近。接近面板121在面板上之預定距離處偵測靜電電容的變異,並輸出信號用以指示有多少使用者之手指或類似物在該位置靠近。
圖6顯示的方塊圖說明圖5A及5B中所示成像設備50的內部架構。
此外,在圖6中未顯示圖5A與5B中所示的AF輔助光發射單元112及閃光燈113。
CCD(電荷耦合元件)131按照時序產生器(TG)141所供應的時序信號操作。CCD131接收來自物體經由鏡頭單元111入射的光,並實施光電轉換,並供應對應於所接收之光量之類比影像信號做為電子信號給類比信號處理單元132。
類比信號處理單元132實施類比信號處理,諸如按照CPU(中央處理單元)136之控制將CCD 131所供應的類比影像信號放大或類似處理,並將由於類比信號處理所得到的影像信號供應給A/D(類比/數位)轉換單元133。
A/D轉換單元133按照CPU 136之控制將類比信號處理單元132所供應之類比信號的影像信號進行A/D轉換,並將轉換所得到之數位信號的影像資料供應給數位信號處理單元134。
數位信號處理單元134按照CPU 136之控制實施數位信號處理,諸如消除與供應自A/D轉換單元133之影像資料有關的雜訊,並在處理後將影像資料供應給液晶面板 120。按此方式,對應於被供應之影像之資料的影像,亦即拍攝時所攝得之影像(在下文中稱為通過鏡頭的影像)被顯示在液晶面板120上。此外,數位信號處理單元134例如經由JPEG(靜態影像壓縮標準)法或類似方法壓縮及編碼A/D轉換單元133所供應的影像資料,並將所得到之壓縮及編碼的資料供應給要被記錄於其上的記錄裝置135。此外,數位信號處理單元134解壓縮及解碼被記錄於記錄裝置135內之被壓縮及編碼的資料,並將所到的影像資料供應給液晶面板120。按此方式,對應於被供應之影像之資料的影像,亦即所記錄之被拍攝的影像被顯示在液晶面板120上。
此外,數位信號處理單元134控制GUI之顯示(例如稍後描述的選單螢幕),其按照CPU 136之控制而顯示在液晶面板120上。
提供可以很容易與成像設備50分離的記錄裝置135,包括例如碟片,諸如DVD(數位多用途光碟)、半導體記憶體,諸如記憶卡、及其它可拆卸記錄媒體。在記錄裝置135中,記錄被拍攝之影像的資料。
CPU 136執行記錄在程式ROM(唯讀記憶體)139中的程式,並控制組成成像設備50的每一個單元,並按照接近面板121所供應的信號或操作單元137所供應的信號實施各項處理。
操作單元137由使用者操作,並供應對應於用來操作CPU 136的信號。此外,操作單元137包括如圖5A及5B 中所示之電源按鈕114、快門按鈕115、變焦按鈕116、模式轉盤117、操作按鈕118或類似物。
EEPROM(電氣可抹除可程式ROM)138按照CPU 136之控制而儲存即使當成像設備50之電源被關閉仍須保存的資料或類似物,以及設定到成像設備50內的各種資訊。
程式ROM139儲存CPU 136所要執行的程式,以及CPU 136為了執行程式而所需要的資料。RAM(隨機存取記憶體)140暫時儲存CPU 136為了執行各項處理所需的程式或資料。
時序產生器141按照CPU 136之控制而供應時序信號給CCD 131。CCD131中的曝光時間(快門速度)或類似物是受時序產生器141供應給CCD 131的時序信號所控制。
馬達驅動器142按照CPU 136之控制而驅動包括有馬達的致動器143。當致動器143被驅動時,鏡頭單元111從成像設備50的外殼凸伸出,或收納於成像設備50的外殼內。此外,當致動器143被驅動時,實施用來組成鏡頭單元111之光圈的調整,或用來組成鏡頭單元111之聚焦透鏡的移動。
在如上述架構的成像設備50中,CCD131接收來自物體而入射通過鏡頭單元111的光,並實施光電轉換,並輸出由於轉換所得到的類比影像信號。從CCD 131輸出的類比影像信號當被傳遞通過類比信號處理單元132及A/D轉 換單元133時被轉變成為數位信號的影像資料,且被供應給數位信號處理單元134。
數位信號處理單元134將供應自A/D轉換單元133的影像資料供應給液晶面板120,由於此,通過鏡頭之影像顯示在液晶面板120上。
當使用者操作快門按鈕115(圖5A及5B)時,對應於該操作的信號從操作單元137供應給CPU 136。當操作單元137供應出對應於快門按鈕115之操作的信號時,CPU 136控制數位信號處理單元134來壓縮從A/D轉換單元133供應給數位信號處理單元134的影像資料,並將由於壓縮所得到之經壓縮的影像資料記錄在記錄裝置135內。
按此方式,所謂的拍攝照片被實施。
此外,CPU 136執行預定的程式並從而產生3D影像的影像資料。
在產生3D影像的情況中,CPU 136設定視差d。在視差d之值設定成較大的情況中,以具有視差之影像所顯示之物件的透視感(以3維顯示之物件的凸凹程度)變大。例如,在視差d之值設定成較大的情況中,在使用者側觀看螢幕,其感覺物件如同從螢幕向前大幅突伸出(或如同螢幕被深深地吸入)。
另一方面,當視差d之值設定成較小時,以具有視差之影像所顯示之物件的透視感(以3維顯示之物件的凸凹程度)變小。如,在視差d之值設定成較小的情況中,在 使用者側觀看螢幕,其感覺所呈現的物件如同實質上與螢幕齊平。
CPU 136獲取影像資料做為產生3D影像之原點,設定要被處理的區域,在此區域中之物件要以3維顯示,並在要被處理之區域之預定位置處的水平方向設定參考點P。CPU 136在離參考點P兩側與視差d一致之相同距離處產生左與右區域之各自的資料,做為左眼影像資料與右眼影像資料。
按此方式所產生之對應於左眼影像資料與右眼影像資料且具有視差d的影像顯示在觸控螢幕119上,且因此使用者能觀看到3D影像。
圖7顯示的方塊圖說明由CPU 136所執行之程式之軟體或類似物的功能架構例。
接近決定單元181根據接近面板121所輸出的接近偵測信號來決定使用者之手指或類似物關於觸控螢幕119的接近程度。例如,當使用者之手指或類似物接近觸控螢幕119直至與觸控螢幕119間之距離小於預定的臨限值時,接近決定單元181產生並輸出預定的資料來指示此情況。此外,當接近觸控螢幕119之使用者之手指或類似物從觸控螢幕119離開直到與觸控螢幕119間之距離等於或大於預定的臨限值時,接近決定單元181產生及輸出指示此情況的預定資料。此外,在接近決定單元181所產生的資料中,也包括指示使用者之手指或類似物接近觸控螢幕119(接近面板121)或類似物之部分的資訊。
視差調整單元182設定藉由3D影像產生單元183所產生的3D影像。例如,根據接近決定單元181所輸出的資料來指明使用者之手指接近的程度,並根據此接近的程度來設定3D影像的視差。例如,在指明使用者之手指接近到小於第一臨限值之距離的情況中,視差d1被設定,且在指明使用者之手指接近到小於比第一臨限值小之第二臨限值之距離的情況中,大於視差d1的視差d2被設定。
此外,視差調整單元182獲取影像的資料(例如,下文中所描述之選單螢幕的影像)成為產生3D影像的原點,並指定要被處理的區域,該區域中顯示要以3維顯示的物件。此時,例如,根據包括在接近決定單元181所輸出之資料中,並指示使用者之手指或類似物接近觸控螢幕119哪一部分的資訊,指定要被3維顯示的物件(例如,下文中所描述之選單螢幕上的圖符)。此外,視差調整單元182設定參考點P,例如,位在要以3維顯示之物件的中央位置。
3D影像產生單元183在距上述參考點按視差所決定之相同距離的左與右區域產生各自的資料做為左眼影像資料及右眼影像資料。按此方式,3D影像的資料被產生。
當根據接近決定單元181所輸出之資料指定了要以3維顯示之物件與使用者之手指或類似物間的接近程度時,選擇執行指令單元184根據此接近程度決定被選擇的物件,並提供用來執行該物件所對應之功能的指令。例如,其決定下文所描述之選單螢幕上顯示的預定圖符被選擇,並 提供用來執行該圖符所對應之功能的指令。
圖8係顯示觸控螢幕119上所顯示之影像的例子。例如,圖8可視為當顯示選單螢幕之模式被上述成像設備50中之模式轉盤117選擇時所顯示的選單螢幕。
在此選單螢幕中顯示各式圖符,例如,圖符201顯示為“簡單模式”、圖符202顯示為“微笑快門”、...、圖符208顯示為“顯示設定”。
使用者使用手指接近顯示在觸控螢幕119上的圖符,並可選擇所想要的圖符。當圖符被選擇時,對應於該圖符的功能被執行,或實施預定的設定。
例如,當使用者使用手指接近圖符207時,該圖符被選擇,並執行“人臉偵測”的功能。在此,“臉部偵測”係自動偵測被拍攝成影像之主題中之人臉的功能,對應於從CCD 131輸出的影像信號,及實施自動對焦,以將被偵測到的人臉進一步帶入焦點的功能。
現將參考圖9A至11B來描述在圖符207被使用者選擇的情況中,關於觸控螢幕119之顯示螢幕的轉變。
圖9A顯示的圖說明當從使用者之眼睛觀看觸控螢幕119時所看到的影像例。
如圖9A所示,使用者使用手指221接近觸控螢幕119顯示圖符207的部分。在此之時,假設手指221尚未充分地靠近觸控螢幕119。例如,假設手指221與觸控螢幕119間的距離等於或大於臨限值Th1。
圖9B顯示當使用者從圖9A之左側方向觀看觸控螢幕 119時所得到的圖,且其說明使用者由於觀看觸控螢幕119而感知到觸控螢幕119之圖符207與手指221間之距離的虛擬感。此外,圖9B說明使用者從3D影像所感受到的透視感,而實際上,圖符207只是顯示在觸控螢幕119之表面上的影像(亦即,不具有厚度與深度的平面物件)。
如圖9B所示,圖符207並未從觸控螢幕119凸出。亦即,手指221與觸控螢幕119間的距離等於或大於臨限值Th1,以致於未產生具有視差的影像,且從使用者看圖符207,看似位於觸控螢幕119的表面。
圖10A說明當以使用者之眼睛觀看觸控螢幕119時所看到之影像的另一例。如圖10A所示,使用者使用手指221進一步接近觸控螢幕119顯示圖符207的部分。此時,例如,假設手指221與觸控螢幕119間之距離小於臨限值Th1,且等於或大於臨限值Th2。
圖10B顯示當從圖10A之左側方向看觸控螢幕119時所得到的圖,且其說明使用者由於觀看觸控螢幕119而感知到觸控螢幕119之圖符207與手指221間之距離的虛擬感。此外,圖10B說明使用者從3D影像所感受到的透視感,而實際上,圖符207僅只是顯示在觸控螢幕119之表面上的影像(亦即,不具有厚度與深度的平面物件)。
如圖10B所示,圖符207從觸控螢幕119凸出,且變得更靠近手指221。亦即,手指221與觸控螢幕119間的距離小於臨限值Th1,以致於產生具有視差的影像,且從 使用者看圖符207,看似其從觸控螢幕119凸出。
圖11A說明當以使用者之眼睛觀看觸控螢幕119時所看到之影像的又另一例。如圖11A所示,使用者使用手指221更接近觸控螢幕119顯示圖符207的部分。此時,例如,假設手指221與觸控螢幕119間之距離小於臨限值Th2。
圖11B顯示當從圖11A之左側方向看觸控螢幕119時所得到的圖,且其說明使用者由於觀看觸控螢幕119而感知到觸控螢幕119之圖符207與手指221間之距離的虛擬感。此外,圖11B說明使用者從3D影像所感受到的透視感,而實際上,圖符207僅只是顯示在觸控螢幕119之表面上的影像(亦即,不具有厚度與深度的平面物件)。
如圖11B所示,圖符207從觸控螢幕119凸出,並與手指221接觸。亦即,手指221與觸控螢幕119間的距離小於臨限值Th2,以致於產生具有更大視差的影像,且從使用者看圖符207,看似其更凸出於觸控螢幕119。
此外,圖10A與圖11A中所顯示的圖符207可被放大被顯示。亦即,當從使用者的側邊看時,看似圖符207從觸控螢幕119凸出,且同時,看似圖符207比其它圖符被放大。按此方式,其可允許使用者清楚地感覺到選擇了圖符207。
當其到達圖11A與11B所示的狀態時,配置給圖符207的功能被執行。亦即,執行自動偵測照片主題中人臉的功能(臉部偵測),即,做為對應於輸出自CCD 131之 影像信號之影像的照片,及實施自動對焦以將被偵測的臉部帶入焦點的功能。
此外,當配置給圖符207的功能被執行時,例如,可改變圖符207的顏色。此外,當配置給圖符207的功能被執行時,例如,圖符207可動畫地顯示以逐漸消失(淡出)。按此方式,其可允許使用者清楚地感覺到選擇了圖符207。此外,按此方式,可將圖符的選擇操作反饋給使用者,以致於允許使用者清楚地感覺到圖符207的選擇。
此外,當以3維顯示選單螢幕時,或當圖符的功能被執行時,也可輸出預定的音效或類似物。
接下來,將參考圖12的流程圖來描述成像設備50所執行之圖符選擇與顯示控制處理的例子。此項處理,例如,當成像設備50接收到使用者經由觸控螢幕119之操作而被實施。
在步驟S21,CPU 136控制數位信號處理單元134,並在液晶面板120(觸控螢幕119)上顯示選單螢幕。
按此方式,例如,顯示前文中參考圖8所描述的選單螢幕。
在步驟S22,接近決定單元181決定是否偵測到使用者的手指221接近,且當其決定手指221尚未接近時,處理回到步驟S21。例如,在圖9A及9B所顯示之狀態的情況中,其決定使用者之手指221尚未接近。
在步驟S22決定有偵測到使用者之手指221接近的情況中,此處理前進到步驟S23。例如,在圖10A與10B所 示之狀態的情況中,其決定有偵測到使用者的手指221接近。例如,在手指221與觸控螢幕119間之距離小於臨限值Th1的情況中,其決定有偵測到使用者之手指221的接近。
在步驟S23中,視差調整單元182指定要以3維顯示的圖符。此時,例如,根據包括在接近決定單元181所輸出之資料中之資訊來指定要以3維顯示的圖符,且其指示使用者之手指221接近觸控螢幕119之哪一部分。此外,例如,將參考點P設定在要以3維顯示之圖符的中央位置。
在步驟S24中,視差調整單元182指定觸控螢幕119與手指221間的距離。觸控螢幕119與手指221間之距離,例如根據接近的程度來指定,而接近的程度係根據接近決定單元181輸出的資料所得到。
在步驟S25中,視差調整單元182設定由3D影像產生單元183所產生之3D影像的視差。在此時,例如,對應於步驟S24所指定之距離的視差被設定。例如,在其指定使用者之手指接近到小於第一臨限值之距離的情況中,視差d1被設定,在其指定使用者之手指接近到小於第一臨限值之第二臨限值之距離的情況中,大於視差d1的視差d2被設定。
在步驟S26中,3D影像產生單元183根據在步驟S25之處理中所設定的視差,並按照步驟S23之處理所設定的參考點來產生做為左眼影像資料與右眼影像資料的資料。 按此方式,3D影像資料被產生。此外,根據此3D影像資料,以3維來顯示觸控螢幕119的選單螢幕。
在步驟S27中,視差調整單元182決定觸控螢幕119與手指221之間的距離是否改變,且在其決定觸控螢幕119與手指221間之距離沒改變的情況中,該處理回到步驟S26。
在步驟S27決定觸控螢幕119與手指221間之距離改變的情況中,該處理前進到步驟S28。
在步驟S28中,視差調整單元182決定觸控螢幕119與手指221間之距離是否夠小。例如,在觸控螢幕119與手指221間之距離小於臨限值Th2的情況中,在步驟S28決定觸控螢幕119與手指221間之距離夠小。
在步驟S28中決定觸控螢幕119與手指221間之距離不夠小的情況中,該處理回到步驟S22。另一方面,在步驟S28中,在觸控螢幕119與手指221間之距離夠小的情況中,該處理前進到步驟S29。
例如,在圖11A與11B所示的情況中,在步驟S28中,其決定觸控螢幕119與手指221間之距離夠小。例如,在觸控螢幕119與手指221間之距離小於臨限值Th2的情況中,其決定距使用者之手指221的距離夠小。
在步驟S29中,視差調整單元182設定較大的視差做為3D影像產生單元183所產生之3D影像的視差。
在步驟S30中,3D影像產生單元183產生與在步驟S29之處理中所設定之視差一致的資料做為左眼影像資料 與右眼影像資料。按此方式,3D影像資料被產生,且因此,觸控螢幕119的選單螢幕被以3維顯示。
在步驟S31中,選擇執行指令單元184決定選擇在步驟S23之處理中所指定之圖符。
在步驟S32中,選擇執行指令單元184允許在步驟S31中被決定而選擇之圖符的功能被執行。此時,例如,如圖11A及11B所示,圖符207被選擇,且自偵測被拍攝為與CCD131所輸出之影像信號對應之影像之主題中之人臉的功能(面部偵測),及實施自動對焦,以將被偵測的臉部帶入焦點的功能被實施。
按此方式,圖符選擇及顯示控制處理被實施。用這種方法,例如,如前文參考圖9A至圖11B所述,當使用者之手指221接近圖符207時,圖符207看似從觸控螢幕119凸出。此外,當使用者之手指221進一步接近圖符207時,圖符207看似進一步從觸控螢幕119凸出,並與手指221接觸。
因此,手指221不需要碰觸到螢幕119,即可允許使用者清楚地感覺到圖符207的選擇,且清楚地感覺到圖符的功能被執行的事實。
此外,在上述的例中,其例為當手指接近時,圖符被顯示成看似從觸控螢幕凸出,但也可用其它方式來顯示圖符。例如,實施顯示的方式可以是看似其沈入觸控螢幕的深度方向,當手指接近圖符時,看似其升起。重點是,所產生的顯示資料要使得當手指接近圖符時,圖符看似靠近 手指。
不過,例如,在以上參考圖12A描述的例中,在觸控螢幕119與手指221間之距離小於臨限值Th1的情況中,接近被偵測,且在該距離小於臨限值Th2的情況中,圖符的選擇被決定。亦即,觸控螢幕119與手指221間之距離的決定,是以兩步驟來實施。
不過,觸控螢幕119與手指221間之距離的決定,可以用3或更多的步驟來實施。這樣,可實施真實的3D顯示。
此外,觸控螢幕119與手指221間之距離的決定可以用單個臨限值來實施。在此情況,圖符選擇與顯示控制可相對地簡單。
圖13顯示的流程圖說明藉由成像設備50之圖符選擇與顯示控制處理的另一例。此處理係為比圖12之圖符選擇及顯示控制處理更為簡單的處理。
在步驟S51中,CPU 136控制數位信號處理單元134,並在液晶面板120(觸控螢幕119)上顯示選單螢幕。
在步驟S52中,接近決定單元181決定是否偵測到使用者的手指221接近,且當其決定手指221尚未接近時,處理回到步驟S51。例如,在圖9A及9B所顯示之狀態的情況中,其決定使用者之手指221尚未接近。
在步驟S52中決定有偵測到使用者之手指221接近的情況中,此處理前進到步驟S53。例如,在手指221與觸控螢幕119間之距離小於臨限值Th1的情況中,其決定有 偵測到使用者之手指221的接近。
在步驟S53中,視差調整單元182指定要以3維顯示的圖符。此時,例如,根據包括在接近決定單元181所輸出之資料中之資訊來指定要以3維顯示的圖符,且其指示使用者之手指221接近觸控螢幕119之哪一部分。此外,例如,將參考點P設定在要以3維顯示之圖符的中央位置。
在步驟S54中,視差調整單元182設定由3D影像產生單元183所產生之3D影像的視差。在此時,例如,所決定的視差事先被設定。
在步驟S55中,3D影像產生單元183根據在步驟S54之處理中所設定的視差,並按照步驟S53之處理所設定的參考點來產生做為左眼影像資料與右眼影像資料的資料。按此方式,3D影像資料被產生。此外,根據此3D影像資料,以3維來顯示觸控螢幕119的選單螢幕。
在步驟S56中,選擇執行指令單元184決定選擇在步驟S53之處理中所指定之圖符。
在步驟S57中,選擇執行指令單元184允許在步驟S31中被決定而選擇之圖符的功能被執行。此時,例如,如圖11A及11B所示,圖符207被選擇,且自偵測被拍攝為與CCD131所輸出之影像信號對應之影像之主題中之人臉的功能(面部偵測),及實施自動對焦,以將被偵測的臉部帶入焦點的功能被實施。
按此方式,圖符選擇及顯示控制處理被實施。
在前文中,所描述的例子係將本技術係被應用到成像設備50,但本技術也可應用到除了成像設備以外的其它電子設備。本技術可應用到使用觸控螢幕或類似物來實施操作的任何設備。
此外,在前文中,所描述的例為使用手指或類似物來操作顯示在觸控螢幕上的圖符或類似物,但是例如,本技術亦可應用於使用觸控筆或類似物來操作顯示在觸控螢幕上之圖符或類似物的情況。
此外,在前文中,所描述的例為當顯示在觸控螢幕上之選單螢幕中的圖符被選擇時實施3D顯示,但本技術之應用不限於此。重點在於只要GUI部分是顯示在觸控螢幕或類似物上,且此GUI部分是可被操作,即可應用本技術。
此外,在前文中,所描述的例是以具有採用視差屏障系統之3D顯示的觸控螢幕來實施3D顯示,不過,本揭示也可應用於使用除了視差屏障系統以外之系統來實施3D顯示的情況。例如,也可使用其中採用凸透鏡系統之具有3D顯示的觸控螢幕。
此外,除了可使用允許使用者以裸眼觀看的3D顯示器之外,也可使用允使用者戴著特殊眼鏡觀看具有3D顯示的觸控螢幕。
此外,上述一連串的處理可藉由硬體或軟體來執行。在上述一連串之處理藉由軟體來執行的情況中,可透過網路或從記錄媒體,將組成該軟體的程式安裝在由專用硬體 所組裝成的電腦上,或安裝在例如圖14中所示,藉由安裝不同程式可執行各種功能的通用個人電腦700上。
在圖14中,CPU(中央處理單元)701按照儲存在ROM(唯讀記憶體)702中之程式,或從儲存單元708載入到RAM(隨機存取記憶體)703中之程式執行各項處理。在RAM 703中,適當地儲存有CPU 701執行各項處理所需的資料。
CPU 701、ROM 702、RAM 703經由匯流排704互相連接。此外,I/O介面705連接到匯流排704。
諸如鍵盤及滑鼠的輸入單元706、諸如LCD(液晶顯示器)的顯示器、諸如喇叭的輸出單元707、諸如硬式磁碟機的儲存單元708、及諸如數據機及包括有LAN卡或類似物之網路介面卡的通信單元709都連接到I/O介面705。通信單元709在包括網際網路的網路上實施通信處理。
可適當安裝諸如磁碟、光碟、磁光碟、及半導體記憶體等可移式媒體711的碟片機710可視需要連接到I/O介面705,且因此,可視需要從這些媒體中讀出電腦程式而安裝到儲存單元708內。
在藉由軟體來執行上述一連串處理的情況中,可透過諸如網際網路之網路或諸如可移式媒體711的記錄媒體來安裝組成軟體的程式。
此外,此與圖14中所示設備之主體分離的記錄媒體,其組成除了能被分發以將記錄於其上之程式傳送給使用者的可移式媒體711(包括磁碟機(包括軟碟(註冊商標 ))、光碟(包括CD-ROM(唯讀光碟)、及DVD(多用途光碟)、磁光碟(包括微型碟)(註冊商標))、半導體記憶體、或類似物),也可以是事先組裝於設備主體中,且在程式記錄於其內的狀態下分發給使用者的ROM702、包括在儲存單元708中的硬式磁碟機、或類似物。
須知,本揭示也可採以下的架構。
〔1〕
一種影像處理設備,包括:接近偵測單元,其偵測是否有操作GUI部件之物件接近顯示該GUI部件的顯示單元;部件指定單元,在該物件接近的情況中,其指定被操作的該GUI部件;以及影像資料產生單元,其產生控制該顯示單元之深度顯示的影像資料,以使該被指定的GUI部件看似接近該物件。
〔2〕
如〔1〕之影像處理設備,其中,該影像資料產生單元按照該物件接近該顯示單元之程度來產生影像資料,其控制該顯示單元的深度顯示。
〔3〕
如〔2〕之影像處理設備,其中,該接近的程度與事先設定的臨限值相比較,並設定符合該比較結果的視差,用來控制該顯示單元的深度 顯示。
〔4〕
如〔1〕之影像處理設備,其中,該影像資料產生單元產生該影像資料以使被指定之該GUI部件被放大並顯示。
〔5〕
如〔1〕之影像處理設備,其中,該影像資料產生單元產生該影像資料以使該被指定之GUI部件的顏色改變。
〔6〕
如〔1〕之影像處理設備,進一步包括:功能執行單元,在該影像資料產生單元產生了該影像資料之後,其執行配置給該被指定之GUI部件的功能。
〔7〕
如〔1〕之影像處理設備,其中,該顯示器包括採用視差屏蔽系統的3D顯示器。
〔8〕
如〔1〕之影像處理設備,其中,該接近偵測單元包括觸控螢幕。
〔9〕
如〔1〕之影像處理設備,其中,該影像資料產生單元藉由產生具有以對應於該GUI部件之顯示位置之參考點為基點之預定視差的左眼影 像資料與右眼影像資料來產生影像資料。
〔10〕
一種顯示操作螢幕的方法,包括:允許接近偵測單元藉由接近偵測單元偵測是否有操作GUI部件之物件接近顯示該GUI部件的顯示單元;允許部件指定單元藉由部件指定單元在該物件接近的情況中指定被操作的該GUI部件;以及允許影像資料產生單元藉由影像資料產生單元產生控制該顯示單元之深度顯示的影像資料,以使該被指定的GUI部件看似接近該物件。
〔11〕
一種允許電腦做為影像處理設備的程式,其中,該影像處理設備包括:接近偵測單元,其偵測是否有操作GUI部件之物件接近顯示該GUI部件的顯示單元;部件指定單元,在該物件接近的情況中,其指定被操作的該GUI部件;以及影像資料產生單元,其產生控制該顯示單元之深度顯示的影像資料,以使該被指定的GUI部件看似接近該物件。
此外,本說明書中之上述一連串之處理,不僅包括按所描述之順序按時間序列實施的處理,也包括儘管不需按時間序列來實施之平行或分開實施的處理。
此外,本揭示的實施例並不限於上述的實施例,且不 偏離本揭示之精神可做各種的改變。
50‧‧‧成像設備
119‧‧‧觸控螢幕
120‧‧‧液晶面板
121‧‧‧接近面板
134‧‧‧數位信號處理單元
136‧‧‧CPU
137‧‧‧操作單元
138‧‧‧電氣可抹除可程式唯讀記憶體
139‧‧‧程式唯讀記憶體
140‧‧‧隨機存取記憶體
181‧‧‧接近決定單元
182‧‧‧視差調整單元
183‧‧‧3D影像產生單元
184‧‧‧選擇執行單元
201至208‧‧‧圖符
圖1之圖說明產生3D影像之方法。
圖2之圖說明顯示3D影像之顯示器的架構例。
圖3說明之例的情況係以視差屏障開啟來顯示影像。
圖4說明之例的情況係以視差屏障關閉來顯示影像。
圖5A及5B說明應用本揭示之技術之影像處理設備之實施例之成像設備的外觀架構例。
圖6之方塊圖係說明圖5A及5B中之成像設備的內部架構例。
圖7之方塊圖係說明藉由CPU所執行之軟體的功能架例。
圖8之圖說明影像顯示在觸控螢幕上之例。
圖9A及9B說明在圖符被選擇的情況中,觸控螢幕之顯示螢幕的轉變。
圖10A及10B說明在圖符被選擇的情況中,觸控螢幕之顯示螢幕的轉變。
圖11A及11B說明在圖符被選擇的情況中,觸控螢幕之顯示螢幕的轉變。
圖12說明圖符選擇及顯示控制處理例。
圖13說明圖符選擇及顯示控制處理的另一例。
圖14之方塊圖說明個人電腦之架構例。
181‧‧‧接近決定單元
182‧‧‧視差調整單元
183‧‧‧3D影像產生單元
184‧‧‧選擇執行單元

Claims (20)

  1. 一種控制單元,包含:控制電路,其控制顯示於顯示器上之圖形使用者介面之一部分的深度顯示,當偵測到物件靠近該顯示器時,該控制電路改變該部分之顯示的該深度。
  2. 如申請專利範圍第1項之控制單元,其中,該控制單元藉由減少顯示的該深度來改變顯示的該深度。
  3. 如申請專利範圍第1項之控制單元,其中,該部分係顯示在該顯示器上的圖符。
  4. 如申請專利範圍第3項之控制單元,其中,該圖符係可供使用者選擇的圖符,且該控制電路回應在離該圖符之預定距離內偵測到該物件而改變顯示的該深度。
  5. 如申請專利範圍第3項之控制單元,其中,當在該顯示器之預定距離內偵測到該物件時,該控制電路將該圖符從第一狀態改變到第二狀態,該第二狀態致使該圖符被視覺地感知位在與該第一狀態不同距離。
  6. 如申請專利範圍第1項之控制單元,進一步包含:感知器,偵測出當該物件與該顯示器之間為預定距離時。
  7. 如申請專利範圍第6項之控制單元,其中,該感知器係靜電電容式感知器,其被包括做為該顯示 器的一整體部分。
  8. 如申請專利範圍第1項之控制單元,進一步包含:該顯示器,該顯示器係為3維顯示器。
  9. 如申請專利範圍第8項之控制單元,其中,該3維顯示器包括左影像與右影像。
  10. 如申請專利範圍第1項之控制單元,其中,該控制電路改變該部分的視差,以便產生該部分之顯示深度之視覺感知的改變。
  11. 如申請專利範圍第1項之控制單元,其中,該圖形使用者介面之該部分係圖符,以及當該物件離該顯示器第一距離時,該控制電路改變該部分之顯示的該深度,及當該物件被偵測到位在離該顯示器第二距離之內時,該控制電路執行與該圖符相關的功能,該第二距離小於該第一距離。
  12. 如申請專利範圍第11項之控制單元,其中,當該物件位在該顯示器之該第二距離內時,該控制電路改變該圖符的顏色。
  13. 如申請專利範圍第11項之控制單元,其中,該控制電路回應該物件在該第二距離內被偵測到,致使該圖符逐漸消失,並觸發該功能之執行。
  14. 一種顯示控制方法,包含:在顯示器上顯示圖形使用者介面的一部分; 偵測物件接近該顯示器;以及以控制電路來控制圖形使用者介面之該部分的深度顯示,該控制包括改變該部分之顯示的該深度。
  15. 如申請專利範圍第14項之方法,其中,該控制包括藉由減少顯示的該深度來改變顯示的該深度。
  16. 如申請專利範圍第14項之方法,其中,該部分係顯示在該顯示器上的圖符。
  17. 如申請專利範圍第16項之方法,其中,該圖符係可供使用者選擇的圖符,以及該控制回應在離該圖符之預定距離內偵測到該物件而改變顯示的該深度。
  18. 如申請專利範圍第16項之方法,其中,該控制包括當在該顯示器之預定距離內偵測到該物件時,將該圖符從第一狀態改變到第二狀態,該第二狀態致使該圖符被視覺地感知位在與該第一狀態不同距離。
  19. 如申請專利範圍第14項之方法,進一步包含:以感知器偵測出當該物件離該顯示器預定距離時。
  20. 一種非暫時性電腦可讀取儲存裝置,其具有電腦可讀取之指令,當以處理電路執行該指令時,該指令實行顯示控制方法,該方法包含:在顯示器上顯示圖形使用者介面的一部分;偵測物件接近該顯示器;以及以控制電路來控制圖形使用者介面之該部分的深度顯 示,該控制包括改變該部分之顯示的該深度。
TW101106739A 2011-03-09 2012-03-01 影像處理裝置及方法,以及程式 TW201301131A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052085A JP2012190183A (ja) 2011-03-09 2011-03-09 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
TW201301131A true TW201301131A (zh) 2013-01-01

Family

ID=46797821

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101106739A TW201301131A (zh) 2011-03-09 2012-03-01 影像處理裝置及方法,以及程式

Country Status (6)

Country Link
US (1) US10185462B2 (zh)
EP (1) EP2684116A4 (zh)
JP (1) JP2012190183A (zh)
CN (2) CN102685527A (zh)
TW (1) TW201301131A (zh)
WO (1) WO2012120848A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102932532B (zh) * 2012-09-27 2014-06-18 东莞宇龙通信科技有限公司 应用管理的方法及其移动终端
JP5867424B2 (ja) 2013-02-28 2016-02-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2933714A1 (en) * 2014-04-15 2015-10-21 idp invent ag Method of operating a touch screen device, display control unit and touch screen device
CN106325652B (zh) * 2015-06-19 2019-12-10 深圳超多维科技有限公司 图形用户界面交互方法及触摸终端
CN106325656B (zh) * 2015-06-19 2019-10-25 深圳超多维科技有限公司 应用于触摸终端的3d用户界面交互方法及触摸终端
CN105204764B (zh) * 2015-09-06 2020-08-21 惠州Tcl移动通信有限公司 具有悬浮屏的手持终端、显示设备及遥控方法
CN105607736B (zh) * 2015-12-17 2019-10-11 魅族科技(中国)有限公司 一种信息显示方法及终端
KR20180005070A (ko) * 2016-07-05 2018-01-15 엘지전자 주식회사 이동 단말기 및 그 제어방법

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US6191773B1 (en) * 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
GB9606791D0 (en) * 1996-03-29 1996-06-05 British Telecomm Control interface
US6750848B1 (en) * 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
JP2002082745A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置及び方法、並びにプログラム格納媒体
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP3939709B2 (ja) * 2004-04-30 2007-07-04 日本電信電話株式会社 情報入力方法および情報入出力装置
EP1751499B1 (en) * 2004-06-03 2012-04-04 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
CN100437451C (zh) * 2004-06-29 2008-11-26 皇家飞利浦电子股份有限公司 用于防止弄脏显示设备的方法与设备
CN100407118C (zh) * 2004-10-12 2008-07-30 日本电信电话株式会社 三维指示方法和三维指示装置
JP5080273B2 (ja) * 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
JP4479962B2 (ja) * 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2006285491A (ja) * 2005-03-31 2006-10-19 Digital Electronics Corp 表示入力装置
WO2007042857A1 (en) * 2005-10-07 2007-04-19 Nokia Corporation A graphical user interface, a method, a device and a computer program for providing a menu and/or inputting an access code
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US20150121287A1 (en) * 2006-07-03 2015-04-30 Yoram Ben-Meir System for generating and controlling a variably displayable mobile device keypad/virtual keyboard
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
JP4489825B2 (ja) * 2006-09-07 2010-06-23 学校法人 大阪電気通信大学 ジェスチャ入力システム、方法及びプログラム
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
KR101012379B1 (ko) * 2008-03-25 2011-02-09 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20100115471A1 (en) * 2008-11-04 2010-05-06 Apple Inc. Multidimensional widgets
DE112009003647B4 (de) * 2008-12-04 2015-08-20 Mitsubishi Electric Corp. Fahrzeug-montierte Informationsvorrichtung
JP4683126B2 (ja) * 2008-12-26 2011-05-11 ブラザー工業株式会社 入力装置
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US9207806B2 (en) * 2009-05-28 2015-12-08 Microsoft Technology Licensing, Llc Creating a virtual mouse input device
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
US20120092251A1 (en) 2009-07-31 2012-04-19 Honda Motor Co., Ltd. Operation system for vehicle
US10198854B2 (en) * 2009-08-14 2019-02-05 Microsoft Technology Licensing, Llc Manipulation of 3-dimensional graphical objects for view in a multi-touch display
JP5531497B2 (ja) * 2009-08-18 2014-06-25 ソニー株式会社 表示装置及び表示方法
US8601402B1 (en) * 2009-09-29 2013-12-03 Rockwell Collins, Inc. System for and method of interfacing with a three dimensional display
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US9104275B2 (en) * 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
KR101613555B1 (ko) * 2009-10-26 2016-04-19 엘지전자 주식회사 이동 단말기
US20110106439A1 (en) * 2009-11-04 2011-05-05 In-Tai Huang Method of displaying multiple points of interest on a personal navigation device
US8302031B1 (en) * 2010-04-14 2012-10-30 Symantec Corporation Systems and methods for configuring information displayed on a screen
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US8565830B2 (en) * 2010-05-12 2013-10-22 Lg Electronics Inc. Mobile terminal and method of displaying 3D images thereon
US20120117514A1 (en) * 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US8589822B2 (en) * 2010-12-10 2013-11-19 International Business Machines Corporation Controlling three-dimensional views of selected portions of content
US9618972B2 (en) * 2011-01-20 2017-04-11 Blackberry Limited Three-dimensional, multi-depth presentation of icons in association with differing input components of a user interface
EP2717140B1 (en) * 2011-05-24 2019-01-09 Mitsubishi Electric Corporation Equipment control device, operation reception method, and program
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
US9052197B2 (en) * 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US20140325455A1 (en) * 2013-04-26 2014-10-30 Ebay Inc. Visual 3d interactive interface

Also Published As

Publication number Publication date
CN102685527A (zh) 2012-09-19
EP2684116A1 (en) 2014-01-15
WO2012120848A1 (en) 2012-09-13
US20130311952A1 (en) 2013-11-21
US10185462B2 (en) 2019-01-22
EP2684116A4 (en) 2015-01-28
JP2012190183A (ja) 2012-10-04
CN202551243U (zh) 2012-11-21

Similar Documents

Publication Publication Date Title
TW201301131A (zh) 影像處理裝置及方法,以及程式
US10805522B2 (en) Method of controlling camera of device and device thereof
US10222950B2 (en) Image processing apparatus and method
JP6214236B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US8887043B1 (en) Providing user feedback in projection environments
KR20120033246A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2014197824A5 (zh)
KR20120072867A (ko) 3d 디스플레이 단말 장치 및 그 조작 방법
JP5360166B2 (ja) 画像表示装置
EP2530577A2 (en) Display apparatus and method
CN107925729A (zh) 拍摄装置及其控制方法
US20120092457A1 (en) Stereoscopic image display apparatus
US11128764B2 (en) Imaging apparatus, control method, and non-transitory computer readable medium
US10334233B2 (en) Portable device that controls photography mode, and control method therefor
JP2012015619A (ja) 立体表示装置及び立体撮影装置
JP7271296B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5864043B2 (ja) 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
KR20150010070A (ko) 휴대단말기에서 이미지를 표시하는 방법 및 장치
JP2012042623A (ja) 表示装置
CN103220458B (zh) 一种立体摄像装置和立体摄像方法
KR20230039466A (ko) 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법
JP2021158559A (ja) 電子機器、その制御方法およびプログラム
JP2012175229A (ja) カメラおよびカメラの制御方法ならびにカメラの制御プログラム、表示装置の制御方法
JP2012142779A (ja) 撮像装置および撮像プログラム