KR102046569B1 - 촬상 장치 및 촬상 장치의 제어 방법 - Google Patents

촬상 장치 및 촬상 장치의 제어 방법 Download PDF

Info

Publication number
KR102046569B1
KR102046569B1 KR1020130041006A KR20130041006A KR102046569B1 KR 102046569 B1 KR102046569 B1 KR 102046569B1 KR 1020130041006 A KR1020130041006 A KR 1020130041006A KR 20130041006 A KR20130041006 A KR 20130041006A KR 102046569 B1 KR102046569 B1 KR 102046569B1
Authority
KR
South Korea
Prior art keywords
imaging
transparent display
menu
display unit
image
Prior art date
Application number
KR1020130041006A
Other languages
English (en)
Other versions
KR20140123767A (ko
Inventor
손우람
박일권
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130041006A priority Critical patent/KR102046569B1/ko
Priority to US14/044,060 priority patent/US9239642B2/en
Publication of KR20140123767A publication Critical patent/KR20140123767A/ko
Application granted granted Critical
Publication of KR102046569B1 publication Critical patent/KR102046569B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

촬상 장치가 개시된다. 촬상 장치는 피사체에 대한 촬상을 수행하기 위한 촬상부, 촬상부의 라이브 뷰 및 촬상 관련 메뉴를 사용자 방향으로 디스플레이하는 투명 디스플레이부, 투명 디스플레이부의 각 표면에 대한 터치를 감지하기 위한 감지부 및 투명 디스플레이부의 양 표면 중에서 피사체 방향의 표면이 터치되어 촬상 관련 메뉴가 선택되면, 촬상 관련 메뉴에 대응되는 동작을 수행하는 제어부를 포함한다. 이에 따라, 사용자는 편리하게 촬상 환경 설정 및 촬상을 수행할 수 있고, 최적의 상태에서 촬상할 수 있다.

Description

촬상 장치 및 촬상 장치의 제어 방법{IMAGING APPARATUS AND METHOD OF CONTROLLING THEREOF}
본 발명은 촬상 장치 및 촬상 장치의 제어 방법에 관한 것으로, 더욱 상세하게는 투명 디스플레이 상에서 촬상 관련 동작을 제어할 수 있는 촬상 장치 및 촬상 장치의 제어 방법에 관한 것이다.
최근 출시되는 촬상 장치는 사용자의 편의를 위해 터치 스크린을 구비하는 경우가 많다. 그리고, 촬상 장치는 다양한 환경하에서 최적의 사진을 촬상할 수 있도록 여러 가지 모드를 지원하고 있다.
일반적으로 촬상 장치는 터치 스크린에 라이브 뷰 영상을 디스플레이한다. 사용자는 디스플레이된 라이브 뷰 영상을 확인하면서 화면 위를 터치하여 초점 영역을 설정하거나 촬영 신호를 인가하는 방식으로 촬상 관련 동작을 제어한다.
이와 같은 촬상 장치는 화면 상에 다양한 촬상 관련 메뉴들을 디스플레이하고, 사용자가 그 촬상 관련 메뉴를 선택하면, 그에 대응되는 기능을 수행하도록 구현되는 것이 일반적이었다.
하지만, 촬상 장치의 기능이 점차 다양해지고, 촬상 장치의 크기는 소형화되면서, 화면을 통한 사용자 조작에 불편함이 생길 수 있다는 문제점이 있었다.
이에 따라, 촬상 장치의 기능을 좀 더 편리하고 간단하게 조작할 수 있는 인터렉션 방법에 대한 필요성이 대두되었다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 투명 디스플레이를 이용하여 편리하게 조작할 수 있는 촬상 장치 및 촬상 장치의 제어 방법을 제공하는 것이다.
본 발명의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 촬상 장치는 피사체에 대한 촬상을 수행하기 위한 촬상부, 상기 촬상부의 라이브 뷰 및 촬상 관련 메뉴를 사용자 방향으로 디스플레이하는 투명 디스플레이부, 상기 투명 디스플레이부의 각 표면에 대한 터치를 감지하기 위한 감지부 및 상기 투명 디스플레이부의 양 표면 중에서 상기 피사체 방향의 표면이 터치되어 상기 촬상 관련 메뉴가 선택되면, 상기 촬상 관련 메뉴에 대응되는 동작을 수행하는 제어부;를 포함한다.
한편, 촬상 장치는 터치 감지 방향을 변경하기 위한 플립 버튼을 더 포함하며, 상기 제어부는 상기 플립 버튼이 선택될 때마다, 상기 투명 디스플레이부의 양 표면 중에서 터치가 감지되는 표면을 토글시키도록 상기 감지부를 제어할 수 있다.
한편, 상기 플립 버튼은 물리적인 외부 키 및 상기 투명 디스플레이부의 어느 한 면에 표시되는 소프트 키 중 적어도 하나일 수 있다.
그리고, 상기 촬상 관련 메뉴는 촬상 버튼을 포함하며, 상기 제어부는 상기 투명 디스플레이부의 상기 피사체 방향의 표면이 터치되어 상기 촬상 버튼이 선택되면, 상기 이미지를 촬상하여 저장부에 저장할 수 있다.
또한, 상기 촬상 관련 메뉴는 상기 투명 디스플레이부의 제1 면에 대한 터치 제스처에 의해 선택되는 제1 메뉴 및 상기 투명 디스플레이부의 제2 면에 대한 터치 제스처에 의해 선택되는 제2 메뉴를 포함할 수 있다.
그리고, 상기 제1 메뉴는 초점 조절 버튼 및 특수 효과 설정 버튼 중 적어도 하나를 포함하고, 상기 제2 메뉴는 촬상 버튼을 포함할 수 있다.
또한, 상기 촬상부는 3차원 입체 이미지를 촬상할 수 있는 동일 면에 배치된 두 개의 카메라를 포함하고, 상기 제1 메뉴는 시차 조정 버튼을 포함하고 상기 제2 메뉴는 초점 조정 버튼을 포함할 수 있다.
한편, 상기 촬상 관련 메뉴는 원통형으로 이루어져서 회전하는 형태로 표시되며, 상기 제어부는 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제1 방향으로 회전시키고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제2 방향으로 회전시킬 수 있다.
그리고, 상기 제어부는 재생 모드가 선택되면 기 저장된 이미지를 표시하며, 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 기 저장된 이미지를 이미지 단위로 순차적으로 변경하여 표시하고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 기 저장된 이미지를 기 설정된 이미지 그룹 단위로 순차적으로 변경하여 표시할 수 있다.
본 발명의 상술한 목적을 달성하기 위한 일 실시 예에 따르면, 촬상 장치의 제어 방법은 피사체에 대한 촬상을 수행하는 단계, 라이브 뷰 및 촬상 관련 메뉴를 사용자 방향으로 디스플레이하는 단계, 상기 투명 디스플레이부의 각 표면에 대한 터치를 감지하는 단계 및 상기 투명 디스플레이부의 양 표면 중에서 상기 피사체 방향의 표면이 터치되어 상기 촬상 관련 메뉴가 선택되면, 상기 촬상 관련 메뉴에 대응되는 동작을 수행하는 단계를 포함한다.
한편, 촬상 장치의 제어 방법은 플립 버튼이 선택될 때마다, 상기 투명 디스플레이부의 양 표면 중에서 터치가 감지되는 표면을 토글시키는 단계를 더 포함할 수 있다.
그리고, 상기 대응되는 동작을 수행하는 단계는 상기 투명 디스플레이부의 상기 피사체 방향이 표면이 터치되어 촬상 버튼이 선택되면, 상기 이미지를 촬상하여 저장할 수 있다.
또한, 상기 촬상 관련 메뉴는 상기 투명 디스플레이부의 제1 면에 대한 터치 제스처에 의해 선택되는 제1 메뉴 및 상기 투명 디스플레이부의 제2 면에 대한 터치 제스처에 의해 선택되는 제2 메뉴를 포함할 수 있다.
또한, 상기 제1 메뉴는 초점 조절 버튼 및 특수 효과 설정 버튼 중 적어도 하나를 포함하고, 상기 제2 메뉴는 촬상 버튼을 포함할 수 있다.
그리고, 상기 촬상을 수행하는 단계는 3차원 입체 이미지를 촬상할 수 있는 두 개의 카메라로 촬상하며, 상기 제1 메뉴는 시차 조정 버튼을 포함하고 상기 제2 메뉴는 초점 조정 버튼을 포함할 수 있다.
한편, 상기 촬상 관련 메뉴는 원통형으로 이루어져서 회전하는 형태로 표시되며, 상기 대응되는 동작을 수행하는 단계는 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제1 방향으로 회전시키고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제2 방향으로 회전시킬 수 있다.
그리고, 촬상 장치의 제어 방법은 재생 모드가 선택되면 기 저장된 이미지를 표시하며, 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 기 저장된 이미지를 이미지 단위로 순차적으로 변경하여 표시하고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 기 저장된 이미지를 기 설정된 이미지 그룹 단위로 순차적으로 변경하여 표시하는 단계를 더 포함할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자는 편리하게 촬상 환경 설정 및 촬상을 수행할 수 있고, 최적의 상태에서 촬상할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 촬상 장치의 블록도.
도 2는 투명 디스플레이부의 세부 구성의 일 예를 나타내는 도면.
도 3은 본 발명의 일 실시 예에 따른 촬상 장치의 사시도.
도 4는 본 발명의 일 실시 예에 따른 촬상 과정을 설명하는 도면.
도 5는 본 발명의 일 실시 예에 따른 메뉴 선택 과정을 설명하는 도면.
도 6 내지 도 7은 본 발명의 다양한 실시 예에 따른 메뉴 표시 방법을 설명하는 도면.
도 8 내지 도 9는 본 발명의 다양한 실시 예에 따른 촬상 환경 설정 과정을 설명하는 도면.
도 10 내지 도 11은 본 발명의 다양한 실시 예에 따른 촬상 관련 메뉴 사용자 인터페이스(UI)를 설명하는 도면.
도 12 내지 도 13은 본 발명의 다양한 실시 예에 따른 촬상된 이미지를 확인하는 방법을 설명하는 도면.
도 14는 본 발명의 다른 실시 예에 따른 촬상 장치의 정면도.
도 15는 본 발명의 일 실시 예에 따른 촬상 장치의 제어 방법을 설명하는 도면.
도 16은 촬상 장치에 구비 가능한 다양한 구성요소들을 설명하기 위한 도면.
도 17은 본 발명의 일 실시 예에 따른 촬상 장치 제어 방법의 흐름도.
이하 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 촬상 장치의 블록도이다.
도 1을 참조하면 촬상 장치(100)는 촬상부(110), 투명 디스플레이부(120), 제어부(130), 감지부(140)를 포함한다.
촬상부(110)는 렌즈를 통해 입력되는 광을 수집하여 이미지를 센싱한다. 촬상부(110)는 렌즈를 포함한 렌즈 모듈과 이미지 센서를 포함한다. 초점(focus)를 맞추기 위해 렌즈는 이미지 센서와 일직선의 축상의 일정 범위 내에서 전후로 움직일 수 있다. 렌즈와 이미지 센서의 일직성의 축을 광축이라고 한다. 초점을 맞추기 위한 렌즈의 조정은 렌즈 모듈이 움직일 수도 있고, 경통과 결합된 렌즈부가 움직일 수도 있다. 초점은 사용자에 의해 수동으로 맞춰질 수 있다. 촬상부에 의해 생성되는 이미지는 프리뷰 이미지를 포함한다.
투명 디스플레이부(120)는 투명한 재질로 구현되어, 외부 사물들이 투명하게 비치게 된다. 그리고, 투명 디스플레이부(120)는 촬상부(110)에 의해 생성되는 이미지 및 촬상 관련 메뉴를 디스플레이한다. 또한, 투명 디스플레이부(120)는 근접 센서나 터치 센서를 이용한 사용자 조작을 인식할 수 있는 터치 디스플레이 패널로 구현될 수 있다. 따라서, 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 감지 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치 제스처를 입력받을 수 있다. 또한, 터치 패널은 투명 디스플레이부(120)의 전면 및 후면에 구비되어 투명 디스플레이부(120)는 양면에서 사용자의 터치 입력을 인식할 수 있다.
설명의 편의를 위해 투명 디스플레이부(120)의 전면은 사용자가 바라보는 방향으로 정의하고, 후면은 피사체가 위치한 방향으로 정의한다. 그러나, 전면 및 후면은 절대적인 개념은 아니고, 반대의 개념으로 사용될 수도 있다. 또한, 전면/후면은 제1 면 또는 제2 면으로 지칭될 수도 있다.
터치 제스처는 투명 디스플레이부(120)의 스크린을 직접 접촉하여 촬상 장치(100)에 명령을 입력하는 동작을 의미한다. 터치 제스처의 타입에는 하나의 터치를 이용하는 탭(Tap), 터치&홀드(Touch&Hold), 더블 탭(Double Tap), 드래그(Drag), 드래그&드롭(Drag&Drop) 및 플릭(Flick) 등이 있다. 그리고, 두 개의 터치를 이용하는 투 핑거 탭(Two finger Tap), 터치&스프레드(Touch&Spread), 핀치 아웃(Pinch Out), 핀치 인(Pinch In), 투 핑거 드래그(Two finger Drag), 크로스 투 핑거(Cross Two finger), 터치&로테이트(Touch&Rotate) 등이 있다. 본 발명에서 설명하는 터치 제스처 타입과 대응되는 동작은 일 실시 예이며, 촬상 장치(100)는 다양한 터치 제스처 타입과 수행 동작을 대응시킬 수 있다.
제어부(130)는 투명 디스플레이부(120)에 대한 사용자의 터치 제스처가 입력되면, 터치 제스처가 입력된 영역에 디스플레이된 촬상 관련 메뉴에 대한 선택 명령으로 인식하고, 선택된 촬상 관련 메뉴에 대응되는 동작을 수행할 수 있다. 촬상 관련 메뉴는 촬상, 자동 초점(Auto Focus: AF), 자동 노출(Auto Exposure: AE), 셔터 스피드, 조리개 값, ISO, 노출 EV 값, 특수 효과 선택, 기 설정된 촬영 모드(예, 접사 모드, 야간 모드, 인물 모드, 풍경 모드, 스포츠 모드 등) 등이 될 수 있다. 촬상 관련 메뉴는 표, 아이콘, 버튼의 형태로 투명 디스플레이부(120)에 표시될 수 있다. 또한, 촬상 관련 메뉴는 상술한 바와 같은 형태가 아닌 투명 디스플레이부(120)의 전면 터치에 대한 설정 상태 및 후면 터치에 대한 설정 상태를 포함한다. 예를 들어, 제어부(130)는 투명 디스플레이부(120)의 전면 터치에 대해 자동 초점 설정으로 인식하고, 후면 터치에 대해 이미지 촬상으로 인식할 수 있다. 따라서, 이 경우에 제어부(130)는 사용자의 투명 디스플레이부(120) 전면에 대한 터치 제스처를 인식하면 터치 영역을 중심으로 자동 초점을 수행하고, 후면에 대한 터치 제스처를 인식하면 이미지 촬상을 수행할 수 있다.
감지부(140)는 투명 디스플레이부(120)에 대한 터치 입력을 감지한다. 투명 디스플레이부(120)는 전면/후면 또는 제1 면/제2 면에 대한 사용자 터치를 입력받는다. 감지부(140)는 투명 디스플레이부(120)의 어느 표면 및 어느 영역에 대한 터치인지를 감지한다. 경우에 따라, 터치 압력 및 시간을 추가적으로 감지할 수도 있다.
도 1에서 도시하지 않았으나, 촬상 장치(100)는 이미지 처리부(미도시)를 포함할 수 있다. 이미지 처리부는 디스플레이 처리부(미도시), 프레임 버퍼(미도시), 디스플레이 드라이버(미도시)를 포함한다.
디스플레이 처리부는 제어부(130)의 제어에 따른 신호 처리를 수행하여, 화면 데이터를 생성한다. 디스플레이 처리부는 각각 연산부(미도시) 및 렌더링부(미도시)를 포함할 수 있다. 연산부는 기 설정된 레이아웃에 따라 화면 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면 데이터를 생성한다. 디스플레이 처리부에서 생성된 화면 데이터는 프레임 버퍼에 저장된다. 이러한 화면 데이터는 일 예로 비트맵 이미지 형태로 생성되어 저장될 수 있다.
디스플레이 드라이버는 프레임 버퍼에 저장된 화면 데이터를 이미지 소스 신호로 변환하여 투명 디스플레이 레이어에 인가한다. 여기서, 이미지 소스 신호란 투명 디스플레이 레이어를 구성하는 각 셀에 연결된 전극에 인가되는 스캔 신호 및 구동 신호를 포함한다. 이에 따라, 투명 디스플레이 레이어는 화면을 디스플레이할 수 있다.
한편, 투명 디스플레이부(120)는 실시 예에 따라 다양한 방식으로 구현될 수 있다. 구체적으로는, 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형, 투사형 등과 같은 방식 중 하나로 구현될 수 있다.
투명 LCD 형이란 현재 사용되고 있는 LCD 장치에서 백라이트 유닛을 제거하고, 한 쌍의 편광판, 광학 필름, 투명 박막 트랜지스터, 투명 전극 등을 사용하여 구현한 투명 디스플레이 장치를 의미한다. 투명 LCD 장치에서는 편광판이나 광학 필름등에 의해 투과도가 떨어지고, 백라이트 유닛 대신 주변 광을 이용하게 되므로 광 효율이 떨어지지만, 대면적 투명 디스플레이를 구현할 수 있다는 장점이 있다. 투명 TFEL 형이란 투명 전극, 무기 형광체, 절연막으로 이루어진 교류형 무기박막 EL 디스플레이(AC-TFEL)를 사용하는 장치를 의미한다. AC-TFEL 형은 무기 형광체 내부에 가속이 된 전자가 지나가면서 형광체를 여기시켜 빛을 내게 하는 디스플레이이다. 투명 디스플레이부(130)가 투명 TFEL 형태로 구현된 경우, 제어부(130)는 적절한 위치로 전자가 투사되도록 조정하여, 정보 표시 위치를 결정할 수 있다. 무기 형광체, 절연막이 투명한 특성을 가지므로, 매우 투명한 디스플레이를 구현할 수 있다.  
그 밖에, 투명 OLED형이란 자체 발광이 가능한 OLED를 이용하는 투명 디스플레이 장치를 의미한다. 유기 발광층이 투명하기 때문에, 양쪽 전극을 투명 전극으로 사용하면, 투명 디스플레이 장치로 구현 가능하다. OLED는 유기 발광층 양쪽에서 전자와 정공을 주입하여 이들이 유기 발광층 내에서 결합되면서 빛을 내게 된다. 투명 OLED 장치는 이러한 원리를 사용하여 원하는 위치에 전자 및 정공을 주입하여, 정보를 표시한다.
도 2는 투명 OLED형으로 구현된 투명 디스플레이부의 세부 구성의 예를 나타내는 도면이다.
도 2에 따르면, 투명 디스플레이부(120-1)는 투명 기판(121-1), 투명 트랜지스터층(122-1), 제1 투명 전극(123-1), 투명 유기 발광 층(Transparent Organic Light-Emitting layer)(124-1), 제2 투명 전극(125-1), 연결 전극(126-1), 유전막(127-1, 128-1)을 포함한다.  
투명기판(121-1)은 투명한 성질을 가지는 플라스틱과 같은 폴리머 재료 또는 유리를 사용할 수 있다. 투명 트랜지스터층(122-1)이란 기존 박막 트랜지스터의 불투명한 실리콘을 투명한 아연산화물, 산화 티타늄 등과 같은 투명 물질로 대체하여 제작한 트랜지스터를 포함하는 레이어를 의미한다. 투명 트랜지스터층(122-1) 내에는 소스, 게이트, 드레인 및 각종 유전막(127-1, 128-1)이 마련되며, 드레인과 제1 투명 전극(123-1)을 전기적으로 연결하는 연결 전극(126-1)도 마련될 수 있다. 도 2에서는 투명 트랜지스터 층(122-1) 내에 소스, 게이트, 드레인으로 이루어진 하나의 투명 트랜지스터만이 도시되었으나, 실제로는 디스플레이 표면의 전체 영역에 고르게 분포된 복수 개의 투명 트랜지스터가 마련된다. 제어부(130)는 투명 트랜지스터층(122-1) 내의 각 트랜지스트들의 게이트로 제어 신호를 인가하여, 해당 투명 트랜지스터를 구동시켜 정보를 표시할 수 있다.
제1 투명 전극 (123-1) 및 제2 투명 전극(125-1)은 투명 유기 발광층(124-1)을 기준으로 서로 반대 방향에 배치된다. 제1 투명 전극, 투명 유기 발광층 및 제2 투명 전극(123-1, 124-1, 125-1)은 투명 유기 발광 다이오드(Organic Light-Emitting Diodes)를 형성한다.
투명 유기 발광 다이오드는 구동 방식에 따라 크게 수동형(Passive Matrix OLED)과 능동형 (Active Matrix OLED)으로 분류된다. PMOLED는 제1 및 제2 투명 전극(123-1, 125-1)이 서로 교차하는 부분이 화소를 형성하는 구조이다. 반면, AMOLED는 각 화소를 구동하는 박막 트랜지스터(TFT)가 있는 구조이다. 도 2에서는 능동형을 나타내고 있다. 제1 투명 전극(123-1) 및 제2 투명 전극(125-1)은 각각 복수 개의 라인 전극을 포함하며, 라인 전극의 정렬 방향은 서로 수직하게 형성된다. 가령, 제1 투명 전극(123-1)의 라인 전극들이 가로 방향으로 배열되었다면, 제2 투명 전극(125-1)의 라인 전극들은 세로 방향으로 배열된다. 이에 따라, 제1 투명 전극(123-1) 및 제2 투명 전극(125-1) 간에는 복수의 교차 영역이 형성된다. 각 교차 영역에는 도 2에 도시된 바와 같이 투명 트랜지스터가 연결된다.
제어부(130)는 투명 트랜지스터를 이용하여 각 교차 영역별로 전위차가 형성되도록 한다. 전위차가 형성된 교차 영역 내에서 각 전극으로부터 전자와 정공이 투명 유기 발광층(124-1)으로 유입되어 결합하면서 발광이 이루어진다. 반면, 전위차가 형성되지 않은 교차 영역은 발광이 이루어지지 않으며, 이에 따라 후면 배경이 그대로 투명하게 비치게 된다.
제1 및 제2 투명 전극(123-1, 125-1)으로는 ITO(indium tin oxide)가 사용될 수 있다. 또는, 그래핀과 같은 신소재가 사용될 수도 있다. 그래핀이란 탄소원자가 서로 연결돼 벌집 모양의 평면 구조를 이루며 투명한 성질을 가지는 물질을 의미한다. 그 밖에, 투명 유기 발광 층(124-1)도 다양한 재료로 구현될 수 있다.
한편, 상술한 바와 같이 투명 디스플레이부(120)는 투명 LCD(Liquid Crystal Display) 형, 투명 TFEL(Thin-Film Electroluminescent Panel) 형, 투명 OLED 형 등으로 구현될 수 있으나, 이와 달리 투사형으로도 구현될 수 있다. 투사형이란 투명한 스크린에 영상을 투사하여 디스플레이하는 방식을 의미한다. 예를 들어, HUD(Head Up Display)와 같이 시스템이 투사형 시스템에 해당한다.
도 2에서는 하나의 투명 디스플레이 패널에 대해 설명하였으나 복수의 투명 디스플레이 패널을 이용하여 투명 디스플레이부(120)가 구현될 수도 있다.
도 3은 본 발명의 일 실시 예에 따른 촬상 장치의 사시도이다.
도 3을 참조하면 촬상 장치(100)는 촬상부(110), 투명 디스플레이부(120), 플립 버튼(192-1)이 도시되어 있다. 설명의 편의를 위해 촬상부(110)가 배치된 촬상 장치(100)의 면을 후면으로 지칭한다. 그러나, 전면과 후면은 절대적인 것은 아니며, 반대로 지칭할 수도 있다.
촬상 장치(100)는 투명 디스플레이부(120)를 포함한다. 상술한 바와 같이 투명 디스플레이부(120)는 투명한 재질로 이루어져 있으므로 사용자는 투명 디스플레이부(120)를 통해 반대면을 볼 수 있다.
촬상부(110)는 촬상 장치(100)의 후면 상단에 배치될 수 있다. 촬상부(110)의 배치는 절대적인 것이 아니며 용도에 따라 적절한 위치에 배치될 수 있다. 선택적으로 촬상 장치(100)는 전면 하단에 입력부(미도시)를 포함할 수 있다. 입력부는 홈, 취소, 통화 버튼 등을 포함할 수 있다. 입력부는 물리적인 버튼 타입으로 구현될 수 있고, 터치 타입으로 구현될 수 있다.
촬상 장치(100)의 일 측면에는 플립 버튼(192-1)을 포함할 수 있다. 플립 버튼(192-1)은 촬상 관련 메뉴에 대한 터치 제스처의 인식면을 전환할 수 있다. 예를 들어, 투명 디스플레이부(120)는 촬상 버튼만을 표시하고 있다고 가정한다. 촬상 장치(100)는 투명 디스플레이부(120)의 후면에서 입력되는 사용자의 터치 제스처를 촬상 버튼에 대한 선택 명령으로 인식하도록 설정할 수 있다. 이 경우, 사용자가 투명 디스플레이부(120)의 전면에 대한 터치 제스처를 입력해도 촬상 장치(100)는 촬상 명령을 수행하지 않는다.
그러나, 사용자가 플립 버튼(192-1)을 이용한 플립 명령을 입력하면, 촬상 장치(100)는 사용자의 투명 디스플레이 전면에 대한 터치 제스처를 촬상 버튼에 대한 선택 명령으로 인식한다. 이 때에는 사용자의 후면에 대한 터치 제스처를 인식하지 않는다. 도 3에서는 플립 버튼(192-1)이 투명 디스플레이부(120) 외부에 물리적인 키 형태로 구현된 경우를 도시하였으나 플립 버튼(192-1)은 투명 디스플레이부(120) 일 영역에 소프트 키 형태로 구현될 수 있다. 또는, 플립 버튼(192-1)은 물리적인 키 및 소프트 키 형태 모두로 구현될 수도 있다.
그리고, 플립 버튼(192-1)은 촬상된 이미지의 좌우 방향을 전환할 수도 있다.
사용자는 투명 디스플레이부(120)를 포함하는 촬상 장치(100)를 이용하여 편리하게 이미지를 촬상할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 촬상 과정을 설명하는 도면이다.
도 4에 따르면 촬상부(110)는 피사체를 촬상한다. 촬상된 피사체는 투명 디스플레이부(120)에 디스플레이된다. 촬상된 피사체를 디스플레이한다는 것은 피사체를 프리뷰 이미지로 표시한다는 것을 의미한다.
투명 디스플레이부(120)의 일 영역에는 촬상 버튼(10)이 표시될 수 있다. 촬상 장치(100)는 투명 디스플레이부(120)의 후면에 대한 터치 제스처가 인식되었을 때, 촬상 버튼(10)에 대한 선택 명령이 입력된 것으로 설정할 수 있다. 사용자는 투명 디스플레이부(120)에 디스플레이된 피사체를 확인하면서 촬상 버튼(10)이 표시된 투명 디스플레이부(120)의 후면을 터치한다. 상술한 바와 같이 투명 디스플레이부(120)는 투명하기 때문에 사용자는 투명 디스플레이부(120)를 투과하여 반대면을 볼 수 있다. 따라서, 사용자는 편리하게 피사체를 촬상할 수 있고, 촬상 장치(100)는 촬상 명령을 인식하면 촬상된 이미지를 저장부(미도시)에 저장한다.
촬상 장치(100)는 플립 버튼(192-1)을 촬상 버튼(10) 인식면 전환으로 설정할 수 있고, 사용자가 플립 버튼(192-1)을 선택하면 촬상 장치(100)는 촬상 버튼(10)의 인식면을 투명 디스플레이부(120)의 후면에서 전면으로 전환할 수 있다.
도 4에서는 일반적인 촬상 과정에 대해 도시하였으나 셀프 촬영의 경우에도 편리하게 촬상할 수 있다. 셀프 촬영을 위해서 사용자는 촬상부(110)가 배치된 투명 디스플레이부(120)의 후면을 사용자가 위치한 면으로 향한다. 따라서, 촬상부(110)가 사용자를 촬상하면 촬상 장치(100)는 투명 디스플레이부(120)에 디스플레이한다. 이 때, 투명 디스플레이부(120)에 디스플레이된 사용자는 실제의 사용자와 좌우 방향이 바뀌어 표시된다. 또한, 촬상 장치(100)는 사용자가 위치한 면에 대한 터치 제스처를 촬상 버튼(10)에 대한 선택 명령으로 인식한다. 촬상 장치(100)는 플립 버튼을 셀프 촬영 모드 설정으로 세팅할 수 있다. 이 경우, 사용자가 플립 버튼을 선택하면 좌우 이미지 반전 및 촬상 버튼(10) 인식면의 전환이 동시에 수행될 수 있다. 또는, 촬상 장치(100)는 투명 디스플레이부(120)에 별도의 셀프 촬영 메뉴를 표시하고 사용자의 선택에 의해 셀프 촬영에 적합하게 촬상 장치(100)의 설정 상태를 변경할 수 있다.
촬상 장치(100)는 하나의 카메라를 포함하는 촬상부(110)로 구현될 수 있고, 사용자는 투명 디스플레이부(120)에 디스플레이되는 자신의 이미지를 직접 확인할 수 있다. 그리고, 사용자는 이와 함께 투명 디스플레이부(120)의 반대면을 투과하여 보면서 촬상 버튼(10)을 선택할 수 있으므로 편리하게 셀프 촬영을 수행할 수 있다.
도 4에서는 촬상 버튼이 표시된 예로 설명하고 있으나, 촬상 장치(100)는 촬상 버튼(10)을 별도의 버튼 형태로 표시하지 않고, 투명 디스플레이부(120)의 전면 또는 후면에 대해 터치 제스처를 입력하면 촬상이 수행되도록 설정할 수 있다.
지금까지 촬상 장치(100)의 기본적인 동작인 촬상을 수행하는 과정에 대해 설명하였다. 촬상 장치(100)는 최적의 이미지를 촬상할 수 있도록 여러가지 촬상 관련 설정 메뉴를 표시할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 메뉴 선택 과정을 설명하는 도면이다.
도 5를 참조하면 촬상부(110)는 피사체를 촬상한다. 촬상된 피사체는 투명 디스플레이부(120)에 표시된다. 투명 디스플레이부(120)의 일 영역에는 촬상 관련 메뉴가 표시될 수 있다.
촬상 관련 메뉴는 촬상 모드로서 자동, 프로그램, 셔터 스피드 우선, 조리개 우선, 수동, 야경 모드, 풍경 모드, 접사 모드, 스포츠 모드 등이 있다. 또한, 자동 초점 메뉴, 측광 메뉴, 플래쉬 메뉴, ISO 설정, 노출 EV 값 설정, 화이트 밸런스 설정, 줌 설정, 특수 효과 등이 있다.
촬상 관련 메뉴는 두 가지 메뉴가 겹쳐진 형태로 표시될 수 있다. 제1 메뉴(11)는 앞에 표시된 메뉴로서 투명 디스플레이부(120)의 전면에 대한 터치 제스처에 의해 선택된다. 제2 메뉴(13)는 제1 메뉴의 뒤에 겹쳐진 메뉴로서 투명 디스플레이부(120)의 후면에 대한 터치 제스처에 의해 선택된다. 예를 들어, 제1 메뉴(11)는 초점 조절 버튼일 수 있고, 제2 메뉴(13)는 촬상 버튼일 수 있다. 이 경우, 사용자는 제1 메뉴(11)를 선택하여 초점을 조절하고 제2 메뉴(13)을 선택하여 촬상을 할 수 있다.
또는, 제1 메뉴(11)는 특수 효과 설정 버튼일 수 있고, 제2 메뉴(13)는 촬상 버튼일 수 있다. 이 경우, 사용자는 제1 메뉴(11)를 선택하여 특수 효과를 설정하고 제2 메뉴(13)를 선택하여 촬상을 할 수 있다. 촬상 관련 메뉴의 표시는 일 실시 예이며 도 5에 도시된 도면에 한정되는 것은 아니다. 예를 들어, 촬상 관련 메뉴는 촬상된 이미지 상에 표시될 수도 있다. 또한, 제1 메뉴(11)와 제2 메뉴(13)는 촬상 장치(100)의 성능, 용도 등에 따라 적절하게 분류되고 적용될 수 있다.
촬상 관련 메뉴와 관련된 다양한 실시 예는 아래에서 설명한다.
도 6 내지 도 7은 본 발명의 다양한 실시 예에 따른 메뉴 표시 방법을 설명하는 도면이다.
도 6을 참조하면 투명 디스플레이부(120)의 화면(51a)에는 촬상된 이미지가 표시되는 제1 영역(31)과 촬상 관련 메뉴가 표시되는 제2 영역(32)이 디스플레이될 수 있다. 제2 영역(32)에는 촬상 관련 메뉴로서 A1(11-1), A2(11-2), B1(13-1), B2(13-2)가 표시될 수 있다. A1(11-1), A2(11-2)는 투명 디스플레이부(120)의 전면에 대한 터치 제스처로 선택될 수 있고, B1(13-1), B2(13-2)는 투명 디스플레이부(120)의 후면에 대한 터치 제스처로 선택될 수 있다. 제2 영역(32)에는 메뉴의 터치 제스처 인식면을 전환시킬 수 있는 플립 버튼(21)이 소프트 키 형태로 표시될 수 있다. B1(13-1), B2(13-2) 메뉴는 A1(11-1), A2(11-2) 메뉴와 겹쳐진 형태로 표시될 수 있다.
사용자가 플립 버튼(21)을 한 번 선택하면 B1(13-1), B2(13-2) 메뉴와 A1(11-1), A2(11-2) 메뉴의 터치 인식면이 전환된다. 도 6에는 메뉴의 터치 인식면이 전환된 화면(51b)이 도시되어 있다. 즉, B1(13-1), B2(13-2) 메뉴는 A1(11-1), A2(11-2) 메뉴 앞에 표시된다. 그리고, B1(13-1), B2(13-2) 메뉴는 투명 디스플레이부(120)의 전면에 대한 터치 제스처로 선택될 수 있고, A1(11-1), A2(11-2) 메뉴는 후면에 대한 터치 제스처로 선택될 수 있다.
사용자가 다시 한 번 플립 버튼(21)을 선택하면 B1(13-1), B2(13-2) 메뉴와 A1(11-1), A2(11-2) 메뉴는 다시 한 번 전환된다. 도 6에서는 A1(11-1), A2(11-2) 메뉴와 B1(13-1), B2(13-2) 메뉴가 그룹 형태로 전환되는 실시 예에 대해서 설명하였다.
도 7을 참조하면 투명 디스플레이부(120)의 제2 영역에는 도 6과 다른 형태의 메뉴가 표시된 화면(53a)이 도시되어 있다. 도 7에서는 A1과 B1가 각각 상하로 표시된 메뉴(15-1)과 A2와 B2가 각각 상하로 표시된 메뉴(16-1)가 표시되어 있다. 도 6과 유사하게 A1 및 A2는 투명 디스플레이부(120)의 전면에 대한 터치 제스처로 선택될 수 있고, B1 및 B2는 후면에 대한 터치 제스처로 선택될 수 있다.
사용자는 A1과 B1이 표시된 메뉴(15-1)을 터치한다. 사용자의 탭 제스처는 A1을 실행시키지 않고 A1이 포함된 메뉴(15-1)를 선택하는 명령으로 인식될 수 있다. A1이 포함된 메뉴(15-1)가 선택된 상태에서 사용자는 플립 버튼(21)을 한 번 선택하면, A1이 포함된 메뉴(15-1)만이 터치 인식면의 전환이 이루어진다.
도 7에는 A1과 B1의 위치가 변경된 메뉴(15-2)와 변경이 이루어지지 않은 A2를 포함하는 메뉴(16-2)가 표시된 화면(53b)가 도시되어 있다. 즉, A1이 포함된 메뉴(15-1)는 B1이 위로 배치되고, A1이 아래로 배치된 메뉴(15-2)로 전환된다. 이 경우, B1과 A2는 투명 디스플레이부(120)의 전면에 대한 터치 제스처로 선택될 수 있고, A1과 B2는 후면에 대한 터치 제스처로 선택될 수 있다.
두 개의 메뉴가 동일한 영역에 배치될 수 있고, 선택될 수 있으므로 촬상 장치(100)는 많은 메뉴를 표시할 수 있고, 사용자는 촬상 관련 설정을 편리하게 할 수 있다.
도 8 내지 도 9는 본 발명의 다양한 실시 예에 따른 촬상 환경 설정 과정을 설명하는 도면이다.
촬상 장치(100)는 전면 터치에 대해서 자동 초점 모드, 후면 터치에 대해서 촬상 실행이 설정될 수 있다. 투명 디스플레이부(120)의 각 면에 하나의 메뉴만이 대응되는 경우, 촬상 장치(100)는 별도의 메뉴 영역 또는 메뉴 표시를 하지 않을 수 있다.
투명 디스플레이부(120) 전면에 대한 사용자의 탭 터치 제스처(71)가 인식되는 경우, 촬상 장치(100)는 대응되는 자동 초점 모드를 수행하여 초점 영역(17-1)을 표시한다. 도 8에는 사용자의 탭 터치 제스처(71)에 의해 자동 초점 모드가 실행된 화면(55a)이 도시되어 있다.
촬상 장치(100)는 전면에 대한 드래그 터치 제스처(72)를 초점 영역 확장 명령에 대응되도록 설정할 수 있다. 사용자가 전면에 대해 드래그 터치 제스처(72)를 입력하면 촬상 장치(100)는 드래그 터치 제스처(72)에 대응되도록 초점 영역(17-2)을 확장한다. 도 8에는 확장된 초점 영역(17-2)이 표시된 화면(55b)이 도시되어 있다.
사용자는 투명 디스플레이부(120)의 후면에 대해 탭 터치 제스처(73)를 입력한다. 도 8에는 후면에 대한 탭 터치 제스처(73)가 입력된 화면(55c)이 도시되어 있다. 촬상 장치(100)는 입력된 탭 터치 제스처(73)에 대응하여 이미지를 촬상하고 저장부에 저장한다. 이 때, 촬상 장치(100)는 설정된 초점 영역(17-2)에 대해 노출값을 판단하고 설정하여 이미지를 촬상한다. 촬상 장치(100)는 이미지를 저장하기 전에 사용자에게 저장 여부를 문의할 수 있다.
촬상 장치(100)는 전명 터치에 대해서 특수 효과 설정 모드, 후면 터치에 대해서 촬상 실행이 설정될 수 있다. 특수 효과는 스머지(smudge), 블러(blur), 렌즈 플레어(lens flare) 등이 있다.
도 9를 참조하면, 투명 디스플레이부(120) 전면에 대한 사용자의 터치 제스처에 대해 블러 효과가 설정되어 있다. 도 9에는 투명 디스플레이부(120) 전면에 대해 사용자의 터치 제스처(74)가 입력되는 화면(57a)이 도시되어 있다. 촬상 장치(100)는 설정된 특수 효과와 사용자의 터치 제스처(74)에 따라 촬상된 이미지에 블러 효과를 적용한다.
도 9에는 블러 효과가 적용된 촬상 이미지를 디스플레이하는 화면(57b)이 도시되어 있다. 사용자는 투명 디스플레이부(120)의 후면에 대해 탭 터치 제스처(75)를 입력한다. 촬상 장치(100)는 입력된 탭 터치 제스처(75)에 대응하여 이미지를 촬상하고 저장부에 저장한다.
촬상 장치(100)는 촬상과 관련된 설정 선택을 입력받거나 투명 디스플레이부(120)의 전면 및 후면 터치 제스처에 대응하는 촬상 관련 메뉴의 선택 명령을 입력받기 위하여 다양한 형태의 촬상 관련 메뉴 인터페이스를 표시할 수 있다.
도 10 내지 도 11은 본 발명의 다양한 실시 예에 따른 촬상 관련 메뉴 사용자 인터페이스(UI)를 설명하는 도면이다.
도 10에 따르면, 원통형의 촬상 관련 메뉴가 표시된 화면(59a)이 도시되어 있다. 촬상 관련 메뉴는 원통형으로 표시되어, 투명 디스플레이부(120)의 전면에 대한 터치 제스처가 인식되면 제1 방향으로 회전되고, 후면에 대한 터치 제스처가 인식되면 제2 방향으로 회전될 수 있다.
도 10에는 촬상 모드가 선택되어 촬상 모드의 종류인 자동(Auto) 모드, 조리개 우선 모드(Av), 프로그램 모드(Program), 수동 모드(Manual), 접사 모드가 표시된 촬상 관련 메뉴(21)가 디스플레이되어 있다. 투명 디스플레이부(120)의 전면에 대해 터치 제스처(76)가 입력되면 촬상 관련 메뉴(21)는 아래 방향으로 한 칸씩 이동한다. 촬상 관련 메뉴(21)가 아래 방향으로 이동함에 따라 가장 아래 있는 메뉴는 사라지고, 가장 위에는 다른 메뉴가 표시된다. 일 실시 예로서, 터치(76)가 계속되는 동안 촬상 관련 메뉴(21)는 계속 회전하는 형태로 움직일 수 있다. 터치 제스처(76)의 입력이 중단되면 촬상 관련 메뉴(21)의 회전도 멈춘다.
도 10에는 조리개 우선 모드(Av)(21-1)가 중앙에 표시된 촬상 관련 메뉴(21)가 표시된 화면(59b)이 도시되어 있다. 중앙에 위치한 메뉴는 선택 예정이라는 의미로 굵게 표시될 수 있다. 또는, 다른 색으로 표시될 수도 있다. 터치 입력이 중단되고 일정 시간(예, 0.5초, 1초 등)이 지나면 자동으로 조리개 우선 모드(Av)가 설정된다.
다른 실시 예로서, 모드는 자동으로 설정되지 않고 사용자가 해당 모드 영역을 터치하는 경우 터치된 영역에 해당하는 모드가 설정될 수도 있다.
설정된 조리개 우선 모드(Av)(21-1)는 조리개 개방 값을 얼마로 하는지에 대한 세부 설정이 필요하다.
도 11을 참조하면 조리개 운선 모드(Av)(21-1)의 세부 메뉴인 개방 값을 선택하는 촬상 관련 메뉴(23)가 추가적으로 표시된 화면(61a)이 도시되어 있다. 투명 디스플레이부(120)의 후면에 대해 터치 제스처(77)가 입력되면 촬상 관련 메뉴(23)는 윗 방향으로 한 칸씩 이동한다. 촬상 관련 메뉴(23)가 윗 방향으로 이동함에 따라 가장 위에 있는 메뉴는 사라지고, 가장 아래에는 다른 메뉴가 표시된다. 터치 제스처(77)의 입력이 중단되면, 촬상 관련 메뉴(23)의 회전도 멈춘다.
도 11에는 1/10초(23-1)가 중앙에 표시된 촬상 관련 메뉴(23)가 표시된 화면(61b)이 도시되어 있다. 도 10과 마찬가지로 1/10초(23-1) 항목은 굵게 표시될 수 있고, 터치 입력이 중단되고 일정 시간이 지나면 자동으로 설정될 수 있다.
도 10 및 도 11에서는 촬상 관련 메뉴가 상하 방향으로 회전하는 예에 대해 설명하였으나, 좌우 방향으로 회전하는 형태로 구현될 수도 있다.
상술한 과정에 의해 촬상 장치(100)는 촬상과 관련된 모드 또는 값을 설정하여 촬상을 수행할 수 있다. 촬상 장치(100)는 복수의 촬상을 수행하여 촬상된 이미지를 저장할 수 있다. 촬상 장치(100)는 저장된 이미지를 재생하는 과정에서도 투명 디스플레이부(120)의 전면 또는 후면에 대한 터치 제스처에 따라 서로 다른 명령을 수행할 수 있다.
도 12 내지 도 13은 본 발명의 다양한 실시 예에 따른 촬상된 이미지를 확인하는 방법을 설명하는 도면이다.
도 12를 참조하면, 촬상되어 저장된 여섯 개의 이미지가 표시된 화면(63a)가 도시되어 있다. 하나의 화면에 표시되는 이미지의 개수는 투명 디스플레이부(120)의 크기, 표시되는 이미지의 크기 등에 따라 다양하게 설정될 수 있다. 투명 디스플레이부(120)의 전면에 대해 터치 제스처(78)가 입력된다.
도 12에는 투명 디스플레이부(120)의 전면에 대해 입력된 터치 제스처(78)에 대응하는 동작이 수행된 화면(63b)이 도시되어 있다. 즉, 투명 디스플레이부(120)의 전면에 대한 터치 제스처(78)의 입력에 대응하여 촬상 장치(100)는 기 저장된 이미지를 이미지 단위로 순차적으로 변경하여 표시할 수 있다. 즉, 전면에 대한 한 번의 터치(78)에 대응하여 1번 이미지는 사라지고 2번 내지 7번의 여섯 개의 이미지가 투명 디스플레이부(120)에 표시될 수 있다.
도 13을 참조하면, 촬상되어 저장된 여섯 개의 이미지가 표시된 화면(65a)가 도시되어 있다. 투명 디스플레이부(120)의 후면에 대해 터치 제스처가 입력된다.
도 13에는 투명 디스플레이부(120)의 후면에 대해 입력된 터치 제스처(79)에 대응하는 동작이 수행된 화면(65b)이 도시되어 있다. 즉, 투명 디스플레이부(120)의 후면에 대한 터치 제스처(79)의 입력에 대응하여 촬상 장치(100)는 기 저장된 이미지를 기 설정된 이미지 그룹 단위로 순차적으로 변경하여 표시할 수 있다. 즉, 후면에 대한 한 번의 터치(79)에 대응하여 첫번째 페이지에 표시된 1번 내지 6번의 여섯 개의 이미지들은 사라지고, 다음 페이지에 해당하는 7번 내지 12번의 여섯 개의 이미지가 투명 디스플레이부(120)에 표시될 수 있다.
기 설정된 이미지 그룹 단위는 5장 단위, 10장 단위, 페이지 단위 등으로 설정될 수 있다.
지금까지 촬상부에 하나의 카메라를 구비한 촬상 장치를 기준으로 설명하였다. 촬상 장치는 동일 면에 복수 개의 카메라를 구비하여 3차원(3D) 이미지를 촬상할 수도 있다.
도 14는 본 발명의 다른 실시 예에 따른 촬상 장치의 정면도이다.
도 14를 참조하면 촬상 장치(110a)는 두 개의 카메라(111, 112), 투명 디스플레이 장치(120a), 플립 버튼(192-1a)를 포함할 수 있다. 투명 디스플레이부(120a) 및 플립 버튼(192-1a)는 도 3에서 설명한 바와 동일하므로 생략하기로 한다.
두 개의 카메라(111, 112)는 촬상 장치(100a)의 동일 면에 배치될 수 있다. 3D 이미지를 촬상하기 위해서는 일직선 상의 일정한 간격을 가지고 배치되는 것이 바람직하다. 따라서, 제1 카메라(111)는 촬상 장치(100a) 후면의 상단 중앙부에 배치될 수 있고, 제2 카메라(112)는 촬상 장치(100a) 후면의 하단 중앙부에 배치될 수 있다. 도 14에서 설명한 제1 및 제2 카메라(111, 112)의 배치는 일 실시 예이며, 다양한 위치에 배치시킬 수 있다.
도 15는 본 발명의 일 실시 예에 따른 촬상 장치의 제어 방법을 설명하는 도면이다.
도 15에 따르면, 두 개의 카메라(111, 112)는 피사체를 촬상한다. 촬상된 피사체는 투명 디스플레이부(120a)에 표시된다. 투명 디스플레이부(120a)는 3D가 적용된 하나의 이미지를 표시할 수 있다. 또는, 투명 디스플레이부(120a)는 두 개의 영역으로 나누어 하나의 영역에는 제1 카메라(111)에서 촬상된 피사체를 디스플레이하고, 다른 하나의 영역에는 제2 카메라(112)에서 촬상된 피사체를 디스플레이할 수도 있다.
상술한 바와 같이 촬상 장치(100a)는 투명 디스플레이부(120a) 전면의 터치 제스처에 대해 하나의 촬상 관련 메뉴에 대응되도록 설정하고, 후면의 터치 제스처에 대해 다른 하나의 촬상 관련 메뉴에 대응되도록 설정할 수 있다. 도 15에서는 투명 디스플레이부(120a)의 전면에 대한 터치 제스처는 시차 조정 모드에 대응되고, 후면에 대한 터치 제스처는 초점 조정 모드에 대해 대응되었다. 상술한 바와 같이 전면 및 후면은 절대적인 것은 아니며, 또한, 플립 버튼(192-1a)의 선택에 따라 인식되는 면의 전환이 가능하다.
촬상 장치(100a)는 별도의 촬상 버튼(미도시)를 투명 디스플레이부(120a) 상에 표시할 수 있다. 사용자는 투명 디스플레이부(120a) 전면에 대해 터치를 하여 시차를 조정하고, 실시간으로 후면에 대한 터치를 하여 초점을 조정한 뒤 곧바로 촬상 버튼을 선택하여 촬상을 할 수 있다. 따라서, 사용자는 시차 및 초점의 두 가지 촬상 요소를 실시간으로 설정할 수 있고, 곧바로 촬상을 수행함으로써 최적의 이미지를 획득할 수 있다.
도 16은 촬상 장치에 구비 가능한 다양한 구성요소들을 설명하기 위한 도면이다. 도 16에 따르면, 촬상 장치(100)는 촬상부(110), 투명 디스플레이부(120), 제어부(130), 터치 감지부(140), 이미지 처리부(145), 오디오 처리부(150), 저장부(155), 통신부(160), GPS 수신부(171), DMB 수신부(172), 제1 내지 제m 모션 감지 센서(180-1 ~ 180-m), 스피커(191), 버튼(192), USB 포트(193), 마이크(194)를 포함한다.
촬상부(110)는 피사체를 촬상한다. 촬상부(110)는 복수 개의 카메라를 구비할 수 있다. 투명 디스플레이부(120)는 투명 디스플레이 레이어를 포함하며, 투명 디스플레이 레이어는 제어부(130)에 의해 제어되어 화면을 디스플레이한다. 투명 디스플레이 레이어는 복수 개로 이루어질 수 있다. 촬상부(110) 및 투명 디스플레이부(120)에 대해서는 상술한 여러 실시 예들에서 구체적으로 설명하였으므로, 중복 설명은 생략한다.
터치 감지부(140)는 투명 디스플레이 레이어 중 적어도 하나에 배치된 터치 센서를 이용하여, 사용자의 터치 조작을 감지할 수 있다. 즉, 터치 감지부(140)는 최상위 레이어에 배치된 터치 센서만을 포함할 수도 있고, 최상위 및 최하위 레이어에 배치된 터치 센서를 모두 포함할 수도 있다.
복수 개의 모션 감지 센서(180-1 ~ 180-m)들은 촬상 장치(100)의 회전 상태, 사용자의 위치 등을 감지하기 위한 센서이다. 회전 상태를 감지하기 위한 센서로는 지자기 센서, 가속도 센서, 자이로 센서 등이 사용될 수 있다. 가속도 센서는 그 센서가 부착된 장치의 기울기에 따라 변화되는 중력 가속도에 대응되는 센싱값을 출력한다. 자이로 센서는 회전 운동이 일어나면, 그 속도 방향으로 작용하는 코리올리의 힘을 측정하여, 각속도를 검출하는 센서이다. 지자기 센서는 방위각을 감지하기 위한 센서이다. 사용자의 위치를 감지하기 위한 센서로는 적외선 센서, 포토 다이오드 등이 있을 수 있다.
제어부(130)는 터치 감지부(140) 및 복수 개의 모션 감지 센서(180-1 ~ 180-m)를 통해 감지되는 감지 결과나, 버튼(192) 조작 상태, 촬상부(110)를 이용하여 획득되는 사용자의 모션 제스쳐, 마이크(194)를 이용하여 획득되는 음성 코맨드 등에 따라 이미지 처리부(145)를 제어하여, 다양한 화면을 각 투명 디스플레이 레이어에 디스플레이할 수 있다.
그 밖에, 제어부(130)는 저장부(155)에 저장된 프로그램 및 데이터를 이용하여 각 구성 요소들을 제어할 수 있다.
가령, 제어부(130)는 통신부(160)를 통해서 외부 기기들과 통신을 수행할 수도 있다.
통신부(160)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(160)는 와이파이칩(161), 블루투스 칩(162), NFC칩(163), 무선 통신 칩(164) 등과 같은 다양한 통신 칩을 포함한다.
와이파이 칩(161), 블루투스 칩(162), NFC 칩(163)은 각각 WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 이 중 NFC 칩(163)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 와이파이 칩(161)이나 블루투스 칩(162)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(164)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 제어부(130)는 통신부(160)를 통해 외부 기기로부터 수신되는 데이터를 투명 디스플레이 레이어에 표시할 수 있다.
한편, GPS 수신부(171)는 GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, 촬상 장치(100)의 현재 위치를 산출하기 위한 구성요소이다. 제어부(130)는 네비게이션 기능이 실행되었을 때, GPS 수신부(171)에 의해 수신된 GPS 신호를 이용하여 현재 위치를 산출하고, 그 현재 위치를 반영한 경로 안내 화면을 투명 디스플레이 레이어에 디스플레이할 수 있다.
DMB 수신부(172)는 DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 구성요소이다. 제어부(130)는 DMB 기능이 실행되면, 그 DMB 수신 화면을 투명 디스플레이 레이어에 디스플레이할 수 있다. 투명 디스플레이 레이어가 복수 개로 구현된 경우, 제어부(130)는 자막이 부가된 DMB 신호를 입력받아 그 자막을 분리하여 자막과 이미지 프레임을 서로 다른 표시 레이어에 표시할 수 있다. 가령, 이미지 프레임은 하위 레이어에 표시하고, 자막은 상위 레이어에 표시할 수 있다. 이에 따라, 사용자는 자막을 좀 더 입체감 있게 인식할 수 있게 된다.
이미지 처리부(145)는 상술한 바와 같이 투명 디스플레이 레이어에 표시되는 화면을 구성하는 역할을 한다. 이미저 처리부(145)는 비디오 데이터에 대한 인코딩이나 디코딩을 수행하기 위한 코덱, 파서, 스케일러, 노이즈 필터, 프레임 레이트 변환 모듈 등과 같은 다양한 구성 요소를 더 포함할 수 있다.
오디오 처리부(150)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(150)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 제어부(130)는 오디오 신호를 포함하는 컨텐츠가 재생되는 경우, 그 재생 화면은 복수 개의 투명 디스플레이 레이어 중 하나에 디스플레이하면서 오디오 처리부(150)를 제어하여 그 오디오 신호를 출력할 수 있다. 오디오 신호는 스피커(191)로 제공되어, 출력된다.
스피커(191)는 오디오 처리부(150)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
버튼(192)은 촬상 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다. 상술한 바와 같이 터치 감지 방향을 변경할 수 있는 플립 버튼은 물리적인 키로 구현될 수 있다.
USB 포트(193)는 USB 케이블을 통해서 각종 외부 장치와 통신을 수행할 수 있다. 마이크(194)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다.
제어부(130)는 마이크(194)를 통해 입력되는 사용자 음성을 통화(call) 과정에서 이용하거나, 오디오 데이터로 변환하여 저장부(155)에 저장할 수 있다.
촬상부(110) 및 마이크(194)가 마련된 경우, 제어부(130)는 마이크(194)를 통해 입력되는 사용자 음성이나 촬상부(110)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, 촬상 장치(100)는 사용자의 터치나 버튼 조작에 의해 제어되는 일반 모드 이외에도 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(130)는 촬상부(110)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행한다. 음성 제어 모드로 동작하는 경우 제어부(130)는 마이크(194)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수도 있다.
그 밖에, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트들이 더 포함될 수도 있다.
상술한 제어부(130)의 동작은 저장부(155)에 저장된 프로그램에 의해 이루어질 수 있다. 저장부(155)에는 촬상 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어, 각종 어플리케이션, 어플리케이션 실행 중에 입력되거나 설정되는 각종 데이터, 컨텐츠, 터치 제스쳐, 모션 제스쳐, 음성 코맨드, 이벤트 정보 등이 저장될 수 있다.
제어부(130)는 저장부(155)에 저장된 각종 프로그램을 이용하여 촬상 장치(100)의 동작을 전반적으로 제어한다.
제어부(130)는 RAM(131), ROM(132), 타이머(133), 메인 CPU(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다. RAM(131), ROM(132), 타이머(133), 메인 CPU(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(134)는 저장부(155)에 액세스하여, 저장부(155)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(155)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU(134)는 ROM(132)에 저장된 명령어에 따라 저장부(155)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(134)는 저장부(155)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
메인 CPU(134)는 터치 감지부(140), 복수 개의 모션 감지 센서(180-1 ~ 180-m), 버튼(192), 마이크(194) 등을 통해 다양한 유형의 사용자 조작이 감지되면, 그 감지 결과를 이용하여 저장부(155)에 저장된 이벤트 정보에 매칭되는 이벤트가 발생하였는지 여부를 판단한다. 또한 메인 CPU(134)는 타이머(133)나 기타 구성 요소에 의해 감지되는 감지 결과를 이용하여 이벤트 발생 여부를 판단할 수도 있다. 상술한 바와 같이 이벤트는 다양하게 설정될 수 있다. 가령, 사용자 터치나 버튼 선택이 이루어지는 이벤트, 모션 제츠셔, 음성 코맨드 등이 입력되는 이벤트, 어플리케이션 실행 명령이 입력되는 이벤트, 컨텐츠 재생 명령이 입력되는 이벤트, 기 설정된 시간이나 주기가 도래하는 이벤트, 시스템 알림 메시지가 발생하는 이벤트, 외부 소스와의 통신이 이루어지는 이벤트 등이 있을 수 있다.
메인 CPU(134)는 이벤트가 발생하면, 그 이벤트에 대응되는 프로그램을 저장부(155)로부터 RAM(131)으로 로딩하여, 실행시킨다. 메인 CPU(134)는 그 프로그램의 실행에 따라 이미지 처리부(145)를 구동시켜, 해당 이벤트에 대응되는 화면을 디스플레이한다.
메인 CPU(134)는 하나의 화면, 즉, 제1 화면이 제1 투명 디스플레이 레이어 에 디스플레이된 상태에서, 다른 화면, 즉, 제2 화면을 디스플레이할 이벤트가 발생하면, 제2 화면이 디스플레이될 표시 레이어를 결정한다. 이 경우, 메인 CPU(134)는 제1 화면과 제2 화면 간의 관련성이나, 사용자 설정 정보, 화면 크기 등을 고려하여, 표시 레이어를 결정할 수 있다. 즉, 제1 화면과 제2 화면이 동일한 레벨의 정보를 표시하기 위한 화면인 경우에는 동일한 레이어에 표시한다. 예를 들어, 제1 화면이 웹 브라우징 화면인 상태에서 사용자가 다시 웹 브라우저를 실행시키는 명령을 입력하면, 제2 화면도 웹 브라우징 화면으로 구현되면서 동일한 제1 투명 디스플레이 레이어 상에 표시될 수 있다. 반면, 제1 화면이 웹 브라우징 화면인 상태에서 사용자가 제1 화면 내의 일부 객체를 선택한 경우에는, 그 선택된 객체에 링크된 소스로부터 제공되는 웹 브라우징 화면, 즉, 제2 화면은 제1 화면과 다른 레이어에 표시된다. 즉, 제1 화면이 상위 레이어에 표시되고 있던 상태라면, 제1 화면은 하위 레이어로 이동되고 제2 화면이 새로이 상위 레이어에 표시될 수 있다.
메인 CPU(134)는 제2 화면의 표시 레이어를 결정하고, 제2 화면의 크기나 표시 위치 등도 사용자 설정 상태에 따라 결정할 수 있다. 즉, 사용자가 제1 화면과 겹치지 않도록 설정한 경우에는, 제2 화면을 제1 화면 표시 위치를 피하여 다른 위치에 표시하고, 그 크기나 형태도 제1 화면과 겹치지 않도록 결정할 수 있다.
이상과 같이 각 화면의 표시 레이어나, 표시 위치 및 기타 표시 속성들은 제어부(130)에 의해 결정될 수 있다.
이 밖에, 메인 CPU(134)는 모션 감지 센서(180-1 ~ 180-m) 중 적어도 하나에서 촬상 장치(100)의 회전이 감지되거나, 터치 감지부(140)에 의해 사용자 터치가 감지되는 경우에는 그 회전이나 터치에 따라 각 화면의 표시 레이어를 전환하거나, 표시 위치 및 기타 표시 속성들을 변경할 수도 있다. 이러한 동작들에 대해서는 상술한 다양한 실시 예들에서 구체적으로 설명한 바 있으므로 중복 설명은 생략한다.
한편, 메인 CPU(134)는 타이머(133)를 제어하여 시간을 카운팅할 수 있다. 이에 따라, 사용자의 터치 상태가 유지되는 시간을 카운팅하여 롱 터치인지 여부를 판단하고, 그 판단 결과에 따라 화면 표시 레이어나 기타 표시 속성을 조정할 수 있다. 또한, 타이머(133)의 카운팅 결과에 따라 이벤트 발생 여부를 판단할 수 있음도 물론이다.
도 16은 촬상 장치(100)가 통신 기능, 방송 수신 기능, 동영상 재생 기능, 디스플레이 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어, 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 16에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다.
도 17은 본 발명의 일 실시 예에 따른 촬상 장치 제어 방법의 흐름도이다.
도 17에 따르면, 촬상 장치는 촬상부를 이용하여 촬상을 수행한다(S1710). 촬상 장치는 촬상부에 의해 생성되는 이미지 및 촬상 관련 메뉴를 디스플레이한다 (S1720). 생성되는 이미지는 프리뷰 이미지를 포함한다. 촬상 관련 메뉴는 표, 아이콘과 같은 형태로 표시될 수 있고, 투명 디스플레이부 전면 및 후면 각각에 대응되는 메뉴가 동일 영역에 표시될 수도 있다. 또는, 촬상 관련 메뉴는 원통형으로 표시될 수 있다. 그리고, 투명 디스플레이부 전면 및 후면 각각에 대응하는 명령이 하나인 경우 촬상 장치는 특별한 표시를 하지 않고 전면 및 후면에 대한 터치 제스처가 인식되면 대응되는 명령을 수행할 수 있다.
촬상 장치는 투명 디스플레이부의 후면에 대한 터치 제스처가 입력되면, 터치 제스처가 입력된 영역에 디스플레이된 촬상 관련 메뉴에 대응되는 동작을 수행한다(S1730). 촬상 장치는 투명 디스플레이부의 전면에 대한 터치 제스처가 입력되면, 터치 제스처가 입력된 영역에 디스플레이된 촬상 관련 메뉴에 대응되는 동작을 수행한다. 투명 디스플레이부의 전면은 사용자 방향의 표면을 의미하고, 후면은 피사체 방향의 표면을 의미한다. 그러나, 전면 및 후면은 설명의 편의를 위해 정의한 것이므로 이에 한정되는 것은 아니다.
촬상 장치는 물리적인 외부 키 또는 투명 디스플레이부에 표시되는 소프트 키 형태의 플립 버튼을 포함할 수 있으며, 플립 버튼이 선택되면 메뉴가 인식되는 면을 전환시킬 수 있다.
상술한 다양한 실시 예에 따른 촬상 장치의 제어 방법은 프로그램으로 구현되어 촬상 장치에 제공될 수 있다.
일 예로, 촬상부를 이용하여 촬상을 수행하는 단계, 촬상부에 의해 생성되는 이미지 및 촬상 관련 메뉴를 디스플레이하는 단계 및 투명 디스플레이부의 후면에 대한 터치 제스처가 입력되면, 터치 제스처가 입력된 영역에 디스플레이된 촬상 관련 메뉴에 대응되는 동작을 수행하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100, 100a : 촬상 장치
110 : 촬상부 111, 112 : 카메라
120, 120a : 투명 디스플레이부
130 : 제어부 140 : 감지부
191-1, 191-1a : 플립 버튼

Claims (17)

  1. 피사체에 대한 촬상을 수행하기 위한 촬상부;
    상기 촬상부의 라이브 뷰 및 촬상 관련 메뉴를 사용자 방향으로 디스플레이하는 투명 디스플레이부;
    상기 투명 디스플레이부의 각 표면에 대한 터치를 감지하기 위한 감지부; 및
    상기 투명 디스플레이부의 양 표면 중에서 상기 피사체 방향의 표면이 터치되어 상기 촬상 관련 메뉴가 선택되면, 상기 촬상 관련 메뉴에 대응되는 동작을 수행하는 제어부;를 포함하고,
    상기 제어부는,
    재생 모드가 선택되면 기 저장된 이미지를 표시하며, 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 기 저장된 이미지를 이미지 단위로 순차적으로 변경하여 표시하고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 기 저장된 이미지를 기 설정된 이미지 그룹 단위로 순차적으로 변경하여 표시하는 촬상 장치.
  2. 제1항에 있어서,
    터치 감지 방향을 변경하기 위한 플립 버튼;을 더 포함하며,
    상기 제어부는,
    상기 플립 버튼이 선택될 때마다, 상기 투명 디스플레이부의 양 표면 중에서 터치가 감지되는 표면을 토글시키도록 상기 감지부를 제어하는 것을 특징으로 하는 촬상 장치.
  3. 제2항에 있어서,
    상기 플립 버튼은 물리적인 외부 키 및 상기 투명 디스플레이부의 어느 한 면에 표시되는 소프트 키 중 적어도 하나인 것을 특징으로 하는 촬상 장치.
  4. 제1항에 있어서,
    상기 촬상 관련 메뉴는 촬상 버튼을 포함하며,
    상기 제어부는,
    상기 투명 디스플레이부의 상기 피사체 방향의 표면이 터치되어 상기 촬상 버튼이 선택되면, 상기 이미지를 촬상하여 저장부에 저장하는 것을 특징으로 하는 촬상 장치.
  5. 제1항에 있어서,
    상기 촬상 관련 메뉴는,
    상기 투명 디스플레이부의 제1 면에 대한 터치 제스처에 의해 선택되는 제1 메뉴 및 상기 투명 디스플레이부의 제2 면에 대한 터치 제스처에 의해 선택되는 제2 메뉴를 포함하는 것을 특징으로 하는 촬상 장치.
  6. 제5항에 있어서,
    상기 제1 메뉴는 초점 조절 버튼 및 특수 효과 설정 버튼 중 적어도 하나를 포함하고, 상기 제2 메뉴는 촬상 버튼을 포함하는 것을 특징으로 하는 촬상 장치.
  7. 제5항에 있어서,
    상기 촬상부는 3차원 입체 이미지를 촬상할 수 있는 동일 면에 배치된 두 개의 카메라를 포함하고,
    상기 제1 메뉴는 시차 조정 버튼을 포함하고 상기 제2 메뉴는 초점 조정 버튼을 포함하는 것을 특징으로 하는 촬상 장치.
  8. 제1항에 있어서,
    상기 촬상 관련 메뉴는 원통형으로 이루어져서 회전하는 형태로 표시되며,
    상기 제어부는,
    상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제1 방향으로 회전시키고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제2 방향으로 회전시키는 것을 특징으로 하는 촬상 장치.
  9. 삭제
  10. 투명 디스플레이부를 포함하는 촬상 장치의 제어 방법에 있어서,
    피사체에 대한 촬상을 수행하는 단계;
    라이브 뷰 및 촬상 관련 메뉴를 사용자 방향으로 디스플레이하는 단계;
    상기 투명 디스플레이부의 각 표면에 대한 터치를 감지하는 단계;
    상기 투명 디스플레이부의 양 표면 중에서 상기 피사체 방향의 표면이 터치되어 상기 촬상 관련 메뉴가 선택되면, 상기 촬상 관련 메뉴에 대응되는 동작을 수행하는 단계; 및
    재생 모드가 선택되면 기 저장된 이미지를 표시하며, 상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 기 저장된 이미지를 이미지 단위로 순차적으로 변경하여 표시하고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 기 저장된 이미지를 기 설정된 이미지 그룹 단위로 순차적으로 변경하여 표시하는 단계;를 포함하는 촬상 장치의 제어 방법.
  11. 제10항에 있어서,
    플립 버튼이 선택될 때마다, 상기 투명 디스플레이부의 양 표면 중에서 터치가 감지되는 표면을 토글시키는 단계;를 더 포함하는 촬상 장치의 제어 방법.
  12. 제10항에 있어서,
    상기 대응되는 동작을 수행하는 단계는,
    상기 투명 디스플레이부의 상기 피사체 방향이 표면이 터치되어 촬상 버튼이 선택되면, 상기 이미지를 촬상하여 저장하는 것을 특징으로 하는 촬상 장치의 제어 방법.
  13. 제10항에 있어서,
    상기 촬상 관련 메뉴는,
    상기 투명 디스플레이부의 제1 면에 대한 터치 제스처에 의해 선택되는 제1 메뉴 및 상기 투명 디스플레이부의 제2 면에 대한 터치 제스처에 의해 선택되는 제2 메뉴를 포함하는 것을 특징으로 하는 촬상 장치의 제어 방법.
  14. 제13항에 있어서,
    상기 제1 메뉴는 초점 조절 버튼 및 특수 효과 설정 버튼 중 적어도 하나를 포함하고, 상기 제2 메뉴는 촬상 버튼을 포함하는 것을 특징으로 하는 촬상 장치의 제어 방법.
  15. 제13항에 있어서,
    상기 촬상을 수행하는 단계는,
    3차원 입체 이미지를 촬상할 수 있는 두 개의 카메라로 촬상하며,
    상기 제1 메뉴는 시차 조정 버튼을 포함하고 상기 제2 메뉴는 초점 조정 버튼을 포함하는 것을 특징으로 하는 촬상 장치의 제어 방법.
  16. 제10항에 있어서,
    상기 촬상 관련 메뉴는 원통형으로 이루어져서 회전하는 형태로 표시되며,
    상기 대응되는 동작을 수행하는 단계는,
    상기 투명 디스플레이부의 사용자 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제1 방향으로 회전시키고, 상기 투명 디스플레이부의 피사체 방향의 표면이 터치되면 상기 촬상 관련 메뉴를 제2 방향으로 회전시키는 것을 특징으로 하는 촬상 장치의 제어 방법.
  17. 삭제
KR1020130041006A 2013-04-15 2013-04-15 촬상 장치 및 촬상 장치의 제어 방법 KR102046569B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130041006A KR102046569B1 (ko) 2013-04-15 2013-04-15 촬상 장치 및 촬상 장치의 제어 방법
US14/044,060 US9239642B2 (en) 2013-04-15 2013-10-02 Imaging apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130041006A KR102046569B1 (ko) 2013-04-15 2013-04-15 촬상 장치 및 촬상 장치의 제어 방법

Publications (2)

Publication Number Publication Date
KR20140123767A KR20140123767A (ko) 2014-10-23
KR102046569B1 true KR102046569B1 (ko) 2019-11-19

Family

ID=51686445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130041006A KR102046569B1 (ko) 2013-04-15 2013-04-15 촬상 장치 및 촬상 장치의 제어 방법

Country Status (2)

Country Link
US (1) US9239642B2 (ko)
KR (1) KR102046569B1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9599865B2 (en) 2015-01-21 2017-03-21 Apple Inc. Low-flicker liquid crystal display
CN105208277A (zh) * 2015-09-29 2015-12-30 努比亚技术有限公司 一种移动终端及其相机调焦处理方法
USD819686S1 (en) * 2016-11-21 2018-06-05 Google Llc Display screen with graphical user interface
KR102606119B1 (ko) * 2016-12-05 2023-11-24 엘지전자 주식회사 단말기 및 그 제어 방법
US10627911B2 (en) * 2017-04-25 2020-04-21 International Business Machines Corporation Remote interaction with content of a transparent display
TWI734024B (zh) 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
US11042345B2 (en) * 2018-08-31 2021-06-22 Google Llc Systems, devices, and methods for interactive visual displays
US11086516B2 (en) * 2018-10-31 2021-08-10 Christie Scott Wall Mobile, versatile, transparent, double-sided data input or control device
JP7210229B2 (ja) * 2018-11-07 2023-01-23 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム
CN110362248A (zh) * 2019-06-19 2019-10-22 北京字节跳动网络技术有限公司 小程序侧边菜单栏的控制方法、装置、设备及介质
US11194411B1 (en) * 2020-08-20 2021-12-07 Lenovo (Singapore) Pte. Ltd. Use of sensors in electronic pens to execution functions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050089212A1 (en) * 2002-03-27 2005-04-28 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US20080119731A1 (en) * 2006-11-20 2008-05-22 North American Medical Corporation Portable ultrasound with touch screen interface
US20090019401A1 (en) * 2007-07-09 2009-01-15 Samsung Electronics Co., Ltd. Method to provide a graphical user interface (gui) to offer a three-dimensional (3d) cylinderical menu and multimedia apparatus using the same
US20100166404A1 (en) * 2008-12-31 2010-07-01 Lombardi Michael J Device and Method Using a Touch-Detecting Surface
US20100277421A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Device with a Transparent Display Module and Method of Incorporating the Display Module into the Device
US20110175830A1 (en) * 2010-01-19 2011-07-21 Sony Corporation Display control apparatus, display control method and display control program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296022A (ja) 2002-04-01 2003-10-17 Pioneer Electronic Corp タッチパネル一体型表示装置
JP4411193B2 (ja) * 2004-12-09 2010-02-10 富士フイルム株式会社 ディスプレイ付き撮像装置及び画像表示装置
JP2009139427A (ja) 2007-12-03 2009-06-25 Fujifilm Corp カメラ及び撮影制御方法
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
US9520056B2 (en) * 2010-05-11 2016-12-13 Universal Electronics Inc. System and methods for enhanced remote control functionality
US8362992B2 (en) 2010-07-21 2013-01-29 Delphi Technologies, Inc. Dual view display system using a transparent display
KR20100117053A (ko) 2010-10-01 2010-11-02 김밀한 앞뒤 두 개의 터치스크린을 구비하는 스마트폰과 그 작동 방식
EP2500814B1 (en) 2011-03-13 2019-05-08 LG Electronics Inc. Transparent display apparatus and method for operating the same
US8698771B2 (en) 2011-03-13 2014-04-15 Lg Electronics Inc. Transparent display apparatus and method for operating the same
EP2500816B1 (en) 2011-03-13 2018-05-16 LG Electronics Inc. Transparent display apparatus and method for operating the same
JP5784960B2 (ja) 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
KR20110120858A (ko) 2011-10-19 2011-11-04 석상호 양면 스크린을 적용한 스마트 모션 유저 인터페이스

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050089212A1 (en) * 2002-03-27 2005-04-28 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US20080119731A1 (en) * 2006-11-20 2008-05-22 North American Medical Corporation Portable ultrasound with touch screen interface
US20090019401A1 (en) * 2007-07-09 2009-01-15 Samsung Electronics Co., Ltd. Method to provide a graphical user interface (gui) to offer a three-dimensional (3d) cylinderical menu and multimedia apparatus using the same
US20100166404A1 (en) * 2008-12-31 2010-07-01 Lombardi Michael J Device and Method Using a Touch-Detecting Surface
US20100277421A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Device with a Transparent Display Module and Method of Incorporating the Display Module into the Device
US20110175830A1 (en) * 2010-01-19 2011-07-21 Sony Corporation Display control apparatus, display control method and display control program

Also Published As

Publication number Publication date
US20140306900A1 (en) 2014-10-16
KR20140123767A (ko) 2014-10-23
US9239642B2 (en) 2016-01-19

Similar Documents

Publication Publication Date Title
KR102046569B1 (ko) 촬상 장치 및 촬상 장치의 제어 방법
US10136069B2 (en) Apparatus and method for positioning image area using image sensor location
US10701273B1 (en) User terminal apparatus and control method thereof
JP6246292B2 (ja) 光検出機能を備えるoledディスプレイ装置
KR102063952B1 (ko) 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR102308201B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR102032541B1 (ko) 이미지 촬영장치 및 방법
KR20140046344A (ko) 멀티 디스플레이 장치 및 그 촬상 방법
KR20160123622A (ko) 디스플레이 장치 및 그 제어방법
KR20120046452A (ko) 이동 단말기 및 이것의 영상 촬영 제어 방법
CN110858860B (zh) 响应于指纹传感器上手指旋转的电子设备控制及相应方法
KR20180026216A (ko) 디스플레이 장치 및 이의 제어 방법
WO2021013147A1 (zh) 视频处理方法、装置、终端及存储介质
US8994650B2 (en) Processing image input to communicate a command to a remote display device
US20190197666A1 (en) Receiving and displaying sensor data on a substantially spherical surface of a display device
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
KR20100088248A (ko) 사용자 인터페이스 제어 방법 및 그를 이용한 이동 단말기
US9811160B2 (en) Mobile terminal and method for controlling the same
US11284003B2 (en) User terminal apparatus and control method thereof
JP2016191854A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017054251A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2013003252A (ja) 表示制御装置、および表示制御方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant