KR101691764B1 - 촬영 장치 및 촬영 방법 - Google Patents

촬영 장치 및 촬영 방법 Download PDF

Info

Publication number
KR101691764B1
KR101691764B1 KR1020157018323A KR20157018323A KR101691764B1 KR 101691764 B1 KR101691764 B1 KR 101691764B1 KR 1020157018323 A KR1020157018323 A KR 1020157018323A KR 20157018323 A KR20157018323 A KR 20157018323A KR 101691764 B1 KR101691764 B1 KR 101691764B1
Authority
KR
South Korea
Prior art keywords
focusing
pattern
photometric
command
metering
Prior art date
Application number
KR1020157018323A
Other languages
English (en)
Other versions
KR20150095787A (ko
Inventor
윤제 자오
홍리앙 징
지아후이 쿠이
시안 센
퀴앙 리
Original Assignee
누비아 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 누비아 테크놀로지 컴퍼니 리미티드 filed Critical 누비아 테크놀로지 컴퍼니 리미티드
Publication of KR20150095787A publication Critical patent/KR20150095787A/ko
Application granted granted Critical
Publication of KR101691764B1 publication Critical patent/KR101691764B1/ko

Links

Images

Classifications

    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • H04N5/225
    • H04N5/23212
    • H04N5/23216
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

본 발명에서는 촬영 장치 및 촬영 방법을 공개한다. 촬영 장치에 있어서, 이미지를 디스플레이하는 디스플레이 유닛 모듈; 디스플레이 유닛 모듈에 디스플레이된 이미지에 대한 작업 명령을 수신하는 수신 유닛 모듈; 수신 유닛 모듈이 수신한 명령에 의하여 측광 위치 및/또는 포커싱 위치를 선택하는 처리 유닛 모듈;이 포함된다. 본 발명은 수요에 따라 포커싱 구역과 측광 구역을 선택하고, 서로 다른 씬에 따라 구도를 진행하여 사용자 체험을 향상시킬 수 있다. 이로써 사용자로 하여금 화면을 취할 때 각각 포커싱 박스와 측광 박스를 드래깅하여 독립적인 포커싱과 측광을 진행하도록 함으로써 오락성과 사용자 체험을 향상시킨다.

Description

촬영 장치 및 촬영 방법{PICK-UP DEVICE AND PICK-UP METHOD}
본 발명은 촬영 기술 분야에 관한 것으로서, 특히 촬영 장치 및 촬영 방법에 관한 것이다.
현재의 핸드폰 디지털 카메라 등 휴대용 이동 설비는 파인더 화면을 미리 보면서 수동 포커싱을 진행할 때, 터치 포인트의 초점 거리 값과 광선 정보에 대하여 동시에 추산을 진행하는 바, 다시 말하면 사용자가 스크린을 터치하여 수동 포커싱을 진행할 때, 파인더 화면의 측광 값도 동시에 변화하게 된다.
이러한 포커싱 및 측광 방식은 대부분 상황 하에서 사용자의 요구를 만족시킬 수 없다. 예를 들면 야외에서 역광으로 촬영을 진행할 때, 배경 빛이 충족하며, 포커싱과 측광이 한 점에 집중되기 때문에 촬영한 사진은 비교적 어둡게 된다.
본 발명은 촬영 장치 및 촬영 방법을 제공하여 종래 기술에서 촬영 과정에 화면을 취할 때 독립적으로 포커싱 포인트와 측광 포인트를 구현할 수 없고, 사용자가 서로 다른 환경 중의 배경 광량에 의하여 화면을 취하고 촬영을 진행할 수 없던 결함을 극복하는 것을 목적으로 한다. 즉 포커싱 포인트와 측광 포인트를 독립시켜 단독으로 포커싱 값과 측광 값 설정을 진행할 수 있는 방안 및 이에 대응되는 촬영 장치 및 촬영 방법을 제공하는 것이다.
본 발명의 상기 기술문제를 해결하기 위한 기술방안은 하기와 같다.
촬영 장치에 있어서,
이미지를 디스플레이하는 디스플레이 유닛 모듈;
디스플레이 유닛 모듈에 디스플레이된 이미지에 대한 작업 명령을 수신하는 수신 유닛 모듈;
수신 유닛 모듈이 수신한 명령에 의하여 측광 위치 및/또는 포커싱 위치를 선택하는 처리 유닛 모듈;을 포함한다.
촬영 방법에 있어서,
이미지를 디스플레이하며;
디스플레이된 이미지에 대한 작업 명령을 수신하며;
수신한 명령에 의하여 측광 위치 및/또는 포커싱 위치를 선택하는 것;을 포함한다.
본 발명의 실시예에 의하면, 사용자는 본 발명을 이용하여 미리보기 및 구도를 진행할 때, 수요에 따라 포커싱 구역과 측광 구역을 선택하고, 서로 다른 씬에 따라 구도를 진행하여 사용자 체험을 향상시킬 수 있다. 이로써 사용자로 하여금 화면을 취할 때 각각 포커싱 박스와 측광 박스를 드래깅하여 독립적인 포커싱과 측광을 진행하도록 함으로써 오락성과 사용자 체험을 향상시킨다.
도1은 본 발명의 제1 실시예의 촬영 장치의 모듈도이다.
도2는 본 발명의 실시예에서 제공하는 디스플레이 유닛 모듈의 스크린 도면이다.
도3은 본 발명의 실시예에서 제공하는 촬영 방법의 흐름도이다.
도4는 본 발명의 실시예에서 제공하는 촬영 방법을 안드로이드(Android) 플랫폼의 핸드폰을 예로 들어 설명을 진행하는 흐름도이다.
이하 첨부된 도면과 실시예를 통하여 본 발명에 대하여 상세한 설명을 진행한다. 여기에 기재된 구체적인 실시예는 단지 본 발명의 해석에 불과하고 본 발명을 제한하는 것이 아님을 이해하여야 할 것이다.
실시예1
도1을 참조하면, 이는 본 발명의 제1 실시예의 촬영 장치의 모듈도이다.
이 촬영 장치는 디스플레이 유닛 모듈(11), 수신 유닛 모듈(12) 및 처리 유닛 모듈(13)을 포함한다.
디스플레이 유닛 모듈(11)은 이미지를 디스플레이하며; 여기서, 이미지는 카메라에 포착된 이미지, 카메라가 수신한 이미지 또는 촬영 장치 내에 저장된 이미지일 수 있다. 그리고, 상기 디스플레이 유닛 모듈(11)은 또한 측광 패턴 및/또는 포커싱 패턴을 디스플레이할 수 있다. 카메라는 디스플레이 유닛 모듈(11)과 서로 연결된다. 상기 카메라는 상기 촬영 장치의 외부에 설치된다. 상기 카메라는 전방 카메라 또는 후방 카메라일 수 있고, 또한 단독의 카메라일 수도 있으며, 데이터 선을 통하여 디스플레이 유닛 모듈(11)과 서로 연결된다. 디스플레이 유닛 모듈(11)은 액정 디스플레이 또는 OLED 디스플레이일 수 있다.
수신 유닛 모듈(12)은 디스플레이 유닛 모듈(11)에 디스플레이된 이미지에 대하여 작업을 진행하는 명령을 수신한다. 여기서, 명령은 제스처 작업 명령일 수도 있고, 음성 제어/음성 명령, 또는 터치 입력 명령일 수도 있다. 상기 명령에는, 디스플레이된 측광 패턴에 대하여 드래깅 또는 클릭을 진행하여 측광 위치를 선택하는 명령; 및/또는 디스플레이된 포커싱 패턴에 대하여 드래깅 또는 클릭을 진행하여 포커싱 위치를 선택하는 명령이 포함된다. 수신 유닛 모듈(12)은 마우스, 키보드, 마이크로폰, 터치 패널, 투영 설비 또는 상기 설비들의 여러 가지 조합일 수 있다.
처리 유닛 모듈(12)은 수신 유닛 모듈(12)이 수신한 명령에 의하여 측광 위치 및/또는 포커싱 위치를 선택한다. 바람직하기는, 상기 처리 유닛 모듈(13)에 계산 유닛이 포함되며, 상기 계산 유닛은 선택된 적어도 하나의 측광 위치의 측광 패턴으로 커버된 픽셀의 휘도 값을 입력값으로 하여, 사전 설정된 함수를 통하여 계산을 진행하여 출력값을 취득하며, 상기 촬영 장치는 상기 출력값을 기반으로 촬영을 진행한다.
예를 들면, 도2에 도시된 바와 같이, 터치 입력된 명령이 손가락을 이용하여 이미지가 디스플레이된 디스플레이 유닛 모듈(11)의 스크린 상에서 터치를 진행하는 것이라면, 사용자는 측광 위치를 선택하고, 예를 들면 손가락으로 측광 패턴(100)을 드래깅하여 광 노출량을 관찰하고 또한 수요에 따라 측광 포인트를 선택할 수 있으며; 또한 포커싱 위치를 선택할 수 있는 바, 손가락으로 포커싱 패턴(200)을 포커싱하고자 하는 위치로 드래깅하여 포커싱을 진행할 수 있다.
바람직하기는, 상기 측광 위치는 적어도 두 개이며; 및/또는 상기 포커싱 위치는 적어도 두 개이다.
바람직하기는, 상기 측광 패턴과 포커싱 패턴의 색상이 다르거나 모양이 다를 수 있다.
도3을 참조하면, 이는 본 발명의 촬영 방법의 흐름도이다.
촬영 방법에 있어서, 하기 단계를 포함하여 구성된다.
S1 단계: 이미지를 디스플레이한다.
여기서, 이미지는 카메라가 포착한 이미지, 카메라가 수신한 이미지 또는 촬영 장치 내에 저장된 이미지일 수 있다. 상기 이미지에는 또한 측광 패턴 및/또는 포커싱 패턴이 포함될 수 있다.
S2 단계: 디스플레이된 이미지에 대하여 작업을 진행할 것에 대한 명령을 수신한다.
여기서, 상기 명령에는, 측광 위치를 선택하는 명령 및/또는 포커싱 위치를 선택하는 명령이 포함된다.
S3 단계: 수신한 명령에 의하여 측광 위치 및/또는 포커싱 위치를 선택한다.
여기서, 수신된 측광 위치 선택 명령에 의하여 측광 위치를 선택한다. 수신된 포커싱 위치 선택 명령에 의하여 포커싱 위치를 선택한다.
상기 측광 위치 및/또는 포커싱 위치를 선택하는 단계에는 나아가,
디스플레이된 측광 패턴을 드래깅 또는 클릭하여 측광 위치를 선택하는 것, 및/또는
디스플레이된 포커싱 패턴을 드래깅 또는 클릭하여 포커싱 위치를 선택하는 것이 포함된다.
다른 실시예에 있어서, 상기 측광 위치는 적어도 두 개이며, 및/또는 상기 포커싱 위치는 적어도 두 개이다. 다른 실시예에 있어서, 상기 측광 패턴과 포커싱 패턴의 색상이 다르거나 모양이 다를 수 있는바, 이로써 구별하기 쉽고, 사용자 작업에 유리하도록 한다.
바람직하기는, 선택된 적어도 하나의 측광 위치의 측광 패턴으로 커버된 픽셀의 휘도 값을 입력값으로 하여, 사전 설정된 함수를 통하여 계산을 진행하며, 계산에 의하여 취득한 출력값에 의하여 촬영을 진행한다.
바람직하기는, 포커싱 위치가 적어도 두 개이고, 또한 각기 다른 포커싱 위치에 대응되는 이미지가, 촬영 장치와 근거리 및 원거리의 분포로 존재할 때, 서로 다른 포커싱 위치에 의하여 포커싱 파라미터를 조절하여 촬영을 진행하여 촬영 이미지의 선명도(sharpness)를 최적화한다.
실시예2
안드로이드(Android) 플랫폼의 핸드폰을 예로 설명하고 이것은 도4를 참조할 수 있다.
본 제품은 Android 자체가 갖고있는 dispatchTouchEvent(터치 이벤트 배포, Android 시스템 자체가 갖고있는 터치 스크린 이벤트 처리 방법)를 이용하여 터치 스크린 이벤트 배포와 처리를 진행하고, 터치 제어 구역의 좌표와 이전의 터치 박스와 측광 박스의 위치를 비교하여 본 회의 드래깅 또는 클릭이 포커싱을 위한 것인지 아니면 측광을 위한 작업인지 판단한다. 판단을 진행한 후, calculateTapArea(좌표 구역 계산, 터치 포인트를 중심으로 사각형 구역을 산출) 방법을 이용하여 좌표 변환을 진행하여, UI의 스크린 좌표를 하위 층에서 이용할 수 있는 드라이버 좌표로 환산한다. 퀄컴 인터페이스 setMetermgArea(측광 구역 설정, 측광 구역을 하위 층으로 전달하는 인터페이스)를 통하여 측광 구역의 설정을 진행하는 바, JNI를 통하여 파라미터 데이터를 HAL 층으로 전달하고 최종적으로 하위 층에 수신되며, 본 발명에서 제시하는 포커싱 포인트와 측광 포인트를 독립시켜 화면을 취하는 방법은 하기 세개 모듈을 포함할 수 있다.
(1) 포커싱 구역 및 측광 구역 터치 스크린 이벤트의 취득 및 구역 판단 ① WindowManagerService(윈도우 관리 서비스, Android 프레임 층 중에서 윈도우 중의 View를 관리하는 서비스)가 현재의 top Activity로 Touch 이벤트를 배포하고, WindowManagerService 중의 함수 dispatchPointer(터치 포인트 배포, WindowManagerService 중에서 메시지를 송신하는 방법)가 하나의 IWindow의 클라이언트측 대리 객체를 통하여 메시지를 소정 IWindow 서비스측, 즉 하나의 IWindow.Stub 서브 클래스로 송신하며; ② 메시지를 수신한 후 IWindow.Stub 서브 클래스의 구현 방법 dispatchPointer를 호출하며; ③ 꼭대기 층의 View로 전달한 후 해당 View의 dispatchTouchEvent 방법을 호출하는 바, 이로써 터치 스크린 이벤트의 취득을 완성한다. 현재 취득한 터치 스크린 좌표값과 이전의 포커싱 구역 좌표값 및 측광 구역 좌표값을 비교하여 현재 클릭 또는 드래깅 구역이 포커싱 유효 구역인지 아니면 측광 유효 구역인지 또는 무효 구역인지 판단한다.
(2) 유효 구역 좌표 계산 및 UI로부터 드라이버의 좌표 변환
calculateTapArea를 통하여 현재의 터치 포인트에 의하여 포커싱 구역과 측광 구역을 산출한 후, Matrix 중의 mapRect와 Util 툴 유형 중의 prepareMatrix(좌표 변환 준비, Android App 층 툴 유형, 상위 층 화면 좌표를 하위 층 드라이버 좌표로 전환시킨다) 좌표 변환을 통하여 상위 층 좌표를 하위 층 드라이버 좌표로 전환시킨다.
(3) 파라미터 전달 및 하위 층 인터페이스 호출
소정 구역을 추산한 후, framework 층의 setMeteringArea와 setFocusArea(포커싱 구역 설정, 포커싱 구역을 하위 층으로 전달하는 인터페이스)를 통하여 파라미터를 JNI(Java Native Interface, JAVA 로컬 호출, 상위 층 java 언어로부터 하위 층 c 언어의 호출을 완성)으로 전달하고, 또한 android_hardware_Camera(JNI 층의 하나의 함수로서, 카메라 모듈 중의 java 언어로부터 c 언어로의 호출을 완성한다)를 통하여 HAL 층으로 전달하여, 최종적으로 native_set_parms가 구현한다.
상기 실시예는 단지 Android 플랫폼을 예로 설명하였지만 이는 Android 플랫폼에 제한되지 않고, 또한 애플사의 iOS, 마이크로소프트사의 Windows 등 플랫폼 또는 운영체제에서도 실현할 수 있다.
본 발명의 실시예에 의하면, 사용자는 본 발명을 이용하여 미리보기 및 구도를 진행할 때, 수요에 따라 포커싱 구역과 측광 구역을 선택하고, 서로 다른 씬에 따라 구도를 진행하여 사용자 체험을 향상시킬 수 있다.
이상에서는 본 발명을 특정의 실시예에 대해서 도시하고 설명하였지만, 본 발명은 상술한 실시예만 한정되는 것은 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 이하의 청구범위에 기재된 본 발명의 기술적 사상의 요지를 벗어나지 않는 범위에서 여러 가지 변형 방안을 통하여 본 발명을 구현할 수 있는 바, 예를 들면 하나의 실시예의 특징이 다른 한 실시예에 이용되어 또 다른 실시예를 취득할 수 있다. 본 발명의 기술사상을 이용한 모든 수정, 교체와 개선은 모두 본 발명의 보호범위에 속하는 것이다.

Claims (10)

  1. 촬영 장치에 있어서,
    이미지, 상기 이미지 상의 포커싱 패턴 및 측광 패턴을 디스플레이하는 디스플레이 유닛 모듈로서, 상기 측광 패턴 및 상기 포커싱 패턴은 상기 이미지 상에 동시에 디스플레이되는, 디스플레이 유닛 모듈;
    상기 디스플레이 유닛 모듈에 디스플레이된 상기 측광 패턴 및 상기 포커싱 패턴에 대한 위치 선택 작업 명령을 수신하는 수신 유닛 모듈로서, 상기 위치 선택 작업 명령은 상기 측광 패턴 및/또는 상기 포커싱 패턴에 대한 작업 명령을 포함하는 것인, 수신 유닛 모듈; 및
    상기 위치 선택 작업 명령이, 상기 수신 유닛 모듈이 수신한 상기 위치 선택 작업 명령에 따른 측광 명령 또는 포커싱 명령인지 여부를 판단하고, 상기 판단 결과에 기초하여 측광 위치 및/또는 포커싱 위치를 변경하며, 상기 측광 위치 및 상기 포커싱 위치에 따라 측광 구역 및 포커싱 구역을 위치시켜, 촬영을 진행하는 처리 유닛 모듈;을 포함하고,
    상기 디스플레이 유닛 모듈에 디스플레이된 상기 측광 패턴 및 상기 포커싱 패턴에 대한 상기 위치 선택 작업 명령은 터치 입력 명령이며,
    상기 터치 입력 명령은, 디스플레이된 측광 패턴을 드래깅 또는 클릭하여 측광 위치를 선택하는 명령; 및/또는 디스플레이된 포커싱 패턴을 드래깅 또는 클릭하여 포커싱 위치를 선택하는 명령을 포함하며,
    상기 처리 유닛 모듈은, 현재 취득한 터치 스크린 좌표값과 이전의 상기 포커싱 구역 좌표값 및 상기 측광 구역의 좌표값을 비교함으로써, 현재 드래깅 또는 클릭되는 구역이 유효한 포커싱 구역인지, 유효한 측광 구역인지, 또는 무효 구역인지를 판단하는 것을 특징으로 하는 촬영 장치.
  2. 청구항 1에 있어서,
    상기 이미지는 카메라가 촬영한 이미지인 것을 특징으로 하는 촬영 장치.
  3. 청구항 2에 있어서,
    상기 처리 유닛 모듈에는 계산 유닛이 포함되며, 상기 계산 유닛은 선택된 적어도 하나의 측광 위치의 측광 패턴으로 커버된 픽셀의 휘도 값을 입력값으로 하여, 사전 설정된 함수를 통하여 계산을 진행하여 출력값을 취득하며, 상기 촬영 장치는 상기 출력값을 기반으로 촬영을 진행하는 것을 특징으로 하는 촬영 장치.
  4. 촬영 방법에 있어서,
    이미지, 상기 이미지 상의 포커싱 패턴 및 측광 패턴을 디스플레이하는 단계로서, 상기 측광 패턴 및 상기 포커싱 패턴은 상기 이미지 상에 동시에 디스플레이되는, 단계;
    디스플레이된 상기 측광 패턴 및 상기 포커싱 패턴에 대한 위치 선택 작업 명령을 수신하는 단계로서, 상기 위치 선택 작업 명령은 상기 측광 패턴 및/또는 상기 포커싱 패턴에 대한 작업 명령을 포함하는 것인, 단계; 및
    상기 위치 선택 작업 명령이, 수신한 상기 위치 선택 작업 명령에 따른 측광 명령 또는 포커싱 명령인지 여부를 판단하고, 상기 판단 결과에 기초하여 측광 위치 및/또는 포커싱 위치를 변경하는 단계; 및
    상기 측광 위치 및 상기 포커싱 위치에 따라 측광 구역 및 포커싱 구역을 위치시켜 촬영을 진행하는 단계를 포함하고,
    디스플레이된 상기 측광 패턴 및 상기 포커싱 패턴에 대한 상기 위치 선택 작업 명령은 터치 입력 명령이며,
    상기 터치 입력 명령은:
    상기 측광 위치를 선택하기 위해, 디스플레이된 측광 패턴을 드래깅 또는 클릭하기 위한 명령; 및/또는
    상기 포커싱 위치를 선택하기 위해, 디스플레이된 포커싱 패턴을 드래깅 또는 클릭하기 위한 명령을 포함하며,
    상기 위치 선택 작업 명령이, 수신한 상기 위치 선택 작업 명령에 따른 측광 명령 또는 포커싱 명령인지 여부를 판단하고, 상기 판단 결과에 기초하여 측광 위치 및/또는 포커싱 위치를 변경하는 상기 단계는, 현재 취득한 터치 스크린 좌표값과 이전의 상기 포커싱 구역 좌표값 및 상기 측광 구역의 좌표값을 비교함으로써, 현재 드래깅 또는 클릭되는 구역이 유효한 포커싱 구역인지, 유효한 측광 구역인지, 또는 무효 구역인지를 판단하는 것을 포함하는 촬영 방법.
  5. 청구항 4에 있어서,
    상기 이미지는 카메라가 촬영한 이미지인 것을 특징으로 하는 촬영 방법.
  6. 청구항 4에 있어서,
    상기 측광 위치는 적어도 두 개이며; 및/또는 상기 포커싱 위치는 적어도 두 개인; 것을 특징으로 하는 촬영 방법.
  7. 청구항 4에 있어서,
    상기 측광 패턴과 포커싱 패턴의 색상이 다르거나 모양이 다른 것을 특징으로 하는 촬영 방법.
  8. 청구항 4에 있어서, 상기 촬영 방법은:
    상기 터치 입력 명령이 상기 측광 패턴을 드래깅하는 명령일 때, 노출량을 실시간으로 변경하는 것,
    선택된 적어도 하나의 측광 위치의 측광 패턴으로 커버된 픽셀의 휘도 값을 입력값으로 하여, 사전 설정된 함수를 통하여 계산을 진행하며, 계산에 의하여 취득한 출력값에 의하여 촬영을 진행하는 것을 더 포함하는 것을 특징으로 하는 촬영 방법.
  9. 삭제
  10. 삭제
KR1020157018323A 2012-12-28 2013-12-22 촬영 장치 및 촬영 방법 KR101691764B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201210587006.4 2012-12-28
CN201210587006 2012-12-28
CN201310557312 2013-11-08
CN201310557312.8 2013-11-08
PCT/CN2013/090176 WO2014101722A1 (zh) 2012-12-28 2013-12-22 一种摄像装置和摄像方法

Publications (2)

Publication Number Publication Date
KR20150095787A KR20150095787A (ko) 2015-08-21
KR101691764B1 true KR101691764B1 (ko) 2016-12-30

Family

ID=51019876

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157018323A KR101691764B1 (ko) 2012-12-28 2013-12-22 촬영 장치 및 촬영 방법

Country Status (6)

Country Link
US (2) US20150281561A1 (ko)
EP (1) EP2933998A4 (ko)
JP (1) JP2016510522A (ko)
KR (1) KR101691764B1 (ko)
IN (1) IN2015DN04078A (ko)
WO (1) WO2014101722A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2015DN04078A (ko) * 2012-12-28 2015-10-09 Nubia Technology Co Ltd
CN104079928A (zh) * 2014-07-07 2014-10-01 广东欧珀移动通信有限公司 摄像头的一致性校准方法、装置及移动设备
US20160261789A1 (en) * 2015-03-06 2016-09-08 Sony Corporation Method for independently determining exposure and focus settings of a digital camera
CN106101680B (zh) * 2015-05-06 2018-12-25 小米科技有限责任公司 拍摄参数设置方法及装置
CN106713886B (zh) * 2016-12-20 2018-11-02 深圳Tcl数字技术有限公司 白平衡调整装置和白平衡调整方法
CN108737717A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 拍摄方法、装置、智能设备及存储介质
CN110177218B (zh) * 2019-06-28 2021-06-04 广州鲁邦通物联网科技有限公司 一种安卓设备的拍照图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100805293B1 (ko) 2006-11-16 2008-02-20 삼성전자주식회사 휴대기기 및 그 촬영방법
JP2008166926A (ja) 2006-12-27 2008-07-17 Nikon Corp 逆光判定装置、及び被写体撮像方法
JP2009077266A (ja) 2007-09-21 2009-04-09 Fujifilm Corp デジタルカメラ、及びデジタルカメラのフォーカスエリア選択方法
JP2010041716A (ja) 2008-07-31 2010-02-18 Fuji Xerox Co Ltd ビューファインダ上のマルチ測定ポイントからのデータ処理方法及びデバイス

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4040139B2 (ja) * 1997-05-12 2008-01-30 キヤノン株式会社 カメラ
US7551223B2 (en) * 2002-12-26 2009-06-23 Sony Corporation Apparatus, method, and computer program for imaging and automatic focusing
JP3829144B2 (ja) * 2004-11-25 2006-10-04 シャープ株式会社 合焦エリア調節カメラ付携帯端末
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
US20080266438A1 (en) * 2007-04-30 2008-10-30 Henrik Eliasson Digital camera and method of operation
JP2009273033A (ja) * 2008-05-09 2009-11-19 Olympus Imaging Corp カメラシステム及びコントローラの制御方法,コントローラのプログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
KR101505681B1 (ko) * 2008-09-05 2015-03-30 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법
CN101582985B (zh) * 2008-12-09 2011-07-27 王玉龙 数码触景技术相机
US8233789B2 (en) * 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
JP2012095236A (ja) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd 撮像装置
US20120242852A1 (en) * 2011-03-21 2012-09-27 Apple Inc. Gesture-Based Configuration of Image Processing Techniques
IN2015DN04078A (ko) * 2012-12-28 2015-10-09 Nubia Technology Co Ltd

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100805293B1 (ko) 2006-11-16 2008-02-20 삼성전자주식회사 휴대기기 및 그 촬영방법
JP2008166926A (ja) 2006-12-27 2008-07-17 Nikon Corp 逆光判定装置、及び被写体撮像方法
JP2009077266A (ja) 2007-09-21 2009-04-09 Fujifilm Corp デジタルカメラ、及びデジタルカメラのフォーカスエリア選択方法
JP2010041716A (ja) 2008-07-31 2010-02-18 Fuji Xerox Co Ltd ビューファインダ上のマルチ測定ポイントからのデータ処理方法及びデバイス

Also Published As

Publication number Publication date
KR20150095787A (ko) 2015-08-21
EP2933998A4 (en) 2016-08-24
WO2014101722A1 (zh) 2014-07-03
IN2015DN04078A (ko) 2015-10-09
JP2016510522A (ja) 2016-04-07
US20150304567A1 (en) 2015-10-22
EP2933998A1 (en) 2015-10-21
US20150281561A1 (en) 2015-10-01

Similar Documents

Publication Publication Date Title
KR101691764B1 (ko) 촬영 장치 및 촬영 방법
CN103139481B (zh) 一种摄像装置和摄像方法
JP6834056B2 (ja) 撮影モバイル端末
CN104735355B (zh) 一种智能终端的摄像方法及装置
CN105744175B (zh) 一种屏幕补光方法、装置及移动终端
CN105554411A (zh) 一种基于屏幕补光的拍照方法、装置及移动终端
CN103188434B (zh) 一种图像采集方法和设备
CN112492212B (zh) 拍照方法、装置、电子设备及存储介质
CN104011580B (zh) 图像处理装置、摄像装置、显微镜系统以及图像处理方法
KR20140088768A (ko) 카메라를 실행하기 위한 방법 및 그 전자 장치
CN113794829B (zh) 拍摄方法、装置及电子设备
TWI545508B (zh) 用於執行臉部追蹤功能的方法及其電子裝置
WO2022237839A1 (zh) 拍摄方法、装置及电子设备
JP2010016826A (ja) 画像処理オペレーションを効率的に実行するためのシステム及び方法
CN112637515A (zh) 拍摄方法、装置和电子设备
CN112672051B (zh) 拍摄方法、装置和电子设备
CN103873759A (zh) 一种拍摄方法及电子设备
CN113747080A (zh) 一种拍摄预览方法、拍摄预览装置、电子设备及介质
CN114025092A (zh) 拍摄控件显示方法、装置、电子设备及介质
CN104410787B (zh) 一种摄像装置和摄像方法
JP2017017503A (ja) 情報処理装置、情報処理方法
WO2018010389A1 (zh) 显示内容的颜色调整方法、系统和装置
CN112887601A (zh) 拍摄方法、装置及电子设备
CN106060416A (zh) 一种智能拍照方法
CN113037996A (zh) 图像处理方法、装置和电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
GRNT Written decision to grant