KR101561768B1 - Image photographing apparuatus and operating method thereof - Google Patents
Image photographing apparuatus and operating method thereof Download PDFInfo
- Publication number
- KR101561768B1 KR101561768B1 KR1020140010287A KR20140010287A KR101561768B1 KR 101561768 B1 KR101561768 B1 KR 101561768B1 KR 1020140010287 A KR1020140010287 A KR 1020140010287A KR 20140010287 A KR20140010287 A KR 20140010287A KR 101561768 B1 KR101561768 B1 KR 101561768B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- pointer
- photographed
- person
- image capturing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Abstract
영상 촬영 장치의 동작 방법에 있어서, 피촬영자에 대한 영상을 취득하는 단계; 취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계, 상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계, 상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계, 상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계, 및 상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함한다.A method of operating a video photographing apparatus, comprising: acquiring an image of a person to be photographed; Identifying the face of the to-be-photographed person on the basis of the acquired image, identifying the eye of the to-be-photographed person on the face of the identified to-be-photographed person, determining the position of the pointer to be photographed by the to- Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer, and acquiring an image of the to-be-photographed person gazing at the displayed pointer.
Description
본 발명은 영상 촬영 장치 및 그 동작 방법에 관한 것으로, 특히 영상 촬영 장치의 사용자가 스스로 피촬영자가 되는 자가촬영 시, 사용자의 시선처리를 위한 최적의 응시점인 포인터를 표시하는 영상 촬영 장치 및 그 동작 방법에 관한 것이다.The present invention relates to an image photographing apparatus and an operation method thereof, and more particularly to an image photographing apparatus for displaying a pointer, which is an optimum examining point for a user's gaze processing, when a self- And to a method of operation.
최근, 영상 촬영 장치가 널리 보급되고 카메라가 구비된 스마트폰이 보편적으로 사용되면서 많은 사람들이 쉽게 사진 또는 동영상을 촬영할 수 있게 되었다.BACKGROUND ART [0002] In recent years, a wide variety of image photographing devices have been widely used and a smart phone equipped with a camera has been widely used, so that many people can easily take pictures or videos.
이에 따라 카메라나 스마트폰 사용자는 시간과 장소에 구애받지 않고 언제든지 간편하게 사진 또는 동영상과 같은 영상을 촬영할 수 있게 되었고, 촬영된 영상을 다양한 방법으로 다른 사람들과 공유하거나 프린트하여 보관하고 있다.As a result, cameras and smartphone users can easily capture images such as photos or videos at any time, regardless of time and place, and share the captured images with others in various ways or print them.
한편, 카메라나 스마트폰의 사용자들이 자신의 모습을 스스로 촬영하는 행위인 자가촬영, 흔히 셀카라고 부르는 촬영방식을 통해 영상을 촬영하는 모습을 생활 주변에서 쉽게 발견할 수 있고, 이러한 자가촬영 행위는 이제 하나의 문화가 되었다.On the other hand, it is easy for the user of the camera or the smartphone to photograph the self-photographing, which is an act of photographing himself / herself, It became a culture.
그래서 여러 매체를 통해 유명인의 자가촬영 사진이 소개되고, 다양한 매체를 통해 셀카를 잘 찍는 법과 같은 자가촬영의 요령이 공개되고 있다.So, self-photographs of celebrities are introduced through various media, and self-photographing tips such as how to take self-portrait well through various media are being made public.
이러한 자가촬영은 사용자가 피사체인 피촬영자가 되고, 카메라의 구조적인 한계 및 사용자의 카메라 조작의 한계로 인해 매우 제한된 각도와 거리에서만 촬영이 가능하고, 자가촬영을 하는 영상 촬영 장치의 사용자는 자가촬영 시 사용자의 시선을 처리할 적절한 위치를 파악하기 어렵다.Such self-photographing can be performed only at a very limited angle and distance due to the structural limitations of the camera and the limitations of the camera operation of the user, and the user of the image-taking apparatus for self- It is difficult to grasp the appropriate position to handle the user's gaze.
그래서 일반적으로 자가촬영하는 영상 촬영 장치의 사용자들은 영상 촬영 장치의 렌즈 또는 영상 촬영 장치의 디스플레이를 바라보며 영상을 촬영하고 있으며, 이에 따라 자가촬영 시 피촬영자인 사용자와 카메라 렌즈의 거리, 각도에 따라 사용자의 눈이 처지거나 사용자의 자연스럽지 않은 시선 방향으로 인해 사용자가 비정상적으로 촬영되는 문제점이 있다.Therefore, in general, the users of the image capturing apparatus that self-captures are taking images by looking at the lens of the image capturing apparatus or the display of the image capturing apparatus. Thus, according to the distance and angle of the user, There is a problem in that the user is photographed abnormally due to the eyes of the user or the natural direction of the user.
또한, 자가촬영을 하는 영상 촬영 장치의 사용자는 자연스러운 영상을 취득하기 위해 영상 촬영 장치를 파지한 손을 사용자의 신체로부터 최대한 멀리 뻗어야하고, 이에 따라 신체적 구조의 한계로 인해 영상 촬영 장치의 조작 버튼을 입력하기 어려운 문제가 있다.In addition, the user of the image capturing apparatus that performs self-photographing must extend his / her hand gripping the image capturing apparatus as far as possible from the user's body in order to acquire a natural image, There is a problem that it is difficult to input.
본 발명이 해결하고자 하는 기술적 과제는 영상 촬영 장치의 사용자에 최적의 주시 방향을 제공해서, 피촬영자의 자연스러운 영상을 촬영할 수 있는 영상 촬영 장치 및 그 동작 방법을 제공하는 것이다.An object of the present invention is to provide an image photographing apparatus and an operation method thereof that can provide an optimal viewing direction to a user of a photographing apparatus and can photograph a natural image of a photographee.
또한, 본 발명은 영상 촬영 장치의 사용자가 자가촬영 시 영상 촬영 장치를 용이하게 조작할 수 있는데 목적이 있다.It is another object of the present invention to allow a user of the image photographing apparatus to easily operate the image photographing apparatus during self photographing.
본 발명의 일 실시예에 따른 영상 촬영 장치의 동작 방법에 있어서, 피촬영자에 대한 영상을 취득하는 단계; 취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계; 상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계; 상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계; 상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계; 및 상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함한다.According to an embodiment of the present invention, there is provided an operation method of a video photographing apparatus, comprising: acquiring an image of a to-be-photographed person; Identifying a face of the person to be photographed based on the acquired image; Identifying an eye of the to-be-photographed person on a face of the identified to-be-photographed person; Calculating a position of a pointer to be photographed by the to-be-photographed person based on the position of the identified eye; Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer; And acquiring an image of a person to be photographed to gaze at the displayed pointer.
본 발명의 다른 실시예에 따른 영상 촬영 장치에 있어서, 피촬영자의 이미지를 취득하는 영상취득부, 상기 영상 촬영 장치, 상기 피촬영자에 대한 거리 팩터 및 각도 팩터를 측정하는 센서부, 상기 영상취득부가 취득한 이미지에서 인물의 안면을 식별하고, 상기 센서부가 측정한 거리 팩터 및 각도 팩터를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 제어부 및 상기 산출된 포인터를 표시하는 출력부를 포함한다.The image capturing apparatus according to another embodiment of the present invention may further include an image capturing unit for capturing an image of a person to be photographed, a sensor unit for measuring a distance factor and an angle factor to the image capturing apparatus, A control unit for identifying the face of the person in the acquired image and calculating the position of the pointer to be examined by the to-be-photographed person based on the distance factor and the angle factor measured by the sensor unit, and an output unit for displaying the calculated pointer.
본 발명의 실시예에 따른 영상 촬영 장치 및 그 동작 방법에 따르면, 피촬영자에 대한 최적의 주시 방향에 대응하는 포인터를 표시할 수 있어서, 사용자는 자연스러운 자가촬영의 영상을 취득할 수 있다.According to the image photographing apparatus and the operation method thereof according to the embodiment of the present invention, the pointer corresponding to the optimum viewing direction for the person to be photographed can be displayed, so that the user can acquire an image of the photograph taken by the natural person.
도 1은 본 발명의 일 실시예와 관련된 영상 촬영 장치의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시예에 따른 자가촬영에 대한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상 촬영 장치와 포인터 표시를 나타내는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 촬영 장치의 동작방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 피촬영자의 안면 식별을 나타내는 예시도이다.
도 6 내지 도 11은 본 발명의 일 실시예에 따른 포인터 산출에 기초가 되는 팩터를 나타낸다.
도 12 및 도 13은 본 발명의 일 실시예에 따른 포인터 표시에 대한 예시도이다.
도 14는 본 발명의 일 실시예에 따른 포인터 표시에 대응한 피드백에 대한 표시를 나타낸다.
도 15는 본 발명의 일 실시예에 따른 포인터 표시에 대응한 피드백에 대한 진동을 나타낸다.1 is a block diagram of a video photographing apparatus according to an embodiment of the present invention.
2 is an exemplary view of self-photographing according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an image capturing apparatus and a pointer display according to an exemplary embodiment of the present invention. Referring to FIG.
4 is a flowchart illustrating an operation method of a video photographing apparatus according to an exemplary embodiment of the present invention.
5 is an exemplary view showing facial identification of a subject to be photographed according to an embodiment of the present invention.
Figs. 6 to 11 show factors based on pointer calculation according to an embodiment of the present invention. Fig.
FIGS. 12 and 13 illustrate pointer displays according to an embodiment of the present invention.
14 shows an indication of feedback corresponding to a pointer display according to an embodiment of the present invention.
FIG. 15 shows the vibration for feedback corresponding to the pointer display according to an embodiment of the present invention.
이하, 본 발명과 관련된 영상 촬영 장치에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a video photographing apparatus according to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
본 명세서에서 설명되는 영상 촬영 장치에는 카메라, 카메라가 구비된 다양한 장치들인 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 카메라가 구비된 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같이 카메라가 구비된 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
The image capturing apparatus described in this specification includes various devices including a camera and a camera, such as a mobile phone, a smart phone, a laptop computer, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) . However, it should be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal equipped with a camera, such as a digital TV, a desktop computer, and the like, It will be easy to see.
다음은 도 1을 참고하여 본 발명의 일 실시예에 따른 영상 촬영 장치(100)의 구조를 설명한다.Hereinafter, the structure of a photographing
도 1은 본 발명의 일 실시예와 관련된 영상 촬영 장치(100)의 블록 구성도(block diagram)이다.FIG. 1 is a block diagram of a
영상 촬영 장치(100)는 영상취득부(110), 입력부(120), 제어부(130), 출력부(140), 메모리부(150) 및 센서부(160) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 영상 촬영 장치(100)가 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
도 1을 참조하면, 영상취득부(110)는 피사체에 대한 영상을 취득하여 화상 프레임으로 처리할 수 있다.Referring to FIG. 1, the image acquisition unit 110 can acquire an image of a subject and process it as an image frame.
영상취득부(110)는 렌즈(112), 이미지 센서를 포함할 수 있다.The image acquisition unit 110 may include a
영상취득부(110)는 렌즈(112)를 통해 피사체의 이미지를 취득하고, 취득한 광학 신호를 전기 신호로 변환할 수 있다.The image acquisition unit 110 acquires an image of a subject via the
영상취득부(110)는 촬영 모드에서 영상취득부(110)에 구비된 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다.The image acquisition unit 110 may process an image frame such as a still image or a moving image obtained by an image sensor provided in the image acquisition unit 110 in a photographing mode.
영상취득부(110)에서 처리된 화상 프레임은 메모리부(150)에 저장되거나 무선 통신부(미도시)를 통하여 외부로 전송될 수 있다.The image frame processed by the image acquisition unit 110 may be stored in the
영상취득부(110)에 구비되는 렌즈(112)는 사용 환경에 따라 2개 이상이 구비될 수도 있으며, 예를 들면 복수의 렌즈(112)를 포함하여 복수의 영상을 동시에 취득할 수 있다.The
입력부(120)는 영상 촬영 장치(100)의 동작 제어를 위한 사용자의 입력에 따라 입력 데이터를 발생시킨다. The
입력부(120)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
제어부(130)는 통상적으로 영상 촬영 장치(100)의 전반적인 동작을 제어한다. The
예를 들어, 영상 취득, 영상 전송, 영상 편집 등을 위해 관련된 제어 및 처리를 수행한다.For example, it performs related control and processing for image acquisition, image transmission, image editing, and the like.
또한, 제어부(130)는 영상 촬영 장치(100)를 이용하여 자가촬영하는 사용자의 화상 프레임으로부터 사용자의 안면, 특히 눈의 위치를 식별할 수 있다.In addition, the
그리고 제어부(130)는 식별된 사용자의 눈의 위치에 따라 자가촬영하는 사용자가 응시할 최적의 위치를 산출할 수 있다.The
여기서 자가촬영하는 사용자가 응시할 최적의 위치(이하,"응시점"라 한다.)란, 영상 촬영 장치(100)의 사용자가 영상 촬영 장치(100)를 이용하여 스스로 자신의 모습을 촬영하는 자가촬영 시, 사용자의 눈이 자연스럽게 촬영될 수 있기 위해 사용자가 바라볼 지점을 말한다.Herein, the optimal position (hereinafter, referred to as a "gaze point") at which a user who takes a self-photographing operation is to be referred to is a user of the
도 2를 참고해서 응시점에 대해 자세히 설명한다.The gazing point will be described in detail with reference to FIG.
도 2는 자가촬영하는 사용자의 시선에 대한 예시도이다.Fig. 2 is an exemplary view of a user's eyesight for self-photographing.
상술한 바와 같이, 자가촬영하는 사용자는 일반적으로 렌즈(112)를 바라보고 영상을 촬영하게 되고 이에 따른 사용자의 시선은 시선 (a)와 같다.As described above, the user who takes a self-photograph generally looks at the
그리고 사용자보다 높은 위치에 있는 렌즈(112)를 바라보고 영상을 촬영하게 됨에 따라 사용자의 눈이 비정상적으로 촬영된다.As the user looks at the
반면에, 제어부(130)가 사용자의 눈이 정상적으로 촬영될 수 있도록 사용자가 바라봐야 할 위치인 응시점을 산출하고, 산출된 응시점을 포인터(200)로 표시할 수 있다.On the other hand, the
도 2의 디스플레이부(142)에 표시된 포인터(200)가 응시점의 위치이며, 사용자가 포인터를 바라보게 되면 사용자의 시선은 시선 (b)와 같다.When the
그리고 사용자의 시선이 시선 (b)이면, 사용자가 높은 위치를 바라보던 시선(a)일 때보다 자연스러운 자가촬영의 화상 프레임을 취득할 수 있다.If the user's line of sight is line-of-sight (b), it is possible to acquire an image frame of the self-photographing that is natural to the user, as compared with the line of sight (a)
제어부(130)의 응시점 산출 및 포인터(200) 표시에 대한 자세한 내용은 후술하기로 한다. Details of the calculation of the gaze point and the display of the
또한, 제어부(130)는 산출된 응시점과 판단된 사용자의 현재 눈의 위치에 따른 시선 간의 차이에 대응하는 피드백을 출력부(140)를 통해 출력할 수 있다.In addition, the
이에 대해서는 후술하기로 한다.This will be described later.
다시 도 1을 참고하여 영상 표시 장치(100)의 구성을 설명한다.The configuration of the
출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(142), 스피커부(144), 및 햅틱 모듈(146) 등이 포함될 수 있다.The output unit 140 is for generating an output related to a visual, auditory, or tactile sense, and may include a
디스플레이부(142)는 영상 촬영 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 영상 촬영 장치(100)가 촬영 모드인 경우 촬영과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The
그리고 디스플레이부(142)는 영상취득부(110)를 통해 취득되는 화상 프레임을 표시할 수 있다.The
디스플레이부(142)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(142)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 영상 촬영 장치(100)의 바디의 디스플레이부(142)가 차지하는 영역을 통해 영상 촬영 장치(100)의 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the
또한, 영상 촬영 장치(100)의 구현 형태에 따라 디스플레이부(142)가 2개 이상 존재할 수 있다. 예를 들어, 영상 촬영 장치(100)에는 복수의 디스플레이부(142)들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. In addition, two or
디스플레이부(142)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함, 미도시)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(142)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서(미도시)는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a
터치 센서는 디스플레이부(142)의 특정 부위에 가해진 압력 또는 디스플레이부(142)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(130)로 전송한다. 이로써, 제어부(130)는 디스플레이부(142)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
스피커부(144)은 제어부(130)의 제어에 따라 메모리부(150)에 저장된 오디오 데이터를 출력할 수 있다. 스피커부(144)는 영상 촬영 장치(100)에서 수행되는 기능(예를 들어, 영상 촬영음, 경고음, 지시음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 스피커부(144)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
햅틱 모듈(haptic module)(146)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(146)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(146)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The
햅틱 모듈(146)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the
햅틱 모듈(146)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. The
또한, 햅틱 모듈(146)은 영상 촬영 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리부(150)는 제어부(130)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 취득한 화상프레임 등)을 저장할 수도 있다. 상기 메모리(150)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
센서부(160)는 영상 촬영 장치(100)의 개폐 상태, 영상 촬영 장치(100)의 위치, 사용자 접촉 유무, 영상 촬영 장치(100)의 방위, 영상 촬영 장치(100)의 가속/감속 등과 같이 영상 촬영 장치(100)의 현 상태를 감지하여 센싱 신호를 발생시킨다. The
예를 들면 센서부(160)는 각속도를 검출하는 자이로스코프 센서를 포함할 수 있어서 영상 촬영 장치(100)의 입체적인 움직임을 감지할 수 있다.For example, the
또한, 센서부(160)는 가속 센서를 포함할 수 있어서 영상 촬영 장치(100)의 가로 또는 세로 방향에 대한 움직임을 감지할 수 있다.In addition, the
이에 따라 센서부(160)는 자이로스코프 센서, 가속 센서 등을 통해 영상 촬영 장치(100)의 기울임 정도를 X, Y, Z축 각각에 대해 감지할 수 있다.Accordingly, the
또한 센서부(160)는 주변 물체와의 거리를 감지하는 거리 센서(162), 주변 밝기를 감지하는 밝기 센서(미도시)를 포함할 수 있다.In addition, the
이에 따라 센서부(160)는 영상 촬영 장치(100)와 주변 물체와의 거리를 감지할 수 있고, 주변 밝기를 감지할 수 있다.Accordingly, the
예를 들어 영상 촬영 장치(100)의 내부 영역 또는 디스플레이부(142)의 근처에 거리 센서(162)가 배치될 수 있다. For example, the
거리 센서(162)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. The
거리 센서(162)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. Examples of the
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(130)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, May be implemented by the
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 소프트웨어 코드는 메모리부(150)에 저장되고, 제어부(130)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. The software code is stored in the
도 3을 참고하여, 영상 촬영 장치(100)의 실제 구성에 대해 설명한다.The actual configuration of the
도 3은 본 발명의 실시예에 따른 영상 촬영 장치(100)를 나타내는 예시도이다.FIG. 3 is a diagram illustrating an
본 발명의 실시예에 따른 영상 촬영 장치(100)는 영상 촬영 장치(100)의 사용자가 자가촬영할 때 사용자가 응시할 포인터(200)를 디스플레이부(142)를 통해 볼 수 있도록 디스플레이부(142)와 렌즈(112)가 영상 촬영 장치(100)의 동일면에 구비되거나, 디스플레이부(142)의 이동에 따라 디스플레이부(142)와 렌즈(112)가 동일면에 구비될 수 있다.The
예를 들어 도 3에 도시된 바와 같이, 렌즈(112)와 디스플레이부(142)가 영상 촬영 장치(100)의 동일한 면에 구비될 수 있어서 자가촬영하는 영상 촬영 장치(100)의 사용자가 디스플레이부(142)에 표시되는 포인터(200)를 주시할 수 있다. 3, the
그리고 영상 촬영 장치(100)는 대상과의 거리를 측정할 수 있는 거리 센서(162), 촬영 동작에 대한 입력을 수신하는 입력 버튼(124), 음향 신호를 출력하는 스피커부(144)를 포함할 수 있다.The
이하, 도 4를 참조하여 영상 촬영 장치(100)의 동작 방법을 설명한다.Hereinafter, an operation method of the
도 4는 본 발명의 실시예에 따른 영상 촬영 장치(100)의 동작 방법을 나타내는 흐름도이다.4 is a flowchart showing an operation method of the
영상 촬영 장치(100)는 영상취득부(110)를 통해 피사체의 이미지인 영상을 취득한다(S100).The
영상취득부(110)는 렌즈(112)를 통해 입력되는 피사체의 이미지에 대해 이미지 센서 등을 통해 실시간으로 화상 프레임을 취득할 수 있다.The image acquisition unit 110 can acquire image frames in real time through an image sensor or the like with respect to the image of the subject input through the
영상취득부(110)는 취득한 화상 프레임을 제어부(130)에 전달한다.The image acquisition unit 110 transfers the acquired image frame to the
그리고 제어부(130)는 취득된 화상 프레임을 출력부(140)를 통해 출력할 수 있다.The
예를 들어, 영상 촬영 장치(100)가 턴온 상태이면 촬영 버튼 입력과 무관하게 렌즈(112)를 통해 입력되는 피사체의 이미지에 대해 화상 프레임을 취득하고, 제어부(130)는 취득된 화상 프레임을 디스플레이부(142)에 실시간으로 표시할 수 있다. 이는 일반적인 영상 촬영 장치(100)의 동작 방법이므로 상세한 설명은 생략한다.For example, when the
제어부(130)는 취득한 화상 프레임에서 피촬영자인 사용자의 안면을 식별한다(S110).The
제어부(130)는 취득한 화상 프레임에 포함된 사용자, 인물의 안면을 얼굴 영역 추출법, 픽셀 비교법, 주성분 분석법 등 다양한 방법을 통해 식별할 수 있다.The
예를 들면, 제어부(130)는 화상 프레임과 같은 영상에서 나타나는 인물 안면의 특징을 메모리부(150)에 저장된 안면 데이터베이스와 서로 비교하여 인물의 안면을 식별할 수 있다.For example, the
그리고 도 5에 도시된 바와 같이, 제어부(130)는 취득된 화상 프레임에서 피촬영자의 얼굴을 블록으로 인식하여 디스플레이부(142)에 표시할 수 있다.As shown in Fig. 5, the
한편, 취득된 영상에서 인물의 안면을 식별하는 기술은 공지된 기술이므로 자세한 설명은 생략하며, 상술한 방법 이외에도 취득된 영상에서 인물의 안면을 식별하는 기술에는 다양한 방법이 있으며 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.In addition to the above-described methods, there are various techniques for identifying the face of a person in the acquired image, and there are various methods for identifying the face of the person in the captured image, Can be variously set.
다시 도 4를 참고한다.Referring again to FIG.
제어부(130)는 식별된 피촬영자의 안면에서 눈을 식별한다(S120).The
제어부(130)는 단계 S110에서 식별된 안면의 구성에서 눈을 식별하며, 제어부(130)가 안면에서 눈을 식별하는 방법은 상술한 안면을 식별하는 방법과 동일하다.The
제어부(130)는 식별된 피촬영자의 안면을 기초로 피촬영자가 응시할 포인터의 위치를 산출한다(S130).The
제어부(130)는 영상 촬영 장치(100)의 사용자가 자가촬영을 할 때, 피촬영자인 사용자의 눈이 자연스럽게 촬영되기 위해 사용자가 바라볼 응시점인 포인터의 위치를 산출할 수 있다.The
제어부(130)는 렌즈(112)의 위치를 기초로 포인터의 위치를 산출할 수 있다.The
제어부(130)는 영상 촬영 장치(100)의 중심부와 렌즈(112)의 중심까지의 거리, 렌즈(112)와 피촬영자의 안면 간의 각도, 사용자를 기준으로 영상 촬영 장치(100)의 좌우 기울기 정도와 영상 촬영 장치(100)의 전후 기울기 정도, 피촬영자인 사용자의 안면과 영상 촬영 장치(100) 간의 거리, 디스플레이부(142)의 화면의 너비 및 높이 중 하나 이상을 기초로 포인터의 위치를 산출할 수 있다.The
이하, 도 6 내지 도 10을 참고하여 제어부(130)의 포인터 위치 산출의 기초가 되는 팩터에 대해 자세히 설명한다.Hereinafter, a factor that is a basis for calculating the pointer position of the
도 6을 참고하면, 제어부(130)는 영상 표시 장치(100)의 중심을 기준으로 렌즈(112)의 중심까지의 거리(d1)를 기초로 포인터의 위치를 산출할 수 있다.6, the
도 7을 참고하면, 제어부(130)는 렌즈(112)와 피촬영자의 안면 간의 각도(a1)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 7, the
도 8을 참고하면, 제어부(130)는 영상 촬영 장치(100)의 좌우 기울기 정도(a2)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 8, the
도 9를 참고하면, 제어부(130)는 영상 촬영 장치(100)의 전후 기울기 정도(a3)을 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 9, the
도 10을 참고하면, 제어부(130)는 영상 촬영 장치(100)와 피촬영자의 안면 간의 거리(d2)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 10, the
도 11을 참고하면, 제어부(130)는 디스플레이부(142)의 화면의 너비(d3)와 높이(d4)를 기초로 포인터의 위치를 산출할 수 있다.11, the
이하, 상술한 팩터들을 기초로 제어부(130)가 포인터의 위치를 산출하는 방법에 대해 설명한다.Hereinafter, a method for the
제어부(130)는 상술한 렌즈(112)의 중심까지의 거리(d1), 피촬영자의 안면까지의 거리(d2), 디스플레이부(142)의 화면 너비(d3), 디스플레이부(142)의 화면 높이(d4), 피촬영자의 안면 간의 각도(a1), 영상 촬영 장치(100)의 좌우 기울기(a2), 영상 촬영 장치(100)의 전후 기울기(a3)를 각각의 기준값과 비교하여 포인터의 위치를 산출할 수 있다.The
예를 들어, 제어부(130)는 d1에 대한 값이 기 설정된 기준값에 비해 크면 렌즈(112)가 영상 촬영 장치(100)의 중심에서 기준값보다 이격되어 있는 것으로 판단하여 보정값을 부여하여 포인터의 위치를 산출할 수 있다. For example, when the value of d1 is larger than a preset reference value, the
또한 제어부(130)는 d2에 대한 값이 기 설정된 기준값에 비해 작으면 피촬영자가 영상 촬영 장치(100)에 가까운 것으로 판단하여 d2에 대한 값이 기 설정된 기준값에 비해 클 때 보다 포인터의 위치에 대한 보정값을 부여하여 포인터의 위치를 산출할 수 있다.If the value of d2 is smaller than the predetermined reference value, the
그리고 제어부(130)는 d3과 d4를 기초로 디스플레이부(142)의 화면의 크기를 판단하고, 판단된 화면의 크기에 따라 포인터(200)를 표시할 수 있는 영역의 크기를 산출할 수 있다.The
그리고 제어부(130)는 a1 내지 a3을 기초로 포인터의 위치를 산출할 수 있는데, 피촬영자의 눈과 렌즈(112) 간의 각도에 따라 a1 내지 a3에 대해 측정되는 값이 달라지므로 피촬영자의 눈과 렌즈(112)간의 각도에 대한 보정값을 부여하여 포인터의 위치를 산출할 수 있다.The
그리고 제어부(130)는 영상 촬영 장치(100)의 높이와 피촬영자의 안면의 높이를 비교하고, 영상 촬영 장치(100)의 높이와 피촬영자의 안면의 높이의 차이를 기초로 포인터의 위치를 산출할 수 있다.The
예를 들면, 제어부(130)는 센서부(160)에 포함된 3D 자이로스코프 센서를 이용하여 측정된 영상 촬영 장치(100)의 전면이 수직 평면 상에서 기울어진 각도를 기초로 영상 촬영 장치(100)와 피촬영자 간의 높이 차이를 산출할 수 있다. 그리고 제어부(130)는 산출된 높이 차이를 기초로 포인터의 위치를 산출할 수 있다.For example, the
또한 제어부(130)는 상술한 포인터 위치 산출의 기초가 되는 복수의 팩터 중에서 어느 하나의 팩터를 우선 순위를 두어 포인터 위치를 산출할 수 있다.Also, the
예를 들면, 제어부(130)는 거리 팩터들에서 피촬영자의 안면까지의 거리(d2)를 다른 팩터들에 비해 우선 순위를 두어 포인터 위치를 산출할 수 있다. 이에 따라 제어부(130)는 피촬영자의 안면까지의 거리(d2)의 변동에 의해 산출되는 포인터의 위치 변동이 다른 거리 팩터들의 변동에 의해 산출되는 포인터의 위치 변동에 비해 크게 변동될 수 있다.For example, the
다시 도 4를 참고한다.Referring again to FIG.
제어부(130)는 산출된 포인터의 위치를 기초로 출력부(140)에 포인터(200)를 표시한다(S140).The
도 3에 도시된 바와 같이, 제어부(130)는 포인터(200)를 디스플레이부(142)에 표시할 수 있으며, 포인터(200)의 모양, 크기, 색상 등은 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.3, the
제어부(130)가 포인터(200)를 디스플레이부(142)에 표시함에 따라 디스플레이부(142)에는 영상취득부(110)를 통해 실시간으로 취득되는 피촬영자의 이미지와 포인터(200)가 함께 표시될 수 있다.The
이를 도 12 및 도 13을 참고하여 설명한다.This will be described with reference to FIGS. 12 and 13. FIG.
도 12 및 도 13은 본 발명의 실시예에 따른 포인터의 표시를 나타내는 예시도이다. 12 and 13 are diagrams showing examples of display of a pointer according to an embodiment of the present invention.
먼저 도 12를 참고하면, 제어부(130)는 렌즈(112)가 영상 촬영 장치(100)의 좌측 상단에 위치하고, 피촬영자의 안면이 디스플레이부(142)의 좌측에 위치하므로 포인터(200)의 위치를 디스플레이부(142)의 좌측 상단으로 산출할 수 있다.12, the
그리고 제어부(130)는 산출한 포인터의 위치를 기초로 포인터(200)와 함께 영상취득부(110)로부터 입력되는 피촬영자의 이미지를 동시에 표시할 수 있다.The
도 13을 참고하면, 제어부(130)는 렌즈(112)가 영상 촬영 장치(100)의 좌측 상단에 위치하고, 피촬영자의 안면이 디스플레이부(142)의 중앙에 위치하므로 포인터의 위치를 디스플레이부(142)의 우측 상단으로 산출할 수 있다.13, since the
그리고 제어부(130)는 산출한 포인터의 위치를 기초로 포인터(200)와 함께 영상취득부(110)로부터 입력되는 피촬영자의 이미지를 동시에 표시할 수 있다.The
다시 도 4를 참고한다.Referring again to FIG.
제어부(130)는 출력부(140)에 표시된 포인터(200)에 대응하는 피드백을 제공한다(S150).The
제어부(130)는 디스플레이부(142)에 표시된 포인터(200)와 피촬영자의 눈의 위치를 기초로 판단한 피촬영자의 시선을 비교하여, 표시된 포인터(200)와의 차이에 대응하는 피드백을 제공할 수 있다.The
예를 들면 제어부(130)는 판단된 피촬영자의 시선의 위치에서 표시된 포인터(200) 방향으로 화살표를 표시하거나 진동을 발생시킬 수 있어서, 피촬영자의 현재 시선과 포인터(200)의 차이에 대응하는 피드백을 제공할 수 있다.For example, the
이를 도 14를 참고하여 설명한다.This will be described with reference to FIG.
도 14는 본 발명의 실시예에 따른 피촬영자의 시선과 포인터(200)의 위치 간의 차이에 대응하는 피드백을 나타내는 예시도이다.14 is an exemplary diagram showing feedback corresponding to the difference between the gaze of the photographee and the position of the
도 14에서, 제어부(130)는 안면 식별을 통해 판단한 피촬영자의 시선 방향을 기초로 현재 시선점(210)과, 단계 S120에서 산출된 포인터(200)를 디스플레이부(142)에 표시할 수 있다. 14, the
그리고 제어부(130)는 현재 시선점(220)과 포인터(200) 사이의 차이에 대응하는 피드백 표시(220)를 디스플레이부(142)에 표시할 수 있다.The
도 14의 경우 피촬영자의 현재 시선점(210)이 포인터(200)보다 낮은 위치에 있으므로, 제어부(130)는 현재 시선점(210)에서 상단 방향인 포인터(200) 방향으로 향하는 화살표인 피드백 표시(220)를 포인터(200)와 현재 시선점(210) 사이에 표시할 수 있다.14, since the current point of
이에 따라 피촬영자는 피드백 표시(220)를 참고하여 최적의 응시점인 포인터(200)를 바라보는 상태에서 영상을 취득할 수 있다.Accordingly, the subject can acquire the image while looking at the
한편, 제어부(130)는 상술한 피드백을 진동으로 사용자에 제공할 수 있다.On the other hand, the
제어부(130)는 햅틱모듈(146)을 통해 진동을 발생시킬 수 있으며, 진동 모터의 회전 방향을 제어하여 산출된 피드백의 방향을 사용자에 제공할 수 있다.The
예를 들어 제어부(130)는 현재 시선점(220)이 포인터(200)의 좌측에 위치하면, 피촬영자의 시선을 포인터(200) 방향인 오른쪽으로 전환해야 하는 것을 진동 모터를 통해 피드백으로 제공할 수 있다. 그래서 제어부(130)는 햅틱모듈(146)의 진동 모터가 오른쪽 방향으로 회전하여 오른쪽 방향의 진동을 사용자에 피드백으로 제공할 수 있다.For example, when the
또한 제어부(130)는 햅틱모듈(146)의 진동 모터가 복수로 구성된 경우, 각각의 모터가 상하, 좌우 방향으로 회전하도록 제어하여 각각 상하, 좌우 방향의 진동을 피촬영자에 피드백으로 제공할 수 있다.In addition, when the vibration motor of the
한편, 상술한 단계 S150은 사용자 또는 설계자의 의도에 따라 생략될 수 있다.Meanwhile, the above-described step S150 may be omitted depending on the intention of the user or the designer.
다시 도 4를 참고한다.Referring again to FIG.
입력부(120)는 사용자의 영상 취득 입력을 수신하고, 제어부(130)는 영상 취득 입력이 수신되면 피사체, 즉 피촬영자에 대한 영상을 취득한다(S160).The
예를 들면 도 2에 도시된 바와 같이, 입력 버튼(124)이 사용자의 영상 취득 입력을 수신하면, 수신된 영상 취득 신호는 제어부(130)에 전달되고 제어부(130)는 피촬영자인 사용자의 영상을 취득할 수 있다.2, when the
또 다른 실시예로, 제어부(130)는 피촬영자의 시선이 포인터(200)를 응시하는 것으로 판단하면 입력부(120)가 영상 취득 입력을 수신하지 않더라도 피촬영자에 대한 영상을 자동으로 취득할 수도 있다.In another embodiment, the
그리고 제어부(130)는 피촬영자에 대한 영상을 자동으로 취득할 때, 영상 또는 음성을 통해 영상을 취득함을 알릴 수도 있다.When the
예를 들어, 제어부(130)는 피촬영자의 시선이 포인터(200)를 응시하는 것으로 판단하면, 디스플레이부(142)를 통해 포인터(200)가 깜박이도록 하고 스피커부(144)를 통해 영상을 취득함을 알리는 신호음을 출력할 수 있다.For example, when the
구체적인 예로 제어부(130)는 피촬영자의 시선이 검정색의 포인터(200)를 응시하는 것으로 판단하면, 디스플레이부(142)에 표시된 포인터(200)를 붉은색으로 표시하고, 스피커부(144)를 통해 하나, 둘 ,셋과 같은 신호음을 출력하여 자동으로 영상을 취득함을 알릴 수 있다.The
상술한 예시는 제어부(130)가 영상을 자동으로 취득할 때의 동작을 설명하기위한 것으로 디스플레이부(142) 및 스피커부(144)를 통한 영상과 음성은 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.The above-described example is for explaining the operation when the
한편, 제어부(130)는 영상 취득과 동시에 취득된 영상을 디스플레이부(142)에 표시할 수 있고, 메모리부(150)에 저장할 수 있다.
On the other hand, the
본 발명의 실시예에 따른 영상 촬영 장치 및 그 동작 방법에 따르면, 본 발명의 영상 촬영 장치는 최적의 주시 방향에 대응하는 포인터를 표시할 수 있어서, 본 발명의 사용자는 자연스러운 자가촬영의 영상을 취득할 수 있다.
According to the image photographing apparatus and the operation method thereof according to the embodiment of the present invention, the image photographing apparatus of the present invention can display the pointer corresponding to the optimum viewing direction, so that the user of the present invention can acquire can do.
본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .
상기와 같이 설명된 영상 촬영 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image capturing apparatuses are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .
Claims (14)
피촬영자에 대한 영상을 취득하는 단계;
취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계;
상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계;
상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계;
상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계; 및
상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함하고,
상기 포인터의 위치를 산출하는 단계는
상기 피촬영자, 상기 영상 촬영 장치에 대한 거리 팩터 및 상기 피촬영자, 상기 영상 촬영 장치에 대한 각도 팩터를 기초로 상기 포인터의 위치를 산출하는 단계를 포함하고,
상기 피촬영자, 상기 영상 촬영 장치에 대한 거리 팩터는
상기 영상 촬영 장치의 중심과 상기 영상 표시 장치의 렌즈의 중심 간의 거리, 상기 피촬영자의 안면과 상기 영상 촬영 장치 간의 거리, 상기 영상 촬영 장치의 화면의 너비 및 높이를 포함하는
영상 촬영 장치의 동작 방법.A method of operating a video imaging device,
Acquiring an image of a person to be photographed;
Identifying a face of the person to be photographed based on the acquired image;
Identifying an eye of the to-be-photographed person on a face of the identified to-be-photographed person;
Calculating a position of a pointer to be photographed by the to-be-photographed person based on the position of the identified eye;
Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer; And
Acquiring an image of a person to be photographed that takes a look at the displayed pointer;
The step of calculating the position of the pointer
Calculating a position of the pointer based on the image of the photographee, a distance factor to the image photographing apparatus, and an angle factor to the photographee and the image photographing apparatus,
The distance factor for the photographee and the image photographing apparatus is
A distance between the center of the image capturing apparatus and the center of the lens of the image display apparatus, a distance between the face of the to-be-photographed person and the image capturing apparatus, a width and a height of the screen of the image capturing apparatus,
A method of operating a video imaging device.
상기 피촬영자, 상기 영상 촬영 장치에 대한 각도 팩터는
상기 영상 표시 장치의 렌즈와 상기 피촬영자의 안면 간의 각도, 상기 영상 촬영 장치의 좌우 방향 기울기 각도, 상기 영상 촬영 장치의 전후 방향 기울기 각도를 포함하는
영상 촬영 장치의 동작 방법.The method according to claim 1,
The angle factor for the person to be photographed,
A tilt angle of the image capturing apparatus in the left-right direction, and a tilt angle of the image capturing apparatus in the anteroposterior direction,
A method of operating a video imaging device.
상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계 이후, 상기 피촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백을 제공하는 단계를 더 포함하는
영상 촬영 장치의 동작 방법.The method according to claim 1,
Further comprising the step of providing feedback corresponding to the difference between the gaze of the person to be photographed and the position of the displayed pointer after the step of displaying the pointer on the screen of the image photographing apparatus
A method of operating a video imaging device.
상기 피드백을 제공하는 단계는
상기 피촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 방향의 표시, 상기 차이에 대응하는 진동의 발생 중 하나 이상 동작을 포함하는
영상 촬영 장치의 동작 방법.6. The method of claim 5,
The step of providing feedback
An indication of a direction corresponding to a difference between the gaze of the subject to be photographed and the position of the displayed pointer, and a generation of a vibration corresponding to the difference
A method of operating a video imaging device.
상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계는
상기 피촬영자의 시선을 판단하는 단계와,
상기 판단된 피촬영자의 시선과 상기 포인터의 위치가 일치하는지 판단하는 단계와,
판단 결과, 상기 피촬영자의 시선과 상기 포인터의 위치가 일치하는 것으로 판단되면 상기 피촬영자의 화상 프레임을 취득하는 단계를 포함하는
영상 촬영 장치의 동작 방법.The method according to claim 1,
The step of acquiring the image of the to-be-photographed person gazing at the displayed pointer
Determining a gaze of the person to be photographed;
Determining whether the determined gaze of the photographee and the position of the pointer coincide with each other;
And acquiring the image frame of the to-be-photographed person when it is determined that the position of the pointer matches the sight line of the to-be-photographed person
A method of operating a video imaging device.
피촬영자의 이미지를 취득하는 영상취득부;
상기 영상 촬영 장치, 상기 피촬영자에 대한 거리 팩터 및 각도 팩터를 측정하는 센서부;
상기 영상취득부가 취득한 이미지에서 상기 피촬영자의 안면을 식별하고, 상기 센서부가 측정한 상기 거리 팩터 및 각도 팩터를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 제어부; 및
상기 산출된 포인터를 표시하는 출력부를 포함하고,
상기 센서부가 측정하는 상기 거리 팩터는 상기 영상 촬영 장치의 중심과 상기 영상 표시 장치의 렌즈의 중심 간의 거리, 상기 피촬영자의 안면과 상기 영상 촬영 장치 간의 거리, 상기 영상 촬영 장치의 화면의 너비 및 높이를 포함하는
영상 촬영 장치.In a video image pickup apparatus,
An image acquiring unit that acquires an image of a person to be photographed;
A sensor unit for measuring the image photographing device, a distance factor and an angle factor for the person to be photographed;
A controller for identifying the face of the to-be-photographed person in the image acquired by the image acquiring unit and calculating a position of a pointer to be photographed by the to-be-photographed person based on the distance factor and the angle factor measured by the sensor unit; And
And an output unit for displaying the calculated pointer,
Wherein the distance factor measured by the sensor unit includes a distance between a center of the image capturing apparatus and a center of a lens of the image display apparatus, a distance between the face of the to-be-photographed person and the image capturing apparatus, Containing
Image capturing device.
상기 센서부가 측정하는 상기 각도 팩터는 상기 영상 표시 장치의 렌즈와 상기 피촬영자의 안면 간의 각도, 상기 영상 촬영 장치의 좌우방향 기울기 각도, 상기 영상 촬영 장치의 전후방향 기울기 각도를 포함하는
영상 촬영 장치.9. The method of claim 8,
Wherein the angle factor measured by the sensor unit includes an angle between a lens of the image display apparatus and a face of the photographee, a tilt angle of the image photographing apparatus in a lateral direction, and a tilt angle of the image photographing apparatus in a front-
Image capturing device.
상기 출력부는 햅틱모듈을 포함하고,
상기 제어부는 상기 촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백을 상기 햅틱모듈을 통해 진동으로 발생시키는
영상 촬영 장치.9. The method of claim 8,
The output comprising a haptic module,
Wherein the control unit causes the feedback corresponding to the difference between the gaze of the photographer and the position of the displayed pointer to be generated as vibration through the haptic module
Image capturing device.
상기 햅틱모듈은 복수의 진동 모터를 포함하고,
상기 제어부는 상기 복수의 진동 모터를 각각 상기 영상 촬영 장치의 상하 방향, 좌우 방향으로 회전시켜 상기 영상 촬영 장치의 상하 방향, 좌우 방향에 대한 진동을 각각 발생시키는
영상 촬영 장치.12. The method of claim 11,
Wherein the haptic module includes a plurality of vibration motors,
The control unit rotates the plurality of vibration motors in the up-and-down direction and the left-right direction, respectively, of the image photographing apparatus to generate vibrations in the vertical direction and the lateral direction of the image photographing apparatus
Image capturing device.
상기 출력부는 디스플레이부를 포함하고,
상기 제어부는 상기 촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백에 대해 상기 디스플레이부를 통해 표시하는
영상 촬영 장치.9. The method of claim 8,
Wherein the output section includes a display section,
The control unit displays the feedback corresponding to the difference between the gaze of the photographer and the position of the displayed pointer through the display unit
Image capturing device.
상기 제어부는 상기 피촬영자의 시선이 상기 포인터를 응시하는 것으로 판단하면 상기 피촬영자에 대한 화상 프레임을 취득하는
영상 촬영 장치.9. The method of claim 8,
The control unit obtains an image frame for the to-be-photographed person when it is determined that the line of sight of the to-be-photographed person gazes at the pointer
Image capturing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140010287A KR101561768B1 (en) | 2014-01-28 | 2014-01-28 | Image photographing apparuatus and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140010287A KR101561768B1 (en) | 2014-01-28 | 2014-01-28 | Image photographing apparuatus and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150089541A KR20150089541A (en) | 2015-08-05 |
KR101561768B1 true KR101561768B1 (en) | 2015-10-20 |
Family
ID=53885964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140010287A KR101561768B1 (en) | 2014-01-28 | 2014-01-28 | Image photographing apparuatus and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101561768B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005167789A (en) * | 2003-12-04 | 2005-06-23 | Casio Comput Co Ltd | Photographing apparatus and photographing program |
-
2014
- 2014-01-28 KR KR1020140010287A patent/KR101561768B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005167789A (en) * | 2003-12-04 | 2005-06-23 | Casio Comput Co Ltd | Photographing apparatus and photographing program |
Also Published As
Publication number | Publication date |
---|---|
KR20150089541A (en) | 2015-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11546505B2 (en) | Touchless photo capture in response to detected hand gestures | |
CN109683716B (en) | Visibility improvement method based on eye tracking and electronic device | |
US10607395B2 (en) | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface | |
EP3179292B1 (en) | Head-mounted display device and control method therefor | |
US20160309081A1 (en) | Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems | |
CN111630477A (en) | Apparatus for providing augmented reality service and method of operating the same | |
CN110992327A (en) | Lens contamination state detection method and device, terminal and storage medium | |
KR20140141100A (en) | Method and apparatus for protecting eyesight | |
US11869156B2 (en) | Augmented reality eyewear with speech bubbles and translation | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
JP2017514186A (en) | Display control method and apparatus, electronic device | |
WO2014043620A1 (en) | Unauthorized viewer detection system and method | |
KR20160146037A (en) | Method and apparatus for changing focus of camera | |
KR20180004112A (en) | Eyeglass type terminal and control method thereof | |
KR101782086B1 (en) | Apparatus and method for controlling mobile terminal | |
CN111062248A (en) | Image detection method, device, electronic equipment and medium | |
JP2013148599A (en) | Display device | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
KR102319437B1 (en) | Device and method for determining distance | |
TWI603225B (en) | Viewing angle adjusting method and apparatus of liquid crystal display | |
US20180137648A1 (en) | Method and device for determining distance | |
KR20140120158A (en) | Mobile with a function of eye protection | |
KR20140090538A (en) | Display apparatus and controlling method thereof | |
CN113891002B (en) | Shooting method and device | |
KR101561768B1 (en) | Image photographing apparuatus and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
LAPS | Lapse due to unpaid annual fee |