KR101561768B1 - Image photographing apparuatus and operating method thereof - Google Patents

Image photographing apparuatus and operating method thereof Download PDF

Info

Publication number
KR101561768B1
KR101561768B1 KR1020140010287A KR20140010287A KR101561768B1 KR 101561768 B1 KR101561768 B1 KR 101561768B1 KR 1020140010287 A KR1020140010287 A KR 1020140010287A KR 20140010287 A KR20140010287 A KR 20140010287A KR 101561768 B1 KR101561768 B1 KR 101561768B1
Authority
KR
South Korea
Prior art keywords
image
pointer
photographed
person
image capturing
Prior art date
Application number
KR1020140010287A
Other languages
Korean (ko)
Other versions
KR20150089541A (en
Inventor
김태현
Original Assignee
김태현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태현 filed Critical 김태현
Priority to KR1020140010287A priority Critical patent/KR101561768B1/en
Publication of KR20150089541A publication Critical patent/KR20150089541A/en
Application granted granted Critical
Publication of KR101561768B1 publication Critical patent/KR101561768B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Abstract

영상 촬영 장치의 동작 방법에 있어서, 피촬영자에 대한 영상을 취득하는 단계; 취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계, 상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계, 상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계, 상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계, 및 상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함한다.A method of operating a video photographing apparatus, comprising: acquiring an image of a person to be photographed; Identifying the face of the to-be-photographed person on the basis of the acquired image, identifying the eye of the to-be-photographed person on the face of the identified to-be-photographed person, determining the position of the pointer to be photographed by the to- Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer, and acquiring an image of the to-be-photographed person gazing at the displayed pointer.

Description

영상 촬영 장치 및 그 동작 방법{IMAGE PHOTOGRAPHING APPARUATUS AND OPERATING METHOD THEREOF}[0001] IMAGE PHOTOGRAPHING APPARATUS AND OPERATING METHOD THEREOF [0002]

본 발명은 영상 촬영 장치 및 그 동작 방법에 관한 것으로, 특히 영상 촬영 장치의 사용자가 스스로 피촬영자가 되는 자가촬영 시, 사용자의 시선처리를 위한 최적의 응시점인 포인터를 표시하는 영상 촬영 장치 및 그 동작 방법에 관한 것이다.The present invention relates to an image photographing apparatus and an operation method thereof, and more particularly to an image photographing apparatus for displaying a pointer, which is an optimum examining point for a user's gaze processing, when a self- And to a method of operation.

최근, 영상 촬영 장치가 널리 보급되고 카메라가 구비된 스마트폰이 보편적으로 사용되면서 많은 사람들이 쉽게 사진 또는 동영상을 촬영할 수 있게 되었다.BACKGROUND ART [0002] In recent years, a wide variety of image photographing devices have been widely used and a smart phone equipped with a camera has been widely used, so that many people can easily take pictures or videos.

이에 따라 카메라나 스마트폰 사용자는 시간과 장소에 구애받지 않고 언제든지 간편하게 사진 또는 동영상과 같은 영상을 촬영할 수 있게 되었고, 촬영된 영상을 다양한 방법으로 다른 사람들과 공유하거나 프린트하여 보관하고 있다.As a result, cameras and smartphone users can easily capture images such as photos or videos at any time, regardless of time and place, and share the captured images with others in various ways or print them.

한편, 카메라나 스마트폰의 사용자들이 자신의 모습을 스스로 촬영하는 행위인 자가촬영, 흔히 셀카라고 부르는 촬영방식을 통해 영상을 촬영하는 모습을 생활 주변에서 쉽게 발견할 수 있고, 이러한 자가촬영 행위는 이제 하나의 문화가 되었다.On the other hand, it is easy for the user of the camera or the smartphone to photograph the self-photographing, which is an act of photographing himself / herself, It became a culture.

그래서 여러 매체를 통해 유명인의 자가촬영 사진이 소개되고, 다양한 매체를 통해 셀카를 잘 찍는 법과 같은 자가촬영의 요령이 공개되고 있다.So, self-photographs of celebrities are introduced through various media, and self-photographing tips such as how to take self-portrait well through various media are being made public.

이러한 자가촬영은 사용자가 피사체인 피촬영자가 되고, 카메라의 구조적인 한계 및 사용자의 카메라 조작의 한계로 인해 매우 제한된 각도와 거리에서만 촬영이 가능하고, 자가촬영을 하는 영상 촬영 장치의 사용자는 자가촬영 시 사용자의 시선을 처리할 적절한 위치를 파악하기 어렵다.Such self-photographing can be performed only at a very limited angle and distance due to the structural limitations of the camera and the limitations of the camera operation of the user, and the user of the image-taking apparatus for self- It is difficult to grasp the appropriate position to handle the user's gaze.

그래서 일반적으로 자가촬영하는 영상 촬영 장치의 사용자들은 영상 촬영 장치의 렌즈 또는 영상 촬영 장치의 디스플레이를 바라보며 영상을 촬영하고 있으며, 이에 따라 자가촬영 시 피촬영자인 사용자와 카메라 렌즈의 거리, 각도에 따라 사용자의 눈이 처지거나 사용자의 자연스럽지 않은 시선 방향으로 인해 사용자가 비정상적으로 촬영되는 문제점이 있다.Therefore, in general, the users of the image capturing apparatus that self-captures are taking images by looking at the lens of the image capturing apparatus or the display of the image capturing apparatus. Thus, according to the distance and angle of the user, There is a problem in that the user is photographed abnormally due to the eyes of the user or the natural direction of the user.

또한, 자가촬영을 하는 영상 촬영 장치의 사용자는 자연스러운 영상을 취득하기 위해 영상 촬영 장치를 파지한 손을 사용자의 신체로부터 최대한 멀리 뻗어야하고, 이에 따라 신체적 구조의 한계로 인해 영상 촬영 장치의 조작 버튼을 입력하기 어려운 문제가 있다.In addition, the user of the image capturing apparatus that performs self-photographing must extend his / her hand gripping the image capturing apparatus as far as possible from the user's body in order to acquire a natural image, There is a problem that it is difficult to input.

본 발명이 해결하고자 하는 기술적 과제는 영상 촬영 장치의 사용자에 최적의 주시 방향을 제공해서, 피촬영자의 자연스러운 영상을 촬영할 수 있는 영상 촬영 장치 및 그 동작 방법을 제공하는 것이다.An object of the present invention is to provide an image photographing apparatus and an operation method thereof that can provide an optimal viewing direction to a user of a photographing apparatus and can photograph a natural image of a photographee.

또한, 본 발명은 영상 촬영 장치의 사용자가 자가촬영 시 영상 촬영 장치를 용이하게 조작할 수 있는데 목적이 있다.It is another object of the present invention to allow a user of the image photographing apparatus to easily operate the image photographing apparatus during self photographing.

본 발명의 일 실시예에 따른 영상 촬영 장치의 동작 방법에 있어서, 피촬영자에 대한 영상을 취득하는 단계; 취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계; 상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계; 상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계; 상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계; 및 상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함한다.According to an embodiment of the present invention, there is provided an operation method of a video photographing apparatus, comprising: acquiring an image of a to-be-photographed person; Identifying a face of the person to be photographed based on the acquired image; Identifying an eye of the to-be-photographed person on a face of the identified to-be-photographed person; Calculating a position of a pointer to be photographed by the to-be-photographed person based on the position of the identified eye; Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer; And acquiring an image of a person to be photographed to gaze at the displayed pointer.

본 발명의 다른 실시예에 따른 영상 촬영 장치에 있어서, 피촬영자의 이미지를 취득하는 영상취득부, 상기 영상 촬영 장치, 상기 피촬영자에 대한 거리 팩터 및 각도 팩터를 측정하는 센서부, 상기 영상취득부가 취득한 이미지에서 인물의 안면을 식별하고, 상기 센서부가 측정한 거리 팩터 및 각도 팩터를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 제어부 및 상기 산출된 포인터를 표시하는 출력부를 포함한다.The image capturing apparatus according to another embodiment of the present invention may further include an image capturing unit for capturing an image of a person to be photographed, a sensor unit for measuring a distance factor and an angle factor to the image capturing apparatus, A control unit for identifying the face of the person in the acquired image and calculating the position of the pointer to be examined by the to-be-photographed person based on the distance factor and the angle factor measured by the sensor unit, and an output unit for displaying the calculated pointer.

본 발명의 실시예에 따른 영상 촬영 장치 및 그 동작 방법에 따르면, 피촬영자에 대한 최적의 주시 방향에 대응하는 포인터를 표시할 수 있어서, 사용자는 자연스러운 자가촬영의 영상을 취득할 수 있다.According to the image photographing apparatus and the operation method thereof according to the embodiment of the present invention, the pointer corresponding to the optimum viewing direction for the person to be photographed can be displayed, so that the user can acquire an image of the photograph taken by the natural person.

도 1은 본 발명의 일 실시예와 관련된 영상 촬영 장치의 블록 구성도(block diagram)이다.
도 2는 본 발명의 일 실시예에 따른 자가촬영에 대한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상 촬영 장치와 포인터 표시를 나타내는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 영상 촬영 장치의 동작방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 피촬영자의 안면 식별을 나타내는 예시도이다.
도 6 내지 도 11은 본 발명의 일 실시예에 따른 포인터 산출에 기초가 되는 팩터를 나타낸다.
도 12 및 도 13은 본 발명의 일 실시예에 따른 포인터 표시에 대한 예시도이다.
도 14는 본 발명의 일 실시예에 따른 포인터 표시에 대응한 피드백에 대한 표시를 나타낸다.
도 15는 본 발명의 일 실시예에 따른 포인터 표시에 대응한 피드백에 대한 진동을 나타낸다.
1 is a block diagram of a video photographing apparatus according to an embodiment of the present invention.
2 is an exemplary view of self-photographing according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an image capturing apparatus and a pointer display according to an exemplary embodiment of the present invention. Referring to FIG.
4 is a flowchart illustrating an operation method of a video photographing apparatus according to an exemplary embodiment of the present invention.
5 is an exemplary view showing facial identification of a subject to be photographed according to an embodiment of the present invention.
Figs. 6 to 11 show factors based on pointer calculation according to an embodiment of the present invention. Fig.
FIGS. 12 and 13 illustrate pointer displays according to an embodiment of the present invention.
14 shows an indication of feedback corresponding to a pointer display according to an embodiment of the present invention.
FIG. 15 shows the vibration for feedback corresponding to the pointer display according to an embodiment of the present invention.

이하, 본 발명과 관련된 영상 촬영 장치에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a video photographing apparatus according to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 영상 촬영 장치에는 카메라, 카메라가 구비된 다양한 장치들인 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 카메라가 구비된 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같이 카메라가 구비된 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
The image capturing apparatus described in this specification includes various devices including a camera and a camera, such as a mobile phone, a smart phone, a laptop computer, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) . However, it should be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal equipped with a camera, such as a digital TV, a desktop computer, and the like, It will be easy to see.

다음은 도 1을 참고하여 본 발명의 일 실시예에 따른 영상 촬영 장치(100)의 구조를 설명한다.Hereinafter, the structure of a photographing apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

도 1은 본 발명의 일 실시예와 관련된 영상 촬영 장치(100)의 블록 구성도(block diagram)이다.FIG. 1 is a block diagram of a video photographing apparatus 100 according to an embodiment of the present invention.

영상 촬영 장치(100)는 영상취득부(110), 입력부(120), 제어부(130), 출력부(140), 메모리부(150) 및 센서부(160) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 영상 촬영 장치(100)가 구현될 수도 있다.The image capturing apparatus 100 may include an image capturing unit 110, an input unit 120, a control unit 130, an output unit 140, a memory unit 150, and a sensor unit 160. The components shown in FIG. 1 are not essential, so that the imaging device 100 having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

도 1을 참조하면, 영상취득부(110)는 피사체에 대한 영상을 취득하여 화상 프레임으로 처리할 수 있다.Referring to FIG. 1, the image acquisition unit 110 can acquire an image of a subject and process it as an image frame.

영상취득부(110)는 렌즈(112), 이미지 센서를 포함할 수 있다.The image acquisition unit 110 may include a lens 112 and an image sensor.

영상취득부(110)는 렌즈(112)를 통해 피사체의 이미지를 취득하고, 취득한 광학 신호를 전기 신호로 변환할 수 있다.The image acquisition unit 110 acquires an image of a subject via the lens 112, and can convert the acquired optical signal into an electrical signal.

영상취득부(110)는 촬영 모드에서 영상취득부(110)에 구비된 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다.The image acquisition unit 110 may process an image frame such as a still image or a moving image obtained by an image sensor provided in the image acquisition unit 110 in a photographing mode.

영상취득부(110)에서 처리된 화상 프레임은 메모리부(150)에 저장되거나 무선 통신부(미도시)를 통하여 외부로 전송될 수 있다.The image frame processed by the image acquisition unit 110 may be stored in the memory unit 150 or transmitted to the outside through a wireless communication unit (not shown).

영상취득부(110)에 구비되는 렌즈(112)는 사용 환경에 따라 2개 이상이 구비될 수도 있으며, 예를 들면 복수의 렌즈(112)를 포함하여 복수의 영상을 동시에 취득할 수 있다.The lens 112 included in the image capturing unit 110 may include two or more lenses 112, depending on the use environment, for example, and may include a plurality of lenses 112 to simultaneously acquire a plurality of images.

입력부(120)는 영상 촬영 장치(100)의 동작 제어를 위한 사용자의 입력에 따라 입력 데이터를 발생시킨다. The input unit 120 generates input data according to a user's input for controlling the operation of the image photographing apparatus 100.

입력부(120)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The input unit 120 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

제어부(130)는 통상적으로 영상 촬영 장치(100)의 전반적인 동작을 제어한다. The control unit 130 typically controls the overall operation of the image photographing apparatus 100.

예를 들어, 영상 취득, 영상 전송, 영상 편집 등을 위해 관련된 제어 및 처리를 수행한다.For example, it performs related control and processing for image acquisition, image transmission, image editing, and the like.

또한, 제어부(130)는 영상 촬영 장치(100)를 이용하여 자가촬영하는 사용자의 화상 프레임으로부터 사용자의 안면, 특히 눈의 위치를 식별할 수 있다.In addition, the control unit 130 can identify the face of the user, particularly the eyes, from the image frame of the user, which is self-photographing, using the image capturing apparatus 100. [

그리고 제어부(130)는 식별된 사용자의 눈의 위치에 따라 자가촬영하는 사용자가 응시할 최적의 위치를 산출할 수 있다.The control unit 130 may calculate an optimal position for the user to take a self-photograph according to the position of the eyes of the identified user.

여기서 자가촬영하는 사용자가 응시할 최적의 위치(이하,"응시점"라 한다.)란, 영상 촬영 장치(100)의 사용자가 영상 촬영 장치(100)를 이용하여 스스로 자신의 모습을 촬영하는 자가촬영 시, 사용자의 눈이 자연스럽게 촬영될 수 있기 위해 사용자가 바라볼 지점을 말한다.Herein, the optimal position (hereinafter, referred to as a "gaze point") at which a user who takes a self-photographing operation is to be referred to is a user of the video photographing apparatus 100 photographs itself by himself / herself The user refers to a point where the user's eyes are viewed so that the user's eyes can be photographed naturally.

도 2를 참고해서 응시점에 대해 자세히 설명한다.The gazing point will be described in detail with reference to FIG.

도 2는 자가촬영하는 사용자의 시선에 대한 예시도이다.Fig. 2 is an exemplary view of a user's eyesight for self-photographing.

상술한 바와 같이, 자가촬영하는 사용자는 일반적으로 렌즈(112)를 바라보고 영상을 촬영하게 되고 이에 따른 사용자의 시선은 시선 (a)와 같다.As described above, the user who takes a self-photograph generally looks at the lens 112 and shoots the image, and the user's gaze is the same as the line of sight (a).

그리고 사용자보다 높은 위치에 있는 렌즈(112)를 바라보고 영상을 촬영하게 됨에 따라 사용자의 눈이 비정상적으로 촬영된다.As the user looks at the lens 112 at a higher position than the user and shoots the image, the user's eye is photographed abnormally.

반면에, 제어부(130)가 사용자의 눈이 정상적으로 촬영될 수 있도록 사용자가 바라봐야 할 위치인 응시점을 산출하고, 산출된 응시점을 포인터(200)로 표시할 수 있다.On the other hand, the control unit 130 may calculate a gaze point, which is a position that the user should look at so that the user's eyes can be photographed normally, and display the calculated gaze point with the pointer 200. [

도 2의 디스플레이부(142)에 표시된 포인터(200)가 응시점의 위치이며, 사용자가 포인터를 바라보게 되면 사용자의 시선은 시선 (b)와 같다.When the pointer 200 displayed on the display unit 142 of FIG. 2 is the position of the gazing point and the user looks at the pointer, the user's gaze is the same as the line of sight (b).

그리고 사용자의 시선이 시선 (b)이면, 사용자가 높은 위치를 바라보던 시선(a)일 때보다 자연스러운 자가촬영의 화상 프레임을 취득할 수 있다.If the user's line of sight is line-of-sight (b), it is possible to acquire an image frame of the self-photographing that is natural to the user, as compared with the line of sight (a)

제어부(130)의 응시점 산출 및 포인터(200) 표시에 대한 자세한 내용은 후술하기로 한다. Details of the calculation of the gaze point and the display of the pointer 200 by the control unit 130 will be described later.

또한, 제어부(130)는 산출된 응시점과 판단된 사용자의 현재 눈의 위치에 따른 시선 간의 차이에 대응하는 피드백을 출력부(140)를 통해 출력할 수 있다.In addition, the controller 130 may output the feedback corresponding to the difference between the calculated gaze point and the gaze depending on the position of the current eye of the user determined through the output unit 140. [

이에 대해서는 후술하기로 한다.This will be described later.

다시 도 1을 참고하여 영상 표시 장치(100)의 구성을 설명한다.The configuration of the image display apparatus 100 will be described with reference to FIG.

출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(142), 스피커부(144), 및 햅틱 모듈(146) 등이 포함될 수 있다.The output unit 140 is for generating an output related to a visual, auditory, or tactile sense, and may include a display unit 142, a speaker unit 144, and a haptic module 146.

디스플레이부(142)는 영상 촬영 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 영상 촬영 장치(100)가 촬영 모드인 경우 촬영과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The display unit 142 displays (outputs) information to be processed by the image photographing apparatus 100. For example, when the image capturing apparatus 100 is in the capturing mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with capturing is displayed.

그리고 디스플레이부(142)는 영상취득부(110)를 통해 취득되는 화상 프레임을 표시할 수 있다.The display unit 142 can display an image frame acquired through the image acquisition unit 110. [

디스플레이부(142)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 142 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(142)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 영상 촬영 장치(100)의 바디의 디스플레이부(142)가 차지하는 영역을 통해 영상 촬영 장치(100)의 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display portion 142 may also be of a light transmission type. With this structure, a user can see an object located behind the body of the image capturing apparatus 100 through an area occupied by the display unit 142 of the body of the image capturing apparatus 100. [

또한, 영상 촬영 장치(100)의 구현 형태에 따라 디스플레이부(142)가 2개 이상 존재할 수 있다. 예를 들어, 영상 촬영 장치(100)에는 복수의 디스플레이부(142)들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. In addition, two or more display units 142 may exist according to the embodiment of the image capturing apparatus 100. [ For example, the plurality of display portions 142 may be spaced apart from one another or may be disposed integrally with one another on the image pickup apparatus 100, and may be disposed on different surfaces.

디스플레이부(142)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함, 미도시)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(142)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서(미도시)는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 142 and a sensor (hereinafter, referred to as a 'touch sensor' It can be used as an input device in addition to an output device. The touch sensor (not shown) may take the form of, for example, a touch film, a touch sheet, or a touch pad.

터치 센서는 디스플레이부(142)의 특정 부위에 가해진 압력 또는 디스플레이부(142)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display portion 142 or a capacitance generated in a specific portion of the display portion 142 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(130)로 전송한다. 이로써, 제어부(130)는 디스플레이부(142)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 130. Thus, the control unit 130 can know which area of the display unit 142 is touched or the like.

스피커부(144)은 제어부(130)의 제어에 따라 메모리부(150)에 저장된 오디오 데이터를 출력할 수 있다. 스피커부(144)는 영상 촬영 장치(100)에서 수행되는 기능(예를 들어, 영상 촬영음, 경고음, 지시음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 스피커부(144)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The speaker unit 144 may output the audio data stored in the memory unit 150 under the control of the control unit 130. [ The speaker unit 144 also outputs sound signals related to functions (for example, image pickup sound, warning sound, direction sound, etc.) performed by the image pickup apparatus 100. [ The speaker unit 144 may include a receiver, a speaker, a buzzer, and the like.

햅틱 모듈(haptic module)(146)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(146)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(146)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 146 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 146 is vibration. The intensity and pattern of the vibration generated by the hit module 146 are controllable. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(146)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the haptic module 146 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(146)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. The haptic module 146 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm.

또한, 햅틱 모듈(146)은 영상 촬영 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 146 may include two or more haptic modules 146 according to the configuration of the image capturing apparatus 100.

메모리부(150)는 제어부(130)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 취득한 화상프레임 등)을 저장할 수도 있다. 상기 메모리(150)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 150 may store a program for the operation of the controller 130 and may store input / output data (e.g., an acquired image frame and the like). The memory 150 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 150 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk.

센서부(160)는 영상 촬영 장치(100)의 개폐 상태, 영상 촬영 장치(100)의 위치, 사용자 접촉 유무, 영상 촬영 장치(100)의 방위, 영상 촬영 장치(100)의 가속/감속 등과 같이 영상 촬영 장치(100)의 현 상태를 감지하여 센싱 신호를 발생시킨다. The sensor unit 160 detects the position of the image capturing apparatus 100 such as the opening and closing state of the image capturing apparatus 100, the position of the image capturing apparatus 100, whether or not the user is touching, the orientation of the image capturing apparatus 100, And senses the current state of the image pickup apparatus 100 to generate a sensing signal.

예를 들면 센서부(160)는 각속도를 검출하는 자이로스코프 센서를 포함할 수 있어서 영상 촬영 장치(100)의 입체적인 움직임을 감지할 수 있다.For example, the sensor unit 160 may include a gyroscope sensor for detecting the angular velocity, so that the stereoscopic movement of the image sensing apparatus 100 can be detected.

또한, 센서부(160)는 가속 센서를 포함할 수 있어서 영상 촬영 장치(100)의 가로 또는 세로 방향에 대한 움직임을 감지할 수 있다.In addition, the sensor unit 160 may include an acceleration sensor to sense motion of the image capturing apparatus 100 in the horizontal or vertical direction.

이에 따라 센서부(160)는 자이로스코프 센서, 가속 센서 등을 통해 영상 촬영 장치(100)의 기울임 정도를 X, Y, Z축 각각에 대해 감지할 수 있다.Accordingly, the sensor unit 160 can sense the degree of inclination of the image capturing apparatus 100 with respect to each of the X, Y, and Z axes through the gyroscope sensor, the acceleration sensor, and the like.

또한 센서부(160)는 주변 물체와의 거리를 감지하는 거리 센서(162), 주변 밝기를 감지하는 밝기 센서(미도시)를 포함할 수 있다.In addition, the sensor unit 160 may include a distance sensor 162 for sensing a distance to a surrounding object, and a brightness sensor (not shown) for sensing a surrounding brightness.

이에 따라 센서부(160)는 영상 촬영 장치(100)와 주변 물체와의 거리를 감지할 수 있고, 주변 밝기를 감지할 수 있다.Accordingly, the sensor unit 160 can sense the distance between the image capturing apparatus 100 and the surrounding object, and can detect the ambient brightness.

예를 들어 영상 촬영 장치(100)의 내부 영역 또는 디스플레이부(142)의 근처에 거리 센서(162)가 배치될 수 있다. For example, the distance sensor 162 may be disposed in an inner region of the image pickup apparatus 100 or in the vicinity of the display unit 142.

거리 센서(162)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. The distance sensor 162 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of the electromagnetic field or infrared rays.

거리 센서(162)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. Examples of the distance sensor 162 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(130)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, May be implemented by the control unit 130. [

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 소프트웨어 코드는 메모리부(150)에 저장되고, 제어부(130)에 의해 실행될 수 있다.According to a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. The software code is stored in the memory unit 150 and can be executed by the control unit 130. [

도 3을 참고하여, 영상 촬영 장치(100)의 실제 구성에 대해 설명한다.The actual configuration of the image photographing apparatus 100 will be described with reference to FIG.

도 3은 본 발명의 실시예에 따른 영상 촬영 장치(100)를 나타내는 예시도이다.FIG. 3 is a diagram illustrating an image capturing apparatus 100 according to an embodiment of the present invention.

본 발명의 실시예에 따른 영상 촬영 장치(100)는 영상 촬영 장치(100)의 사용자가 자가촬영할 때 사용자가 응시할 포인터(200)를 디스플레이부(142)를 통해 볼 수 있도록 디스플레이부(142)와 렌즈(112)가 영상 촬영 장치(100)의 동일면에 구비되거나, 디스플레이부(142)의 이동에 따라 디스플레이부(142)와 렌즈(112)가 동일면에 구비될 수 있다.The image capturing apparatus 100 according to the embodiment of the present invention includes a display unit 142 and a display unit 140 so that the user of the image capturing apparatus 100 can view the pointer 200 to be examined by the user through the display unit 142 The lens 112 may be provided on the same surface of the image sensing apparatus 100 or the display unit 142 and the lens 112 may be provided on the same surface as the display unit 142 moves.

예를 들어 도 3에 도시된 바와 같이, 렌즈(112)와 디스플레이부(142)가 영상 촬영 장치(100)의 동일한 면에 구비될 수 있어서 자가촬영하는 영상 촬영 장치(100)의 사용자가 디스플레이부(142)에 표시되는 포인터(200)를 주시할 수 있다. 3, the lens 112 and the display unit 142 may be provided on the same side of the image capturing apparatus 100, so that the user of the image capturing apparatus 100, which is self-capturing, The pointer 200 displayed on the display unit 142 can be watched.

그리고 영상 촬영 장치(100)는 대상과의 거리를 측정할 수 있는 거리 센서(162), 촬영 동작에 대한 입력을 수신하는 입력 버튼(124), 음향 신호를 출력하는 스피커부(144)를 포함할 수 있다.The image capturing apparatus 100 includes a distance sensor 162 for measuring a distance to an object, an input button 124 for receiving an input for an image capturing operation, and a speaker unit 144 for outputting a sound signal .

이하, 도 4를 참조하여 영상 촬영 장치(100)의 동작 방법을 설명한다.Hereinafter, an operation method of the image photographing apparatus 100 will be described with reference to FIG.

도 4는 본 발명의 실시예에 따른 영상 촬영 장치(100)의 동작 방법을 나타내는 흐름도이다.4 is a flowchart showing an operation method of the image photographing apparatus 100 according to the embodiment of the present invention.

영상 촬영 장치(100)는 영상취득부(110)를 통해 피사체의 이미지인 영상을 취득한다(S100).The image capturing apparatus 100 acquires an image that is an image of a subject through the image capturing unit 110 (S100).

영상취득부(110)는 렌즈(112)를 통해 입력되는 피사체의 이미지에 대해 이미지 센서 등을 통해 실시간으로 화상 프레임을 취득할 수 있다.The image acquisition unit 110 can acquire image frames in real time through an image sensor or the like with respect to the image of the subject input through the lens 112. [

영상취득부(110)는 취득한 화상 프레임을 제어부(130)에 전달한다.The image acquisition unit 110 transfers the acquired image frame to the control unit 130. [

그리고 제어부(130)는 취득된 화상 프레임을 출력부(140)를 통해 출력할 수 있다.The control unit 130 can output the acquired image frame through the output unit 140. [

예를 들어, 영상 촬영 장치(100)가 턴온 상태이면 촬영 버튼 입력과 무관하게 렌즈(112)를 통해 입력되는 피사체의 이미지에 대해 화상 프레임을 취득하고, 제어부(130)는 취득된 화상 프레임을 디스플레이부(142)에 실시간으로 표시할 수 있다. 이는 일반적인 영상 촬영 장치(100)의 동작 방법이므로 상세한 설명은 생략한다.For example, when the image capturing apparatus 100 is turned on, the image capturing apparatus 100 acquires an image frame for an image of a subject input through the lens 112 regardless of the capturing button input, and the control unit 130 displays the captured image frame Section 142 in real time. Since this is a general operation method of the image pickup apparatus 100, detailed description thereof will be omitted.

제어부(130)는 취득한 화상 프레임에서 피촬영자인 사용자의 안면을 식별한다(S110).The control unit 130 identifies the face of the user who is the photographee in the acquired image frame (S110).

제어부(130)는 취득한 화상 프레임에 포함된 사용자, 인물의 안면을 얼굴 영역 추출법, 픽셀 비교법, 주성분 분석법 등 다양한 방법을 통해 식별할 수 있다.The control unit 130 can identify the faces of the user and the person included in the acquired image frame through various methods such as face region extraction method, pixel comparison method, and principal component analysis method.

예를 들면, 제어부(130)는 화상 프레임과 같은 영상에서 나타나는 인물 안면의 특징을 메모리부(150)에 저장된 안면 데이터베이스와 서로 비교하여 인물의 안면을 식별할 수 있다.For example, the control unit 130 can identify the face of the person by comparing features of the face of the person appearing in the image such as the image frame with the face database stored in the memory unit 150.

그리고 도 5에 도시된 바와 같이, 제어부(130)는 취득된 화상 프레임에서 피촬영자의 얼굴을 블록으로 인식하여 디스플레이부(142)에 표시할 수 있다.As shown in Fig. 5, the control unit 130 recognizes the face of the person to be photographed as a block in the acquired image frame, and displays it on the display unit 142. Fig.

한편, 취득된 영상에서 인물의 안면을 식별하는 기술은 공지된 기술이므로 자세한 설명은 생략하며, 상술한 방법 이외에도 취득된 영상에서 인물의 안면을 식별하는 기술에는 다양한 방법이 있으며 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.In addition to the above-described methods, there are various techniques for identifying the face of a person in the acquired image, and there are various methods for identifying the face of the person in the captured image, Can be variously set.

다시 도 4를 참고한다.Referring again to FIG.

제어부(130)는 식별된 피촬영자의 안면에서 눈을 식별한다(S120).The control unit 130 identifies the eyes at the face of the identified to-be-photographed person (S120).

제어부(130)는 단계 S110에서 식별된 안면의 구성에서 눈을 식별하며, 제어부(130)가 안면에서 눈을 식별하는 방법은 상술한 안면을 식별하는 방법과 동일하다.The control unit 130 identifies the eyes in the face configuration identified in step S110 and the method for the control unit 130 to identify the eyes in the face is the same as the method for identifying the face described above.

제어부(130)는 식별된 피촬영자의 안면을 기초로 피촬영자가 응시할 포인터의 위치를 산출한다(S130).The control unit 130 calculates the position of the pointer to be photographed by the subject based on the face of the person to be photographed (S130).

제어부(130)는 영상 촬영 장치(100)의 사용자가 자가촬영을 할 때, 피촬영자인 사용자의 눈이 자연스럽게 촬영되기 위해 사용자가 바라볼 응시점인 포인터의 위치를 산출할 수 있다.The control unit 130 may calculate the position of the pointer, which is a gazing point that the user views when the user of the image capturing apparatus 100 performs self-photographing so that the eye of the user who is the photographer is taken naturally.

제어부(130)는 렌즈(112)의 위치를 기초로 포인터의 위치를 산출할 수 있다.The control unit 130 can calculate the position of the pointer based on the position of the lens 112. [

제어부(130)는 영상 촬영 장치(100)의 중심부와 렌즈(112)의 중심까지의 거리, 렌즈(112)와 피촬영자의 안면 간의 각도, 사용자를 기준으로 영상 촬영 장치(100)의 좌우 기울기 정도와 영상 촬영 장치(100)의 전후 기울기 정도, 피촬영자인 사용자의 안면과 영상 촬영 장치(100) 간의 거리, 디스플레이부(142)의 화면의 너비 및 높이 중 하나 이상을 기초로 포인터의 위치를 산출할 수 있다.The controller 130 controls the distance between the center of the image capturing apparatus 100 and the center of the lens 112, the angle between the lens 112 and the face of the photographee, The position of the pointer on the basis of at least one of the degree of inclination of the image capturing apparatus 100, the distance between the face of the user who is the photographer and the image capturing apparatus 100, the width and height of the screen of the display unit 142 can do.

이하, 도 6 내지 도 10을 참고하여 제어부(130)의 포인터 위치 산출의 기초가 되는 팩터에 대해 자세히 설명한다.Hereinafter, a factor that is a basis for calculating the pointer position of the control unit 130 will be described in detail with reference to FIGS. 6 to 10. FIG.

도 6을 참고하면, 제어부(130)는 영상 표시 장치(100)의 중심을 기준으로 렌즈(112)의 중심까지의 거리(d1)를 기초로 포인터의 위치를 산출할 수 있다.6, the controller 130 may calculate the position of the pointer based on the distance d1 to the center of the lens 112 based on the center of the image display device 100. [

도 7을 참고하면, 제어부(130)는 렌즈(112)와 피촬영자의 안면 간의 각도(a1)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 7, the controller 130 may calculate the position of the pointer based on the angle a1 between the lens 112 and the face of the photographee.

도 8을 참고하면, 제어부(130)는 영상 촬영 장치(100)의 좌우 기울기 정도(a2)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 8, the controller 130 can calculate the position of the pointer based on the right-left inclination a2 of the image capturing apparatus 100. [

도 9를 참고하면, 제어부(130)는 영상 촬영 장치(100)의 전후 기울기 정도(a3)을 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 9, the controller 130 can calculate the position of the pointer based on the back-and-forth inclination a3 of the image capturing apparatus 100. FIG.

도 10을 참고하면, 제어부(130)는 영상 촬영 장치(100)와 피촬영자의 안면 간의 거리(d2)를 기초로 포인터의 위치를 산출할 수 있다.Referring to FIG. 10, the controller 130 may calculate the position of the pointer based on the distance d2 between the image capturing apparatus 100 and the face of the photographee.

도 11을 참고하면, 제어부(130)는 디스플레이부(142)의 화면의 너비(d3)와 높이(d4)를 기초로 포인터의 위치를 산출할 수 있다.11, the controller 130 can calculate the position of the pointer based on the width d3 and the height d4 of the screen of the display unit 142. [

이하, 상술한 팩터들을 기초로 제어부(130)가 포인터의 위치를 산출하는 방법에 대해 설명한다.Hereinafter, a method for the controller 130 to calculate the position of the pointer will be described based on the factors described above.

제어부(130)는 상술한 렌즈(112)의 중심까지의 거리(d1), 피촬영자의 안면까지의 거리(d2), 디스플레이부(142)의 화면 너비(d3), 디스플레이부(142)의 화면 높이(d4), 피촬영자의 안면 간의 각도(a1), 영상 촬영 장치(100)의 좌우 기울기(a2), 영상 촬영 장치(100)의 전후 기울기(a3)를 각각의 기준값과 비교하여 포인터의 위치를 산출할 수 있다.The control unit 130 controls the display unit 142 so that the distance d1 to the center of the lens 112, the distance d2 to the face of the photographee, the screen width d3 of the display unit 142, A slope a2 of the image capturing apparatus 100 and a forward and backward slope a3 of the image capturing apparatus 100 are compared with respective reference values to determine the position of the pointer Can be calculated.

예를 들어, 제어부(130)는 d1에 대한 값이 기 설정된 기준값에 비해 크면 렌즈(112)가 영상 촬영 장치(100)의 중심에서 기준값보다 이격되어 있는 것으로 판단하여 보정값을 부여하여 포인터의 위치를 산출할 수 있다. For example, when the value of d1 is larger than a preset reference value, the controller 130 determines that the lens 112 is spaced from the reference value at the center of the image sensing apparatus 100, Can be calculated.

또한 제어부(130)는 d2에 대한 값이 기 설정된 기준값에 비해 작으면 피촬영자가 영상 촬영 장치(100)에 가까운 것으로 판단하여 d2에 대한 값이 기 설정된 기준값에 비해 클 때 보다 포인터의 위치에 대한 보정값을 부여하여 포인터의 위치를 산출할 수 있다.If the value of d2 is smaller than the predetermined reference value, the controller 130 determines that the subject is close to the image capturing apparatus 100, and if the value of d2 is larger than the preset reference value, The position of the pointer can be calculated by giving a correction value.

그리고 제어부(130)는 d3과 d4를 기초로 디스플레이부(142)의 화면의 크기를 판단하고, 판단된 화면의 크기에 따라 포인터(200)를 표시할 수 있는 영역의 크기를 산출할 수 있다.The controller 130 determines the size of the screen of the display unit 142 based on d3 and d4 and calculates the size of the area where the pointer 200 can be displayed according to the determined size of the screen.

그리고 제어부(130)는 a1 내지 a3을 기초로 포인터의 위치를 산출할 수 있는데, 피촬영자의 눈과 렌즈(112) 간의 각도에 따라 a1 내지 a3에 대해 측정되는 값이 달라지므로 피촬영자의 눈과 렌즈(112)간의 각도에 대한 보정값을 부여하여 포인터의 위치를 산출할 수 있다.The control unit 130 can calculate the position of the pointer based on a1 to a3. Since the measured values of a1 to a3 vary depending on the angle between the eye of the photographee and the lens 112, The position of the pointer can be calculated by giving a correction value for the angle between the lenses 112. [

그리고 제어부(130)는 영상 촬영 장치(100)의 높이와 피촬영자의 안면의 높이를 비교하고, 영상 촬영 장치(100)의 높이와 피촬영자의 안면의 높이의 차이를 기초로 포인터의 위치를 산출할 수 있다.The control unit 130 compares the height of the image capturing apparatus 100 with the height of the face of the photographee and calculates the position of the pointer based on the difference between the height of the image capturing apparatus 100 and the height of the face of the photographee can do.

예를 들면, 제어부(130)는 센서부(160)에 포함된 3D 자이로스코프 센서를 이용하여 측정된 영상 촬영 장치(100)의 전면이 수직 평면 상에서 기울어진 각도를 기초로 영상 촬영 장치(100)와 피촬영자 간의 높이 차이를 산출할 수 있다. 그리고 제어부(130)는 산출된 높이 차이를 기초로 포인터의 위치를 산출할 수 있다.For example, the control unit 130 may control the imaging apparatus 100 based on an angle at which the front surface of the imaging apparatus 100, measured using the 3D gyroscope sensor included in the sensor unit 160, The height difference between the photographer and the photographee can be calculated. The control unit 130 may calculate the position of the pointer based on the calculated height difference.

또한 제어부(130)는 상술한 포인터 위치 산출의 기초가 되는 복수의 팩터 중에서 어느 하나의 팩터를 우선 순위를 두어 포인터 위치를 산출할 수 있다.Also, the controller 130 can calculate the pointer position by prioritizing any one of the plurality of factors on the basis of the above-described pointer position calculation.

예를 들면, 제어부(130)는 거리 팩터들에서 피촬영자의 안면까지의 거리(d2)를 다른 팩터들에 비해 우선 순위를 두어 포인터 위치를 산출할 수 있다. 이에 따라 제어부(130)는 피촬영자의 안면까지의 거리(d2)의 변동에 의해 산출되는 포인터의 위치 변동이 다른 거리 팩터들의 변동에 의해 산출되는 포인터의 위치 변동에 비해 크게 변동될 수 있다.For example, the control unit 130 may calculate the pointer position by prioritizing the distance d2 from the distance factors to the face of the photographee relative to other factors. Accordingly, the control unit 130 can greatly change the positional variation of the pointer calculated by the variation of the distance d2 to the face of the to-be-photographed person, compared with the positional variation of the pointer calculated by the variation of other distance factors.

다시 도 4를 참고한다.Referring again to FIG.

제어부(130)는 산출된 포인터의 위치를 기초로 출력부(140)에 포인터(200)를 표시한다(S140).The control unit 130 displays the pointer 200 on the output unit 140 based on the calculated position of the pointer (S140).

도 3에 도시된 바와 같이, 제어부(130)는 포인터(200)를 디스플레이부(142)에 표시할 수 있으며, 포인터(200)의 모양, 크기, 색상 등은 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.3, the controller 130 can display the pointer 200 on the display unit 142, and the shape, size, and color of the pointer 200 can be variously Can be set.

제어부(130)가 포인터(200)를 디스플레이부(142)에 표시함에 따라 디스플레이부(142)에는 영상취득부(110)를 통해 실시간으로 취득되는 피촬영자의 이미지와 포인터(200)가 함께 표시될 수 있다.The control unit 130 displays the pointer 200 on the display unit 142 so that the image of the person to be photographed acquired in real time through the image acquisition unit 110 and the pointer 200 are displayed together on the display unit 142 .

이를 도 12 및 도 13을 참고하여 설명한다.This will be described with reference to FIGS. 12 and 13. FIG.

도 12 및 도 13은 본 발명의 실시예에 따른 포인터의 표시를 나타내는 예시도이다. 12 and 13 are diagrams showing examples of display of a pointer according to an embodiment of the present invention.

먼저 도 12를 참고하면, 제어부(130)는 렌즈(112)가 영상 촬영 장치(100)의 좌측 상단에 위치하고, 피촬영자의 안면이 디스플레이부(142)의 좌측에 위치하므로 포인터(200)의 위치를 디스플레이부(142)의 좌측 상단으로 산출할 수 있다.12, the control unit 130 determines whether the position of the pointer 200 is positioned on the left side of the display unit 142 because the lens 112 is positioned at the upper left of the image capturing apparatus 100, To the upper left corner of the display unit 142.

그리고 제어부(130)는 산출한 포인터의 위치를 기초로 포인터(200)와 함께 영상취득부(110)로부터 입력되는 피촬영자의 이미지를 동시에 표시할 수 있다.The control unit 130 can simultaneously display the image of the person to be photographed inputted from the image acquisition unit 110 together with the pointer 200 based on the calculated position of the pointer.

도 13을 참고하면, 제어부(130)는 렌즈(112)가 영상 촬영 장치(100)의 좌측 상단에 위치하고, 피촬영자의 안면이 디스플레이부(142)의 중앙에 위치하므로 포인터의 위치를 디스플레이부(142)의 우측 상단으로 산출할 수 있다.13, since the lens 112 is located at the upper left of the image capturing apparatus 100 and the face of the photographee is located at the center of the display unit 142, the controller 130 controls the position of the pointer on the display unit 142). ≪ / RTI >

그리고 제어부(130)는 산출한 포인터의 위치를 기초로 포인터(200)와 함께 영상취득부(110)로부터 입력되는 피촬영자의 이미지를 동시에 표시할 수 있다.The control unit 130 can simultaneously display the image of the person to be photographed inputted from the image acquisition unit 110 together with the pointer 200 based on the calculated position of the pointer.

다시 도 4를 참고한다.Referring again to FIG.

제어부(130)는 출력부(140)에 표시된 포인터(200)에 대응하는 피드백을 제공한다(S150).The control unit 130 provides feedback corresponding to the pointer 200 displayed on the output unit 140 (S150).

제어부(130)는 디스플레이부(142)에 표시된 포인터(200)와 피촬영자의 눈의 위치를 기초로 판단한 피촬영자의 시선을 비교하여, 표시된 포인터(200)와의 차이에 대응하는 피드백을 제공할 수 있다.The control unit 130 compares the pointer 200 displayed on the display unit 142 with the gaze of the photographee based on the position of the eye of the photographee and provides feedback corresponding to the difference with the displayed pointer 200 have.

예를 들면 제어부(130)는 판단된 피촬영자의 시선의 위치에서 표시된 포인터(200) 방향으로 화살표를 표시하거나 진동을 발생시킬 수 있어서, 피촬영자의 현재 시선과 포인터(200)의 차이에 대응하는 피드백을 제공할 수 있다.For example, the control unit 130 may display an arrow or generate a vibration in the direction of the pointer 200 displayed at the position of the gaze of the person to be photographed judged, and may generate a vibration corresponding to the difference between the current line of the photographee and the pointer 200 Feedback can be provided.

이를 도 14를 참고하여 설명한다.This will be described with reference to FIG.

도 14는 본 발명의 실시예에 따른 피촬영자의 시선과 포인터(200)의 위치 간의 차이에 대응하는 피드백을 나타내는 예시도이다.14 is an exemplary diagram showing feedback corresponding to the difference between the gaze of the photographee and the position of the pointer 200 according to the embodiment of the present invention.

도 14에서, 제어부(130)는 안면 식별을 통해 판단한 피촬영자의 시선 방향을 기초로 현재 시선점(210)과, 단계 S120에서 산출된 포인터(200)를 디스플레이부(142)에 표시할 수 있다. 14, the control unit 130 can display the current gaze point 210 and the pointer 200 calculated in step S120 on the display unit 142 based on the gaze direction of the photographee determined through face identification .

그리고 제어부(130)는 현재 시선점(220)과 포인터(200) 사이의 차이에 대응하는 피드백 표시(220)를 디스플레이부(142)에 표시할 수 있다.The control unit 130 may display the feedback indicator 220 on the display unit 142 corresponding to the difference between the current sight point 220 and the pointer 200. [

도 14의 경우 피촬영자의 현재 시선점(210)이 포인터(200)보다 낮은 위치에 있으므로, 제어부(130)는 현재 시선점(210)에서 상단 방향인 포인터(200) 방향으로 향하는 화살표인 피드백 표시(220)를 포인터(200)와 현재 시선점(210) 사이에 표시할 수 있다.14, since the current point of sight 210 of the photographee is located lower than the pointer 200, the controller 130 displays a feedback indicator that is an arrow directed toward the upper direction pointer 200 from the current point of sight 210 The pointer 220 can be displayed between the pointer 200 and the current point of sight 210.

이에 따라 피촬영자는 피드백 표시(220)를 참고하여 최적의 응시점인 포인터(200)를 바라보는 상태에서 영상을 취득할 수 있다.Accordingly, the subject can acquire the image while looking at the pointer 200, which is the optimum gazing point, by referring to the feedback display 220. [

한편, 제어부(130)는 상술한 피드백을 진동으로 사용자에 제공할 수 있다.On the other hand, the control unit 130 can provide the above-described feedback to the user by vibration.

제어부(130)는 햅틱모듈(146)을 통해 진동을 발생시킬 수 있으며, 진동 모터의 회전 방향을 제어하여 산출된 피드백의 방향을 사용자에 제공할 수 있다.The control unit 130 can generate vibration through the haptic module 146 and can control the rotation direction of the vibration motor to provide the user with the direction of the calculated feedback.

예를 들어 제어부(130)는 현재 시선점(220)이 포인터(200)의 좌측에 위치하면, 피촬영자의 시선을 포인터(200) 방향인 오른쪽으로 전환해야 하는 것을 진동 모터를 통해 피드백으로 제공할 수 있다. 그래서 제어부(130)는 햅틱모듈(146)의 진동 모터가 오른쪽 방향으로 회전하여 오른쪽 방향의 진동을 사용자에 피드백으로 제공할 수 있다.For example, when the current gaze point 220 is located on the left side of the pointer 200, the control unit 130 provides feedback through the vibration motor that the line of sight of the person to be photographed should be shifted to the right, which is the direction of the pointer 200 . Thus, the control unit 130 can rotate the vibration motor of the haptic module 146 in the right direction to provide the right direction vibration as feedback to the user.

또한 제어부(130)는 햅틱모듈(146)의 진동 모터가 복수로 구성된 경우, 각각의 모터가 상하, 좌우 방향으로 회전하도록 제어하여 각각 상하, 좌우 방향의 진동을 피촬영자에 피드백으로 제공할 수 있다.In addition, when the vibration motor of the haptic module 146 is composed of a plurality of vibration motors, the controller 130 controls the motors to rotate in the vertical and horizontal directions to provide the vibrations in the up, down, left, and right directions, respectively, .

한편, 상술한 단계 S150은 사용자 또는 설계자의 의도에 따라 생략될 수 있다.Meanwhile, the above-described step S150 may be omitted depending on the intention of the user or the designer.

다시 도 4를 참고한다.Referring again to FIG.

입력부(120)는 사용자의 영상 취득 입력을 수신하고, 제어부(130)는 영상 취득 입력이 수신되면 피사체, 즉 피촬영자에 대한 영상을 취득한다(S160).The input unit 120 receives a user's image acquisition input, and the control unit 130 acquires an image of a subject, that is, a photographer when the image acquisition input is received (S160).

예를 들면 도 2에 도시된 바와 같이, 입력 버튼(124)이 사용자의 영상 취득 입력을 수신하면, 수신된 영상 취득 신호는 제어부(130)에 전달되고 제어부(130)는 피촬영자인 사용자의 영상을 취득할 수 있다.2, when the input button 124 receives the user's image acquisition input, the received image acquisition signal is transmitted to the control unit 130, and the control unit 130 receives the user's image Can be obtained.

또 다른 실시예로, 제어부(130)는 피촬영자의 시선이 포인터(200)를 응시하는 것으로 판단하면 입력부(120)가 영상 취득 입력을 수신하지 않더라도 피촬영자에 대한 영상을 자동으로 취득할 수도 있다.In another embodiment, the control unit 130 may automatically acquire an image of a person to be photographed even if the input unit 120 does not receive the image acquisition input if it determines that the line of sight of the person to be photographed gazes at the pointer 200 .

그리고 제어부(130)는 피촬영자에 대한 영상을 자동으로 취득할 때, 영상 또는 음성을 통해 영상을 취득함을 알릴 수도 있다.When the control unit 130 automatically acquires the image of the to-be-photographed person, the control unit 130 may notify that the image is acquired through the image or voice.

예를 들어, 제어부(130)는 피촬영자의 시선이 포인터(200)를 응시하는 것으로 판단하면, 디스플레이부(142)를 통해 포인터(200)가 깜박이도록 하고 스피커부(144)를 통해 영상을 취득함을 알리는 신호음을 출력할 수 있다.For example, when the control unit 130 determines that the subject's gaze gazes at the pointer 200, the control unit 130 causes the pointer 200 to flicker through the display unit 142 and acquires the image through the speaker unit 144 It is possible to output a beep signal indicating that the

구체적인 예로 제어부(130)는 피촬영자의 시선이 검정색의 포인터(200)를 응시하는 것으로 판단하면, 디스플레이부(142)에 표시된 포인터(200)를 붉은색으로 표시하고, 스피커부(144)를 통해 하나, 둘 ,셋과 같은 신호음을 출력하여 자동으로 영상을 취득함을 알릴 수 있다.The control unit 130 displays the pointer 200 displayed on the display unit 142 in a red color and displays the pointer 200 displayed in the red color through the speaker unit 144 One, two, three, and so on to automatically acquire an image.

상술한 예시는 제어부(130)가 영상을 자동으로 취득할 때의 동작을 설명하기위한 것으로 디스플레이부(142) 및 스피커부(144)를 통한 영상과 음성은 사용자 또는 설계자의 선택에 따라 다양하게 설정될 수 있다.The above-described example is for explaining the operation when the control unit 130 automatically acquires an image, and the video and audio through the display unit 142 and the speaker unit 144 are variously set .

한편, 제어부(130)는 영상 취득과 동시에 취득된 영상을 디스플레이부(142)에 표시할 수 있고, 메모리부(150)에 저장할 수 있다.
On the other hand, the control unit 130 can display the acquired image on the display unit 142 at the same time as the image acquisition, and can store it in the memory unit 150. [

본 발명의 실시예에 따른 영상 촬영 장치 및 그 동작 방법에 따르면, 본 발명의 영상 촬영 장치는 최적의 주시 방향에 대응하는 포인터를 표시할 수 있어서, 본 발명의 사용자는 자연스러운 자가촬영의 영상을 취득할 수 있다.
According to the image photographing apparatus and the operation method thereof according to the embodiment of the present invention, the image photographing apparatus of the present invention can display the pointer corresponding to the optimum viewing direction, so that the user of the present invention can acquire can do.

본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.According to an embodiment of the present invention, the above-described method can be implemented as a code readable by a processor on a medium on which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 영상 촬영 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image capturing apparatuses are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .

Claims (14)

영상 촬영 장치의 동작 방법에 있어서,
피촬영자에 대한 영상을 취득하는 단계;
취득한 영상을 기초로 상기 피촬영자의 안면을 식별하는 단계;
상기 식별된 피촬영자의 안면에서 상기 피촬영자의 눈을 식별하는 단계;
상기 식별된 눈의 위치를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 단계;
상기 산출된 포인터의 위치를 기초로 상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계; 및
상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계를 포함하고,
상기 포인터의 위치를 산출하는 단계는
상기 피촬영자, 상기 영상 촬영 장치에 대한 거리 팩터 및 상기 피촬영자, 상기 영상 촬영 장치에 대한 각도 팩터를 기초로 상기 포인터의 위치를 산출하는 단계를 포함하고,
상기 피촬영자, 상기 영상 촬영 장치에 대한 거리 팩터는
상기 영상 촬영 장치의 중심과 상기 영상 표시 장치의 렌즈의 중심 간의 거리, 상기 피촬영자의 안면과 상기 영상 촬영 장치 간의 거리, 상기 영상 촬영 장치의 화면의 너비 및 높이를 포함하는
영상 촬영 장치의 동작 방법.
A method of operating a video imaging device,
Acquiring an image of a person to be photographed;
Identifying a face of the person to be photographed based on the acquired image;
Identifying an eye of the to-be-photographed person on a face of the identified to-be-photographed person;
Calculating a position of a pointer to be photographed by the to-be-photographed person based on the position of the identified eye;
Displaying the pointer on the screen of the image capturing apparatus based on the calculated position of the pointer; And
Acquiring an image of a person to be photographed that takes a look at the displayed pointer;
The step of calculating the position of the pointer
Calculating a position of the pointer based on the image of the photographee, a distance factor to the image photographing apparatus, and an angle factor to the photographee and the image photographing apparatus,
The distance factor for the photographee and the image photographing apparatus is
A distance between the center of the image capturing apparatus and the center of the lens of the image display apparatus, a distance between the face of the to-be-photographed person and the image capturing apparatus, a width and a height of the screen of the image capturing apparatus,
A method of operating a video imaging device.
삭제delete 삭제delete 제1항에 있어서,
상기 피촬영자, 상기 영상 촬영 장치에 대한 각도 팩터는
상기 영상 표시 장치의 렌즈와 상기 피촬영자의 안면 간의 각도, 상기 영상 촬영 장치의 좌우 방향 기울기 각도, 상기 영상 촬영 장치의 전후 방향 기울기 각도를 포함하는
영상 촬영 장치의 동작 방법.
The method according to claim 1,
The angle factor for the person to be photographed,
A tilt angle of the image capturing apparatus in the left-right direction, and a tilt angle of the image capturing apparatus in the anteroposterior direction,
A method of operating a video imaging device.
제1항에 있어서,
상기 포인터를 상기 영상 촬영 장치의 화면에 표시하는 단계 이후, 상기 피촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백을 제공하는 단계를 더 포함하는
영상 촬영 장치의 동작 방법.
The method according to claim 1,
Further comprising the step of providing feedback corresponding to the difference between the gaze of the person to be photographed and the position of the displayed pointer after the step of displaying the pointer on the screen of the image photographing apparatus
A method of operating a video imaging device.
제5항에 있어서,
상기 피드백을 제공하는 단계는
상기 피촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 방향의 표시, 상기 차이에 대응하는 진동의 발생 중 하나 이상 동작을 포함하는
영상 촬영 장치의 동작 방법.
6. The method of claim 5,
The step of providing feedback
An indication of a direction corresponding to a difference between the gaze of the subject to be photographed and the position of the displayed pointer, and a generation of a vibration corresponding to the difference
A method of operating a video imaging device.
제1항에 있어서,
상기 표시된 포인터를 응시하는 피촬영자의 영상을 취득하는 단계는
상기 피촬영자의 시선을 판단하는 단계와,
상기 판단된 피촬영자의 시선과 상기 포인터의 위치가 일치하는지 판단하는 단계와,
판단 결과, 상기 피촬영자의 시선과 상기 포인터의 위치가 일치하는 것으로 판단되면 상기 피촬영자의 화상 프레임을 취득하는 단계를 포함하는
영상 촬영 장치의 동작 방법.
The method according to claim 1,
The step of acquiring the image of the to-be-photographed person gazing at the displayed pointer
Determining a gaze of the person to be photographed;
Determining whether the determined gaze of the photographee and the position of the pointer coincide with each other;
And acquiring the image frame of the to-be-photographed person when it is determined that the position of the pointer matches the sight line of the to-be-photographed person
A method of operating a video imaging device.
영상 촬영 장치에 있어서,
피촬영자의 이미지를 취득하는 영상취득부;
상기 영상 촬영 장치, 상기 피촬영자에 대한 거리 팩터 및 각도 팩터를 측정하는 센서부;
상기 영상취득부가 취득한 이미지에서 상기 피촬영자의 안면을 식별하고, 상기 센서부가 측정한 상기 거리 팩터 및 각도 팩터를 기초로 상기 피촬영자가 응시할 포인터의 위치를 산출하는 제어부; 및
상기 산출된 포인터를 표시하는 출력부를 포함하고,
상기 센서부가 측정하는 상기 거리 팩터는 상기 영상 촬영 장치의 중심과 상기 영상 표시 장치의 렌즈의 중심 간의 거리, 상기 피촬영자의 안면과 상기 영상 촬영 장치 간의 거리, 상기 영상 촬영 장치의 화면의 너비 및 높이를 포함하는
영상 촬영 장치.
In a video image pickup apparatus,
An image acquiring unit that acquires an image of a person to be photographed;
A sensor unit for measuring the image photographing device, a distance factor and an angle factor for the person to be photographed;
A controller for identifying the face of the to-be-photographed person in the image acquired by the image acquiring unit and calculating a position of a pointer to be photographed by the to-be-photographed person based on the distance factor and the angle factor measured by the sensor unit; And
And an output unit for displaying the calculated pointer,
Wherein the distance factor measured by the sensor unit includes a distance between a center of the image capturing apparatus and a center of a lens of the image display apparatus, a distance between the face of the to-be-photographed person and the image capturing apparatus, Containing
Image capturing device.
삭제delete 제8항에 있어서,
상기 센서부가 측정하는 상기 각도 팩터는 상기 영상 표시 장치의 렌즈와 상기 피촬영자의 안면 간의 각도, 상기 영상 촬영 장치의 좌우방향 기울기 각도, 상기 영상 촬영 장치의 전후방향 기울기 각도를 포함하는
영상 촬영 장치.
9. The method of claim 8,
Wherein the angle factor measured by the sensor unit includes an angle between a lens of the image display apparatus and a face of the photographee, a tilt angle of the image photographing apparatus in a lateral direction, and a tilt angle of the image photographing apparatus in a front-
Image capturing device.
제8항에 있어서,
상기 출력부는 햅틱모듈을 포함하고,
상기 제어부는 상기 촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백을 상기 햅틱모듈을 통해 진동으로 발생시키는
영상 촬영 장치.
9. The method of claim 8,
The output comprising a haptic module,
Wherein the control unit causes the feedback corresponding to the difference between the gaze of the photographer and the position of the displayed pointer to be generated as vibration through the haptic module
Image capturing device.
제11항에 있어서,
상기 햅틱모듈은 복수의 진동 모터를 포함하고,
상기 제어부는 상기 복수의 진동 모터를 각각 상기 영상 촬영 장치의 상하 방향, 좌우 방향으로 회전시켜 상기 영상 촬영 장치의 상하 방향, 좌우 방향에 대한 진동을 각각 발생시키는
영상 촬영 장치.
12. The method of claim 11,
Wherein the haptic module includes a plurality of vibration motors,
The control unit rotates the plurality of vibration motors in the up-and-down direction and the left-right direction, respectively, of the image photographing apparatus to generate vibrations in the vertical direction and the lateral direction of the image photographing apparatus
Image capturing device.
제8항에 있어서,
상기 출력부는 디스플레이부를 포함하고,
상기 제어부는 상기 촬영자의 시선과 상기 표시된 포인터의 위치 사이의 차이에 대응하는 피드백에 대해 상기 디스플레이부를 통해 표시하는
영상 촬영 장치.
9. The method of claim 8,
Wherein the output section includes a display section,
The control unit displays the feedback corresponding to the difference between the gaze of the photographer and the position of the displayed pointer through the display unit
Image capturing device.
제8항에 있어서,
상기 제어부는 상기 피촬영자의 시선이 상기 포인터를 응시하는 것으로 판단하면 상기 피촬영자에 대한 화상 프레임을 취득하는
영상 촬영 장치.
9. The method of claim 8,
The control unit obtains an image frame for the to-be-photographed person when it is determined that the line of sight of the to-be-photographed person gazes at the pointer
Image capturing device.
KR1020140010287A 2014-01-28 2014-01-28 Image photographing apparuatus and operating method thereof KR101561768B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140010287A KR101561768B1 (en) 2014-01-28 2014-01-28 Image photographing apparuatus and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140010287A KR101561768B1 (en) 2014-01-28 2014-01-28 Image photographing apparuatus and operating method thereof

Publications (2)

Publication Number Publication Date
KR20150089541A KR20150089541A (en) 2015-08-05
KR101561768B1 true KR101561768B1 (en) 2015-10-20

Family

ID=53885964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140010287A KR101561768B1 (en) 2014-01-28 2014-01-28 Image photographing apparuatus and operating method thereof

Country Status (1)

Country Link
KR (1) KR101561768B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167789A (en) * 2003-12-04 2005-06-23 Casio Comput Co Ltd Photographing apparatus and photographing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005167789A (en) * 2003-12-04 2005-06-23 Casio Comput Co Ltd Photographing apparatus and photographing program

Also Published As

Publication number Publication date
KR20150089541A (en) 2015-08-05

Similar Documents

Publication Publication Date Title
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
CN109683716B (en) Visibility improvement method based on eye tracking and electronic device
US10607395B2 (en) System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface
EP3179292B1 (en) Head-mounted display device and control method therefor
US20160309081A1 (en) Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
CN111630477A (en) Apparatus for providing augmented reality service and method of operating the same
CN110992327A (en) Lens contamination state detection method and device, terminal and storage medium
KR20140141100A (en) Method and apparatus for protecting eyesight
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11487354B2 (en) Information processing apparatus, information processing method, and program
JP2017514186A (en) Display control method and apparatus, electronic device
WO2014043620A1 (en) Unauthorized viewer detection system and method
KR20160146037A (en) Method and apparatus for changing focus of camera
KR20180004112A (en) Eyeglass type terminal and control method thereof
KR101782086B1 (en) Apparatus and method for controlling mobile terminal
CN111062248A (en) Image detection method, device, electronic equipment and medium
JP2013148599A (en) Display device
US20210406542A1 (en) Augmented reality eyewear with mood sharing
KR102319437B1 (en) Device and method for determining distance
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
US20180137648A1 (en) Method and device for determining distance
KR20140120158A (en) Mobile with a function of eye protection
KR20140090538A (en) Display apparatus and controlling method thereof
CN113891002B (en) Shooting method and device
KR101561768B1 (en) Image photographing apparuatus and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
LAPS Lapse due to unpaid annual fee