KR20220056769A - Electronic device and method for controlling thereof - Google Patents
Electronic device and method for controlling thereof Download PDFInfo
- Publication number
- KR20220056769A KR20220056769A KR1020210003533A KR20210003533A KR20220056769A KR 20220056769 A KR20220056769 A KR 20220056769A KR 1020210003533 A KR1020210003533 A KR 1020210003533A KR 20210003533 A KR20210003533 A KR 20210003533A KR 20220056769 A KR20220056769 A KR 20220056769A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- information
- camera
- identified
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000015654 memory Effects 0.000 claims abstract description 32
- 238000003384 imaging method Methods 0.000 claims description 44
- 238000012544 monitoring process Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 26
- 230000003213 activating effect Effects 0.000 claims 6
- 230000006870 function Effects 0.000 description 28
- 238000013473 artificial intelligence Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000003936 working memory Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H04N5/23219—
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B39/00—High-speed photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H04N5/2258—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
Description
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로서, 더욱 상세하게는 영상에 포함된 객체에 기초하여 SSM 기능을 수행하는 시점을 결정할 수 있는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device capable of determining when to perform an SSM function based on an object included in an image, and a method for controlling the same.
SSM(Super Slow Motion) 영상은 특정 장면(scene)에서 고속 움직임을 기록하기 위해 캡쳐(capture)된 영상을 의미한다. SSM 영상을 생성하기 위해서는 많은 양의 컴퓨팅 리소스, 스토리지 리소스 및 전력이 소모되는 바, 일반적으로 한 장면 내에서 특정 이벤트가 발생되는 짧은 시구간 내에 SSM 영상을 생성하는 것이 선호된다.An SSM (Super Slow Motion) image refers to an image captured to record high-speed motion in a specific scene. Since a large amount of computing resources, storage resources, and power are consumed to generate the SSM image, it is generally preferred to generate the SSM image within a short time period in which a specific event occurs within a scene.
한편, SSM 영상 녹화 기능이 수동으로 활성화된 경우, 예상하지 못한 이벤트가 발생하거나 영상 상에 포함된 객체가 빠르게 움직일 경우, 사용자는 SSM 영상 녹화 개시 동작을 적절한 타이밍보다 일찍 또는 늦게 수행할 가능성이 존재한다. 이에 따라, 사용자는 의도한 이벤트에 대한 SSM 영상를 녹화하지 못하거나, 의도하지 않은 장면이 포함되어 용량이 매우 큰 SSM 영상을 녹화할 가능성이 존재한다.On the other hand, when the SSM video recording function is manually activated, when an unexpected event occurs or an object included in the video moves quickly, there is a possibility that the user performs the SSM video recording start operation earlier or later than the appropriate timing. do. Accordingly, there is a possibility that the user may not be able to record an SSM image for an intended event or record an SSM image with a very large capacity because an unintended scene is included.
본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로서, 본 개시의 목적은 적어도 하나의 카메라를 통해 획득된 영상에 포함된 객체에 기초하여 SSM 기능을 수행하는 시점을 결정하는 전자 장치 및 이의 제어 방법을 제공함에 있다.The present disclosure has been devised to solve the above-described problems, and an object of the present disclosure is to determine a time point at which an SSM function is performed based on an object included in an image obtained through at least one camera, and a method for controlling the same is to provide.
본 개시의 일 실시예로, 전자 장치는 제1 초점 거리를 갖는 제1 렌즈가 포함된 제1 카메라, 상기 제1 초점 거리와 다른 제2 초점 거리를 갖는 제2 렌즈가 포함된 제2 카메라, 메모리 및 상기 제1 카메라를 통해 상기 전자 장치의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득하고, 상기 획득된 제1 객체에 대한 정보에 기초하여 상기 제1 객체와 연관된 제2 객체에 대한 정보가 존재한다고 식별되면, 상기 제2 카메라를 통해 제2 영상을 획득하고, 상기 획득된 제2 영상 상에 상기 제2 객체가 포함되는지 여부에 기초하여, 상기 제1 카메라를 이용하여 고속 촬영을 수행할 시점을 결정하는 프로세서를 포함할 수 있다.In one embodiment of the present disclosure, the electronic device includes a first camera including a first lens having a first focal length, a second camera including a second lens having a second focal length different from the first focal length; Obtaining information on a first object included in a first image obtained by photographing a periphery of the electronic device through a memory and the first camera, and obtaining the first object based on the obtained information on the first object If it is identified that there is information on the second object associated with The processor may include a processor that determines when to perform high-speed imaging using the camera.
제1 초점 거리를 갖는 제1 렌즈가 포함된 제1 카메라 및 상기 제1 초점 거리와 다른 제2 초점 거리를 갖는 제2 렌즈가 포함된 제2 카메라를 포함하는 전자 장치의 제어 방법은 상기 제1 카메라를 통해 상기 전자 장치의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득하는 단계, 상기 획득된 제1 객체에 대한 정보에 기초하여 상기 제1 객체와 연관된 제2 객체에 대한 정보가 존재한다고 식별되면, 상기 제2 카메라를 통해 제2 영상을 획득하는 단계 및 상기 획득된 제2 영상 상에 상기 제2 객체가 포함되는지 여부에 기초하여, 상기 제1 카메라를 이용하여 고속 촬영을 수행할 시점을 결정하는 단계를 포함할 수 있다.The method of controlling an electronic device includes a first camera including a first lens having a first focal length and a second camera including a second lens having a second focal length different from the first focal length. obtaining information on a first object included in a first image obtained by photographing a periphery of the electronic device through a camera; a second associated with the first object based on the obtained information on the first object If it is identified that there is information on the object, using the first camera based on whether the second object is included in the step of obtaining a second image through the second camera and the obtained second image to determine a point in time to perform high-speed imaging.
상술한 바와 같은 다양한 실시예에 의해, 전자 장치는 SSM 기능을 수행하는 시점을 정확하고 효율적으로 결정할 수 있다.According to various embodiments as described above, the electronic device may accurately and efficiently determine a time point at which the SSM function is performed.
도 1a는 본 개시의 일 실시예에 따른, 전자 장치의 구성을 간략히 도시한 블록도,
도 1b는 본 개시의 일 실시예에 따른, 지식 베이스에 대한 구조를 설명하기 위한 도면,
도 2는 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 순서도,
도 3은 본 개시의 일 실시예에 따른, 전자 장치가 제2 카메라를 활성화시키는 과정을 설명하기 위한 순서도,
도 4a 및 도 4b는 본 개시의 일 실시예에 따른, 전자 장치가 제1 카메라를 이용하여 고속 촬영을 수행하는 과정을 설명하기 위한 순서도,
도 5는 본 개시의 일 실시예에 따른, 전자 장치가 제1 카메라를 이용하여 고속 촬영을 수행하는 과정을 설명하기 위한 순서도,
도 6은 본 개시의 일 실시예에 따른, 제1 카메라를 이용하여 고속 촬영을 수행하는 과정을 설명하기 위한 순서도,
도 7은 본 개시의 일 실시예에 따른, 제1 카메라를 이용하여 고속 촬영을 수행하는 과정을 설명하기 위한 순서도,
도 8은 본 개시의 일 실시예에 따른, 전자 장치의 구성을 상세히 도시한 블록도이다.1A is a block diagram schematically illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
1B is a diagram for explaining the structure of a knowledge base according to an embodiment of the present disclosure;
2 is a flowchart for explaining a method of controlling an electronic device according to an embodiment of the present disclosure;
3 is a flowchart illustrating a process in which an electronic device activates a second camera according to an embodiment of the present disclosure;
4A and 4B are flowcharts for explaining a process in which an electronic device performs high-speed imaging using a first camera, according to an embodiment of the present disclosure;
5 is a flowchart illustrating a process in which an electronic device performs high-speed image capturing using a first camera according to an embodiment of the present disclosure;
6 is a flowchart for explaining a process of performing high-speed imaging using a first camera, according to an embodiment of the present disclosure;
7 is a flowchart for explaining a process of performing high-speed imaging using a first camera, according to an embodiment of the present disclosure;
8 is a block diagram illustrating in detail the configuration of an electronic device according to an embodiment of the present disclosure.
이하에서는 도면을 참조하여 본 개시에 대해 구체적으로 설명하도록 한다. 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다.Hereinafter, the present disclosure will be described in detail with reference to the drawings. Various elements and regions in the drawings are schematically drawn. Accordingly, the technical spirit of the present invention is not limited by the relative size or spacing drawn in the accompanying drawings.
도 1a는 본 개시의 일 실시 예에 따른, 전자 장치(100)의 구성 및 동작을 설명하기 위한 블록도이다. 본 개시를 설명함에 있어서 전자 장치(100)는 스마트 폰, 태블릿 PC(Personal Computer), 데스크 탑 PC, 랩탑 PC, 넷북 컴퓨터 및 웨어러블(wearable) 장치와 같은 사용자 단말 장치로 구현될 수 있으나, 이에 국한되는 것은 아니다. 본 개시의 전자 장치(100)는 카메라가 포함된 다양한 장치로 구현될 수 있다.1A is a block diagram illustrating a configuration and operation of an
도 1a에 도시된 바와 같이, 전자 장치(100)는 제1 카메라(110), 제2 카메라(120), 메모리(130), 프로세서(140) 및 디스플레이(150)를 포함할 수 있다. 다만, 도 1a에 도시된 구성은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 통상의 기술자에게 자명한 수준의 적절한 하드웨어 및 소프트웨어 구성들이 전자 장치(100)에 추가로 포함될 수 있다.1A , the
제1 카메라(110)는 전자 장치(100)의 주변을 촬영하여 하나 이상의 이미지를 획득할 수 있는 구성이다. 제1 카메라(110)는 전자 장치(100)의 주변을 촬영하여 제1 영상을 획득할 수 있다. 즉, 제1 카메라(110)는 전자 장치(100)의 주변을 촬영한 복수의 이미지 프레임(frame)으로 구성된 제1 영상을 획득할 수 있으며, 제1 영상은 라이브 뷰(live view)를 포함할 수 있다. 그리고, 복수의 이미지 프레임으로 구성된 제1 영상은 일시적으로 정보를 저장하는 메모리(130) 중 버퍼(buffer)에 저장될 수 있다. 제1 카메라(110)에는 제1 초점 거리를 갖는 제1 렌즈가 포함될 수 있다.The
제2 카메라(120)는 제1 카메라(110)와 같이 전자 장치(100)의 주변을 촬영하여 하나 이상의 이미지를 획득할 수 있는 구성이다. 제2 카메라(120)는 전자 장치(100)의 주변을 촬영하여 획득된 복수의 이미지 프레임으로 구성된 제2 영상을 획득할 수 있으며, 제2 영상은 라이브 뷰를 포함할 수 있다.The
한편, 제2 카메라(120)는 전자 장치(100) 상에서 제1 카메라(110)와 임계 거리 내에 위치할 수 있다. 임계 거리는 실험 또는 연구 등을 통해 기설정된 값일 수 있으나 이에 국한되는 것은 아니며, 전자 장치(100)의 제조 단계에서 변경될 수 있다.Meanwhile, the
제2 카메라(120)에 포함된 제2 렌즈가 갖는 제2 초점 거리는 제1 카메라(110)에 포함된 제1 렌즈의 제2 초점 거리와 상이할 수 있다. 예를 들어, 제2 카메라(120)에 포함된 제2 렌즈의 제2 초점 거리는 제1 카메라(110)에 포함된 제1 렌즈의 제1 초점 거리보다 짧을 수 있다. The second focal length of the second lens included in the
예로, 제2 카메라(120)에는 초 광각 렌즈(ultra-wide lens)가 포함되어 있으며, 제1 카메라(110)에는 광각 렌즈(wide-lens)가 포함되어 있을 수 있다. 즉, 제2 카메라(120)는 제1 카메라(110)보다 더 큰 화각(Field of View, FOV)을 가질 수 있다. 이에 따라, 제1 카메라(110) 및 제2 카메라(120)가 서로 임계 거리 떨어진 위치에서 전자 장치(100)의 주변을 촬영할 경우, 제2 카메라(120)를 통해 획득된 제2 영상은 제1 카메라(110)를 통해 획득된 제1 영상보다 더 넓은 영역이 포함된 이미지 프레임으로 구성될 수 있다.For example, the
다만, 이는 일 실시예에 불과하며, 제2 카메라(120)에 포함된 제2 렌즈의 제2 초점 거리는 제1 카메라(110)에 포함된 제1 렌즈의 제1 초점 거리보다 길 수 있다. 예로, 제2 카메라(120)에는 광각 렌즈(wide lens)가 포함되어 있으며, 제1 카메라(110)에는 초 광각 렌즈(wide-lens)가 포함되어 있을 수 있다. However, this is only an example, and the second focal length of the second lens included in the
제1 카메라(110) 및 제2 카메라(120) 각각에는 이미지 센서(예를 들어, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서 또는 CCD(Charge Coupled Device) 이미지 센서 등)가 포함될 수 있다. 이미지 센서는 전원의 인가 여부 등에 따라 턴 오프(off) 또는 턴 온(on) 될 수 있다.Each of the
각 카메라(110, 120)가 비활성화 된 상태는 각 카메라(110, 120)에 포함된 이미지 센서가 턴 오프 되어 있는 상태 또는 각 카메라(110,12)에 포함된 이미지 센서가 턴 온 되어 있으나 각 카메라(110,120)가 이미지 센서를 이용하여 획득된 복수의 이미지 프레임이 버퍼에 저장되지 않는 상태를 의미할 수 있다. The state in which each
각 카메라(110, 120)가 활성화된 상태는 각 카메라(110, 120)에 포함된 이미지 센서가 턴 온 되어 있고 각 카메라(110, 120)가 이미지 센서를 이용하여 획득된 복수의 이미지 프레임이 버퍼에 저장되고 있는 상태 또는 버퍼에 저장되고 있는 복수의 이미지 프레임이 프로세서(140)에 의해 디스플레이(150) 상에 표시되고 있는 상태를 의미할 수 있다. 본 개시를 설명함에 있어서, 제2 카메라(120)가 활성화된다는 것은 제2 카메라(120))가 비활성화된 상태에서 활성화된 상태로 전환된다는 것을 의미한다.When the
메모리(130)는 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 데이터 또는 적어도 하나의 명령어(instruction)를 저장할 수 있다. 명령어는 프로그래밍 작성 언어에서 프로세서(140)가 직접 실행할 수 있는 하나의 동작 문장(action statement)를 의미하며, 프로그램의 실행 또는 동작에 대한 최소 단위이다. 메모리(130)는 프로세서(140)에 의해 액세스되며, 프로세서(140)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.The
본 개시에서 메모리라는 용어는 메모리(130), 프로세서(140) 내 롬(미도시), 램(미도시) 또는 전자 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다.In the present disclosure, the term "memory" refers to a
메모리(130)는 제1 영상 및 제2 영상에 기초하여 제1 카메라(110)를 통해 SSM(Super Slow Motion) 기능을 수행하는 시점을 결정하기 위한 소프트웨어 모듈 및 각 모듈이 각종 동작을 수행하기 위해 필요한 데이터를 저장할 수 있다. 제1 카메라(110)가 SSM 기능을 수행하는 시점을 결정하기 위한 모듈은 제1 관심 영역 결정 모듈(20), 객체 인식 모듈(30), 객체 속성 분석 모듈(40), 연관 객체 결정 모듈(50), 제2 영상 모니터링 모듈(60) 및 고속 촬영 수행 모듈(70)가 포함될 수 있다.The
SSM 기능은 전자 장치(100)의 주변을 고속(high-speed)으로 촬영(예를 들어, 480 fps(frames per second) 또는 960 fps 등으로 촬영)하여 슈퍼 슬로우 모션 영상을 획득하고, 획득된 슈퍼 슬로우 모션 영상을 느리게 재생(예를 들어, 일반적인 영상 재생 속도(30fps) 대비 32배 또는 일반적인 슬로우 모션(240fps) 대비 4배 느리게 재생 등)하는 기능을 의미한다. SSM 기능을 통해 사용자는 육안으로는 식별하기 힘든 물체의 빠른 움직임 또는 미세한 변화를 효율적으로 감지할 수 있다. 한편, SSM 기능과 관련된 재생 속도 또는 촬영 속도는 상술된 예시 수치에 한정되지 않으며 다양한 수치로 사용자에 의해 설정될 수 있다.The SSM function captures the surroundings of the
제1 카메라(110)를 통해 SSM 기능을 수행하여 촬영된 슈퍼 슬로우 모션 영상은 비교적 높은 프레임 레이트(frame rate)(예를 들어, 480 fps 또는, 960fps 등)를 가지는 영상일 수 있다. 한편, SSM 기능에 대응되는 프레임 레이트는 기설정된 값일 수 있으나, 사용자에 의해 변경될 수 있다.The super slow motion image captured by performing the SSM function through the
제1 관심 영역(Region of Interest, ROI) 결정 모듈(20)은 제1 카메라(110)를 통해 획득된 제1 영상 상에 제1 관심 영역을 결정하고 결정된 제1 관심 영역에 대한 정보를 획득하는 모듈이다. 여기서, 제1 영상의 제1 관심 영역은 제1 영상 중 이미지 분석 등을 위해 결정된(또는, 선택된) 일부 영역을 의미한다. The first region of interest (ROI) determination module 20 is configured to determine a first region of interest on the first image acquired through the
제1 관심 영역 결정 모듈(20)은 관심 영역을 결정하도록 학습된 제3 모델(95) 또는 자동 초점(Auto focus) 방식을 이용하여 자동으로 제1 영상 상에 제1 관심 영역을 결정할 수 있다. 또 다른 예로, 제1 관심 영역 결정 모듈(20)은 디스플레이(150) 상에서 표시된 제1 영상 상에 사용자 터치가 입력된 영역을 제1 관심 영역으로 결정할 수 있다.The first ROI-determining module 20 may automatically determine the first ROI on the first image using the
제1 관심 영역 결정 모듈(20)은 결정된 제1 관심 영역에 대한 정보를 획득할 수 있다. 예로, 제1 관심 영역에 대한 정보는 제1 관심 영역에 포함된 이미지의 특징 정보(예를 들어, 제1 관심 영역에 포함된 이미지의 픽셀 값, 휘도 및 색도 정보 등) 및 제1 관심 영역을 나타내는 인디케이터(indicator)(예를 들어, 제1 관심 영역에 대응되는 바운딩 박스(bounding box))의 크기 또는 모양에 대한 정보가 포함될 수 있다. 제1 관심 영역을 나타내는 인디케이터는 기설정된 크기 또는 모양을 가질 수 있으나, 이에 한정되는 것은 아니며 사용자 명령에 의해 변경될 수 있다. 그리고, 제1 관심 영역 결정 모듈(20)은 제1 관심 영역에 포함된 이미지를 분석함으로써 제1 관심 영역에 포함된 이미지의 특징 정보를 획득할 수 있다.The first ROI-determining module 20 may acquire information on the determined first ROI. For example, the information on the first region of interest includes feature information of an image included in the first region of interest (eg, pixel values, luminance and chromaticity information, etc. of an image included in the first region of interest) and the first region of interest. Information on the size or shape of an indicator (eg, a bounding box corresponding to the first ROI) may be included. The indicator indicating the first ROI may have a preset size or shape, but is not limited thereto and may be changed by a user command. In addition, the first ROI-determining module 20 may acquire characteristic information of the image included in the first ROI by analyzing the image included in the first ROI.
객체 인식 모듈(30)은 제1 모델(80)을 이용하여 제1 관심 영역 상에 포함된 제1 객체를 인식하여 제1 객체에 대한 정보를 획득하는 모듈이다. 구체적으로, 객체 인식 모듈(30)은 제1 관심 영역 결정 모듈(20)을 통해 획득된 제1 관심 영역에 대한 정보를 제1 모델(80)에 입력하여 제1 관심 영역에 포함된 제1 객체에 대한 정보를 획득할 수 있다. 제1 객체에 대한 정보는 예로, 제1 객체의 유형, 제1 객체의 크기 및 제1 영상에 포함된 복수의 프레임 이미지 기반으로 제1 객체의 위치 변화량에 대한 정보 등을 포함할 수 있다. 즉, 제1 객체 인식 모듈(30)은 제1 객체에 대한 정보를 획득함으로써 제1 관심 영역 상에 포함된 제1 객체를 인식할 수 있다.The
객체 속성 분석 모듈(40)은 객체 인식 모듈(30)을 통해 획득된 제1 객체에 대한 정보에 기초하여 제1 객체의 속성(동적(dynamic) 또는 정적(static) 속성)을 분석하여 제1 객체가 움직이는 객체인지 여부를 식별하는 모듈이다. 예를 들면, 객체 속성 분석 모듈(40)은 제1 객체에 대한 정보 중 제1 영상을 구성하는 복수의 이미지 프레임 상에서 제1 객체의 위치 변화량을 식별하고, 식별된 제1 객체의 위치 변화량에 기초하여 제1 객체의 속성을 분석할 수 있다. 그리고, 객체 속성 분석 모듈(40)은 제1 객체의 속성에 따라 제1 객체가 움직이는 객체인지 여부와 관련된 정보를 출력할 수 있다.The object
연관 객체 결정 모듈(50)은 지식 베이스(85) 상에서 제1 객체의 유형이 포함된 제1 노드와 연결된 다른 노드(node)가 존재하는지 여부를 식별하고, 다른 노드에 포함된 정보를 식별하는 모듈이다. 즉, 연관 객체 결정 모듈은 제1 객체에 대한 정보(예를 들어, 제1 객체에 대한 유형 등)에 기초하여 제1 객체와 연관된 제2 객체에 대한 정보가 존재하는지 여부를 식별할 수 있다.The associated
제1 객체의 유형이 포함된 제1 노드와 연결된 다른 노드에는 제1 객체의 유형과 연관된(또는, 관련된) 제2 객체의 유형이 포함될 수 있다. 제1 객체의 유형과 연관된 제2 객체(또는, 제1 객체의 연관 객체)의 유형은 제1 객체의 주변 영역에 등장할 것으로 예측되는 객체의 유형을 의미한다. 예를 들어, 제1 객체의 유형이 축구 골대(goal post)인 경우, 제2 객체의 유형은 축구 골대 주변 영역에 등장할 것으로 예측되는 축구 공으로 구현될 수 있다. 이 때, 제2 객체는 단수일 수 있으나, 이에 국한되는 것은 아니며 2개 이상의 복수 개일 수 있다.Another node connected to the first node including the type of the first object may include the type of the second object associated with (or related to) the type of the first object. The type of the second object (or the object associated with the first object) associated with the type of the first object means the type of the object predicted to appear in the area surrounding the first object. For example, when the type of the first object is a soccer goal post, the type of the second object may be implemented as a soccer ball predicted to appear in the area around the soccer goal post. In this case, the second object may be singular, but is not limited thereto and may be a plurality of two or more.
즉, 연관 객체 결정 모듈(50)은, 객체 인식 모듈(30)을 통해 획득된 제1 객체에 대한 정보 중 제1 객체의 유형을 이용하여, 지식 베이스(85) 상에서 제1 객체의 유형이 포함된 제1 노드를 식별할 수 있다. 그리고, 연관 객체 결정 모듈(50)은 지식 베이스(85) 상에서 식별된 제1 노드와 연결된 다른 노드가 존재하는지 여부를 식별할 수 있다. 제1 노드와 연결된 다른 노드(예를 들어, 제2 노드)가 존재한다고 식별되면, 연관 객체 결정 모듈(50)은 제2 노드에 포함된 제2 객체의 유형을 획득(또는, 식별)할 수 있다.That is, the related
그리고, 연관 객체 결정 모듈(50)은 지식 베이스(85)를 이용하여 제1 객체의 유형과 제2 객체의 유형간의 관계에 대한 정보를 획득할 수 있다. 예를 들어, 지식 베이스(85) 상에서 제1 노드 및 제2 노드 서로를 연결하는 엣지(edge)에는 제1 객체의 유형 및 제2 객체의 유형 간의 관계에 대한 정보가 포함될 수 있다. In addition, the related
관계에 대한 정보는 제1 객체의 유형 및 제2 객체의 유형 간의 다양한 관계와 관련된 정보가 포함될 수 있다. 예로, 관계에 대한 정보는 제1 객체의 유형 및 제2 객체의 유형 간의 방향 관계에 대한 정보 등이 포함될 수 있다. 방향 관계에 대한 정보는 제1 객체의 현재 위치를 기준으로 제2 객체가 등장하거나 존재할 확률이 높은 위치에 대응되는 방향 정보가 포함될 수 있으나, 이에 한정되는 것은 아니다.The information about the relationship may include information related to various relationships between the type of the first object and the type of the second object. For example, the information on the relationship may include information on a directional relationship between the type of the first object and the type of the second object. The information on the direction relationship may include direction information corresponding to a location where the second object appears or has a high probability of being present based on the current location of the first object, but is not limited thereto.
제2 영상 모니터링 모듈(60)은, 연관 객체 결정 모듈(50)을 통해 획득된 제2 객체의 유형 및 제1 객체의 유형과 제2 객체의 유형간의 관계에 대한 정보에 기초하여, 제2 카메라(120)를 통해 획득된 제2 영상 중 제2 관심 영역을 결정하고, 제2 관심 영역을 모니터링하여 제2 객체가 제2 관심 영역에 나타나는지 여부를 식별하는 모듈이다. 제2 관심 영역은 제2 영상 중 제2 객체가 나타나는지 여부를 모니터링하기 위해 결정된(또는, 설정된) 영역을 의미한다.The second
제2 영상 모니터링 모듈(60)은, 제1 객체의 유형과 제2 객체의 유형간의 관계에 대한 정보에 기초하여, 제2 영상 중 제2 객체가 나타날 것으로 예측되는 영역을 제2 관심 영역으로 결정할 수 있다. 예를 들어, 연관 객체 결정 모듈(50)을 통해 제1 객체의 왼쪽 방향에 대응되는 영역에 제2 객체가 나타날 확률이 높다는 정보가 포함된 관계에 대한 정보가 획득된 경우, 제2 영상 모니터링 모듈(60)은 제1 객체의 현재 위치를 기준으로 제1 객체의 왼쪽 방향에 대응되는 영역을 제2 관심 영역으로 결정할 수 있다. 이 때, 제2 관심 영역은 제1 영상과 제2 영상이 겹치지 않는 영역 상에 설정될 수 있으나, 이에 국한되는 것은 아니다.The second
제2 영상 모니터링 모듈(60)은 제2 영상 상에 제2 관심 영역을 결정하고, 제2 관심 영역에 대한 정보(예를 들어, 제2 관심 영역에 포함된 이미지에 대한 특징 정보(예를 들어, 이미지를 구성하는 픽셀의 색도, 휘도 등) 및 제2 관심 영역을 나타내는 인디케이터의 크기, 형태 등에 대한 정보를 획득할 수 있다. The second
예를 들어, 제2 영상 모니터링 모듈(60)은 제2 관심 영역을 결정하고, 제2 관심 영역에 포함된 이미지를 분석하여 제2 관심 영역에 포함된 이미지에 대한 특징 정보를 획득할 수 있다. 여기서, 제2 관심 영역을 나타내는 인디케이터는 기설정된 크기 또는 형태를 가질 수 있으나, 이에 한정되는 것은 아니며 사용자에 의해 변경될 수 있다.For example, the second
제2 영상 모니터링 모듈(60)은 제2 관심 영역 상에 제2 객체가 나타나는지 여부를 식별할 수 있다. 예를 들어, 제2 영상 모니터링 모듈(60)은 제2 모델(93)에 제2 관심 영역에 대한 정보 중 제2 관심 영역에 포함된 이미지에 대한 특징 정보 및 제2 객체에 대한 유형을 입력하여 제2 관심 영역에 제2 객체의 유형에 대응되는 객체가 나타나는지에 여부에 대한 정보를 획득할 수 있다.The second
또 다른 예로, 제2 영상 모니터링 모듈(60)은 지식 베이스(85) 상의 복수의 노드에 포함된 객체의 유형과 관련된 특징을 수집한 제1 데이터 베이스 중 제2 객체의 유형과 관련된 정보를 식별할 수 있다. 제2 영상 모니터링 모듈(60)은 제2 관심 영역 중 식별된 제2 객체의 유형과 관련된 정보가 추출되는지 여부를 모니터링하여 제2 객체가 제2 관심 영역에 나타나는지 여부를 식별할 수 있다.As another example, the second
고속 촬영 수행 모듈(70)은, 제2 영상 모니터링 모듈(60)을 통해 제2 관심 영역에 제2 객체가 나타났다는 정보가 획득되면, 제1 카메라(110)의 고속 촬영 동작을 수행하도록 제어하는 모듈이다. 즉, 고속 촬영 수행 모듈(70)이 제1 카메라(110)가 고속 촬영 동작을 수행하도록 제어한다는 것은 SSM 기능이 수행되기 시작했다는 것을 의미한다.The high-speed
메모리(130)는 객체를 인식하도록 학습된 제1 모델(80) 및 제2 모델(93)이 객체 인식 동작을 수행하기 위해 필요한 정보를 저장할 수 있다.The
제1 모델(80)은, 객체 인식 모듈(30)에 의해 제1 영상 상에 포함된 제1 관심 영역에 대한 정보가 입력되면, 제1 관심 영역에 포함된 객체를 인식하고, 인식된 객체에 대한 정보를 출력하도록 학습된 인공 지능(Artificial Intelligence) 모델이다. 여기서, 제1 관심 영역에 대한 정보는 제1 관심 영역에 포함된 이미지에 대한 정보(예를 들어, 이미지를 구성하는 픽셀의 색도, 휘도 등)를 포함할 수 있다.When information on the first ROI included on the first image is input by the
제2 모델(93)은, 제2 영상 모니터링 모듈(60)에 의해 제2 관심 영역에 포함된 이미지에 대한 정보(예를 들어, 제2 관심 영역에 포함된 이미지를 구성하는 픽셀의 색도, 휘도 등 각종 특징 정보)) 및 제2 객체의 유형이 입력되면, 제2 관심 영역 상에 제2 객체의 유형에 대응되는 객체가 포함되어 있는지 여부를 나타내는 정보를 출력하도록 학습된 인공 지능 모델이다. The
예를 들면, 제2 관심 영역에 포함된 이미지에 대한 정보 및 제2 객체의 유형이 입력되면, 제2 모델(93)은 제2 관심 영역에 포함된 이미지 상에 제2 객체의 유형과 관련된 특징 정보가 출력되는지 여부를 식별하고, 제2 객체의 유형과 관련된 특징 정보가 추출되면, 제2 관심 영역 상에 제2 객체의 유형에 대응되는 객체가 포함되어 있다는 정보를 출력하도록 학습될 수 있다.For example, when information on an image included in the second ROI and the type of the second object are input, the
제1 모델(80) 및 제2 모델(93)에는 입력된 이미지에 대응되는 특징 정보 등을 출력하도록 학습된 인공 신경망(Neural Network)을 포함될 수 있다. 인공 신경망의 예로는 CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), GAN(Generative Adversarial Networks) 및 심층 Q-네트워크 (Deep Q-Networks)이 있으며, 본 개시에서의 신경망 모델은 명시한 경우를 제외하고 전술한 예에 한정되지 않는다.The
한편, 도 1에는 제1 모델(80) 및 제2 모델(93)이 별개의 모델로 구현된 실시예를 도시하고 있으나, 제1 모델(80) 및 제2 모델(93)은 동일한 모델로 구현될 수 있다. Meanwhile, although FIG. 1 shows an embodiment in which the
메모리(130)는 제3 모델(95)이 제1 영상 중 관심 영역을 결정하는 동작을 수행하기 위해 필요한 정보를 저장할 수 있다. 제3 모델(95)은 입력된 제1 영상 중 관심 영역을 결정하도록 학습된 인공 지능 모델이다. 예를 들어, 제3 모델(95)은 제1 영상에 포함된 적어도 하나의 객체가 존재하는 영역을 관심 영역으로 결정하도록 학습될 수 있다.The
또한, 메모리(130)는 제4 모델(97)이 동작을 수행하기 위해 필요한 정보를 저장할 수 있다. 제4 모델(97)은 제1 객체의 유형에 대응되는 라벨 또는 제1 객체에 대한 이미지가 입력되면, 제1 객체의 유형과 연관된 제2 객체의 유형을 출력하거나 제1 객체와 연관된 제2 객체가 없다는 정보를 출력하도록 학습된 인공 지능 모델을 의미한다.Also, the
메모리(130)는 복수의 객체 각각과 관련된 정보가 포함된 지식 베이스(knowledge base)(90)를 저장할 수 있다. 지식 베이스(85)는 복수의 객체의 유형이 포함된 복수의 노드 및 복수의 객체 간의 관계에 대한 정보가 포함된 엣지가 포함될 수 있다. The
일 실시예로, 도 1b에 도시된 바와 같이, 지식 베이스(85)는 복수의 객체의 유형이 포함된 노드 및 복수의 객체간의 관계에 대한 정보가 포함된 엣지가 포함된 지식 그래프(knowledge graph) 형태로 구현될 수 있다. In one embodiment, as shown in FIG. 1B , the
예를 들어, 제1 객체의 유형이 골대(goal post)인 경우를 가정한다. 지식 베이스(85)는 제1 객체의 유형이 포함된 제1 노드(98)가 포함될 수 있다. 지식 베이스(85) 상에는 제1 노드(98)와 제2 노드(축구공이라는 제1 객체의 유형과 관련된 객체가 포함된 노드)(98-1)가 아래 방향이라는 관계에 대한 정보가 포함된 엣지(99-1)로 연결될 수 있다. 그리고, 지식 베이스(85) 상에는 제1 노드(98)와 제3 노드(농구공이라는 제1 객체의 유형과 관련된 객체가 포함된 노드)(98-2)가 좌/우 방향이라는 관계에 대한 정보가 포함된 엣지(99-2)로 연결될 수 있다. 이 때, 제1 노드(98)와 제2 노드(98-1)가 아래 방향이라는 관계에 대한 정보를 포함하는 엣지(99-1)로 연결된다는 것은 제2 노드(98-1)에 포함된 객체의 유형인 축구 공이 상대적으로 제1 노드(98)에 포함된 제1 객체의 유형인 골대의 아래 영역에 위치할 확률이 높다는 것을 의미할 수 있다.For example, it is assumed that the type of the first object is a goal post. The
지식 베이스(85)는 도 1b에 도시된 바와 같이 지식 그래프의 형태로 구조화될 수 있으나, 이는 일 실시예에 불과하며, 각 객체 간의 관계에 대한 정보를 획득할 수 있도록 구조화된 다양한 정보 베이스 형태로 구현될 수 있다.The
한편, 메모리(130)는 프로세서(140)가 액세스하여 정보를 기록, 처리 또는 수정할 수 있는 워킹 메모리(working memory) 및 정보를 저장하여 보존하기 위한 스토리지 메모리(storage memory)를 포함할 수 있다. Meanwhile, the
워킹 메모리는 DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등과 같은 휘발성 RAM(Random Access memory)와 MRAM(Magnetoresistive RAM) 또는 PRAM(Phase-change RAM) 등과 같은 비휘발성 RAM 중 적어도 하나를 포함할 수 있다. 스토리지 메모리는 다양한 종류의 ROM(예를 들어, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM)), 마그네틱 기억 장치(예를 들어, 하드 디스크 등) 또는 각종 보조 기억 장치 등 중 적어도 하나를 포함할 수 있다.Working memory includes volatile random access memory (RAM), such as dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), and non-volatile RAM, such as magnetoresistive RAM (MRAM) or phase-change RAM (PRAM). may include at least one of Storage memory includes various types of ROM (eg, one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM)), magnetic storage device (eg, hard disk, etc.) or various auxiliary devices. It may include at least one of a memory device and the like.
제1 카메라(110)가 SSM 기능을 수행하는 시점을 결정하기 위한 모듈(20,30,40,50,60,70)이 각종 동작을 수행하기 위한 데이터는 스토리지 메모리에 저장될 수 있다. 그리고, 제1 모델(80), 제2 모델(93), 제3 모델(95) 및 제4 모델(97)을 동작하기 위해 필요한 데이터 및 지식 베이스(85)는 스토리지 메모리에 저장될 수 있다. Data for performing various operations of the
한편, 워킹 메모리가 프로세서(140)의 일 구성요소로서 프로세서(140)에 포함된 형태로 구현될 수 있으나, 이는 일 실시예에 불과하며, 워킹 메모리는 프로세서(140)와 구별되는 별개의 구성 요소로 구현될 수 있음은 물론이다.Meanwhile, the working memory may be implemented in a form included in the
프로세서(140)는 메모리(130)와 전기적으로 연결되어 전자 장치(100)의 전반적인 기능 및 동작을 제어할 수 있다. 프로세서(140)는 전자 장치(100)의 동작을 제어하기 위해 하나 또는 복수의 프로세서로 구성될 수 있다.The
프로세서(140)는 스토리지 메모리에 저장되어 있는 SSM 기능을 수행하는 시점을 결정하기 위한 모듈(20,30,40,50,60,70) 및 모듈(20,30,40,50,60,70)이 각종 동작을 수행하기 위한 데이터를 워킹 메모리로 로딩(loading)할 수 있다. 그리고, 프로세서(140)는 제1 모델(80), 제2 모델(93), 제3 모델(95), 제4 모델(97) 및 각 모델이 각종 동작을 실행하기 위해 필요한 데이터를 워킹 메모리로 로딩할 수 있다. 그리고, 프로세서(140)는 지식 베이스(85)를 워킹 메모리로 로딩할 수 있다. 프로세서(140)는 워킹 메모리로 로딩된 데이터에 기초하여 각종 모듈 및 인공 지능 모델을 통해 각종 동작을 수행할 수 있다. 여기서, 로딩이란 프로세서(140)가 엑세스할 수 있도록 스토리지 메모리에 저장된 데이터를 워킹 메모리에 불러들여 저장하는 동작을 의미한다.The
한편, 프로세서(140)는 각종 모듈(20,30,40,50,60,70) 및 각종 인공 지능 모델(80, 90) 각각이 동작을 실행하기 위해 필요한 데이터를 한 번에 로딩할 수 있으나, 이에 국한되는 것은 아니다. 프로세서(140)는 순서에 상관 없이 각 모듈 및 모델이 특정 동작을 실행하기 위해 필요한 데이터를 로딩할 수 있다. On the other hand, the
또한, 각종 모듈 또는 모델 중 하나가 특정 동작을 실행하고자 할 때, 프로세서(140)는 특정 동작을 수행하려는 모듈 또는 모델 중 하나에 대응되는 데이터만을 로딩할 수 있다. 또한, 각종 모듈(20,30,40,50,60,70) 및 각종 인공 지능 모델(80, 90) 중 동작이 완료되면, 동작이 완료된 모듈 및 모델을 동작하기 위해 필요한 데이터를 워킹 메모리 내에서 삭제할 수 있다.Also, when one of various modules or models intends to execute a specific operation, the
그리고, 프로세서(140)는 연관 객체 결정 모듈(50)을 로딩할 때 지식 베이스(85)를 로딩할 수 있으나, 이는 일 실시예에 불과하며 순서에 상관 없이 지식 베이스(85)를 로딩할 수 있다.In addition, the
프로세서(140)는 제1 카메라(110)를 통해 전자 장치(100)의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득할 수 있다. 구체적으로, 프로세서(140)는 제1 카메라(110)를 통해 전자 장치(100)의 주변을 촬영하여 제1 영상을 획득하고 획득된 제1 영상에 객체를 인식하도록 학습된 제1 모델을 적용하여 제1 영상에 포함된 제1 객체에 대한 정보를 획득할 수 있다.The
더욱 구체적으로, 프로세서(140)는, 제1 관심 영역 결정 모듈(20)을 통해, 제1 카메라(110)를 이용하여 획득된 제1 영상 상에서 제1 관심 영역을 결정할 수 있다. 이 때, 프로세서(140)는 제1 영상이 디스플레이(150)에 표시되도록 제어할 수 있다.More specifically, the
일 실시예로, 프로세서(140)는, 제1 관심 영역 결정 모듈(20)을 통해, 관심 영역을 결정하도록 학습된 제3 모델(95)에 제1 영상을 입력하여 적어도 하나의 객체가 포함된 영역을 제1 관심 영역으로 결정할 수 있다. 또 다른 실시예로, 프로세서(140)는, 제1 관심 영역 결정 모듈(20)을 통해, 자동 초점(Auto focus) 방식을 이용하여 제1 영상 상에 적어도 하나의 객체가 존재하는 영역을 제1 관심 영역으로 결정할 수 있다.In an embodiment, the
또 다른 실시예로, 프로세서(140)는 제1 영상 중 사용자 터치가 입력된 영역을 제1 관심 영역을 결정할 수 있다. 프로세서(140)는 제1 영상 중 결정된 제1 관심 영역을 기설정된 크기 및 형태(예를 들어, 사각형 등)를 가진 인디케이터(indicator)로 표시할 수 있다. 예를 들면, 프로세서(140)는 디스플레이(150) 상에 표시된 제1 영상 중 사용자 터치가 입력된 영역을 제1 관심 영역으로 결정하고, 결정된 제1 관심 영역을 나타내는 인디케이터를 디스플레이(150)에 표시되도록 제어할 수 있다.As another embodiment, the
그리고, 프로세서(140)는, 객체 인식 모듈(30)을 통해, 제1 관심 영역 결정 모듈(20)에 의해 획득된 제1 관심 영역에 대한 정보를 제1 모델(80)에 입력하여 제1 관심 영역에 포함된 제1 객체를 인식하고, 인식된 제1 객체에 대한 정보를 획득할 수 있다. 제1 객체에 대한 정보는 예로, 제1 객체의 유형, 제1 객체의 크기 및 제1 영상에 포함된 복수의 프레임 이미지 기반으로 제1 객체의 위치 변화량 또는 이동 방향에 대한 정보 등이 포함될 수 있다.Then, the
제1 객체에 대한 정보에 기초하여 제1 객체와 연관된 제2 객체에 대한 정보가 존재한다고 식별되면, 프로세서(140)는 제2 카메라(120)를 통해 제2 영상을 획득할 수 있다.When it is identified that information on the second object associated with the first object exists based on the information on the first object, the
구체적으로, 프로세서(140)는 제1 객체에 대한 정보에 기초하여 제1 객체가 움직이는 객체인지 여부를 식별할 수 있다. 프로세서(140)는, 객체 속성 분석 모듈(40)을 통해, 제1 객체에 대한 정보에 기초하여 제1 객체가 동적 속성 또는 정적 속성이 있는지 여부를 분석하고, 제1 객체가 움직이는 객체인지 식별할 수 있다. 예를 들면, 프로세서(140)는, 객체 속성 분석 모듈(40)을 통해, 제1 객체에 대한 정보 중 제1 영상에 포함된 복수의 이미지 프레임 상에서 제1 객체의 위치 변화량을 식별할 수 있다. Specifically, the
예로, 제1 객체의 위치 변화량이 제1 임계값을 초과한 경우, 프로세서(140)는 제1 객체는 동적(dynamic)인 속성을 포함하고 있다고 분석할 수 있으며, 제1 객체를 움직이는 개체라고 식별할 수 있다. 또 다른 예로, 제1 객체의 위치 변화량이 제1 임계값 이하인 경우, 프로세서(140)는 제1 객체는 정적(static) 속성을 포함하고 있다고 분석할 수 있으며, 제1 객체를 움직이지 않는 객체라고 식별할 수 있다. 여기서, 제1 임계값은 기설정된 값일 수 있으나, 사용자에 의해 변경될 수 있음은 물론이다.For example, when the amount of change in the position of the first object exceeds the first threshold, the
프로세서(140)는 제1 객체가 움직이는 객체인지 여부와 관련된 식별 결과에 기초하여 제2 카메라(120)를 활성화시키고, 활성화된 제2 카메라(120)를 이용하여 제2 영상을 획득할 수 있다.The
구체적으로, 제1 객체가 움직이지 않는 객체라고 식별되면, 프로세서(140)는 제1 객체에 대한 정보(예를 들어, 제1 객체에 대한 유형)에 기초하여 제1 객체의 유형과 연관된 제2 객체에 대한 정보(예를 들어, 제2 객체의 유형)가 존재하는지 여부를 식별할 수 있다. Specifically, if the first object is identified as a non-moving object, the
일 실시예로, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 제1 객체에 대한 정보 중 제1 객체의 유형에 대한 정보 등을 이용하여 지식 베이스(85)에 포함된 복수의 노드 중 제1 객체가 포함된 제1 노드를 식별할 수 있다. 그리고, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 지식 베이스(85) 상에서 제1 노드와 엣지에 의해 연결된 제2 노드가 존재하는지 여부를 식별할 수 있다. In an embodiment, the
예를 들어, 도 1b에 도시된 바와 같이, 지식 베이스(85)는 복수의 객체의 유형이 포함된 노드 및 복수의 객체간의 방향 관계 정보를 가지는 엣지를 포함하는 지식 그래프 형태로 구현될 수 있다. 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 지식 베이스(85) 상에서 제1 객체가 포함된 노드가 엣지를 통해 다른 노드와 연결되는지 여부를 식별할 수 있다. For example, as shown in FIG. 1B , the
제1 객체의 유형이 골대인 경우, 프로세서(140)는 연관 객체 결정 모듈(50)을 통해 지식 베이스(85)에 포함된 복수의 노드 중 골대가 포함된 제1 노드(98)를 식별할 수 있다. 그리고, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 지식 베이스(85) 상에서 제1 노드(98)가 엣지를 통해 다른 노드와 연결되는지 여부를 식별할 수 있다. 구체적으로, 프로세서(140)는 연관 개체 결정 모듈(50)을 통해 지식 베이스(85) 상에서 제1 노드(98)가 엣지(99-1, 99-2)를 통해 제2 노드(98-1) 및 제3 노드(98-2)와 연결되었다는 것을 식별할 수 있다.When the type of the first object is a goal, the
또 다른 실시예로, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 제1 객체에 대한 정보 중 제1 객체의 유형에 대응되는 라벨(label)에 기정의된 규칙 기반(rule-based) 알고리즘을 적용하여 제1 객체의 유형과 연관된 제2 객체가 존재하는지 여부를 식별할 수 있다. 제1 객체의 유형에 대응되는 라벨은 제1 객체의 유형의 특성을 나타내는 정보를 의미한다. 규칙 기반 알고리즘은 제1 객체의 유형에 대응되는 라벨이 입력되면 제1 객체의 유형과 연관된 객체 유형을 출력하도록 작성된 알고리즘을 의미한다. 제1 객체의 유형과 관련된 객체에 대한 정보가 규칙 기반 알고리즘에 포함되어 있지 않은 경우, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 제1 객체의 유형과 관련된 객체가 존재하지 않는 것으로 식별할 수 있다.In another embodiment, the
또 다른 실시예로, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 제1 객체에 대한 정보 중 제1 객체의 이미지의 픽셀 값(pixel value) 및 크기를 나타내는 바운딩 박스(bounding box)에 기초하여 제1 객체와 연관된 제2 객체의 픽셀 값 및 크기를 식별할 수 있다. 여기서, 픽셀 값은 제1 객체의 이미지에 포함된 색 속성을 나타내는 값을 의미하며, 바운딩 박스는 제1 객체의 형태를 모두 포함할 수 있는 최소 크기의 박스를 의미한다. In another embodiment, the
구체적으로, 프로세서(140)는, 연관 객체 결정 모듈(50)을 통해, 제1 객체의 이미지의 픽셀 값 및 크기를 나타내는 바운딩 박스를 이용하여 제1 객체와 연관될 수 있는 제2 객체의 픽셀 값 및 크기를 나타내는 바운딩 박스를 식별할 수 있다. 제1 객체의 이미지의 픽셀 값 및 크기를 나타내는 바운딩 박스와 연관될 수 있는 제2 객체의 픽셀 값 및 크기를 나타내는 바운딩 박스에 대한 정보는 연관 객체 결정 모듈(50)에 포함될 수 있다.Specifically, the
또 다른 실시예로, 프로세서(140)는, 연관 객체 결정 모듈(50)에서, 제4 모델(97)을 통해 제1 객체의 유형과 연관된 제2 객체가 존재하는지 여부를 식별할 수 있다. 구체적으로, 프로세서(140)는 제1 객체에 대한 정보 중 제1 객체의 유형에 대응되는 라벨을 추출하고, 추출된 라벨을 제4 모델(97)에 입력하여 제1 객체와 연관된 제2 객체의 유형에 대한 정보를 라벨(Label) 형태로 획득할 수 있다. 그 후, 제2 카메라(120)로부터 얻은 제2 영상에서 제2 모델을 통하여 얻은 객체 정보 (Label) 중 앞서 얻은 제2 객체 유형이 존재하는지 여부를 식별할 수 있다. In another embodiment, the
지식 베이스(85) 상에 제1 노드와 연결된 다른 노드가 존재하는 것으로 식별되면, 프로세서(140)는 제2 카메라(120)를 활성화시킬 수 있다. 예를 들면, 지식 베이스(85) 상에서 제1 노드와 연결된 다른 노드가 존재하는 것으로 식별되면, 프로세서(140)는 제2 카메라(120)를 활성화시키고, 제2 카메라(120)를 활성화시킬 수 있다.If it is identified that another node connected to the first node exists on the
프로세서(140)는 활성화된 제2 카메라(120)를 이용하여 전자 장치(100)의 주변을 촬영하여 제2 영상을 획득할 수 있다. 제2 카메라(120)에 제1 카메라(110)보다 짧은 초점 거리를 가지는 제2 렌즈가 포함된 경우, 제2 영상은 제1 영상보다 넓은 영역을 촬영한 영상이므로, 제2 영상 안에 제1 영상이 포함될 수 있다. 이 때, 프로세서(140)는 디스플레이(150) 상에는 제1 영상을 표시하고 있으나, 제2 영상을 구성하는 복수의 이미지 프레임은 버퍼에 저장되어 있으므로, 저장된 복수의 이미지 프레임을 이용하여 제1 영상과 제2 영상에 겹치지 않는 영역에 제2 객체가 존재하는지 여부를 식별할 수 있다. 즉, 프로세서(140)는 제2 영상과 제1 영상이 겹치지 않는 영역은 디스플레이(150) 상에 표시하지 않으나, 해당 영역은 버퍼에 저장되어있으므로, 버퍼 상에 저장된 프레임에 기초하여 각종 동작을 수행할 수 있다.The
또 다른 예로, 제2 카메라(120)에 제1 카메라(110)보다 긴 초점 거리를 가지는 제2 렌즈가 포함된 경우, 제1 영상은 제2 영상보다 넓은 영역을 촬영한 영상이므로, 제1 영상 안에 제2 영상이 포함될 수 있다.As another example, when a second lens having a longer focal length than that of the
프로세서(140)는, 제2 카메라(120)를 통해 획득된 제2 영상 상에, 제1 노드와 연결된 다른 노드에 포함된 것으로 식별된 유형의 제2 객체가 존재하는지 여부를 식별할 수 있다. 일 실시예로, 지식 베이스(85)를 이용하여 제1 객체의 제1 방향에 위치하는 영역에 제1 객체의 유형과 관련된 유형의 제2 객체가 존재한다는 정보를 획득한 경우, 프로세서(140)는 제2 영상 모니터링 모듈(60)을 통해 제2 영상 중 제1 객체의 제1 방향에 대응되는 영역을 탐지하여 제2 객체가 제2 영상 상에 존재하는지 여부를 식별할 수 있다.The
예를 들어, 지식 베이스(85)를 이용하여 제1 객체의 유형인 골대의 왼쪽 방향 및 오른쪽 방향에 위치하는 영역에 제1 객체의 유형과 연관된 유형의 제2 객체인 농구 공이 위치할 수 있다는 정보를 획득하면, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제2 영상 중 골대의 왼쪽 방향 및 오른쪽 방향에 위치하는 영역을 탐지하여 제2 영상 상에 농구 공이 존재하는지 여부를 식별할 수 있다.For example, information that a basketball ball, which is a second object of a type related to the type of the first object, may be located in regions located in the left and right directions of the goalpost, which is the type of the first object, using the
다만, 이는 일 실시예에 불과하며, 프로세서(140)는 제2 영상을 전체적으로 탐지하여 제1 객체의 유형과 연관된 유형의 제2 객체가 제2 영상 상에 존재하는지 여부를 식별할 수 있다. 즉, 프로세서(140)는 지식 베이스(85)를 통해 획득된 정보에 기초하여 제2 영상 상에 포함된 제2 객체를 식별할 수 있으나, 제2 영상 전체 영역을 탐지하여 제2 객체를 식별할 수 있다.However, this is only an embodiment, and the
제2 영상 상에 제2 객체가 존재한다고 식별되면, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제1 객체의 유형과 제2 객체의 유형간의 관계에 대한 정보에 기초하여, 제2 영역 상에 제2 관심 영역을 결정할 수 있다. If it is identified that the second object is present on the second image, the
예를 들면, 프로세서(140)가 지식 베이스(85)를 이용하여 제1 객체의 제1 방향에 대응되는 영역에 제1 객체의 유형과 연관된 유형의 제2 객체가 위치한다는 관계에 대한 정보를 획득한 경우를 가정한다. 프로세서(140)는 제1 방향에 기초하여 제2 객체의 움직임 방향을 추측할 수 있다. 예를 들어, 프로세서(140)는 제2 객체가 제1 객체의 제1 방향에 위치하는 영역(또는, 제2 객체의 현재 위치하는 영역)에서부터 제1 객체를 향하는 방향으로 이동한다고 추측할 수 있다. 예로, 프로세서(140)는 농구 공이 현재 위치한 골대의 왼쪽 방향 또는 오른쪽 방향에 위치하는 영역에서부터 골대를 향하는 방향으로 이동한다고 추측할 수 있다.For example, the
또 다른 예로, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제2 영상을 구성하는 복수의 이미지 프레임 상의 제2 객체의 위치 변화량 또는 이동 방향 등을 이용하여 제2 객체의 움직임 방향을 추측할 수 있다. 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 추측된 제2 객체의 움직임 방향에 기초하여 제2 영상에 제2 관심 영역을 결정할 수 있다. 구체적으로, 프로세서(140)는 제2 영상 중 제2 객체가 위치한 영역을 기준으로 추측된 제2 객체의 움직임 방향에 대응되는 영역을 제2 관심 영역으로 결정할 수 있다. 제2 관심 영역은 하나일 수 있으나 2개 이상의 복수 개로 결정될 수도 있다.As another example, the
제2 영상 모니터링 모듈(60)을 통해 결정된 제2 관심 영역 상에 제2 객체가 나타나는 것으로 식별되면, 프로세서(140)는 고속 촬영 수행 모듈(70)을 통해 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다. 즉, 프로세서(140)는 제2 객체가 이동하여 제2 관심 영역 상에 나타나는 시점을 SSM 기능 중 제1 카메라(110)를 이용하여 고속 촬영을 수행하는 시점으로 결정할 수 있다. SSM 기능은 전자 장치(100)의 주변을 제1 카메라(110)를 이용하여 고속으로 촬영하여 슈퍼 슬로우 모션 영상을 획득하는 기능 및 획득된 슈퍼 슬로우 모션 영상을 일반적인 영상 재생 속도(30fps) 대비 32배 또는 일반적인 슬로우 모션(240fps) 대비 4배 느리게 재생하는 기능이 포함된 것을 의미한다.When it is identified that the second object appears on the second region of interest determined through the second
구체적으로, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 결정된 제2 관심 영역 상에 제2 객체가 나타나는지 여부를 모니터링할 수 있다. 즉, 프로세서(140)는 제2 관심 영역을 모니터링하여 제2 관심 영역 상에 제2 객체가 나타나는지 여부를 식별할 수 있다.Specifically, the
예를 들어, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제2 모델(93)에 제2 관심 영역에 대한 정보 중 제2 관심 영역에 포함된 이미지에 대한 특징 정보 및 제2 객체에 대한 유형을 입력하여 제2 관심 영역 상에 제2 객체의 유형에 대응되는 객체가 나타나는지 여부를 식별할 수 있다.For example, the
또 다른 예로, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 지식 베이스(85) 상의 복수의 노드에 포함된 객체의 유형과 관련된 특징을 수집한 제1 데이터 베이스 중 제2 객체의 유형과 관련된 정보를 식별할 수 있다. 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제2 관심 영역 중 식별된 제2 객체의 유형과 관련된 정보가 추출되는지 여부를 모니터링하여 제2 객체가 제2 관심 영역에 나타나는지 여부를 식별할 수 있다.As another example, the
한편, 본 개시의 또 다른 실시예로, 제1 객체에 대한 정보에 기초하여 제1 객체가 움직이는 객체라고 식별되면, 프로세서(140)는 객체 인식 모듈(30)을 통해 제1 객체가 움직이는 방향을 추측할 수 있다. 구체적으로, 프로세서(140)는 제1 영상에 포함된 복수의 이미지 프레임 상의 제1 객체의 움직임 변화량 또는 이동 방향을 산출하여 제1 객체의 움직이는 방향을 추측할 수 있다.Meanwhile, as another embodiment of the present disclosure, when the first object is identified as a moving object based on information on the first object, the
그리고, 프로세서(140)는 제1 객체가 움직이는 방향에 기초하여 제1 영상 상에서 제3 관심 영역을 결정할 수 있다. 제3 관심 영역은 제1 영상 중 제1 객체가 나타나는지 여부를 모니터링하기 위해 설정된 영역을 의미한다. 예를 들면, 프로세서(140)는 제1 영상 상에서 현재 제1 객체가 있는 방향을 기준으로 제1 객체가 움직일 것으로 추측된 방향에 대응되는 영역을 제3 관심 영역을 결정할 수 있다. 이 때, 제3 관심 영역은 한 개일 수 있으나, 2개 이상의 복수 개일 수 있다. 제3 관심 영역 상에 제1 객체 나타나는 것으로 식별되면, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다. 이와 관련된 실시예는 후술하는 부분에서 구체적으로 설명하도록 한다.In addition, the
본 개시의 또 다른 실시예로, 지식 베이스(85) 상에 제1 노드와 연결된 다른 노드가 존재하지 않는 것으로 식별되면, 프로세서(140)는, 객체 인식 모듈(30)을 통해, 제1 관심 영역에 포함된 제1 객체의 상태 변화를 모니터링할 수 있다. 제1 객체의 상태가 변화되는 것으로 식별되면, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다. 예를 들어, 제1 객체의 상태 변화량이 제2 임계값을 초과한 경우, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다. 즉, 프로세서(140)는 제1 객체의 상태가 변화된다고 식별되는 시점을 제1 카메라(110)를 이용하여 고속 촬영을 수행하는 시점으로 결정할 수 있다. 이와 관련된 실시예는 도 7을 참조하여 구체적으로 설명하도록 한다.In another embodiment of the present disclosure, if it is identified that there is no other node connected to the first node on the
본 개시의 또 다른 실시예로, 프로세서(140)는 제1 관심 영역에 대한 정보에 기초하여 제1 관심 영역에 제1 객체가 포함되지 않다고 식별할 수 있다. 예를 들면, 디스플레이(150) 상에 표시된 제1 영상 중 제1 객체가 포함되지 않은 영역에 사용자 터치가 입력되면, 프로세서(140)는 제1 객체가 포함되지 않은 사용자 터치가 입력된 영역을 제1 관심 영역으로 결정할 수 있다. 이 때, 프로세서(140)는 제1 관심 영역 상에 제1 객체가 포함되지 않은 것을 식별할 수 있다.As another embodiment of the present disclosure, the
제1 관심 영역에 제1 객체가 포함되지 않은 것으로 식별되면, 프로세서(140)는 제2 카메라(120)를 활성화할 수 있다. 그리고, 프로세서(140)는, 제2 영상 모니터링 모듈(60)을 통해, 제2 카메라(120)를 이용하여 획득된 제2 영상 중 제1 영상과 겹치지 않는 영역 상에 객체가 존재하는지 여부를 모니터링할 수 있다.When it is identified that the first object is not included in the first ROI, the
여기서, 제2 영상은 제1 영상보다 넓은 영역을 촬영한 라이브 뷰인 경우를 가정한다. 제2 영상 중 제1 영상과 겹치지 않는 영역에 제3 객체가 존재한다고 식별되고, 제3 객체가 제1 영상 방향으로 이동하는 것으로 식별되면, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다. 제3 객체가 제1 영상 방향으로 이동한다는 것은 제3 객체가 제2 영상 중 제1 영상과 겹치지 않는 영역에서 제1 영상 및 제1 영상이 겹치는 영역 방향으로 이동한다는 것을 의미할 수 있다. 이와 관련된 실시예는 도 4a 및 도 4b를 참조하여 구체적으로 설명하도록 한다.Here, it is assumed that the second image is a live view in which a larger area than the first image is captured. If it is identified that the third object exists in a region of the second image that does not overlap with the first image and it is identified that the third object moves in the direction of the first image, the
본 개시의 또 다른 실시예로, 제1 카메라(110)를 이용하여 고속 촬영을 수행할 때, 프로세서(140)는 제1 관심 영역과 제2 관심 영역 간의 관계에 대한 정보를 획득할 수 있다. 예를 들어, 제1 관심 영역과 제2 관심 영역 간의 관계에 대한 정보는 제1 관심 영역과 제2 관심 영역의 상대적 위치에 대한 정보, 제1 관심 영역과 제2 관심 영역 각각에 포함된 객체의 유형에 대한 정보 등이 포함될 수 있다. As another embodiment of the present disclosure, when high-speed imaging is performed using the
프로세서(140)는 획득된 제1 관심 영역과 제2 관심 영역 간의 관계에 대한 정보에 기초하여 이후에 제1 카메라(110)를 이용하여 고속 촬영을 수행할 시점을 결정할 수 있다. The
예를 들어, 제1 카메라(110)를 이용하여 고속 촬영을 수행할 때, 제1 관심 영역에 골대가 포함되고 제2 관심 영역에 축구 공이 포함되고, 제1 관심 영역의 우측 영역에 제2 관심 영역이 설정된 경우를 가정한다. 이후에, 제1 카메라(110)를 통해 획득된 제1 영상 상에 결정된 제1 관심 영역 상에 골대가 포함된 것으로 식별되면, 프로세서(140)는 제1 관심 영역과 제2 관심 영역 간의 관계에 대한 정보에 기초하여 제1 관심 영역의 우측 영역에 제2 관심 영역을 설정하고, 제2 관심 영역 상에 축구 공이 포함될 수 있음을 추측할 수 있다. 그리고, 제2 관심 영역에 축구 공이 나타나면, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다.For example, when high-speed imaging is performed using the
본 개시의 또 다른 실시예로, 제1 영상이 초 광각 렌즈를 통해 획득된 영상이고 제2 영상이 광각 렌즈를 통해 획득된 영상인 경우를 가정한다. 이 때, 프로세서(140)는 제1 영상의 외곽(또는, 경계)를 나타내는 인디케이터를 제1 관심 영역으로 결정할 수 있다. 그리고, 제1 관심 영역을 나타내는 인디케이터에 특정 객체가 나타나면, 프로세서(140)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다.As another embodiment of the present disclosure, it is assumed that the first image is an image obtained through an ultra-wide-angle lens and the second image is an image obtained through a wide-angle lens. In this case, the
디스플레이(150)는 프로세서(140)의 제어에 따라 다양한 정보를 표시할 수 있다. 디스플레이(150)는 제1 카메라(110)를 통해 획득된 복수의 이미지 프레임으로 구성된 제1 영상을 표시할 수 있다. 디스플레이(150)는 제1 카메라(110)를 통해 획득된 슈퍼 슬로우 모션 영상을 일반적인 영상 재생 속도(30fps) 대비 32배 또는 일반적인 슬로우 모션(240fps) 대비 4배 느리게 표시(또는, 재생)할 수 있다. 다만, 이는 일 실시예에 불과하며, 디스플레이(150)는 슈퍼 슬로우 모션 영상을 사용자가 설정한 속도로 표시할 수 있다.The
디스플레이(150)는 터치 패널과 함께 터치 스크린으로 구현될 수 있으며, 디스플레이(150)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 등으로 구현될 수 있으며, 경우에 따라 플렉서블 디스플레이, 투명 디스플레이 등으로 구현되는 것도 가능하다. 그러나 상술한 구현으로 한정되는 것은 아니며, 디스플레이(150)는 전자 장치(100)의 유형에 따라 다르게 구현될 수 있다.The
한편, 본 개시에 따른 인공지능과 관련된 기능은 프로세서(140)와 메모리(130)를 통해 동작된다. 프로세서(140)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU(Central Processing Unit), AP(Application Processor), DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서일 수 있다. Meanwhile, the function related to artificial intelligence according to the present disclosure is operated through the
하나 또는 복수의 프로세서(140)는, 메모리(130)에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. One or a plurality of
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. A predefined action rule or artificial intelligence model is characterized in that it is created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden. Such learning may be performed in the device itself on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system.
학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.
인공지능 모델은 복수의 인공 신경망을 포함하며, 인공 신경망은 복수의 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다.The artificial intelligence model includes a plurality of artificial neural networks, and the artificial neural network may be composed of a plurality of layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between the operation result of a previous layer and the plurality of weights. The plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized.
도 2는 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
전자 장치(100)는 제1 카메라를 통해 전자 장치의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득할 수 있다(S210). 구체적으로, 전자 장치(100)는 제1 영상 상에 제1 관심 영역을 결정할 수 있다. 제1 영상 상에 제1 관심 영역을 결정하는 과정은 도 3을 참조하여 구체적으로 설명하도록 한다.The
전자 장치(100)는 결정된 제1 관심 영역에 제1 객체가 포함되는지 여부를 식별할 수 있다. 제1 관심 영역에 제1 객체가 포함된 것으로 식별되면, 전자 장치(100)는 제1 관심 영역에 대한 정보를 객체를 인식하도록 학습된 제1 인공 지능 모델에 적용하여 제1 관심 영역에 포함된 제1 객체에 대한 정보를 획득할 수 있다. 전자 장치(100)가 제1 객체에 대한 정보를 획득하는 과정은 도 3을 참조하여 구체적으로 설명하도록 한다. 한편, 제1 관심 영역에 제1 객체가 포함되지 않다고 식별된 경우는 도 4a를 참조하여 구체적으로 설명하도록 한다.The
전자 장치(100)는, 획득된 제1 객체에 대한 정보에 기초하여 제1 객체와 연관된 제2 객체에 대한 정보가 존재한다고 식별되면, 제2 카메라를 통해 제2 영상 획득할 수 있다(S220).When it is identified that information on a second object associated with the first object exists based on the obtained information on the first object, the
구체적으로, 전자 장치(100)는 제1 객체에 대한 정보를 이용하여 제1 객체가 움직이는 객체인지 여부를 식별할 수 있다. 제1 객체가 움직이지 않는 객체라고 식별되면, 전자 장치(100)는 지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체에 대한 정보(예를 들어, 제2 객체의 유형 등)가 존재하는지 여부를 식별할 수 있다. 지식 베이스 상에 제2 객체의 유형에 대한 정보가 존재하는 것으로 식별되면, 전자 장치(100)는 제2 카메라를 활성화시킬 수 있다. 그리고, 전자 장치(100)는 활성화시킨 제2 카메라를 이용하여 제2 영상을 획득할 수 있다. 이와 관련된 실시예는 도 3을 참조하여 구체적으로 설명하도록 한다. Specifically, the
다만, 이는 일 실시예에 불과하고, 전자 장치(100)는 지식 베이스를 이용하지 않고 제1 객체의 유형과 연관된 제2 객체의 유형이 존재하는지 여부를 식별할 수 있다. 이와 관련된 실시예는 전술하였으므로 중복되는 설명은 생략하도록 한다.However, this is only an embodiment, and the
한편, 제1 객체가 움직이는 객체라고 식별된 경우는 도 6을 참조하여 구체적으로 설명하도록 한다. 그리고, 지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하지 않다고 식별된 경우는 도 7을 참조하여 구체적으로 설명하도록 한다.Meanwhile, a case in which the first object is identified as a moving object will be described in detail with reference to FIG. 6 . In addition, a case in which it is identified that there is no information on the type of the second object associated with the type of the first object on the knowledge base will be described in detail with reference to FIG. 7 .
전자 장치(100)는, 획득된 제2 영상 상에 제2 객체가 포함되는지 여부에 기초하여, 제1 카메라를 이용하여 고속 촬영을 수행할 시점을 결정할 수 있다(S230). 제2 영상 상에 제2 객체가 존재한다고 식별되면, 전자 장치(100)는 제2 객체의 움직임 방향에 기초하여 제2 관심 영역을 결정할 수 있다. 전자 장치(100)는 결정된 제2 관심 영역 상에 제2 객체가 나타나는지 모니터링할 수 있다. 제2 관심 영역 상에 제2 객체가 나타나는 것으로 식별되면, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다. 이와 관련된 실시예는 도 5를 참조하여 구체적으로 설명하도록 한다.The
도 3은 본 개시의 일 실시예에 따른, 전자 장치(100)가 제2 카메라를 활성화시키는 과정을 설명하기 위한 순서도이다. 도 3의 S310 내지 도 S330은 도 2의 S210의 단계를 구체화한 것이다.3 is a flowchart illustrating a process in which the
전자 장치(100)는 제1 카메라를 통해 획득된 제1 영상 상에서 제1 관심 영역을 결정할 수 있다(S310).The
예를 들면, 전자 장치(100)는 관심 영역을 결정하도록 학습된 제3 모델에 제1 영상을 입력하여 적어도 하나의 객체가 포함된 영역을 제1 관심 영역으로 결정할 수 있다. 제3 모델은 제1 영상에 포함된 적어도 하나의 객체가 포함된 영역을 관심 영역으로 결정하도록 학습된 인공 지능 모델일 수 있다.For example, the
또 다른 예로, 전자 장치(100)는 자동 초점 방식을 이용하여 제1 영상 상에 제1 관심 영역을 결정할 수 있다. 자동 초점은 제1 영상에 포함된 특정 객체에 초점을 자동으로 맞추는 기능을 의미한다. 자동 초점 방식에 의해 제1 영상에 포함된 객체 중 하나에 초점이 맞춰지면, 전자 장치(100)는 제1 영상 중 초점이 맞춰진 객체가 포함된 영역을 제1 관심 영역으로 결정할 수 있다.As another example, the
또 다른 예로, 전자 장치(100)는 터치 스크린이 포함된 디스플레이 상에 표시된 제1 영상 중 사용자 터치가 입력된 영역을 제1 관심 영역으로 결정할 수 있다. 전자 장치(100)는 사용자 터치가 입력된 영역에 기설정된 크기 또는 모양를 가진 바운딩 박스를 표시하고, 바운딩 박스가 표시된 영역을 제1 관심 영역으로 설정할 수 있다.As another example, the
전자 장치(100)는 제1 관심 영역에 제1 객체가 포함되어 있는지 여부를 식별할 수 있다(S320). 한편, 제3 모델 또는 자동 초점 방식을 이용한 경우에는 제1 관심 영역에 객체가 포함되어 있으므로, 전자 장치(100)는 S320 단계를 생략하고 S330 단계를 수행할 수 있다. The
디스플레이 상에 표시된 제1 영상 중 제1 객체가 포함되지 않은 영역에 사용자 터치가 입력됨에 따라 제1 객체가 포함되지 않은 영역이 제1 관심 영역이 결정된 경우를 가정한다. 이 때, 전자 장치(100)는 제1 관심 영역에 제1 객체가 포함되어 있지 않다고 식별할 수 있다. 제1 관심 영역에 제1 객체가 포함되지 않은 경우는 도 4a를 참조하여 구체적으로 설명하도록 한다.It is assumed that a first ROI is determined as a region not including the first object as a user touch is input to a region not including the first object among the first images displayed on the display. In this case, the
제1 관심 영역 상에 제1 객체가 포함된 경우, 전자 장치(100)는 제1 관심 영역에 대한 정보를 객체를 인식하도록 학습된 제1 모델에 입력하여 제1 관심 영역에 포함된 제1 객체에 대한 정보를 획득할 수 있다(S330). 제1 관심 영역에 대한 정보는 제1 관심 영역에 포함된 이미지에 대한 정보(예를 들어, 이미지를 구성하는 픽셀의 색도, 휘도 등)가 포함될 수 있다. 제1 객체에 대한 정보는 예로, 제1 객체의 유형, 제1 객체의 크기 및 제1 영상에 포함된 복수의 프레임 이미지 기반으로 제1 객체의 위치 변화량에 대한 정보 등이 포함될 수 있다. When the first object is included in the first ROI, the
전자 장치(100)는 제1 객체에 대한 정보를 이용하여 제1 객체가 움직이는 객체인지 여부를 식별할 수 있다(S340). 예를 들면, 전자 장치(100)는 제1 객체에 대한 정보 중 제1 영상을 구성하는 복수의 이미지 프레임 상에서 제1 객체의 위치 변화량을 식별하고, 식별된 제1 객체의 위치 변화량에 기초하여 제1 객체의 속성을 분석할 수 있다. 그리고, 전자 장치(100)는 제1 객체의 속성에 따라 제1 객체가 움직이는 객체인지 여부를 식별할 수 있다.The
제1 객체가 움직이지 않는 객체라고 식별되면, 전자 장치(100)는 지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하는지 여부를 식별할 수 있다(S350). 지식 베이스 상에서 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하는지 여부와 관련된 실시예는 전술하였으므로 중복되는 설명은 생략하도록 한다.When the first object is identified as a non-moving object, the
지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하는 것으로 식별되면, 전자 장치(100)는 제2 카메라를 활성화할 수 있다. 제2 카메라가 활성화된 후의 실시예는 도 5를 참조하여 구체적으로 설명하도록 한다. 한편, 제1 객체가 움직이는 객체인 경우는 도 6을 참조하여 구체적으로 설명하도록 한다. 그리고, 지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하지 않는 경우는 도 6을 참조하여 구체적으로 설명하도록 한다.When it is identified that information on the type of the second object associated with the type of the first object exists on the knowledge base, the
도 4a는 본 개시의 일 실시예에 따른, 전자 장치(100)가 제1 카메라를 이용하여 고속 촬영을 수행하는 과정을 설명하기 위한 순서도이다. 도 4a는, 도 4b를 참조할 때, 제1 영상(400) 상의 제1 관심 영역(Region of Interest, ROI)(407)에 제1 객체가 포함되지 않았다고 식별(S320-N)된 경우의 실시예를 구체적으로 설명하기 위한 순서도이다.4A is a flowchart illustrating a process in which the
제1 관심 영역에 제1 객체가 포함되지 않다고 식별된 경우, 전자 장치(100)는 제2 카메라를 활성화시킬 수 있다(S410). 전자 장치(100)는 활성화된 제2 카메라를 이용하여 제2 영상을 획득할 수 있다. 여기서, 제1 영상(400)은 와이드 뷰(Wide-view)이고, 제2 영상(405)은 제1 영상(400)보다 시야가 넓은 울트라 와이드 뷰(Ultra-wide view)인 경우를 가정한다.When it is identified that the first object is not included in the first ROI, the
전자 장치(100)는 제2 카메라를 이용하여 획득된 제2 영상(405) 중 제1 영상(400)과 겹치지 않는 영역 상에 객체가 존재하는지 여부를 모니터링할 수 있다 (S420). The
제2 영상(405) 중 제1 영상(400)가 겹치지 않는 영역 상에 제3 객체가 존재한다고 식별되고, 제3 객체가 제1 영상 방향으로 이동하는 것으로 식별되면, 전자 장치(100)는 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다(S430). 이 때, 제3 객체가 제1 영상 방향으로 이동한다는 것은 제3 객체가 제2 영상 중 제1 영상과 겹치지 않는 영역에서 제1 영상 및 제2 영상이 겹치는 영역 방향(예로, 화살표(411-1 내지 411-8) 방향)으로 이동한다는 것을 의미한다. If it is identified that the third object exists on the area where the
한편, 본 개시의 또 다른 실시예로, 전자 장치(100)는 제2 영상 중 제1 영상과 겹치지 않는 영역에 제2 관심 영역(또는, 서브 ROI)(409)을 설정할 수 있다. 예로, 전자 장치(100)는, 도 4b에 도시된 바와 같이, 제1 영상 및 제2 영상에 겹치는 영역에 제2 관심 영역(409)을 설정할 수 있다. 그리고, 전자 장치(100)는 제2 관심 영역(409)에 특정 객체가 나타나는지 여부를 모니터링할 수 있다.Meanwhile, as another embodiment of the present disclosure, the
예를 들어, 제3 객체가 화살표(411-4) 방향으로 이동하면서 제2 관심 영역(409) 상에 나타난다고 식별되면, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다. 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행하면서 SSM 기능을 수행할 수 있다.For example, if it is identified that the third object appears on the second region of
도 5는 본 개시의 또 다른 실시예로, 전자 장치(100)가 제1 카메라를 이용하여 고속 촬영을 수행하는 시점을 결정하는 과정을 설명하기 위한 순서도이며, S360이후의 동작을 설명한다.FIG. 5 is a flowchart illustrating a process of determining a time point at which the
전자 장치(100)는 활성화된 제2 카메라를 이용하여 제2 영상을 획득할 수 있다(S510). 전자 장치(100)는 제2 영상 상에 제2 객체가 존재하는지 여부를 식별할 수 있다(S520). 일 실시예로, 전자 장치(100)는 지식 베이스 상에 포함된 정보에 기초하여 제2 영상 상에 제2 객체가 존재하는지 여부를 식별할 수 있다. 예를 들면, 전자 장치(100)는 지식 베이스 상에 포함된 제1 객체의 유형 및 제2 객체의 유형간의 관계에 대한 정보(예를 들어, 제1 객체의 유형 및 제2 객체의 유형 간의 방향 관계 정보 등)에 기초하여 제2 영상 상에 제2 객체가 존재하는지 여부를 식별할 수 있다.The
제2 영상 상에 제2 객체가 존재한다고 식별되면, 전자 장치(100)는 제2 객체의 움직임 방향을 추측할 수 있다(S530). 일 실시예로, 지식 베이스(85) 상에 제1 객체의 제1 방향에 대응되는 영역에 제1 객체의 유형과 연관된 유형의 제2 객체가 위치한다는 정보(즉, 방향 관계에 대한 정보)가 포함된 경우를 가정한다. 전자 장치(100)는 제1 방향에 기초하여 제2 객체의 움직임 방향을 추측할 수 있다. 구체적으로, 전자 장치(100)는 제2 객체의 현재 위치(예로, 제1 객체의 제1 방향에 위치하는 영역)에서부터 제1 객체를 향하는 방향으로 이동한다고 추측할 수 있다.When it is identified that the second object is present on the second image, the
또 다른 실시예로, 전자 장치(100)는 제2 영상을 구성하는 복수의 프레임 상에서 제2 객체의 위치 변화량 또는 이동 방향을 산출하여 제2 객체가 움직일 방향을 추측할 수 있다. 예를 들어, 제2 영상을 구성하는 복수의 프레임 상에서 제2 객체가 제1 객체를 향하는 방향으로 제1 위치 변화량만큼 이동한 것으로 산출되면, 전자 장치(100)는 제2 객체가 제1 객체를 향하는 "?향으?* 이동한다고 추측할 수 있다.As another embodiment, the
한편, 제2 영상 상에 제2 객체가 존재하지 않다고 식별되면, 전자 장치(100)는 제1 객체의 움직이는 방향을 추측할 수 있다. 이와 관련된 실시예는 도 6을 참조하여 구체적으로 설명하도록 한다.Meanwhile, when it is identified that the second object does not exist on the second image, the
전자 장치(100)는 제2 객체의 움직임 방향에 기초하여 제2 영상 상에 제2 관심 영역을 결정할 수 있다(S540). 여기서, 제2 관심 영역은 제2 영상 중 제2 객체가 나타나는지 여부를 모니터링하기 위해 결정된(또는, 설정된) 영역을 의미한다. 전자 장치(100)는 제2 영상 중 제2 객체가 위치한 영역을 기준으로 추측된 제2 객체의 움직임 방향에 대응되는 영역을 제2 관심 영역으로 결정할 수 있다. 제2 관심 영역은 하나일 수 있으나 2개 이상의 복수 개로 결정될 수도 있다.The
전자 장치(100)는 제2 관심 영역 상에 제2 객체가 등장하는지 여부를 모니터링할 수 있다(S550). 일 실시예로, 전자 장치(100)는 제2 모델(93) 제2 관심 영역에 대한 정보 중 제2 관심 영역에 포함된 이미지에 대한 특징 정보 및 제2 객체에 대한 유형을 입력하여 제2 관심 영역에 제2 객체의 유형에 대응되는 객체가 나타나는지에 여부에 대한 정보를 획득할 수 있다.The
또 다른 예로, 전자 장치(100)는 지식 베이스 상의 복수의 노드에 포함된 객체의 유형과 관련된 특징을 수집한 제1 데이터 베이스 중 제2 객체의 유형과 관련된 정보를 식별할 수 있다. 그리고, 전자 장치(100)는 제2 관심 영역 중 식별된 제2 객체의 유형과 관련된 정보가 추출되는지 여부를 모니터링하여 제2 객체가 제2 관심 영역에 나타나는지 여부를 식별할 수 있다.As another example, the
제2 관심 영역 상에 제2 객체가 등장한 것으로 식별되면, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다(S560). 즉, 전자 장치(100)는 제2 객체가 이동하면서 제2 관심 영역 상에 나타나는 시점을 SSM 기능 중 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정할 수 있다.When it is identified that the second object appears on the second ROI, the
도 6은 본 개시의 일 실시예에 따른, 전자 장치가 제1 카메라를 이용하여 고속 촬영을 수행하는 시점을 결정하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of determining a time point at which an electronic device performs high-speed imaging using a first camera, according to an embodiment of the present disclosure.
제1 객체가 움직이는 객체라고 식별된 경우(S340-Y), 전자 장치(100)는 도 6의 S610 단계를 수행할 수 있다. 전자 장치(100)는 제1 객체의 움직이는 방향을 추측할 수 있다(S610). 구체적으로, 전자 장치(100)는 제1 영상에 포함된 복수의 이미지 프레임 상의 제1 객체의 움직임 변화량 또는 이동 방향 등을 산출하여 제1 객체의 움직이는 방향을 추측할 수 있다.When the first object is identified as a moving object (S340-Y), the
전자 장치(100)는 추측된 제1 객체가 움직이는 방향에 기초하여 제1 영상 상에서 제3 관심 영역 결정할 수 있다(S620). 제3 관심 영역은 제1 영상 중 제1 객체가 나타나는지 여부를 모니터링하기 위해 설정된 영역을 의미한다. 예를 들어, 전자 장치(100)는 제1 영상 상에서 현재 제1 객체가 있는 방향을 기준으로 제1 객체가 움직일 것으로 추측된 방향에 대응되는 영역을 제3 관심 영역을 결정할 수 있다. 이 때, 제3 관심 영역은 한 개일 수 있으나, 2개 이상의 복수 개일 수 있다. The
전자 장치(100)는 제3 관심 영역 상에 제1 객체가 등장하는지 여부를 모니터링할 수 있다(S630). 제3 관심 영역 상에 제1 객체 등장하는 것으로 식별되면, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다(S640). 즉, 제1 영상 상에 포함된 제1 객체가 움직이는 객체인 경우, 전자 장치(100)는 제1 영상 상에 제1 관심 영역을 결정하고, 제1 관심 영역에 제1 객체가 나타나는지 여부에 기초하여 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다.The
도 7은 본 개시의 일 실시예에 따른, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행하는 시점을 결정하는 과정을 설명하기 위한 순서도이다. 지식 베이스 상에 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하지 않는 경우(S350-N) 또는 제2 영상 상에 제2 객체가 존재하지 않는 경우(S520-N), 전자 장치(100)는 제1 객체의 상태 변화를 모니터링할 수 있다(S710). 7 is a flowchart illustrating a process of determining a point in time when the
전자 장치(100)는 제1 객체의 상태 변화량이 제2 임계값을 초과하는지 여부를 식별할 수 있다(S720). 여기서, 상태 변화량은 제1 객체의 크기, 부피, 형상 등의 물리량이 변경되는 정도를 수치화한 것을 의미한다. 그리고, 제2 임계값은 실험 또는 연구 등에 의해 산출된 기설정된 값일 수 있으나 이에 국한되는 것은 아니며, 사용자에 의해 변경될 수 있다. The
일 실시예로, 제1 객체는 물이 담긴 풍선으로 구현된 경우를 가정한다. 물이 담긴 풍선이 터지는 경우, 물이 담긴 풍선의 형상 또는 부피가 크게 변경될 수 있다. 이 때, 전자 장치(100)는 물이 담긴 풍선의 상태 변화량이 제2 임계값을 초과한다고 식별할 수 있다.In one embodiment, it is assumed that the first object is implemented as a balloon filled with water. When the balloon filled with water bursts, the shape or volume of the balloon filled with water may be significantly changed. In this case, the
제1 객체의 상태 변화량이 제2 임계값을 초과한 것으로 식별되면, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다(S730). 즉, 전자 장치(100)는 제1 객체의 상태가 변경되는 시점을 제1 카메라를 이용하여 고속 촬영하는 시점으로 결정할 수 있다.When it is identified that the amount of change in the state of the first object exceeds the second threshold, the
본 개시의 또 다른 실시예로, 전자 장치(100)는, 제1 객체의 상태 중 제1 객체를 나타내는 이미지의 정보(예를 들어, 제1 객체의 이미지의 색채, 명암, 픽셀 값 등)가 변경된 경우, 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다. 예를 들어, 제1 객체를 나타내는 이미지의 정보의 변화량(예를 들어, 제1 객체의 이미지의 색채의 변화량 등)이 제3 임계값을 초과한 경우, 전자 장치(100)는 제1 카메라를 이용하여 고속 촬영을 수행할 수 있다.As another embodiment of the present disclosure, the
도 8은 본 개시의 또 다른 실시예로, 전자 장치(100)의 구성을 상세히 도시한 블록도이다. 도 8에 도시된 바와 같이, 전자 장치(100)는 제1 카메라(110), 제2 카메라(120), 메모리(130), 프로세서(140), 디스플레이(150), 통신부(160), 스피커(170), 마이크(180) 및 입력부(190)를 포함할 수 있다. 제1 카메라(110), 제2 카메라(120), 메모리(130), 프로세서(140), 디스플레이(150)는 도 1a를 참조하여 구체적으로 설명하였으므로 중복되는 설명은 생략하도록 한다.8 is a block diagram illustrating in detail the configuration of the
통신부(160)는 회로를 포함하며, 외부 장치와 통신을 수행할 수 있다. 이때, 통신부(160)가 외부 장치와 통신 연결되는 것은 제3 기기(예로, 중계기, 허브, 엑세스 포인트, 서버 또는 게이트웨이 등)를 거쳐서 통신하는 것을 포함할 수 있다.The
통신부(160)는 외부 장치와 통신을 수행하기 위해 다양한 통신 모듈을 포함할 수 있다. 일 예로, 통신부(120)는 무선 통신 모듈을 포함할 수 있으며, 예를 들면, 5G(5TH Generation), LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), 등 중 적어도 하나를 사용하는 셀룰러 통신 모듈을 포함할 수 있다.The
다른 예로, 무선 통신 모듈은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 다만, 이는 일 실시예에 불과하며 통신부(120)는 유선 통신 모듈을 포함할 수 있다.As another example, the wireless communication module may include, for example, at least one of wireless fidelity (WiFi), Bluetooth, Bluetooth low energy (BLE), Zigbee, radio frequency (RF), or body area network (BAN). can However, this is only an embodiment and the
도 1에 도시된 제1 모델(80), 지식 베이스(85), 제2 모델(93), 제3 모델(95) 및 제4 모델(97)은 외부 서버에 포함될 수 있다. 통신부(160)는 지식 베이스(85)를 외부 서버로부터 수신할 수 있다.The
일 실시예로, 통신부(160)는 제1 관심 영역에 대한 정보를 제1 모델(80)이 포함된 외부 서버에 전송하고, 외부 서버로부터 제1 객체에 대한 정보를 수신할 수 있다. In an embodiment, the
또 다른 실시예로, 통신부(160)는 제2 관심 영역에 포함된 이미지에 대한 정보 및 제2 객체의 유형을 제2 모델(93)이 포함된 외부 서버에 전송하고, 외부 서버로부터 제2 관심 영역 상에 제2 객체의 유형에 대응되는 객체가 포함되어 있는지 여부를 나타내는 정보를 수신할 수 있다. In another embodiment, the
또 다른 실시예로, 통신부(160)는 제1 영상을 제3 모델(95)이 포함된 외부 서버에 전송하고, 외부 서버로부터 입력된 제1 영상 중 제1 관심 영역으로 설정된 영역에 대한 정보를 수신할 수 있다. 프로세서(140)는 통신부(160)를 통해 획득된 제1 관심 영역으로 설정된 영역에 대한 정보에 기초하여 제1 영상 중 제1 관심 영역을 결정할 수 있다.In another embodiment, the
또 다른 실시예로, 통신부(160)는 제4 모델(97)이 포함된 외부 서버에 제1 객체의 유형에 대응되는 라벨 또는 제1 객체에 대한 이미지를 전송하고, 외부 서버로부터 제1 객체의 유형과 연관된 제2 객체의 유형 또는 제1 객체와 연관된 제2 객체가 없다는 정보를 수신할 수 있다.In another embodiment, the
스피커(170)는 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터를 출력하는 구성이다. 또한, 스피커(170)는 각종 알림 음이나 음성 메시지를 출력할 수 있다.The
예를 들어, 스피커(170)는 제1 카메라(110)를 이용하여 고속 촬영을 수행하는 시점을 알리는 알림음을 출력할 수 있다. 또 다른 예로, 스피커(160)는 SSM 영상에 포함된 오디오 데이터를 출력할 수 있다.For example, the
마이크(180)는 사용자로부터 음성을 입력받을 수 있는 구성이다. 마이크(180)는 전자 장치(100) 내부에 구비될 수 있으나, 외부에 구비되어 전자 장치(100)와 전기적으로 연결될 수 있다. 또한, 마이크(180)가 외부에 구비된 경우, 마이크(180)는 유/무선 인터페이스(예를 들어, Wi-Fi, 블루투스)을 통해 생성된 사용자 음성 신호를 프로세서(140)에 전송할 수 있다.The
마이크(180)는 사용자로부터 입력된 음성을 인식하고 이해할 수 있는 인공 지능 모델인 대화 시스템(Dialogue system)(미도시)을 웨이크 업시킬 수 있는 웨이크 업 워드(wake-up word)(또는, 트리거 워드(trigger word))가 포함된 사용자 음성을 입력 받을 수 있다. 그리고, 마이크(180)는 제1 카메라(110)를 이용하여 고속 촬영을 수행하라는 명령이 포함된 사용자 음성을 입력받을 수 있다. 프로세서(140)는 마이크(180)를 통해 획득된 고속 촬영을 수행하라는 명령이 포함된 사용자 음성을 대화 시스템에 입력할 수 있다. 그리고, 프로세서(140)는 대화 시스템을 통해 획득된 정보에 기초하여 제1 카메라(110)를 이용하여 고속 촬영을 수행할 수 있다.The
입력부(190)는 회로를 포함하며, 전자 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다. 특히, 입력부(190)는 사용자 손 또는 스타일러스 펜 등을 이용한 사용자 터치를 입력받기 위한 터치 패널, 사용자 조작을 입력받기 위한 버튼 등이 포함될 수 있다. 또 다른 예로, 입력부(190)는 다른 입력 장치(예로, 키보드, 마우스, 모션 입력부 등)로 구현될 수 있다. 한편, 입력부(170)는 각종 사용자 명령을 입력받을 수 있다.The
한편, 본 개시에 첨부된 도면은 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.On the other hand, the drawings accompanying the present disclosure are not intended to limit the technology described in the present disclosure to specific embodiments, and various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure are provided. should be understood as including In connection with the description of the drawings, like reference numerals may be used for like components.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as "A or B," "at least one of A and/and B," or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. As used in the present disclosure, expressions such as “first,” “second,” “first,” or “second,” may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component); When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 부프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression “configured to (or configured to)” as used in this disclosure, depending on the context, for example, “suitable for,” “having the capacity to” ," "designed to," "adapted to," "made to," or "capable of." The term “configured (or configured to)” may not necessarily mean only “specifically designed to” in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase "a coprocessor configured (or configured to perform) A, B, and C" may include a processor dedicated to performing the operations (eg, an embedded processor), or executing one or more software programs stored in a memory device. By doing so, it may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 서버 클라우드를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage media readable by a machine (eg, a computer). As an apparatus capable of calling and operating according to the called instruction, it may include the server cloud according to the disclosed embodiments. When the instruction is executed by a processor, the processor directly or under the control of the processor performs other components A function corresponding to the above command can be performed by using it.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented with at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.
명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적은 저장매체'는 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, the 'non-transitory storage medium' does not include a signal and only means that it is tangible and does not distinguish that data is semi-permanently or temporarily stored in the storage medium. For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예로, 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is at least temporarily stored in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server, or is temporarily stored can be created with
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (eg, a module or a program) according to various embodiments may be composed of a singular or a plurality of entities, and some sub-components of the aforementioned sub-components may be omitted, or other sub-components may be various It may be further included in the embodiment. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity, so that functions performed by each corresponding component prior to integration may be performed identically or similarly. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallelly, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can
100: 전자 장치
110: 제1 카메라
120: 제2 카메라
130: 메모리
140: 프로세서
150: 디스플레이100: electronic device 110: first camera
120: second camera 130: memory
140: processor 150: display
Claims (20)
제1 초점 거리를 갖는 제1 렌즈가 포함된 제1 카메라;
상기 제1 초점 거리와 다른 제2 초점 거리를 갖는 제2 렌즈가 포함된 제2 카메라;
메모리; 및
상기 제1 카메라를 통해 상기 전자 장치의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득하고,
상기 획득된 제1 객체에 대한 정보에 기초하여 상기 제1 객체와 연관된 제2 객체에 대한 정보가 식별되면, 상기 제2 카메라를 통해 제2 영상을 획득하고,
상기 획득된 제2 영상 상에 상기 제2 객체가 포함되는지 여부에 기초하여, 상기 제1 카메라를 이용하여 고속 촬영을 수행할 시점을 결정하는 프로세서;를 포함하는 전자 장치.In an electronic device,
a first camera including a first lens having a first focal length;
a second camera including a second lens having a second focal length different from the first focal length;
Memory; and
obtaining information on a first object included in a first image obtained by photographing a periphery of the electronic device through the first camera;
When information on a second object associated with the first object is identified based on the obtained information on the first object, a second image is obtained through the second camera,
and a processor configured to determine when to perform high-speed imaging using the first camera, based on whether the second object is included in the acquired second image.
상기 프로세서는,
상기 획득된 제1 영상 상에서 제1 관심 영역(Region of Interest)을 결정하고,
상기 제1 관심 영역에 대한 정보를 객체를 인식하도록 학습된 제1 모델에 적용하여 상기 제1 관심 영역에 포함된 제1 객체에 대한 정보를 획득하는 전자 장치.According to claim 1,
The processor is
determining a first region of interest on the obtained first image,
The electronic device obtains information on the first object included in the first ROI by applying the information on the first ROI to a first model trained to recognize the object.
상기 메모리는 복수의 객체 각각과 관련된 정보가 포함된 지식 베이스(knowledge base)를 저장하고,
상기 프로세서는,
상기 제1 객체에 대한 정보를 이용하여 상기 제1 객체가 움직이는 객체인지 여부를 식별하고,
상기 제1 객체가 움직이지 않는 객체라고 식별되면, 상기 지식 베이스 상에 상기 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하는지 여부를 식별하고,
상기 지식 베이스 상에 상기 제2 객체의 유형에 대한 정보가 존재하는 것으로 식별되면, 상기 제2 카메라를 활성화시켜 상기 제2 영상을 획득하는 전자 장치.According to claim 1,
The memory stores a knowledge base including information related to each of a plurality of objects,
The processor is
Identifies whether the first object is a moving object by using the information on the first object,
If the first object is identified as a non-moving object, it is identified whether information on the type of the second object associated with the type of the first object exists on the knowledge base,
When it is identified that the information on the type of the second object exists on the knowledge base, the electronic device acquires the second image by activating the second camera.
상기 지식 베이스는 상기 복수의 객체의 유형이 포함된 복수의 노드(node) 및 상기 복수의 노드 간의 방향 관계에 대한 정보가 포함된 엣지(edge)를 포함하는 지식 베이스를 포함하고,
상기 프로세서는,
상기 지식 베이스에 포함된 상기 복수의 객체 중 상기 제1 객체의 유형이 포함된 제1 노드를 식별하고, 상기 지식 베이스 상에서 상기 방향 관계에 대한 정보가 포함된 엣지를 통하여 상기 식별된 제1 노드와 연결된 노드가 존재하는지 식별하는 전자 장치.4. The method of claim 3,
The knowledge base includes a knowledge base including a plurality of nodes including types of the plurality of objects and an edge including information on directional relationships between the plurality of nodes,
The processor is
A first node including the type of the first object is identified among the plurality of objects included in the knowledge base, and the identified first node and the identified first node through an edge including information on the direction relationship on the knowledge base An electronic device that identifies whether a connected node exists.
상기 프로세서는,
상기 지식 베이스 상에서 상기 제1 노드와 연결된 제2 노드가 존재한다고 식별되면, 상기 제2 카메라를 활성화시켜 상기 제2 영상을 획득하고,
상기 제1 노드와 상기 제2 노드 간에 연결된 엣지에 포함된 관계 정보에 기초하여, 상기 제2 영상 상에 상기 제2 객체가 존재하는지 여부를 식별하는 전자 장치.5. The method of claim 4,
The processor is
When it is identified on the knowledge base that there is a second node connected to the first node, activating the second camera to acquire the second image;
An electronic device for identifying whether the second object exists on the second image based on relationship information included in an edge connected between the first node and the second node.
상기 프로세서는,
상기 제2 영상 상에 상기 제2 객체가 존재한다고 식별되면, 상기 제2 객체의 움직임 방향을 추측하고,
상기 추측된 제2 객체의 움직임 방향에 기초하여 상기 제2 영상 상에 제2 관심 영역을 결정하는 전자 장치.6. The method of claim 5,
The processor is
If it is identified that the second object is present on the second image, the direction of movement of the second object is estimated,
The electronic device determines a second ROI on the second image based on the estimated motion direction of the second object.
상기 프로세서는,
상기 결정된 제2 관심 영역 상에 상기 제2 객체가 나타나는지 여부를 식별하고,
상기 제2 관심 영역 상에 상기 제2 객체가 나타나는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 전자 장치.7. The method of claim 6,
The processor is
Identifies whether the second object appears on the determined second region of interest,
The electronic device determines a time point at which the second object appears on the second region of interest as a time point at which high-speed imaging is performed using the first camera.
상기 프로세서는,
상기 제1 객체에 대한 정보를 이용하여 상기 제1 객체가 움직이는 객체라고 식별되면, 상기 제1 객체가 움직이는 방향을 추측하고,
상기 추측된 제1 객체가 움직이는 방향에 기초하여 상기 제1 영상 상에서 제3 관심 영역을 결정하고,
상기 제3 관심 영역 상에 상기 제1 객체가 나타나는 것으로 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 전자 장치.4. The method of claim 3,
The processor is
If the first object is identified as a moving object using information about the first object, the direction in which the first object moves is estimated,
determining a third ROI on the first image based on the estimated moving direction of the first object,
The electronic device determines a point in time at which the first object is identified as appearing on the third region of interest as a point in time at which high-speed imaging is performed using the first camera.
상기 프로세서는,
상기 지식 베이스 상에 상기 제1 객체의 유형과 연관된 상기 제2 객체의 유형에 대한 정보가 존재하지 않는 것으로 식별되면, 제1 관심 영역에 포함된 상기 제1 객체의 상태 변화를 모니터링하고,
상기 제1 객체의 상태가 변화된다고 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 수행하는 시점으로 결정하는 전자 장치.4. The method of claim 3,
The processor is
If it is identified that there is no information on the type of the second object associated with the type of the first object on the knowledge base, monitoring a change in the state of the first object included in the first ROI;
An electronic device that determines a point in time at which it is identified that the state of the first object changes as a point in time at which high-speed imaging is performed using the first camera.
상기 프로세서는,
상기 제1 관심 영역에 대한 정보에 기초하여 상기 제1 관심 영역에 상기 제1 객체가 포함되지 않은 것으로 식별되면, 상기 제2 카메라를 활성화하여 상기 제2 영상을 획득하고,
상기 제2 영상 상에 상기 제1 영상과 겹치지 않는 영역 상에 존재하는 제3 객체를 식별하고,
상기 제3 객체가 상기 제1 영상 방향으로 이동하는 것으로 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 전자 장치.3. The method of claim 2,
The processor is
If it is identified that the first object is not included in the first region of interest based on the information on the first region of interest, activating the second camera to acquire the second image;
identifying a third object on the second image that does not overlap with the first image,
The electronic device determines a point in time at which the third object is identified as moving in the first image direction as a point in time at which high-speed imaging is performed using the first camera.
상기 제1 카메라를 통해 상기 전자 장치의 주변을 촬영하여 획득된 제1 영상에 포함된 제1 객체에 대한 정보를 획득하는 단계;
상기 획득된 제1 객체에 대한 정보에 기초하여 상기 제1 객체와 연관된 제2 객체에 대한 정보가 식별되면, 상기 제2 카메라를 통해 제2 영상을 획득하는 단계; 및
상기 획득된 제2 영상 상에 상기 제2 객체가 포함되는지 여부에 기초하여, 상기 제1 카메라를 이용하여 고속 촬영을 수행할 시점을 결정하는 단계;를 포함하는 제어 방법.A method of controlling an electronic device, comprising: a first camera including a first lens having a first focal length; and a second camera including a second lens having a second focal length different from the first focal length;
obtaining information on a first object included in a first image obtained by photographing a periphery of the electronic device through the first camera;
acquiring a second image through the second camera when information on a second object associated with the first object is identified based on the obtained information on the first object; and
and determining a point in time when high-speed imaging is to be performed using the first camera, based on whether the second object is included in the acquired second image.
상기 제1 객체에 대한 정보를 획득하는 단계는,
상기 획득된 제1 영상 상에서 제1 관심 영역(Region of Interest)을 결정하는 단계; 및
상기 제1 관심 영역에 대한 정보를 객체를 인식하도록 학습된 제1 모델에 적용하여 상기 제1 관심 영역에 포함된 제1 객체에 대한 정보를 획득하는 단계;를 포함하는 제어 방법.12. The method of claim 11,
The step of obtaining information about the first object includes:
determining a first region of interest on the acquired first image; and
and acquiring information on the first object included in the first ROI by applying the information on the first ROI to a first model trained to recognize an object.
상기 제2 영상을 획득하는 단계는,
상기 제1 객체에 대한 정보를 이용하여 상기 제1 객체가 움직이는 객체인지 여부를 식별하는 단계;
상기 제1 객체가 움직이지 않는 객체라고 식별되면, 상기 전자 장치의 메모리에 포함된 지식 베이스 상에 상기 제1 객체의 유형과 연관된 제2 객체의 유형에 대한 정보가 존재하는지 여부를 식별하는 단계; 및
상기 지식 베이스 상에 상기 제2 객체의 유형에 대한 정보가 존재하는 것으로 식별되면, 상기 제2 카메라를 활성화시켜 상기 제2 영상을 획득하는 단계;를 포함하는 제어 방법.12. The method of claim 11,
Acquiring the second image comprises:
identifying whether the first object is a moving object using information about the first object;
identifying whether information on a type of a second object associated with the type of the first object exists on a knowledge base included in a memory of the electronic device when the first object is identified as a stationary object; and
and acquiring the second image by activating the second camera when it is identified that the information on the type of the second object exists on the knowledge base.
상기 지식 베이스는 상기 복수의 객체의 유형이 포함된 복수의 노드(node) 및 상기 복수의 노드 간의 방향 관계에 대한 정보가 포함된 엣지(edge)를 포함하는 지식 베이스를 포함하고,
상기 결정하는 단계는,
상기 지식 베이스에 포함된 상기 복수의 객체 중 상기 제1 객체의 유형이 포함된 제1 노드를 식별하고, 상기 지식 베이스 상에서 상기 방향 관계에 대한 정보가 포함된 엣지를 통하여 상기 식별된 제1 노드와 연결된 노드가 존재하는지 식별하는 단계;를 포함하는 제어 방법.14. The method of claim 13,
The knowledge base includes a knowledge base including a plurality of nodes including types of the plurality of objects and an edge including information on directional relationships between the plurality of nodes,
The determining step is
A first node including the type of the first object is identified among the plurality of objects included in the knowledge base, and the identified first node and the identified first node through an edge including information on the direction relationship on the knowledge base A control method comprising a; identifying whether a connected node exists.
상기 결정하는 단게는,
상기 지식 베이스 상에서 상기 제1 노드와 연결된 제2 노드가 존재한다고 식별되면, 상기 제2 카메라를 활성화시켜 상기 제2 영상을 획득하는 단계; 및
상기 제1 노드와 상기 제2 노드 간에 연결된 엣지에 포함된 관계 정보에 기초하여, 상기 제2 영상 상에 상기 제2 객체가 존재하는지 여부를 식별하는 단계;를 포함하는 제어 방법.15. The method of claim 14,
The determining step is
acquiring the second image by activating the second camera when it is identified that a second node connected to the first node exists on the knowledge base; and
and identifying whether the second object exists on the second image based on relationship information included in an edge connected between the first node and the second node.
상기 결정하는 단계는,
상기 제2 영상 상에 상기 제2 객체가 존재한다고 식별되면, 상기 제2 객체의 움직임 방향을 추측하는 단계; 및
상기 추측된 제2 객체의 움직임 방향에 기초하여 상기 제2 영상 상에 제2 관심 영역을 결정하는 단계;를 포함하는 제어 방법.16. The method of claim 15,
The determining step is
estimating a movement direction of the second object when it is identified that the second object is present on the second image; and
and determining a second ROI on the second image based on the estimated motion direction of the second object.
상기 고속 촬영을 수행할 시점을 결정하는 단계는,
상기 결정된 제2 관심 영역 상에 상기 제2 객체가 나타나는지 여부를 식별하는 단계; 및
상기 제2 관심 영역 상에 상기 제2 객체가 나타나는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 단계;를 포함하는 제어 방법.17. The method of claim 16,
The step of determining when to perform the high-speed shooting includes:
identifying whether the second object appears on the determined second region of interest; and
and determining a point in time at which the second object appears on the second region of interest as a point in time at which high-speed imaging is performed using the first camera.
상기 결정하는 단계는,
상기 제1 객체에 대한 정보를 이용하여 상기 제1 객체가 움직이는 객체라고 식별되면, 상기 제1 객체가 움직이는 방향을 추측하는 단계;
상기 추측된 제1 객체가 움직이는 방향에 기초하여 상기 제1 영상 상에서 제3 관심 영역을 결정하는 단계; 및
상기 제3 관심 영역 상에 상기 제1 객체가 나타나는 것으로 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 단계;를 포함하는 제어 방법.14. The method of claim 13,
The determining step is
estimating a moving direction of the first object when the first object is identified as a moving object using information about the first object;
determining a third ROI on the first image based on the estimated moving direction of the first object; and
and determining a point in time at which the first object is identified as appearing on the third region of interest as a point in time at which high-speed imaging is performed using the first camera.
상기 결정하는 단계는,
상기 지식 베이스 상에 상기 제1 객체의 유형과 연관된 상기 제2 객체의 유형에 대한 정보가 존재하지 않는 것으로 식별되면, 제1 관심 영역에 포함된 상기 제1 객체의 상태 변화를 모니터링하는 단계; 및
상기 제1 객체의 상태가 변화된다고 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 수행하는 시점으로 결정하는 단계;를 포함하는 제어 방법.14. The method of claim 13,
The determining step is
monitoring a state change of the first object included in a first ROI when it is identified that information on the type of the second object associated with the type of the first object does not exist on the knowledge base; and
and determining a point in time when it is identified that the state of the first object changes as a point in time at which high-speed imaging is performed using the first camera.
상기 결정하는 단계는,
상기 제1 관심 영역에 대한 정보에 기초하여 상기 제1 관심 영역에 상기 제1 객체가 포함되지 않은 것으로 식별되면, 상기 제2 카메라를 활성화하여 상기 제2 영상을 획득하는 단계;
상기 제2 영상 상에 상기 제1 영상과 겹치지 않는 영역 상에 존재하는 제3 객체를 식별하는 단계; 및
상기 제3 객체가 상기 제1 영상 방향으로 이동하는 것으로 식별되는 시점을 상기 제1 카메라를 이용하여 고속 촬영을 수행하는 시점으로 결정하는 단계;를 포함하는 제어 방법.
13. The method of claim 12,
The determining step is
acquiring the second image by activating the second camera when it is identified that the first object is not included in the first ROI based on the information on the first ROI;
identifying a third object on the second image that does not overlap with the first image; and
and determining a point in time at which the third object is identified as moving in the first image direction as a point in time at which high-speed imaging is performed using the first camera.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202180074208.6A CN116458166A (en) | 2020-10-28 | 2021-09-14 | Electronic device and method for controlling the same |
PCT/KR2021/012513 WO2022092559A1 (en) | 2020-10-28 | 2021-09-14 | Electronic device and method for controlling same |
EP21886554.1A EP4207740A4 (en) | 2020-10-28 | 2021-09-14 | Electronic device and method for controlling same |
US18/131,582 US20230276140A1 (en) | 2020-10-28 | 2023-04-06 | Electronic device and method for controlling same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200141202 | 2020-10-28 | ||
KR1020200141202 | 2020-10-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220056769A true KR20220056769A (en) | 2022-05-06 |
Family
ID=81584802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210003533A KR20220056769A (en) | 2020-10-28 | 2021-01-11 | Electronic device and method for controlling thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220056769A (en) |
-
2021
- 2021-01-11 KR KR1020210003533A patent/KR20220056769A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9870506B2 (en) | Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor | |
US10515284B2 (en) | Single-processor computer vision hardware control and application execution | |
US20210392267A1 (en) | Electronic device and controlling method of electronic device | |
KR20230013243A (en) | Maintain a fixed size for the target object in the frame | |
US10075647B2 (en) | Control apparatus, control method, and storage medium | |
WO2019091412A1 (en) | Image capture method, apparatus, terminal, and storage medium | |
TW202109449A (en) | Image processing method and device, electronic equipment and storage medium | |
CN108830219B (en) | Target tracking method and device based on man-machine interaction and storage medium | |
EP2998960A1 (en) | Method and device for video browsing | |
US11816876B2 (en) | Detection of moment of perception | |
JP6892524B2 (en) | Slow motion video capture based on target tracking | |
CN109963072B (en) | Focusing method, focusing device, storage medium and electronic equipment | |
US20240212309A1 (en) | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium | |
EP4207740A1 (en) | Electronic device and method for controlling same | |
KR20220056769A (en) | Electronic device and method for controlling thereof | |
US20220277547A1 (en) | Method and electronic device for detecting candid moment in image frame | |
KR20210089038A (en) | Electronic apparatus and method for controlling thereof | |
US11570367B2 (en) | Method and electronic device for intelligent camera zoom | |
CN116458166A (en) | Electronic device and method for controlling the same | |
EP4307242A1 (en) | Single-processor computer vision hardware control and application execution | |
EP4096209B1 (en) | Information processing device, information processing method, and information processing program | |
US20230283879A1 (en) | Electronic device and method for controlling the electronic device | |
KR20230131601A (en) | Generating a panoramic surveillance video | |
KR20220129769A (en) | Electronic device and controlling method of electronic device | |
KR20220018805A (en) | Apparatus and method for detecting fire |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |