KR20180056174A - 콘텐츠 처리 방법 및 이를 지원하는 전자 장치 - Google Patents

콘텐츠 처리 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
KR20180056174A
KR20180056174A KR1020160154078A KR20160154078A KR20180056174A KR 20180056174 A KR20180056174 A KR 20180056174A KR 1020160154078 A KR1020160154078 A KR 1020160154078A KR 20160154078 A KR20160154078 A KR 20160154078A KR 20180056174 A KR20180056174 A KR 20180056174A
Authority
KR
South Korea
Prior art keywords
image data
content
specified
setting
objects
Prior art date
Application number
KR1020160154078A
Other languages
English (en)
Inventor
이송이
신영미
하진수
김장운
손현근
이주형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160154078A priority Critical patent/KR20180056174A/ko
Priority to PCT/KR2017/013106 priority patent/WO2018093197A2/ko
Priority to US16/462,261 priority patent/US10958894B2/en
Priority to EP17870978.8A priority patent/EP3537376A4/en
Publication of KR20180056174A publication Critical patent/KR20180056174A/ko
Priority to US17/207,821 priority patent/US11595633B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Abstract

본 발명의 일 실시 예는, 지정된 화각을 기반으로 콘텐츠를 촬영하는 적어도 하나의 카메라 모듈, 상기 콘텐츠를 표시하는 디스플레이, 상기 카메라 모듈 및 디스플레이와 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하고, 투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관계된 이미지 데이터를 설정하는 전자 장치를 개시한다. 이 외에도 명세서를 통하여 파악되는 다양한 실시 예가 가능하다.

Description

콘텐츠 처리 방법 및 이를 지원하는 전자 장치{Method for contents processing and electronic device supporting the same}
본 문서에서 개시되는 실시 예들은, 투명 디스플레이 기반의 콘텐츠 처리 기술과 관련된다.
투명 디스플레이는 각종 콘텐츠를 표시하는 일차적 기능과 더불어, 디스플레이의 후방을 보여주는 공간 친화적 장점으로, 다채로운 디스플레이 운용 환경을 지원하고 있다. 일례로, 투명 디스플레이는 주거 또는 업무 공간이나, 차량, 항공기, 선박 등과 같은 이동 수단에서 쇼윈도(show window), 스마트 윈도우(smart window) 등으로 응용되며, 새로운 양상의 정보통신 인프라를 구축하는 기반이 되고 있다. 최근에는, 사물인터넷 환경, 증강현실 환경 등에도 투명 디스플레이가 도입되고 있으며, 이에 따라 전자 장치에 탑재된 기능들과 투명 디스플레이의 상호작용을 기반으로 하는 접목적 기술 개발이 요구되고 있다.
본 문서에서는, 콘텐츠 내의 적어도 하나의 오브젝트에 대한 이미지 데이터 설정을 기반으로, 투명 디스플레이 상에서 해당 오브젝트에 대응하는 화면 영역의 화면 요소(예: 광 투과도, 색상, 채도 등)를 제어함으로써, 투명 디스플레이에 표시되는 콘텐츠에 대하여 입체감을 부여할 수 있는 콘텐츠 처리 방법 및 이를 지원하는 전자 장치를 제공한다.
일 실시 예에 따른 전자 장치는, 지정된 화각을 기반으로 콘텐츠를 촬영하는 적어도 하나의 카메라 모듈, 상기 콘텐츠를 표시하는 디스플레이, 상기 카메라 모듈 및 디스플레이와 전기적으로 연결되는 프로세서를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는 상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하고, 투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관계된 이미지 데이터를 설정할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 영상 통화 기능의 운용과 관련하여 상호작용하는 외부 장치에 입체감 있는 콘텐츠의 표시를 지원할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 전자 장치를 도시한 도면이다.
도 2a는 일 실시 예에 따른 제1 콘텐츠를 도시한 도면이다.
도 2b는 일 실시 예에 따른 제2 콘텐츠를 도시한 도면이다.
도 2c는 일 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다.
도 3a는 다른 실시 예에 따른 제1 콘텐츠를 도시한 도면이다.
도 3b는 다른 실시 예에 따른 제2 콘텐츠를 도시한 도면이다.
도 3c는 다른 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다.
도 4a는 또 다른 실시 예에 따른 제1 콘텐츠를 도시한 도면이다.
도 4b는 또 다른 실시 예에 따른 제2 콘텐츠를 도시한 도면이다.
도 4c는 또 다른 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다.
도 5는 일 실시 예에 따른 전자 장치의 운용 환경을 도시한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 콘텐츠 처리 방법을 도시한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(Global Navigation Satellite System)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치 (예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 일 실시 예에 따른 전자 장치를 도시한 도면이다.
도 1을 참조하면, 전자 장치(100)는 외부 장치(300)와 네트워크(200)를 구축할 수 있다. 전자 장치(100)는 네트워크(200)에 접속함으로써, 기능 운용에 관계되는 데이터를 외부 장치(300)로 송신 또는, 외부 장치(300)로부터 수신할 수 있다. 상기 네트워크(200)는 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN) 또는 인터넷 및 전화 망(telephone network)을 포함할 수 있다.
일 실시 예에서, 전자 장치(100)는 카메라 모듈(110), 메모리(120), 디스플레이(130), 통신 인터페이스(140), 프로세서(150) 및 하우징(160)을 포함할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 상술된 구성요소들 중 적어도 하나를 생략하거나, 다른 구성요소를 추가적으로 구비할 수 있다. 예를 들어, 전자 장치(100)는 구성요소들에 전기적 에너지를 공급하는 전원 공급 장치(예: 배터리) 등을 더 포함할 수 있다.
하우징(160)은 상술된 전자 장치(100)의 구성요소들 중 적어도 일부를 수용할 수 있다. 하우징(160)은 하면, 상기 하면의 가장자리에서 일정 각도(예: 수직)으로 신장되는 적어도 하나의 측면 및 상기 하면과 대향하는 상면을 포함할 수 있다. 상기 상면의 적어도 일부 영역은 개방될 수 있다. 예를 들어, 상기 상면의 중심부로부터 지정된 면적의 영역이 개방될 수 있으며, 이에 따라 하우징(160)은 적어도 일부 영역이 개방된 내부공간을 형성할 수 있다. 일 실시 예에서, 하우징(160)의 적어도 일부 영역에는 전자 장치(100)의 운용과 관계되는 기능 키(예: 전원 키, 음향 조정 키 등)가 외부로 노출되기 위한 적어도 하나의 공극(미도시)이 포함될 수 있다.
카메라 모듈(110)은 지정된 화각을 기반으로 전자 장치(100)의 주변 영역에 대한 콘텐츠(예: 영상, 이미지 등)를 촬영할 수 있다. 카메라 모듈(110)은 제1 방향(예: 전자 장치(100)의 전방)으로의 화각을 갖도록 전자 장치(100)의 전면 일부 영역에 배치될 수 있다. 예를 들어, 카메라 모듈(110)은 상기 하우징(160)의 외부로 적어도 일부가 노출된 디스플레이(130)의 전면 상에 배치되되, 표시되는 콘텐츠의 시인성이 저해되지 않도록 디스플레이(130)의 가장자리 영역에 배치될 수 있다. 또는, 카메라 모듈(110)은 제1 방향 및 상기 제1 방향에 대향하는 제2 방향(예: 전자 장치(100)의 후방)으로의 화각이 형성되도록 복수로 구비되어, 상기 디스플레이(130)의 전후면 각각에 배치될 수 있다. 일 실시 예에서, 카메라 모듈(110)은 제1 카메라 및 제2 카메라를 포함할 수 있다. 상기 제1 카메라 및 제2 카메라 중 어느 하나는 3D depth 카메라를 포함할 수 있다. 상기 제1 카메라 및 제2 카메라의 화각은 상호 유사하거나, 적어도 일부 중첩될 수 있다.
메모리(120)는 전자 장치(100)의 다른 구성요소 또는 전자 장치(100)와 상호작용하는 외부 장치(300)에 관계된 명령 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 카메라 모듈(110)에 의하여 촬영된 콘텐츠(예: 영상, 이미지 등) 또는 외부 장치(300)로부터 수신되는 콘텐츠에 따른 데이터를 저장할 수 있다. 일 실시 예에서, 메모리(120)는 콘텐츠 분석 데이터베이스를 포함할 수 있다. 상기 콘텐츠 분석 데이터베이스는 임의의 콘텐츠에 대하여 지정된 오브젝트를 검출하는데 이용될 수 있다. 이와 관련하여, 상기 콘텐츠 분석 데이터베이스는 지정된 오브젝트에 관계된 정보(예: 오브젝트의 형상, 특징점, 윤곽선 등)를 포함할 수 있다.
메모리(120)는 전자 장치(100)의 기능 운용에 관련된 적어도 하나의 프로그램(예: 통화 프로그램)을 포함할 수 있다. 상기 프로그램은 예컨대, 어플리케이션 프로그램, 커널, 미들웨어 및 어플리케이션 프로그래밍 인터페이스(Application Programming Interface; API)(117) 등을 포함할 수 있다. 상기 커널, 미들웨어 및 API의 적어도 일부는 운영 시스템(Operating System; OS)으로 지칭될 수 있다. 일 실시 예에서, 메모리(120)는 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM) 등), 마스크(mask) ROM, 플래시(flash) ROM 및 플래시 메모리 중 적어도 하나를 포함할 수 있다.
디스플레이(130)는 사용자 제어 또는 지정된 스케줄링 정보에 대응하여 각종 화면을 표시할 수 있다. 예를 들어, 디스플레이(130)는 카메라 모듈(110)에 의하여 촬영된 콘텐츠(예: 영상, 이미지 등) 또는, 외부 장치(300)로부터 수신된 콘텐츠를 표시할 수 있다. 디스플레이(130)는 상기 촬영 또는 수신된 각각의 콘텐츠를 단일의 화면 상에 표시할 수 있다. 예를 들어, 디스플레이(130)는 특정 프로그램(예: 영상 통화 프로그램)의 실행 시, 외부 장치(300)로부터 수신된 제1 콘텐츠를 화면 영역의 일부에 지정된 제1 크기로 표시하고, 카메라 모듈(110)에 의한 제2 콘텐츠를 화면 영역의 나머지 일부에 지정된 제2 크기로 표시할 수 있다. 일 실시 예에서, 상기 제1 크기 및 제2 크기는 상호 동일 또는 유사할 수 있다. 또는, 디스플레이(130)는 화면 영역에 상기 제1 콘텐츠를 지정된 크기로 표시하고, 상기 제1 콘텐츠 상의 적어도 일부 영역에 카메라 모듈(110)에 의한 제2 콘텐츠를 지정된 크기로 중첩시켜 표시할 수 있다.
일 실시 예에서, 디스플레이(130)는 지정된 화면 요소(예: 광 투과도(또는, 투명도), 색상, 채도 등)를 제어 가능한 투명 디스플레이를 포함할 수 있다. 이와 관련하여, 디스플레이(130)에 관계된(또는, 포함되는) 적어도 하나의 구성요소는 투명 소재를 기반으로 구성될 수 있다. 예를 들어, 디스플레이(130)가 터치 스크린으로 구현되는 경우, 입력 이벤트(예: 터치, 근접, 호버링 등)의 검출과 관계된 적어도 하나의 전극층은 투명 도전막(예: ITO(Indium Tin Oxide))을 포함할 수 있다. 또한, 상기 적어도 하나의 전극층에 대한 물리량(예: 전압 또는 정전용량) 변화를 기반으로 상기 입력 이벤트의 발생 좌표, 지속 시간 등을 산출하는 제어회로는 예컨대, 하우징(160)의 내부공간으로 배치될 수 있다.
통신 인터페이스(140)는 전자 장치(100)와 외부 장치(300) 간의 통신을 설정할 수 있다. 예를 들어, 통신 인터페이스(140)는 유선 또는 무선 통신을 기반으로 네트워크(200)에 접속하여 외부 장치(300)와 통신할 수 있다. 일 실시 예에서, 상기 무선 통신은 셀룰러 통신 프로토콜로써 LTE(Long-Term Evolution), LTE-A(LTE-Advanced), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA), UMTS(Universal Mobile Telecommunications System), WiBro(Wireless Broadband) 및 GSM(Global System for Mobile Communications) 중 적어도 하나를 포함할 수 있다. 또한, 상기 무선 통신은 Wi-Fi(Wireless Fidelity), Bluetooth, NFC(Near Field Communication), MST(magnetic stripe transmission) 등과 같은 근거리 통신을 포함할 수 있다.
프로세서(150)는 카메라 모듈(110)을 기반으로 촬영된 적어도 하나의 콘텐츠에 대하여 이미지 데이터 설정을 수행할 수 있다. 상기 이미지 데이터 설정은 상기 콘텐츠를 투명 디스플레이 상에 표시할 경우, 투명 디스플레이의 적어도 일부 영역에 대한 화면 요소(예: 광 투과도(또는, 투명도), 색상, 채도 등) 제어와 관계될 수 있다. 예를 들어, 프로세서(150)에 의하여 콘텐츠에 포함된 적어도 하나의 오브젝트 중 특정 오브젝트에 대한 이미지 데이터 설정이 수행되는 경우, 투명 디스플레이 상에서 상기 특정 오브젝트에 대응하는 영역은 상기 이미지 데이터 설정에 따른 광 투과도, 색상, 또는 채도로 표시될 수 있다.
일 실시 예에서, 프로세서(150)는 카메라 모듈(110)의 제1 카메라 및 제2 카메라 각각에 의하여 촬영된 복수의 콘텐츠 중 어느 하나를 기반으로 상기 이미지 데이터 설정을 수행할 수 있다. 또는, 프로세서(150)는 상기 복수의 콘텐츠에 대한 취합을 기반으로 이미지 데이터 설정을 수행할 수 있다. 프로세서(150)는 통신 인터페이스(140)의 기능 동작을 제어하여 상기 이미지 데이터 설정이 수행된 콘텐츠의 정보 데이터를 외부 장치(300)로 송신할 수 있다.
도 2a 및 도 2b는 각각 일 실시 예에 따른 제1 콘텐츠 및 제2 콘텐츠를 도시한 도면이고, 도 2c는 일 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다. 도 2a 내지 도 2c에서 설명되는 동작들은 예컨대, 전자 장치와 외부 장치 간의 영상 통화 수행 환경에 관계될 수 있다.
도 2a를 참조하면, 프로세서(도 1의 150)는 카메라 모듈(도 1의 110)의 제1 카메라에 의하여 촬영된 제1 콘텐츠(10)를 기반으로 이미지 데이터 설정을 수행할 수 있다. 이와 관련하여, 프로세서(150)는 카메라 모듈(110) 또는 메모리(도 1의 120)로부터 제1 콘텐츠(10)를 획득하여 이미지 분석을 수행할 수 있다. 예를 들어, 프로세서(150)는 윤곽선 검출 필터(edge detection filter) 또는 액티브 컨투어 모델(active contours model) 등과 같은 이미지 프로세싱을 기반으로 제1 콘텐츠(10)에 포함된 적어도 하나의 오브젝트(이하 제1 오브젝트라 함)를 검출할 수 있다. 일 실시 예에서, 프로세서(150)는 기계학습 알고리즘(예: 딥 러닝(deep learning))을 수행하여 제1 오브젝트 중 지정된 오브젝트(예: 인체)(이하 제2 오브젝트라 함)를 추출할 수 있다. 이 동작에서, 프로세서(150)는 메모리(120)에 구축된 콘텐츠 분석 데이터베이스를 참조할 수 있다. 예를 들어, 프로세서(150)는 상기 콘텐츠 분석 데이터베이스에 포함된 제2 오브젝트에 대한 윤곽선(또는, 형상) 정보를 기반으로, 제1 오브젝트 중 상기 제2 오브젝트의 윤곽선과 지정된 비율 이상으로 일치하는 오브젝트의 존재 여부를 판단하여, 제1 콘텐츠(10) 내에서 제2 오브젝트(1)를 추출할 수 있다. 또는, 프로세서(150)는 제1 오브젝트에 대하여 적어도 하나의 특징점들을 추출하고, 상기 콘텐츠 분석 데이터베이스에 포함된 제2 오브젝트에 대한 특징점 정보와 비교 판단을 수행하여, 제1 콘텐츠(10) 내에서 제2 오브젝트(1)를 추출할 수 있다.
일 실시 예에서, 프로세서(150)는 추출된 제2 오브젝트(1)를 제외한 나머지 오브젝트에 대하여 이미지 데이터 설정을 수행할 수 있다. 프로세서(150)는 상기 이미지 데이터 설정을 기반으로, 투명 디스플레이 상에서 해당 오브젝트에 대응하는 화면 영역의 광 투과도를 지정된 값으로 제어할 수 있다. 예를 들어, 프로세서(150)는 상기 나머지 오브젝트의 이미지 데이터에 대하여 알파(α) 값(예: 이미지의 광 투과도와 관계되는 값)을 지정된 값(예: 1 내지 100을 기준하여 100)으로 설정함으로써, 상기 투명 디스플레이 상에서 이미지 데이터 설정이 수행된 오브젝트에 대한 화면 영역이 투명해지도록 제어할 수 있다. 또는, 프로세서(150)는 상기 나머지 오브젝트의 이미지 데이터에 대하여 R, G, B 계조를 지정된 값(예: 255)으로 설정함으로써, 투명 디스플레이 상에서 해당 오브젝트의 화면 영역이 투명해지도록 제어할 수 있다. 다양한 실시 예에서, 프로세서(150)는 제1 콘텐츠(10) 내의 특정 오브젝트에 대한 이미지 데이터 설정을 기반으로, 투명 디스플레이의 특정 영역에 대한 광 투과도 제어뿐만 아니라, 색상 또는 채도 등과 같은 화면 요소를 더 제어할 수 있다. 예를 들어, 프로세서(150)는 투명 디스플레이 상에서 상기 제2 오브젝트(1) 이외의 오브젝트에 대응하는 영역이 특정 색상으로 또는, 선명하거나 희미하게 표시되도록 제어할 수 있다. 이하에서는, 투명 디스플레이의 특정 화면 영역에 대한 광 투과도 제어를 상기 이미지 데이터 설정의 일례로 하여 설명하기로 한다.도 2b를 참조하면, 프로세서(150)는 카메라 모듈(110)의 제2 카메라(예: depth 카메라)에 의한 제2 콘텐츠(20)를 기반으로 이미지 데이터 설정을 수행할 수 있다. 상기 제2 콘텐츠(20)는 콘텐츠 내의 적어도 하나의 오브젝트에 대한 깊이 정보(또는, 제2 카메라를 기준한 거리 정보)를 포함할 수 있다. 상기 깊이 정보는 예컨대, 제2 카메라에서 송출되는 적외선 신호가 오브젝트에 반사되어 되돌아오는 시간에 기초하여 산출될 수 있다. 프로세서(150)는 상기 깊이 정보에 기초하여 지정된 깊이(또는, 거리) 이내의 오브젝트(1)를 포함하는 레이어를 식별할 수 있다.
일 실시 예에서, 프로세서(150)는 식별된 레이어를 제외한 나머지 레이어에 대하여 전술한 이미지 데이터 설정을 수행할 수 있다. 예를 들어, 프로세서(150)는 상기 나머지 레이어에 포함된 적어도 하나의 오브젝트의 이미지 데이터에 대하여 알파(α) 값을 지정된 값(예: 1 내지 100을 기준하여 100)으로 설정하거나 또는, R, G, B 계조를 지정된 값(예: 255)으로 설정할 수 있다.
일 실시 예에서, 프로세서(150)는 상기 제1 콘텐츠(10)와 제2 콘텐츠(20)를 취합하여 이미지 데이터 설정을 수행할 수 있다. 예를 들어, 프로세서(150)는 제1 콘텐츠(10)에 대한 이미지 분석을 기반으로 지정된 오브젝트(예: 인체)를 추출하고, 상기 제1 콘텐츠(10)를 제2 콘텐츠(20)에 매핑시킬 수 있다. 프로세서(150)는 제2 콘텐츠(20) 상에서 상기 깊이 정보를 배제하고, 제1 콘텐츠(10)에서 추출된 오브젝트와 동일 또는 유사한 비율로 매핑되는 오브젝트 및 이를 포함하는 레이어를 식별할 수 있다. 프로세서(150)는 식별된 레이어를 제외한 나머지 레이어에 대하여 이미지 데이터 설정을 수행할 수 있다. 프로세서(150)는 제1 콘텐츠(10)와 제2 콘텐츠(20)의 취합 분석을 통하여, 콘텐츠 상에서 지정된 오브젝트(예: 인체)에 대한 명확한 영역 판단을 기반으로 이미지 데이터 설정을 수행할 수 있다.
일 실시 예에서, 프로세서(150)는 제1 콘텐츠(10) 또는 제2 콘텐츠(20) 중 어느 하나를 기반으로 수행된 이미지 데이터 설정에 대한 정보를 상기 제1 콘텐츠(10)와 함께 외부 장치(도 1의 300)로 송신할 수 있다. 또는, 프로세서(150)는 제1 콘텐츠(10) 및 제2 콘텐츠(20)의 취합을 기반으로 수행된 이미지 데이터 설정에 대한 정보를 제1 콘텐츠(10)와 함께 외부 장치(300)로 송신할 수 있다.
도 2c를 참조하면, 외부 장치(300)는 전자 장치(도 1의 100)로부터 수신되는 이미지 데이터 설정 정보에 대응하여 구비된 디스플레이 상에 콘텐츠를 표시할 수 있다. 이와 관련하여, 외부 장치(300)는 투명 디스플레이(130a)를 포함할 수 있다. 상기 이미지 데이터 설정 정보 상에서 지정된 오브젝트(1)를 제외한 나머지 오브젝트(또는, 지정된 깊이 이내의 오브젝트(1)를 포함하는 레이어 이외의 레이어)는 알파(α) 값이 지정된 값(예: 1 내지 100을 기준하여 100)으로 설정되었거나 또는, R, G, B 계조가 지정된 값(예: 255)으로 설정된 이미지 데이터를 포함할 수 있다. 이에 따라, 외부 장치(300)의 투명 디스플레이(130a) 화면 영역 중 지정된 오브젝트(1)를 제외한 영역(2)(또는, 지정된 오브젝트(1)의 배경 영역)에는 상기 알파(α) 값 또는 R, G, B 계조 값에 대응하는 광 투과도에 기초하여 투명 디스플레이(130a)의 후방에 배치된 오브젝트(예: 책)가 가시될 수 있다. 일 실시 예에서, 외부 장치(300)의 영상 통화 기능 운용과 관련하여 투명 디스플레이(130a)의 일부 영역에는 상기 영상 통화 기능의 실행 종료와 관계되는 표시 객체(3)(예: 아이콘)가 표시될 수 있다.
일 실시 예에서, 전자 장치(100)의 사용자는 상기 영상 통화 기능의 운용 과정에서 예컨대, 콘텐츠 송신 설정을 제어할 수 있다. 예를 들어, 전자 장치(100)의 사용자는 상기 콘텐츠 송신 설정과 관계된 사용자 인터페이스 또는 전자 장치(100)의 시스템 설정을 기반으로 상기 이미지 데이터 설정 정보가 외부 장치(300)에 송신되지 않도록 제어할 수 있다. 이 경우, 외부 장치(300)는 전자 장치(100)로부터 수신되는 제1 콘텐츠(10)를 표시할 수 있다.
일 실시 예에서, 외부 장치(300)는 전자 장치(100)의 제1 카메라 및 제2 카메라 중 적어도 하나와 동일 또는 대응되는 카메라를 구비할 수 있다. 외부 장치(300)는 상기 카메라를 기반으로 촬영되는 콘텐츠에 대하여 전술한 전자 장치(100)의 이미지 데이터 설정을 동일 또는 유사하게 수행할 수 있다. 전자 장치(100)는 외부 장치(300)로부터 이미지 데이터 설정 정보를 수신하여 디스플레이(도 1의 130)(예: 투명 디스플레이) 상에 도 3c에 도시된 바와 동일 또는 대응되는 형태로 콘텐츠를 표시할 수 있다.
도 3a 및 도 3b는 각각 다른 실시 예에 따른 제1 콘텐츠 및 제2 콘텐츠를 도시한 도면이고, 도 3c는 다른 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다. 도 3a 내지 도 3c에서 전자 장치 및 외부 장치에 의하여 수행되는 동작들은 도 2a 내지 도 2c를 통하여 상술한 바와 유사 또는 대응될 수 있다. 이하에서는 도 2a 내지 도 2c와 상이한 동작 또는 구성에 대하여 설명하기로 한다.
도 3a를 참조하면, 프로세서(도 1의 150)는 카메라 모듈(도 1의 110)의 제1 카메라를 기반으로 촬영된 제1 콘텐츠(10)에 대하여 이미지 분석을 수행하고, 상기 제1 콘텐츠(10)에서 적어도 하나의 오브젝트(이하 제1 오브젝트라 함)를 검출할 수 있다. 프로세서(150)는 메모리(도 1의 120)에 구축된 콘텐츠 분석 데이터베이스에 근거하여, 상기 제1 오브젝트 중 지정된 오브젝트(1)(예: 인체)(이하 제2 오브젝트라 함)를 추출할 수 있다. 일 실시 예에서, 검출된 제1 오브젝트는 상기 제2 오브젝트(1)와 관계되는 적어도 하나의 오브젝트(이하 제3 오브젝트라 함)를 포함할 수 있다. 예를 들어, 적어도 하나의 제1 오브젝트는 제1 콘텐츠(10) 상에서 제2 오브젝트(1)를 기준하여 전방으로 위치하는 제3 오브젝트 또는, 제2 오브젝트(1)의 상부 영역에서 중첩된 제3 오브젝트를 포함할 수 있다. 이 경우, 프로세서(150)는 제2 오브젝트(1)의 적어도 일부 영역에 대한 단절을 고려하여, 상기 제3 오브젝트(4)를 제2 오브젝트(1)의 적어도 일부로 판단할 수 있다. 프로세서(150)는 검출된 적어도 하나의 제1 오브젝트 중 상기 제2 오브젝트(1) 및 제3 오브젝트(4)를 제외한 나머지 오브젝트의 이미지 데이터에 대하여 예컨대, 알파(α) 값을 지정된 값(예: 1 내지 100을 기준하여 100)으로 설정하거나 또는, R, G, B 계조를 지정된 값(예: 255)으로 설정하는 이미지 데이터 설정을 수행할 수 있다.
도 3b를 참조하면, 프로세서(150)는 카메라 모듈(110)의 제2 카메라(예: depth 카메라)에 의하여 촬영된 제2 콘텐츠(20)를 기반으로, 제2 콘텐츠(20) 내의 적어도 하나의 오브젝트에 대한 깊이 정보(또는, 제2 카메라를 기준한 거리 정보)를 획득할 수 있다. 일 실시 예에서, 제2 콘텐츠(20) 내에는 지정된 깊이 이내의 깊이 값을 갖는 오브젝트(1 및 4)가 복수로 포함될 수 있다. 복수의 오브젝트(1 및 4) 상호는 상기 지정된 깊이 이내의 범위에서, 동일한 깊이 값으로 동일 레이어 상에 포함되거나 또는, 상이한 깊이 값에 대응하는 각각의 레이어에 포함될 수 있다. 프로세서(150)는 상기 지정된 깊이 이내에 포함된 복수의 오브젝트(1 및 4)에 대응하는 적어도 하나의 레이어를 식별하고, 식별된 레이어를 제외한 나머지 레이어에 대하여 상기 알파(α) 값 또는 R, G, B 계조 값 설정에 관계되는 이미지 데이터 설정을 수행할 수 있다.
도 3c를 참조하면, 외부 장치(300)는 전자 장치(도 1의 100)로부터 수신되는 이미지 데이터 설정 정보를 기반으로 투명 디스플레이(130a) 상에 콘텐츠를 표시할 수 있다. 상기 이미지 데이터 설정 정보에 기초하면, 콘텐츠를 표시하는 상기 투명 디스플레이(130a)의 화면 영역 중 적어도 일부에는 지정된 오브젝트(1)및 상기 지정된 오브젝트(1)와 관계되는 오브젝트(4)(또는, 지정된 깊이 이내의 적어도 하나의 오브젝트(1 및 4))가 표시될 수 있다. 또한, 상기 투명 디스플레이(130a)의 화면 영역 중 나머지 일부에서는 지정된 알파(α) 값 또는 R, G, B 계조 값을 포함하는 이미지 데이터에 의한 광 투과도로 인하여 투명 디스플레이(130a)의 후방에 배치된 오브젝트(예: 책)가 가시될 수 있다.
도 4a 및 도 4b는 각각 또 다른 실시 예에 따른 제1 콘텐츠 및 제2 콘텐츠를 도시한 도면이고, 도 4c는 또 다른 실시 예에 따른 디스플레이의 콘텐츠 표시 형태를 도시한 도면이다. 도 4a 내지 도 4c에서 전자 장치 및 외부 장치에 의하여 수행되는 동작들은 도 2a 내지 도 2c를 통하여 상술한 바와 유사 또는 대응될 수 있다. 이하에서는 도 2a 내지 도 2c와 상이한 동작 또는 구성에 대하여 설명하기로 한다.
도 4a를 참조하면, 프로세서(도 1의 150)는 카메라 모듈(도 1의 110)의 제1 카메라에 의해 촬영된 제1 콘텐츠(10)에 대하여 이미지 분석을 수행할 수 있다. 프로세서(150)는 상기 이미지 분석을 통하여 제1 콘텐츠(10)에서 적어도 하나의 오브젝트(이하 제1 오브젝트라 함)를 검출할 수 있다. 프로세서(150)는 콘텐츠 분석 데이터베이스를 기반으로 상기 제1 오브젝트 중 지정된 오브젝트(예: 인체)(이하 제2 오브젝트라 함)를 추출할 수 있다. 일 실시 예에서, 프로세서(150)는 제1 콘텐츠(10) 내에서(또는, 상기 제1 오브젝트 중에서) 상기 제2 오브젝트(1 및 5)를 복수로 추출할 수 있다. 이 동작에서, 프로세서(150)는 추출된 상기 제2 오브젝트(1 및 5) 각각의 이미지 데이터 설정 제어와 관련한 제1 사용자 인터페이스를 출력할 수 있다. 상기 제1 사용자 인터페이스는 예컨대, 상기 제2 오브젝트(1 및 5)에 대한 이미지 콘텐츠 및 제2 오브젝트(1 및 5) 각각의 이미지 데이터 설정 여부를 제어할 수 있는 제어 인터페이스를 포함할 수 있다.전자 장치(100) 사용자는 상기 제어 인터페이스 상에 인가하는 입력(예: 터치)을 기반으로 제2 오브젝트(1 및 5)에 대한 이미지 데이터 설정 여부를 제어할 수 있다. 일 실시 예에서, 사용자가 상기 제2 오브젝트(1 및 5) 모두에 대하여 이미지 데이터 설정이 수행되지 않도록 제어하는 경우, 프로세서(150)는 상기 이미지 분석을 통하여 검출된 복수의 오브젝트 중 제2 오브젝트(1 및 5)를 제외한 나머지 오브젝트에 대하여 이미지 데이터 설정을 수행할 수 있다.
도 4b를 참조하면, 일 실시 예에서, 프로세서(150)는 카메라 모듈(110)의 제2 카메라에 의하여 촬영된 제2 콘텐츠(20)를 기반으로 상기 제2 콘텐츠(20)에 포함된 적어도 하나의 오브젝트에 대한 깊이 정보를 획득할 수 있다. 이 동작에서, 프로세서(150)는 예컨대, 상기 깊이 정보를 포함하는 제2 사용자 인터페이스를 출력할 수 있다. 상기 제2 사용자 인터페이스는 예컨대, 제2 콘텐츠(20)에 포함된 적어도 하나의 오브젝트에 대한 이미지 콘텐츠 및 각각의 오브젝트에 대한 깊이 정보를 포함할 수 있다. 전자 장치(100) 사용자는 상기 제2 사용자 인터페이스를 기반으로 이미지 데이터 설정을 적용할 적어도 하나의 오브젝트를 선별할 수 있다. 예를 들어, 사용자가 상기 제2 사용자 인터페이스에 포함된 특정 이미지 콘텐츠(예: 오브젝트(1 및 5)에 대응하는 이미지 콘텐츠) 상에 입력(예: 터치)을 인가하는 경우, 프로세서(150)는 선택된 오브젝트(1 및 5)를 포함하는 적어도 하나의 레이어를 제외하고, 나머지 레이어에 대한 이미지 데이터 설정을 수행할 수 있다.
도 4c를 참조하면, 외부 장치(300)는 전자 장치(100)로부터 수신되는 이미지 데이터 설정 정보에 대응하여 투명 디스플레이(130a) 상에 콘텐츠를 표시할 수 있다. 상기 이미지 데이터 설정 정보 상에는 도 4a 및 4b를 통하여 상술된 상기 제1 사용자 인터페이스 또는 제2 사용자 인터페이스에 따른 사용자 제어 정보가 포함될 수 있다. 상기 이미지 데이터 설정 정보에 기초하면, 외부 장치(300)의 투명 디스플레이(130a) 화면 영역 중 적어도 일부에는 전자 장치(100) 사용자에 의하여 이미지 데이터 설정이 수행되지 않도록 제어된 오브젝트(1 및 5) 또는, 전자 장치(100) 사용자에 의하여 선택된(또는, 터치 입력된) 오브젝트(1 및 5)가 표시될 수 있다. 또한, 상기 투명 디스플레이(130a)의 화면 영역 중 나머지 일부에서는 이미지 데이터 설정(예: 알파(α) 값 또는 R, G, B 계조 값을 지정된 값으로 설정)에 따른 광 투과도로 인하여 투명 디스플레이(130a) 후방에 배치된 오브젝트(예: 책)가 가시될 수 있다.
도 5는 일 실시 예에 따른 전자 장치의 운용 환경을 도시한 도면이다.
도 5를 참조하면, 프로세서(도 1의 150)는 카메라 모듈(도 1의 110)에 의하여 촬영되는 제1 콘텐츠(도 2a의 10) 및 제2 콘텐츠(도 2b의 20)를 실시간 또는 지정된 주기로 참조하여 전자 장치(100)와 사용자(1) 간의 이격 거리를 산출할 수 있다. 예를 들어, 프로세서(150)는 제1 콘텐츠(10) 상에서 지정된 오브젝트(예: 인체)를 추출하고, 제2 콘텐츠(20)와의 매핑 분석을 통한 지정된 오브젝트(또는, 사용자)의 깊이 정보 획득을 기반으로, 전자 장치(100)와 사용자(1) 간의 거리 변화를 추적할 수 있다. 또한, 프로세서(150)는 제1 콘텐츠(10) 또는 제2 콘텐츠(20)에 대한 분석을 기반으로 카메라 모듈(110)의 화각 범위(θ) 내에 사용자(1)가 존재하는지 여부를 판단할 수 있다.
일 실시 예에서, 프로세서(150)는 상기 거리 정보 및 지정된 범위 내의 사용자(1) 존재 여부 판단을 기반으로 전자 장치(100)의 특정 기능(예: 통화 기능) 운용을 제어할 수 있다. 예를 들어, 프로세서(150)는 지정된 거리(r) 및 범위(θ) 내에 사용자(1)가 존재하는 것으로 판단되는 경우, 전자 장치(100)의 통화 기능을 영상 통화 기능으로 변환 또는 유지시킬 수 있다. 만일, 사용자(1)가 상기 지정된 거리(r) 및 범위(θ) 내에 존재하지 않는 것으로 판단되는 경우, 프로세서(150)는 전자 장치(100)의 통화 기능을 음성 통화 기능으로 변환 또는 유지시킬 수 있다.
상술한 다양한 실시 예에 따른 전자 장치는, 지정된 화각을 기반으로 콘텐츠를 촬영하는 적어도 하나의 카메라 모듈, 상기 콘텐츠를 표시하는 디스플레이 및 상기 카메라 모듈 및 디스플레이와 전기적으로 연결되는 프로세서를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하고, 투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관련한 이미지 데이터를 설정할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 외부 장치와의 통신을 수행하는 통신 인터페이스를 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 통신 인터페이스를 기반으로 상기 이미지 데이터 설정이 수행된 콘텐츠에 관련한 정보를 상기 외부 장치로 송신할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 이미지 데이터 설정이 수행된 콘텐츠에 관련한 정보의 송신 여부를 제어할 수 있는 사용자 인터페이스를 출력할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 지정된 오브젝트에 관련한 정보를 데이터베이스로 구축하는 메모리를 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 데이터베이스를 기반으로 상기 복수의 오브젝트 중 지정된 오브젝트를 추출하고, 상기 지정된 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 복수의 오브젝트 중 상기 지정된 오브젝트와 지정된 관계를 갖는 적어도 하나의 오브젝트를 추출하고, 상기 지정된 오브젝트 및 상기 지정된 관계를 갖는 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정할 수 있다.
다양한 실시 예에 따르면, 상기 카메라 모듈은 상기 콘텐츠에 포함된 복수의 오브젝트에 대한 깊이(depth) 정보를 획득할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 깊이 정보를 기반으로 상기 복수의 오브젝트 중 지정된 깊이 이내의 적어도 하나의 오브젝트를 추출하고, 상기 지정된 깊이 이내의 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 알파(α) 값을 지정된 값으로 설정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는 상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 R, G, B 계조를 지정된 값으로 설정할 수 있다.
도 6은 일 실시 예에 따른 전자 장치의 콘텐츠 처리 방법을 도시한 도면이다.
도 6을 참조하면, 동작 601에서, 전자 장치는 카메라 모듈을 기반으로 전자 장치의 주변 영역에 대한 콘텐츠(예: 영상, 이미지 등)를 촬영할 수 있다. 일 실시 예에서, 상기 카메라 모듈은 제1 카메라 및 제2 카메라를 포함할 수 있다. 상기 제1 카메라 및 제2 카메라 중 어느 하나는 예컨대, 3D depth 카메라를 포함할 수 있다. 카메라 모듈에 의하여 촬영된 적어도 하나의 콘텐츠는 전자 장치의 메모리에 저장될 수 있다.
동작 603에서, 전자 장치의 프로세서는 카메라 모듈 또는 상기 메모리로부터 콘텐츠를 획득하여 이미지 분석(예: 윤곽선 검출 필터 또는 액티브 컨투어 모델을 기반으로 하는 이미지 분석)을 수행하고, 상기 콘텐츠에 포함된 적어도 하나의 오브젝트(이하 제1 오브젝트라 함)를 검출할 수 있다. 또는, 프로세서는 3D depth 카메라에 의하여 촬영된 콘텐츠를 기반으로, 지정된 깊이 이내의 오브젝트(이하 제2 오브젝트라 함)를 포함하는 레이어를 검출할 수 있다.
동작 605에서, 프로세서는 상기 제1 오브젝트 중에서 지정된 오브젝트(예: 인체)(이하 제3 오브젝트라 함)를 추출할 수 있다. 이 동작에서, 프로세서는 상기 메모리에 구축된 데이터베이스(예: 지정된 제3 오브젝트의 형상, 특징점, 윤곽선 등의 정보를 포함하는 데이터베이스)를 참조할 수 있다. 예를 들어, 프로세서는 상기 데이터베이스를 기반으로, 제1 오브젝트 중 상기 제3 오브젝트의 형상, 특징점 또는 윤곽선과 지정된 비율 이상으로 일치하는 오브젝트의 존재 여부를 판단하여, 콘텐츠 내에서(또는, 상기 제1 오브젝트 중에서) 제3 오브젝트를 추출할 수 있다. 일 실시 예에서, 프로세서는 상기 제1 오브젝트 중 추출된 제3 오브젝트를 제외한 나머지 오브젝트를 상기 이미지 데이터 설정 대상으로 식별할 수 있다. 또는, 프로세서는 콘텐츠에 포함된 복수의 레이어 중, 상기 제2 오브젝트를 포함하는 레이어를 제외한 나머지 레이어에 대하여 상기 이미지 데이터 설정 대상으로 식별할 수 있다.
동작 607에서, 프로세서는 상기 식별된 적어도 하나의 오브젝트 또는 레이어에 대하여 이미지 데이터 설정을 수행할 수 있다. 일 실시 예에서, 프로세서는 상기 이미지 데이터 설정을 기반으로, 투명 디스플레이의 화면 영역에서 상기 식별된 오브젝트 또는 식별된 레이어에 포함되는 오브젝트에 대응하는 영역의 광 투과도를 지정된 값으로 제어할 수 있다. 예를 들어, 프로세서는 상기 식별된 오브젝트의 이미지 데이터에 포함되는 알파(α) 값을 지정된 값(예: 1 내지 100을 기준하여 100)으로 설정할 수 있다. 또는, 프로세서는 상기 식별된 오브젝트의 이미지 데이터에 포함되는 R, G, B 계조를 지정된 값(예: 255)으로 설정할 수 있다.
동작 609에서, 전자 장치는 상기 이미지 데이터 설정이 수행된 콘텐츠에 대한 정보를 상기 전자 장치와 상호작용하는 외부 장치로 송신할 수 있다. 일 실시 예에서, 상기 외부 장치에 구비된 디스플레이는 투명 디스플레이를 포함할 수 있다. 이에 따라, 상기 콘텐츠를 표시하는 외부 장치의 투명 디스플레이 화면 영역 중 적어도 일부에는 상기 제3 오브젝트 또는 제2 오브젝트가 표시되고, 상기 화면 영역 중 나머지 일부에서는 지정된 알파(α) 값 또는 R, G, B 계조 값을 포함하는 이미지 데이터에 의한 광 투과도로 인하여, 투명 디스플레이의 후방에 배치된 오브젝트가 가시될 수 있다.
상술한 다양한 실시 예에 따른 전자 장치의 콘텐츠 처리 방법은, 지정된 오브젝트에 관련한 정보를 데이터베이스로 구축하는 동작, 콘텐츠를 촬영하는 동작, 상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하는 동작 및 투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관련한 이미지 데이터를 설정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 콘텐츠 처리 방법은 상기 이미지 데이터 설정이 수행된 콘텐츠에 관계한 정보를 외부 장치로 송신하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 송신하는 동작은 상기 이미지 데이터 설정이 수행된 콘텐츠에 관계한 정보의 송신 여부를 제어할 수 있는 사용자 인터페이스를 출력하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 오브젝트를 검출하는 동작은 상기 데이터베이스를 기반으로 상기 복수의 오브젝트 중 지정된 오브젝트를 추출하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지 데이터를 설정하는 동작은 상기 지정된 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 오브젝트를 검출하는 동작은 상기 복수의 오브젝트 중 상기 지정된 오브젝트와 지정된 관계를 갖는 적어도 하나의 오브젝트를 추출하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지 데이터를 설정하는 동작은 상기 지정된 오브젝트 및 상기 지정된 관계를 갖는 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 오브젝트를 검출하는 동작은 상기 복수의 오브젝트에 대한 깊이 정보를 기반으로 상기 복수의 오브젝트 중 지정된 깊이 이내의 적어도 하나의 오브젝트를 추출하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지 데이터를 설정하는 동작은 상기 지정된 깊이 이내의 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지 데이터를 설정하는 동작은 상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 알파(α) 값을 지정된 값으로 설정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 이미지 데이터를 설정하는 동작은 상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 R, G, B 계조를 지정된 값으로 설정하는 동작을 포함할 수 있다.
본 문서에 개시된 실시 예는, 개시된 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (19)

  1. 지정된 화각을 기반으로 콘텐츠를 촬영하는 적어도 하나의 카메라 모듈;
    상기 콘텐츠를 표시하는 디스플레이; 및
    상기 카메라 모듈 및 디스플레이와 전기적으로 연결되는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하고, 투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관련한 이미지 데이터를 설정하는, 전자 장치.
  2. 제1항에 있어서,
    외부 장치와의 통신을 수행하는 통신 인터페이스;를 더 포함하고,
    상기 프로세서는,
    상기 통신 인터페이스를 기반으로 상기 이미지 데이터 설정이 수행된 콘텐츠에 관련한 정보를 상기 외부 장치로 송신하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 이미지 데이터 설정이 수행된 콘텐츠에 관련한 정보의 송신 여부를 제어할 수 있는 사용자 인터페이스를 출력하는, 전자 장치.
  4. 제1항에 있어서,
    지정된 오브젝트에 관련한 정보를 데이터베이스로 구축하는 메모리;를 더 포함하고,
    상기 프로세서는,
    상기 데이터베이스를 기반으로 상기 복수의 오브젝트 중 지정된 오브젝트를 추출하고, 상기 지정된 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는, 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 복수의 오브젝트 중 상기 지정된 오브젝트와 지정된 관계를 갖는 적어도 하나의 오브젝트를 추출하고, 상기 지정된 오브젝트 및 상기 지정된 관계를 갖는 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는, 전자 장치.
  6. 제1항에 있어서,
    상기 카메라 모듈은,
    상기 콘텐츠에 포함된 복수의 오브젝트에 대한 깊이(depth) 정보를 획득하고,
    상기 프로세서는,
    상기 깊이 정보를 기반으로 상기 복수의 오브젝트 중 지정된 깊이 이내의 적어도 하나의 오브젝트를 추출하고, 상기 지정된 깊이 이내의 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는, 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 알파(α) 값을 지정된 값으로 설정하는, 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 R, G, B 계조를 지정된 값으로 설정하는, 전자 장치.
  9. 전자 장치의 콘텐츠 처리 방법에 있어서,
    지정된 오브젝트에 관련한 정보를 데이터베이스로 구축하는 동작;
    콘텐츠를 촬영하는 동작;
    상기 콘텐츠 내에서 피사체에 대한 복수의 오브젝트를 검출하는 동작; 및
    투명 디스플레이의 화면 영역에서 상기 복수의 오브젝트 중 적어도 하나의 오브젝트에 대응하는 영역이 지정된 광 투과도 값을 갖도록, 상기 적어도 하나의 오브젝트에 관련한 이미지 데이터를 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
  10. 제 9항에 있어서,
    상기 이미지 데이터 설정이 수행된 콘텐츠에 관계한 정보를 외부 장치로 송신하는 동작;을 더 포함하는, 콘텐츠 처리 방법.
  11. 제10항에 있어서,
    상기 송신하는 동작은,
    상기 이미지 데이터 설정이 수행된 콘텐츠에 관계한 정보의 송신 여부를 제어할 수 있는 사용자 인터페이스를 출력하는 동작;을 포함하는, 콘텐츠 처리 방법.
  12. 제9항에 있어서,
    상기 복수의 오브젝트를 검출하는 동작은,
    상기 데이터베이스를 기반으로 상기 복수의 오브젝트 중 지정된 오브젝트를 추출하는 동작;을 포함하는, 콘텐츠 처리 방법.
  13. 제12항에 있어서,
    상기 이미지 데이터를 설정하는 동작은,
    상기 지정된 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
  14. 제 9항에 있어서,
    상기 복수의 오브젝트를 검출하는 동작은,
    상기 복수의 오브젝트 중 상기 지정된 오브젝트와 지정된 관계를 갖는 적어도 하나의 오브젝트를 추출하는 동작;을 포함하는. 콘텐츠 처리 방법.
  15. 제14항에 있어서,
    상기 이미지 데이터를 설정하는 동작은,
    상기 지정된 오브젝트 및 상기 지정된 관계를 갖는 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
  16. 제9항에 있어서,
    상기 복수의 오브젝트를 검출하는 동작은,
    상기 복수의 오브젝트에 대한 깊이 정보를 기반으로 상기 복수의 오브젝트 중 지정된 깊이 이내의 적어도 하나의 오브젝트를 추출하는 동작;을 포함하는, 콘텐츠 처리 방법.
  17. 제16항에 있어서,
    상기 이미지 데이터를 설정하는 동작은,
    상기 지정된 깊이 이내의 적어도 하나의 오브젝트를 제외한 적어도 하나의 오브젝트에 대하여 관련된 이미지 데이터를 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
  18. 제9항에 있어서,
    상기 이미지 데이터를 설정하는 동작은,
    상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 알파(α) 값을 지정된 값으로 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
  19. 제9항에 있어서,
    상기 이미지 데이터를 설정하는 동작은,
    상기 이미지 데이터 설정과 관련하여 상기 이미지 데이터에 포함된 R, G, B 계조를 지정된 값으로 설정하는 동작;을 포함하는, 콘텐츠 처리 방법.
KR1020160154078A 2016-11-18 2016-11-18 콘텐츠 처리 방법 및 이를 지원하는 전자 장치 KR20180056174A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160154078A KR20180056174A (ko) 2016-11-18 2016-11-18 콘텐츠 처리 방법 및 이를 지원하는 전자 장치
PCT/KR2017/013106 WO2018093197A2 (ko) 2016-11-18 2017-11-17 영상 처리 방법 및 이를 지원하는 전자 장치
US16/462,261 US10958894B2 (en) 2016-11-18 2017-11-17 Image processing method and electronic device supporting image processing
EP17870978.8A EP3537376A4 (en) 2016-11-18 2017-11-17 IMAGE PROCESSING METHOD AND ELECTRONIC DEVICE SUPPORTING IMAGE PROCESSING
US17/207,821 US11595633B2 (en) 2016-11-18 2021-03-22 Image processing method and electronic device supporting image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160154078A KR20180056174A (ko) 2016-11-18 2016-11-18 콘텐츠 처리 방법 및 이를 지원하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20180056174A true KR20180056174A (ko) 2018-05-28

Family

ID=62146644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160154078A KR20180056174A (ko) 2016-11-18 2016-11-18 콘텐츠 처리 방법 및 이를 지원하는 전자 장치

Country Status (4)

Country Link
US (2) US10958894B2 (ko)
EP (1) EP3537376A4 (ko)
KR (1) KR20180056174A (ko)
WO (1) WO2018093197A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019661A1 (ko) * 2020-07-24 2022-01-27 삼성전자 주식회사 영상 통화 수행 방법, 그 방법을 수행하는 디스플레이 기기, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110430384B (zh) * 2019-08-23 2020-11-03 珠海格力电器股份有限公司 视频通话方法、装置以及智能终端、存储介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
JP2005267607A (ja) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd デジタル図鑑システム、図鑑検索方法、及び図鑑検索プログラム
US8203577B2 (en) 2007-09-25 2012-06-19 Microsoft Corporation Proximity based computer display
US8306872B2 (en) * 2008-08-08 2012-11-06 Nikon Corporation Search supporting system, search supporting method and search supporting program
US8711198B2 (en) * 2009-06-04 2014-04-29 Hewlett-Packard Development Company, L.P. Video conference
US8682082B2 (en) * 2009-08-04 2014-03-25 Xerox Corporation Pictogram and ISO symbol decoder service
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
KR101659958B1 (ko) * 2010-04-05 2016-09-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 영상 표시 방법
US8957919B2 (en) 2010-04-05 2015-02-17 Lg Electronics Inc. Mobile terminal and method for displaying image of mobile terminal
US8928659B2 (en) 2010-06-23 2015-01-06 Microsoft Corporation Telepresence systems with viewer perspective adjustment
EP2431895B1 (en) * 2010-09-16 2017-07-26 LG Electronics Inc. Transparent display device and method for providing information using the same
KR20120133640A (ko) * 2011-05-31 2012-12-11 삼성전자주식회사 3d 영상변환장치 그 구현방법 및 그 저장매체
KR20130008746A (ko) * 2011-07-13 2013-01-23 삼성전자주식회사 3d 영상변환장치, 그 구현방법 및 그 저장매체
KR101873759B1 (ko) * 2012-04-10 2018-08-02 엘지전자 주식회사 영상 표시 장치 및 그 제어방법
TWI576771B (zh) * 2012-05-28 2017-04-01 宏碁股份有限公司 透明顯示裝置及其透明度調整方法
JP5660078B2 (ja) * 2012-05-31 2015-01-28 カシオ計算機株式会社 多クラス識別器、方法、およびプログラム
EP2680615B1 (en) * 2012-06-25 2018-08-08 LG Electronics Inc. Mobile terminal and audio zooming method thereof
KR102255832B1 (ko) * 2012-09-19 2021-05-26 삼성전자주식회사 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법
TWI637312B (zh) 2012-09-19 2018-10-01 三星電子股份有限公司 用於在透明顯示裝置顯示資訊的方法、顯示裝置及電腦可讀記錄媒體
EP2752758A3 (en) * 2013-01-07 2016-10-26 LG Electronics Inc. Image display device and controlling method thereof
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
US20140347436A1 (en) * 2013-05-22 2014-11-27 Sony Corporation Portable transparent display with life-size image for teleconference
KR102098277B1 (ko) * 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US9055186B2 (en) 2013-07-23 2015-06-09 Personify, Inc Systems and methods for integrating user personas with content during video conferencing
KR20150026565A (ko) * 2013-09-03 2015-03-11 엘지전자 주식회사 디스플레이 장치 및 그것의 제어방법
US9536493B2 (en) * 2013-09-25 2017-01-03 Samsung Electronics Co., Ltd. Display apparatus and method of controlling display apparatus
WO2016024288A1 (en) * 2014-08-14 2016-02-18 Vats Nitin Realistic viewing and interaction with remote objects or persons during telepresence videoconferencing
US9602767B2 (en) 2014-10-10 2017-03-21 Microsoft Technology Licensing, Llc Telepresence experience
CN107548502B (zh) * 2015-02-25 2021-02-09 脸谱科技有限责任公司 基于由对象反射的光的特性识别体元中的对象
WO2017003022A1 (ko) * 2015-06-29 2017-01-05 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP2016181004A (ja) * 2016-06-24 2016-10-13 ソニー株式会社 情報処理装置、表示制御方法、プログラムおよび記憶媒体
US10198621B2 (en) * 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019661A1 (ko) * 2020-07-24 2022-01-27 삼성전자 주식회사 영상 통화 수행 방법, 그 방법을 수행하는 디스플레이 기기, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체

Also Published As

Publication number Publication date
WO2018093197A2 (ko) 2018-05-24
US10958894B2 (en) 2021-03-23
EP3537376A4 (en) 2019-11-20
US11595633B2 (en) 2023-02-28
WO2018093197A3 (ko) 2018-07-05
EP3537376A2 (en) 2019-09-11
US20190342540A1 (en) 2019-11-07
US20210211636A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
US11004223B2 (en) Method and device for obtaining image, and recording medium thereof
KR102559625B1 (ko) 증강 현실 출력 방법 및 이를 지원하는 전자 장치
CN107665485B (zh) 用于显示图形对象的电子装置和计算机可读记录介质
KR102636243B1 (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
US10916049B2 (en) Device and method for rendering image
KR20180091589A (ko) 스킨 정보 제공 방법 및 이를 지원하는 전자 장치
KR20160051411A (ko) 외부의 물체를 제어하는 전자 장치 및 그 방법
EP3469787B1 (en) Electronic device and computer-readable recording medium for displaying images
KR20160071139A (ko) 시선 캘리브레이션 방법 및 그 전자 장치
KR20170066054A (ko) 오디오 제공 방법 및 그 장치
KR102632270B1 (ko) 전자 장치 및 파노라마 영상 표시와 생성 방법
US10582156B2 (en) Electronic device for performing video call and computer-readable recording medium
KR20180029745A (ko) 소프트 키를 표시하는 방법 및 그 전자 장치
KR20170052984A (ko) 사용자의 위치를 결정하는 전자 장치 및 그 제어 방법
US11595633B2 (en) Image processing method and electronic device supporting image processing
EP3327551A1 (en) Electronic device for displaying image and method for controlling the same
KR102336879B1 (ko) 화면을 표시하는 전자 장치, 그 제어 방법
KR20180093558A (ko) 피사체의 이미지를 획득하기 위한 인터페이스를 제공하는 방법 및 전자 장치
KR102568387B1 (ko) 전자 장치 및 그의 데이터 처리 방법
KR102620195B1 (ko) 콘텐츠 출력 방법 및 이를 지원하는 전자 장치
KR102575910B1 (ko) 가이드를 출력하는 전자 장치 및 방법
KR102649197B1 (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR102651793B1 (ko) 영상 통화를 수행하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록매체
KR20180045609A (ko) 전자 장치 및 전자 장치의 표시 방법

Legal Events

Date Code Title Description
A201 Request for examination