KR101598069B1 - 비디오에서의 시선 정렬 시스템 및 방법 - Google Patents

비디오에서의 시선 정렬 시스템 및 방법 Download PDF

Info

Publication number
KR101598069B1
KR101598069B1 KR1020150016304A KR20150016304A KR101598069B1 KR 101598069 B1 KR101598069 B1 KR 101598069B1 KR 1020150016304 A KR1020150016304 A KR 1020150016304A KR 20150016304 A KR20150016304 A KR 20150016304A KR 101598069 B1 KR101598069 B1 KR 101598069B1
Authority
KR
South Korea
Prior art keywords
camera
image
display screen
face
virtual camera
Prior art date
Application number
KR1020150016304A
Other languages
English (en)
Other versions
KR20150030681A (ko
Inventor
사이먼 루시
Original Assignee
커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2012901830A external-priority patent/AU2012901830A0/en
Application filed by 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션 filed Critical 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션
Publication of KR20150030681A publication Critical patent/KR20150030681A/ko
Application granted granted Critical
Publication of KR101598069B1 publication Critical patent/KR101598069B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

본 발명의 이미지 조작 시스템은 화상 회의 방식을 개선할 수 있다. 이 시스템은 카메라, 상기 카메라에 인접한 디스플레이 화면, 상기 카메라 및 상기 디스플레이 화면에 연결된 프로세서, 및 상기 프로세서에 연결된 메모리를 포함한다. 프로세서에 의해 실행가능한 명령은 상기 카메라로부터 소스 이미지를 수신하고, 상기 소스 이미지에 기초하여 합성 이미지를 생성하는 것을 가능하게 한다. 상기 합성 이미지는 상기 디스플레이 화면에 배치된 가상 카메라의 뷰에 해당한다.

Description

비디오에서의 시선 정렬 시스템 및 방법{SYSTEM AND METHOD FOR EYE ALIGNMENT IN VIDEO}
본 발명은 이미지 조작(image manipulation)에 관한 것이다. 특히, 본 발명은, 비록 한정되지는 않지만 비디오에서의 시선 정렬(eye alignment)에 관한 것이다.
비언어적인 사회적 단서(cues)는 의사 소통에서 중요한 역할을 한다. 눈은 특히 의사 소통에 중요하고 주의를 끈 사람들에게 암시(indication)를 제공한다. 어떤 문화에서는, 지배적인 사람의 눈을 바라보지 않는 것이 존경을 표하는 것이고, 서양 문화에서 사람들이 서로 눈을 마주치지 않으면 나쁘게 판단할 수 있다.
그러나, 비언어적인 단서는 종종 종래 기술의 화상 회의(video conferencing) 시스템에서 왜곡되어, 오해 또는 의사 불통으로 이어진다.
가장 단순한 형태로서의 화상 회의 시스템은 한 쌍의 카메라 및 한 쌍의 화면을 포함한다. 한 쌍의 카메라 및 한 쌍의 디스플레이 화면 각각은 사용자들 중 한 사용자를 향한다. 이러한 카메라는 화면을 막지 않도록 하기 위해 디스플레이 화면 옆이나 그 위에 배치되고, 화상 회의 장비를 갖춘 최신 랩탑은 종종 디스플레이 화면 위에 고정적으로 위치한 내장형 카메라를 포함한다.
이러한 시스템의 단점은 사용자가 사용자의 위치와 다른 위치에서 기록되면서 디스플레이 화면 상에서 다른 사용자의 이미지를 보기 때문에 눈동자 단서(eye cue)가 왜곡된다는 것이다. 따라서, 사용자들은 직접 눈을 마주치는 것으로 보이지 않는다. 그 대신, 사용자는 실제로 그렇게 하지 않을 경우 눈을 마주치는 것으로 보일 수 있다.
도 1의 화상 회의 시스템(100)에 예시된 바와 같이, 이러한 문제waj을 줄인 특수화된 하드웨어 시스템이 개발되었다. 시스템(100)은 디스플레이 화면(105) 및 카메라(110)를 포함한다. 사용자(120)와 카메라(110) 사이에 빔 스플리터(115)가 배치되고 사용자(120)로부터의 빛이 카메라에 수신되게 하면서 디스플레이 화면(105)으로부터 이미지를 반사하도록 구성된다.
시스템(100)과 같은 시스템의 단점은 가격이 비싸고, 부서지기 쉬우며, 부피가 커서 얇은 랩탑 화면에 통합될 수 없고, 사용자(120)의 초점이 디스플레이 화면(105)의 중심이 아닌 부분에 맞춰질 때에는 잘 작동하지 못한다는 것이다.
다른 유사한 형태의 화상 회의 시스템은 반투명성 화면을 포함하며 카메라가 반투명성 화면 뒤에 배치되지만, 이 또한 마찬가지의 단점이 존재한다.
본 발명의 실시예의 목적은 전술한 소비자에게 종래 기술에 비해 개선된 점 및 이점을 제공하고, 및/또는 전술한 종래 기술의 단점 중 하나 이상을 극복 및 경감하며, 및/또는 유용한 상업적 선택을 제공하는데 있다.
본 발명의 일 양태에 따르면, 이미지 조작 시스템으로서, 카메라, 상기 카메라에 인접한 디스플레이 화면, 상기 카메라 및 상기 디스플레이 화면에 연결된 프로세서, 및 상기 프로세서에 연결되고, 상기 카메라로부터 소스 이미지를 수신하고, 상기 소스 이미지에 기초하여 상기 디스플레이 화면에 배치된 가상 카메라의 뷰(view)에 해당하는 합성 이미지를 생성하도록, 상기 프로세서에 실행가능한 명령을 포함하는 메모리를 포함한다.
바람직하게는, 상기 카메라 및 디스플레이 화면은 단일 구조로 통합된다. 또한, 상기 카메라 및 디스플레이 화면은 독립적으로 이동가능하며, 상기 메모리는 상기 카메라에 대한 상기 디스플레이 화면의 위치를 추정하는 명령을 더 포함한다.
바람직하게는, 상기 합성 이미지를 생성하는 것은, 상기 소스 이미지에서 얼굴을 검출하고, 상기 가상 카메라의 위치에 따라 상기 얼굴을 변환하는 것을 더 포함한다.
바람직하게는, 상기 얼굴을 변환하는 것은 상기 얼굴에 능동적 외양 모델(Active Appearance Model: AAM)을 적용하고, 상기 AAM의 파라미터를 수정하는 것을 포함한다.
바람직하게는, 상기 합성 이미지를 생성하는 것은, 상기 얼굴의 3D 모델을 생성하고, 상기 3D 모델을 상기 카메라와 상기 가상 카메라 간의 변위에 따라 회전시키는 것을 포함한다.
바람직하게는, 상기 가상 카메라의 위치는 상기 디스플레이 화면에 대해 중심에 고정된다. 또한, 상기 가상 카메라의 위치는 상기 디스플레이 화면 상에 제시된 콘텐츠에 기초하여 결정된다.
바람직하게는, 상기 이미지는 비디오 시퀀스의 이미지를 포함한다. 상기 비디오 시퀀스는 2차원 또는 3차원 비디오 시퀀스일 수 있다.
바람직하게는, 상기 메모리는, 상기 카메라로부터 제2 소스 이미지를 수신하고, 상기 소스 이미지 및 상기 제2 소스 이미지에 기초하여 상기 가상 카메라의 뷰에 해당하는 제2 합성 이미지를 생성하는 명령을 더 포함한다.
소정의 실시예에 따르면, 상기 합성 이미지를 생성하는 것은 상기 소스 이미지에 관한 메타데이터(metadata)를 수정하는 것을 포함한다. 바람직하게는, 상기 메타데이터는 카메라 파라미터를 포함한다.
본 발명의 제2 양태에 따르면, 화상 회의(video conferencing)의 컴퓨터 구현 방법으로서, 데이터 인터페이스 상에서, 카메라로부터 소스 이미지를 수신하는 단계, 및 프로세서에 의해, 상기 소스 이미지에 기초하여 상기 카메라에 인접한 디스플레이 화면에 위치하는 가상 카메라의 뷰(view)에 해당하는 합성 이미지를 생성하는 단계를 포함한다.
소정의 실시예에 따르면, 상기 방법은 상기 프로세서에 의해 상기 카메라에 대한 상기 디스플레이 화면의 위치를 추정하는 단계를 더 포함한다.
바람직하게는, 상기 합성 이미지를 생성하는 단계는, 상기 소스 이미지에서 얼굴을 검출하는 단계, 및 상기 가상 카메라의 위치에 따라 상기 얼굴을 변환하는 단계를 더 포함한다.
바람직하게는, 상기 얼굴을 변환하는 단계는 상기 얼굴에 능동적 외양 모델(Active Appearance Model: AAM)을 적용하고, 상기 AAM의 파라미터를 수정하는 단계를 포함한다.
또한, 상기 얼굴을 변환하는 단계는 상기 얼굴로부터 아바타 이미지로 얼굴 표현을 전이하는 단계를 포함한다.
바람직하게는, 상기 합성 이미지를 생성하는 단계는, 상기 얼굴의 3D 모델을 생성하는 단계, 및 상기 3D 모델을 상기 카메라와 상기 가상 카메라 간의 변위에 따라 회전시키는 단계를 더 포함한다.
소정의 실시예에 따르면, 상기 가상 카메라의 위치는 상기 프로세서에 의해 상기 디스플레이 화면 상에 제시된 콘텐츠에 기초하여 결정된다. 또한, 상기 가상 카메라의 위치는 미리 설정된다.
바람직하게는, 상기 이미지는 비디오 시퀀스의 이미지를 포함한다. 상기 비디오 시퀀스는 2차원 또는 3차원 비디오 시퀀스일 수 있다.
바람직하게는, 상기 방법은, 데이터 인터페이스 상에서, 제1 원격 장치로부터 제1 원격 이미지를 수신하는 단계, 상기 제1 원격 이미지를 상기 디스플레이 화면 상에 디스플레이하는 단계, 및 상기 데이터 인터페이스 상에서, 상기 합성 이미지를 상기 제1 원격 장치로 송신하는 단계를 더 포함한다.
바람직하게는, 상기 방법은, 상기 데이터 인터페이스 상에서, 제2 원격 장치로부터 제2 원격 이미지를 수신하는 단계, 및 상기 제1 원격 이미지에 인접한 상기 제2 원격 이미지를 상기 디스플레이 화면 상에 디스플레이하는 단계를 더 포함한다.
바람직하게는, 상기 방법은, 상기 데이터 인터페이스에서, 상기 합성 이미지를 상기 제2 원격 장치로 송신하는 단계를 더 포함한다. 또한, 상기 방법은, 상기 프로세서에 의해, 상기 소스 이미지에 기초하여 상기 디스플레이 화면에 배치된 제2 가상 카메라의 뷰에 해당하는 제2 합성 이미지를 생성하는 단계, 및 상기 데이터 인터페이스 상에서, 상기 제2 합성 이미지를 상기 제2 원격 장치로 송신하는 단계를 더 포함한다.
바람직하게는, 상기 방법은, 상기 카메라로부터 추가 소스 이미지를 수신하는 단계, 및 상기 소스 이미지 및 상기 추가 소스 이미지에 기초하여 상기 가상 카메라의 뷰에 해당하는 추가 합성 이미지를 생성하는 단계를 더 포함한다.
소정의 실시예에 따르면, 상기 합성 이미지를 생성하는 단계는 상기 소스 이미지에 관한 메타데이터를 수정하는 단계를 포함한다. 바람직하게는, 상기 메타데이터는 카메라 파라미터를 포함한다.
본 발명은 전술한 소비자에게 종래 기술에 비해 개선된 점 및 이점을 제공하고, 및/또는 전술한 종래 기술의 단점 중 하나 이상을 극복 및 경감하며, 및/또는 유용한 상업적 선택을 제공할 수 있다.
본 발명의 이해를 돕고 당업자가 본 발명을 실시가능하게 하기 위해, 첨부의 도면을 참조하여 본 발명의 바람직한 실시예가 단지 예시로서 이하에서 설명된다.
도 1은 종래 기술의 화상 회의 시스템을 예시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 비디오 조작 시스템을 예시하는 도면이다.
도 3은 도 2의 시스템의 블록도를 예시하는 도면이다.
도 4는 도 2의 시스템을 예시하는 도면이다.
도 5는 본 발명의 대안의 실시예에 따른 비디오 조작 시스템을 예시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 화상 회의 시스템을 예시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 비디오 조작 방법을 예시하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 컴퓨팅 장치를 예시하는 도면이다.
당업자는 도면에 예시된 바와 같은 구성 요소의 배치를 약간 변경하는 것만으로 본 발명의 개시된 실시예의 고유한 기능이 손상되지는 않을 것이라는 것을 인식할 것이다.
본 발명의 실시예는 시선 정렬 시스템 및 방법을 포함한다. 본 발명의 구성 요소는 본 발명의 실시예를 이해하는데 필요한 정도의 특정 상세 내용만을 보여주지만, 본 설명에 비추어 당업자에게 자명한 사항까지 지나치게 상세히 설명하여 본 내용이 불명확하게 되지 않도록 하기 위해, 도면에는 간결한 개요 형태로 예시된다.
본 명세서에서, 제1 및 제2, 좌측 및 우측, 전방 및 후방, 상부 및 하부 등과 같은 용어는 그 용어에 의해 기술된 특정 상대 위치 또는 순서를 반드시 필요로 하는 것은 아니고, 단지 다른 구성 요소 또는 방법 단계로부터 하나의 구성 요소 또는 방법 단계를 정의하는데 사용된다. "포함한다" 또는 "구비한다"와 같은 단어는 구성 요소 또는 방법 단계의 배타적인 세트(set)를 정의하는데 사용되지 않는다. 그보다, 상기 단어는 단지 본 발명의 특정 실시예에 포함된 최소한의 구성 요소 또는 방법 단계의 세트만을 정의한다.
*본 명세서에서의 종래 기술이라는 언급은 그러한 종래 기술이 통상의 일반적인 지식의 일부를 구성한다는 것을 인정하거나 또는 암시하는 어떤 형태가 아니고, 또 그러한 것으로 간주되지 않아야 한다.
일 태양에 따르면, 본 발명은 이미지 조작 시스템에 관한 것으로서, 상기 시스템은 카메라, 상기 카메라에 인접한 디스플레이 화면, 상기 카메라 및 상기 디스플레이 화면에 연결된 프로세서, 및 상기 프로세서에 연결되고, 상기 프로세서에 의해 상기 카메라로부터 소스 이미지를 수신하고, 및 상기 소스 이미지에 기초하여 합성 이미지를 생성하도록 실행가능한 명령을 포함하는 메모리를 포함하고, 상기 합성 이미지는 상기 디스플레이 화면에 배치된 가상 카메라의 뷰(view)에 해당한다.
본 발명의 특정 실시예의 이점은 화상 회의 방식이 개선되고, 비디오 또는 이미지 기반 통신이 개선되며, 비디오 캡처 또는 회의 시스템이 더 간단하고 저렴해진다는 것이다. 또한, 본 발명은 레거시(legacy) 화상 회의 시스템에 적용될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 비디오 조작 시스템(200)을 예시하는 도면이고, 도 3은 시스템(200)의 블록도를 예시하는 도면이다.
시스템(200)은 카메라(205) 및 디스플레이 화면(210)을 포함한다. 시스템(200)은 이미지를 디스플레이하고, 카메라(205)는 비디오를 캡처한다. 시스템(200)은, 예를 들면, 화상 회의에 사용될 수 있으며, 여기서 제1 사용자는 카메라(205)를 이용하여 레코딩되고 제2 사용자는 디스플레이 화면(210)을 이용하여 디스플레이된다. 그 대신, 시스템(200)은 뉴스 데스크 스타일의 레코딩에 사용될 수 있으며, 이 경우 사용자는 카메라(205)를 이용하여 레코딩되면서 디스플레이 화면(210) 상에 디스플레이된 스크립트(script)를 판독한다.
시스템(200)은 카메라(205) 및 디스플레이 화면(210)과 연결된 프로세서(305)를 더 포함한다. 프로세서(305)는 카메라(205)에 의해 레코딩된 비디오를 조작하는 명령 코드(315)를 포함하는 메모리(310)와도 연결된다.
명령 코드(315)는 카메라(205)로부터 소스 이미지를 수신하는 명령, 및 소스 이미지에 기초하여 합성 이미지를 생성하는 명령을 포함한다. 소스 이미지 및 합성 이미지는 비디오 시퀀스를 구성한다.
도 4에 도시된 바와 같이, 카메라(205)는 디스플레이 화면(210) 상부에 배치된다. 광 경로(410)와 같이, 사용자가 디스플레이 화면(210)을 똑바로 쳐다볼 때, 광 경로(415)를 통해 보여지는 카메라(205)에 의해 캡처된 소스 이미지는 카메라(205)와 디스플레이 화면(210) 간의 위치 차로 인해 사용자가 내려다보는 모습을 보여준다.
합성 이미지는 디스플레이 화면(210)에 위치하는 가상 카메라에 해당한다. 가상 카메라 위치는 디스플레이 화면(210)의 중심에 있을 수 있거나, 또는 애플리케이션 윈도우 위치와 같은 디스플레이 화면(210)의 특정 부분, 또는 다른 관심 영역에 있을 수 있다.
도 5는 가상 카메라 위치가 디스플레이 화면에 대해 중심에 오지 않는 시스템(500)을 예시하는 도면이다. 시스템(500)은 화상 회의 윈도우(505) 및 프리젠테이션(presentation) 공유 윈도우(510)를 포함한다. 시스템(500)은 발표자의 비디오와 함께 디지털 프리젠테이션을 볼 수 있도록 한다.
이 경우, 카메라(205) 및 가상 카메라는 가상 카메라 오프셋(515)으로 예시된 바와 같이 수직 및 수평 방향의 두가지 방향으로 오프셋(offset)된다.
소정의 실시예에 따르면, 카메라(205)와 디스플레이 화면(210) 간의 오프셋, 및 가상 카메라와 카메라(205) 간의 오프셋은 알려져 있다. 이는 카메라 및 디스플레이 화면이 단일 쉘(shell) 또는 프레임으로 만들어지는 장치 또는 랩탑을 형성하는 목적에 관한 경우일 수 있다.
이러한 관계에 따라 가상 카메라 위치가 설정될 수 있다.
또 다른 실시예(미도시)에 따르면, 카메라(205)와 디스플레이 화면(210) 간의 오프셋은 가변적이다. 이는, 예를 들면, 카메라(205)가 플렉시블 케이블을 통해 PC에 연결된 웹 카메라를 포함하는 개인용 컴퓨터(PC) 설정시의 경우이다. 이 경우, 명령 코드(315)는 카메라에 대한 디스플레이 화면의 위치를 추정하는 명령을 포함할 수 있다. 또한, 명령 코드(315)는 사용자 또는 다른 소스로부터 카메라 위치를 수신하는 명령을 포함할 수도 있다.
다음으로 카메라(205)의 가상 카메라 오프셋에 따라 합성 이미지가 생성된다. 합성 이미지는 카메라(205) 및 가상 카메라의 위치를 이용하여, 폐색(occlusion) 처리 알고리즘과 같은 관련 알고리즘과 함께, 기하학적 뷰 합성과 같은 종래 기술의 뷰 합성 방법에 따라 생성될 수 있다.
그 대신, 뷰 합성은 인간의 얼굴에 특정될 수 있다. 이 경우, 모델이 적용되는 얼굴은 소스 이미지에서 검출된다. 다음에, 얼굴은 카메라(205)의 가상 카메라 오프셋에 따라 변환된다.
얼굴의 3D 모델은 카메라(205)의 가상 카메라 오프셋에 따라 생성되고 회전될 수 있다. 모델은 능동적 외양 모델(Active Appearance Model: AAM)일 수 있으며, 여기서 AAM의 파라미터는 카메라(205)의 가상 카메라 오프셋에 따라 수정된다. 그리고, 이미지 데이터는 변환된 AAM로 랜더링된다.
또 다른 실시예에 따르면, 뷰 합성은 아바타에 기반할 수 있다. 사용자의 얼굴 표현은 아바타 이미지로 전이될 수 있으며, 아바타 이미지는 카메라(205)의 가상 카메라 오프셋에 따라 회전된다.
아바타는 사용자의 얼굴 이미지에 해당하는 아바타, 또는 어떤 다른 형태의 아바타일 수 있다. 사용자 및/또는 아바타의 모델은 PCT/AU2012/000295에 기술된 바와 같이 사용자의 이미지에 따라 생성될 수 있다.
소정의 실시예에 따르면, 이러한 변환은 사용자가 카메라(205)에서 기설정된 거리보다 적게 떨어져 있는 경우에만 적용된다. 사용자가 카메라(205)로부터 멀리 떨어진 때, 카메라(205)와 가상 카메라 간의 각도는 줄어든다.
전술한 바와 같이, 가장 간단한 형태로서의 본 방법은 단일 이미지에 적용된다. 그러나, 소정의 실시예에 따르면, 본 방법은 아래에서 더 설명되는 바와 같은 복수의 이미지에도 동시에 적용될 수 있다.
이러한 이미지는 비디오 시퀀스를 포함할 수 있으며, 비디오 시퀀스는 2차원 또는 3차원 비디오 시퀀스일 수 있다. 3차원 비디오의 경우, 단일 시간 인스턴스 - 즉 뷰 - 로부터의 모든 이미지가 동시에 처리된다. 따라서, 가상 카메라를 향해 이미지를 이동시키고 3차원 데이터를 유지하는 변환이 선택될 수 있다. 멀티 뷰 3차원 비디오의 경우, 중앙 뷰보다 디스플레이 화면(210)에 더 밀접하게 대응하는 현재의 뷰(existing view)를 선택하는 것이 가능할 수 있다.
3차원 비디오의 경우, 합성 이미지를 생성하는 것은 소스 이미지의 카메라 파라미터를 수정하는 것을 포함할 수 있다.
2차원 비디오의 경우, 이전 이미지가 소스 이미지와 함께 이용되어 합성 이미지를 생성할 수 있다. 이전 이미지는 합성 이미지의 폐색(occluded) 영역에 관한 데이터를 제공하거나, 또는 합성 이미지의 품질을 향상시키는데 사용될 수 있다.
도 6은 본 발명의 일 실시예에 따른 화상 회의 시스템(600)을 예시하는 도면이다.
화상 회의 시스템(600)은 제1 컴퓨팅 장치(615a)에 연결되어 제1 위치에서 화상 회의 시스템의 제1 부분을 함께 구성하는 제1 카메라(605a) 및 제1 디스플레이 화면(610a)을 포함한다. 화상 회의 시스템(600)은 제2 컴퓨팅 장치(615b)에 연결되어 제2 위치에서 화상 회의 시스템(600)의 제2 부분을 함께 구성하는 제2 카메라(605b) 및 제2 디스플레이 화면(610b)을 더 포함한다.
제1 및 제2 컴퓨팅 장치는 인터넷과 같은 통신 네트워크(620)를 통해 연결된다.
일련의 이미지가 각각 제1 및 제2 카메라(605a, 605b)에 의해 캡처되고, 제1 및 제2 컴퓨팅 장치(615a, 615b)에 의해 제1 카메라(605a) 및 제1 디스플레이 화면(610a)과, 제2 카메라(605b) 및 제2 디스플레이 화면(610b) 간의 거리에 따라 각각 변환된다. 그리고, 변환된 이미지는 디스플레이 화면(610b, 610a) 상에 디스플레이하기 위해 컴퓨팅 장치(615a, 615b)에 의해 전송된다. 이러한 이미지는, 당업자가 쉽게 이해하는 바와 같이, 전송 전에 압축될 수 있다.
두 카메라(605a, 605b)에 의해 캡처된 이미지를 전송함으로써, 서로 다른 위치에 있는 사용자들이 이들 각각의 디스플레이 화면(610a, 610b)을 통해 서로 눈으로 볼 수 있으며, 반면에 카메라(605a, 605b)는 디스플레이 화면(610a, 610b)에서 멀리 떨어져 배치된다.
소정의 실시예(미도시)에 따르면, 화상 회의 시스템(600)은 적어도 제3 위치에서 제3 컴퓨팅 장치를 포함하는 다자간 화상 회의인 경우를 더 포함한다. 각 디스플레이 화면(610a, 610b)은 서로 인접한 화상 회의 시스템(600)의 다른 사용자들의 이미지를 디스플레이한다.
제1 컴퓨팅 장치(615a)는 변환된 이미지를 제2 컴퓨팅 장치(615b) 및 제3 컴퓨팅 장치 양쪽으로 전송할 수 있다. 그 대신, 제1 컴퓨팅 장치는 변환된 이미지를 제2 컴퓨팅 장치(615b)로 송신하고, 제2 그룹의 변환된 이미지를 생성하여 제3 컴퓨팅 장치로 송신할 수 있다. 제2 그룹의 변환된 이미지는 디스플레이 화면에 배치된 제2 가상 카메라의 뷰에 해당할 수 있다.
이러한 점에서, 본 발명은 다수의 참가자 간의 화상 회의를 가능하게 하며 각 참가자는 자신들을 위해 특별하게 구성되는 비디오를 수신한다.
도 7은 본 발명의 일 실시예에 따른 비디오 조작 방법을 예시하는 도면이다.
*단계 705에서, 데이터 인터페이스에서 소스 이미지를 카메라로부터 수신한다. 소스 이미지는 비디오 시퀀스의 이미지를 포함할 수 있다.
단계 710에서, 카메라에 대한 디스플레이 화면의 위치를 추정한다. 당업자가 용이하게 이해할 수 있는 바와 같이, 단일 장치 또는 프레임에 화면 및 디스플레이 카메라가 고정적으로 장착될 수 있고, 카메라와 디스플레이 화면 간의 상대적인 위치는 이미 인식되므로, 본 단계는 선택적이다. 디스플레이 화면 상에서 가상 카메라 위치가 결정된다.
*단계 715에서, 소스 이미지에서 얼굴을 검출한다.
단계 720에서, 가상 카메라 위치에 따라 얼굴을 변환한다. 이러한 변환은 3차원 모델을 얼굴에 적용하고, 3차원 모델을 회전시키는 것을 포함할 수 있다.
단계 725에서, 소스 이미지 및 카메라와 가상 카메라 간의 변위에 따라 합성 이미지를 생성한다.
당업자가 쉽게 이해하는 바와 같이, 단계 715 및 단계 720는 선택적이다. 소스 이미지 전체는 얼굴이 이미지의 다른 부분과 같은 방식으로 변환되는 기하학적 뷰 합성을 이용하여 변환될 수 있다.
도 8은 본 발명의 일 실시예에 따른 컴퓨팅 장치(800)를 도시적으로 설명하는 도면이다. 도 2의 시스템(200) 및 도 6의 컴퓨팅 장치(615a, 615b)는 컴퓨팅 장치(800)와 동일하거나 유사할 수 있다. 마찬가지로, 도 7의 방법(700)은 컴퓨팅 장치(800)를 이용하여 구현될 수 있다.
컴퓨팅 장치(800)는 중앙 프로세서(802), 시스템 메모리(804) 및 시스템 메모리(804)를 중앙 프로세서(802)에 연결하는 것을 포함하여 여러 시스템 구성 요소 간을 연결하는 시스템 버스(806)를 포함한다. 시스템 버스(806)는 각종 버스 구조 중 어떤 구조라도 이용할 수 있으며, 메모리 버스 또는 메모리 제어기, 주변 버스, 및 로컬 버스를 포함하는 여러 형태의 버스 구조 중 어떤 것이라도 될 수 있다. 시스템 메모리(804)의 구조는 당업자에게 공지되어 있으며, 판독 전용 메모리(ROM)에 저장된 기본 입/출력 시스템(BIOS), 및 랜덤 액세스 메모리(RAM)에 저장된 운영 체제, 응용 프로그램과 프로그램 데이터와 같은 하나 이상의 프로그램 모듈을 포함할 수 있다.
또한, 컴퓨팅 장치(800)는 데이터를 판독 및 레코딩하는 다양한 인터페이스 수단 및 드라이브를 포함할 수 있다. 전술한 바와 같이, 데이터는 예를 들어 카메라와 디스플레이 화면 간의 변위를 포함할 수 있다.
특히, 컴퓨팅 장치(800)는 각각이 하드 디스크 드라이브(812) 및 제거가능한(removable) 메모리 드라이브(814)를 시스템 버스(806)에 연결하는 하드 디스크 인터페이스(808) 및 제거가능한 메모리 인터페이스(810)를 포함한다. 제거가능한 메모리 드라이브(814)의 예는 자기 디스크 드라이브 및 광학 디스크 드라이브를 포함한다. 이러한 드라이브 및 디지털 다기능 디스크(DVD)(816)와 같이 드라이브와 연관된 컴퓨터 판독가능한 매체는 컴퓨터 시스템(800)에 필요한 컴퓨터 판독가능한 명령, 데이터 구조, 프로그램 모듈 및 다른 데이터의 비휘발성 저장을 제공한다. 하나의 하드 디스크 드라이브(812) 및 하나의 제거가능한 메모리 드라이브(814)는 단지 설명의 목적으로 도시되며, 컴퓨팅 장치(800)가 여러 유사 드라이브를 포함할 수 있다는 점에 대한 이해가 수반된다. 또한, 컴퓨팅 장치(800)는 여러 형태의 컴퓨터 판독가능한 매체에 접속하는 드라이브를 포함할 수 있다.
컴퓨팅 장치(800)는 장치들을 시스템 버스(806)에 연결하는 추가 인터페이스를 포함할 수 있다. 도 8은 하나의 장치를 시스템 버스(806)에 연결하는데 사용될 수 있는 범용 직렬 버스(USB) 인터페이스(818)를 도시한다. 예를 들어, 추가 장치를 컴퓨팅 장치(800)에 연결하는데 IEEE 1394 인터페이스(820)가 사용될 수 있다. 추가 장치의 예는 도 1의 훈련(training) 이미지와 같은 이미지 또는 비디오를 수신하는 카메라를 포함한다.
컴퓨팅 장치(800)는 하나 이상의 원격 컴퓨터 또는 서버, 라우터, 네트워크 개인용 컴퓨터, 피어(peer) 장치 또는 다른 공통 네트워크 노드, 무선 전화기 또는 무선 개인 휴대정보 단말기(PDA, personal digital assistant)와 같은 다른 장치와의 로직 연결을 이용하여 네트워크(networked) 환경에서 동작할 수 있다. 컴퓨팅 장치(800)는 시스템 버스(806)를 근거리 네트워크(LAN)(824)에 연결하는 네트워크 인터페이스(822)를 포함한다. 네트워킹 환경은 사무실, 전사적(enterprise-wide) 컴퓨터 네트워크 및 가정용 컴퓨터 시스템에서 일반적이다.
또한, 인터넷과 같은 광역 네트워크(WAN)는, 예를 들어, 직렬 포트 인터페이스(826)에 연결된 모뎀 유닛을 통해 또는 LAN(824)을 통해 컴퓨팅 장치에 의해 액세스될 수 있다.
화상 회의는 LAN(824), WAN, 또는 이들의 조합을 이용하여 수행될 수 있다.
여기에서 도시되고 설명되는 네트워크 연결은 예시에 불과하고, 컴퓨터 간에 통신 링크를 구축하는 다른 방식이 사용될 수 있음은 자명한 것이다. TCP/IP, 프레임 릴레이, 이더넷, FTP, 및 HTTP 등과 같은 다양한 공지의 프로토콜 중 어떤 것도 이용될 수 있으며, 컴퓨팅 장치는 사용자로 하여금, 예를 들어, 웹 기반 서버로부터 데이터를 검색하게 하는 클라이언트-서버 구성에서 동작할 수 있다.
컴퓨팅 장치의 동작은 각종 다른 프로그램 모듈에 의해 제어될 수 있다. 프로그램 모듈의 예는 특정 작업을 수행하거나 또는 특정한 추상적인 데이터 형태를 실행하는 루틴, 프로그램, 객체, 컴포넌트, 및 데이터 구조이다. 또한, 본 발명은 핸드헬드(hand-held) 장치, 다중프로세서 시스템, 마이크로프로세서 기반 또는 프로그램가능 고객 전자장치, 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 및 개인 휴대정보 단말기 등을 포함하여 다른 컴퓨터 시스템 구성으로도 실시될 수 있다. 더욱이, 본 발명은 통신 네트워크를 통해 링크된 원격 처리 장치에 의해 작업을 수행하는 분산형 컴퓨팅 환경에서도 실시될 수 있다. 분산형 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 양 쪽에 배치될 수 있다.
요약하면, 본 발명의 일 실시예의 이점은 화상 회의 방식이 개선되고, 비디오 또는 이미지 기반 통신이 개선되며, 비디오 캡처 또는 회의 시스템이 더 간단하고 저렴하다는 것이다. 또한, 본 발명은 레거시(legacy) 화상 회의 시스템에 적용될 수 있다.
전술한 본 발명의 여러 실시예는 당업자에게 설명하기 위한 목적으로 제공ㄷ되는 것이다. 이러한 설명은 권리범위를 무한정 확대하거나, 본 발명을 단일의 개시된 실시예로 한정하려는 것은 아니다. 전술한 바와 같이, 본 발명에 관한 많은 대체물 및 변경은 당업자에게 자명할 것이다. 따라서, 일부 대체 실시예가 특별히 기술되었지만, 당업자에 의해 다른 실시예도 자명하거나 비교적 쉽게 개발될 것이다. 따라서, 본 명세서는 본 명세서에 기술된 본 발명의 모든 대체물, 변형 및 변경, 및 전술한 본 발명의 정신 및 범주 내에 속하는 다른 실시예를 수용한다.

Claims (26)

  1. 이미지 조작 시스템으로서,
    카메라,
    상기 카메라에 인접한 디스플레이 화면,
    상기 카메라 및 상기 디스플레이 화면에 연결된 프로세서, 및
    상기 프로세서에 연결되고, 상기 카메라로부터 소스 이미지를 수신하고, 상기 소스 이미지에 기초하여 상기 디스플레이 화면에 배치된 가상 카메라의 뷰(view)에 해당하는 합성 이미지를 생성하도록, 상기 프로세서에 의해 실행가능한 명령을 포함하는 메모리
    를 포함하고,
    상기 카메라 및 상기 디스플레이 화면은 독립적으로 이동 가능하며, 상기 메모리는 상기 카메라에 대한 상기 디스플레이 화면의 위치를 추정하는 명령을 더 포함하는 시스템.
  2. 제1항에 있어서,
    상기 카메라 및 디스플레이 화면은 단일 구조로 통합된 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 합성 이미지를 생성하는 것은,
    상기 소스 이미지에서 얼굴을 검출하고,
    상기 가상 카메라의 위치에 따라 상기 얼굴을 변환하는 것을 더 포함하는 시스템.
  4. 제3항에 있어서,
    상기 얼굴을 변환하는 것은 상기 얼굴에 능동적 외양 모델(Active Appearance Model: AAM)을 적용하고, 상기 AAM의 파라미터를 수정하는 것을 포함하는 시스템.
  5. 제3항에 있어서,
    상기 합성 이미지를 생성하는 것은,
    상기 얼굴의 3D 모델을 생성하고,
    상기 3D 모델을 상기 카메라와 상기 가상 카메라 간의 변위에 따라 회전시키는 것을 더 포함하는 시스템.
  6. 제1항 또는 제2항에 있어서,
    상기 가상 카메라의 위치는 상기 디스플레이 화면에 대해 중심에 고정되는 시스템.
  7. 제1항 또는 제2항에 있어서,
    상기 가상 카메라의 위치는 상기 디스플레이 화면 상에 제시된 콘텐츠에 기초하여 결정되는 시스템.
  8. 제1항 또는 제2항에 있어서,
    상기 이미지는 비디오 시퀀스의 이미지를 포함하는 시스템.
  9. 제8항에 있어서,
    상기 비디오 시퀀스는 2차원 또는 3차원 비디오 시퀀스 중 하나인 시스템.
  10. 제1항 또는 제2항에 있어서,
    상기 메모리는,
    상기 카메라로부터 제2 소스 이미지를 수신하고,
    상기 소스 이미지 및 상기 제2 소스 이미지에 기초하여 상기 가상 카메라의 뷰에 해당하는 제2 합성 이미지를 생성하는 명령을 더 포함하는 시스템.
  11. 제1항 또는 제2항에 있어서,
    상기 합성 이미지를 생성하는 것은 상기 소스 이미지에 관한 메타데이터(metadata)를 수정하는 것을 포함하는 시스템.
  12. 제11항에 있어서,
    상기 메타데이터는 카메라 파라미터를 포함하는 시스템.
  13. 화상 회의(video conferencing)의 컴퓨터 구현 방법으로서,
    데이터 인터페이스 상에서, 카메라로부터 소스 이미지를 수신하는 단계,
    프로세서에 의해, 상기 소스 이미지에 기초하여 상기 카메라에 인접한 디스플레이 화면에 위치하는 가상 카메라의 뷰(view)에 해당하는 합성 이미지를 생성하는 단계, 및
    상기 프로세서에 의해, 상기 카메라에 대한 상기 디스플레이 화면의 위치를 추정하는 단계를 포함하는 방법.
  14. 제13항에 있어서,
    상기 합성 이미지를 생성하는 단계는,
    상기 소스 이미지에서 얼굴을 검출하는 단계, 및
    상기 가상 카메라의 위치에 따라 상기 얼굴을 변환하는 단계를 더 포함하는 방법.
  15. 제14항에 있어서,
    상기 얼굴을 변환하는 단계는 상기 얼굴에 능동적 외양 모델(Active Appearance Model: AAM)을 적용하고, 상기 AAM의 파라미터를 수정하는 단계를 포함하는 방법.
  16. 제14항에 있어서,
    상기 합성 이미지를 생성하는 단계는,
    상기 얼굴의 3D 모델을 생성하는 단계, 및
    상기 3D 모델을 상기 카메라와 상기 가상 카메라 간의 변위에 따라 회전시키는 단계를 더 포함하는 방법.
  17. 제14항에 있어서,
    상기 얼굴을 변환하는 단계는 상기 얼굴로부터 아바타 이미지로 얼굴 표현을 전이하는 단계를 포함하는 방법.
  18. 제13항에 있어서,
    상기 가상 카메라의 위치는 상기 프로세서에 의해 상기 디스플레이 화면 상에 제시된 콘텐츠에 기초하여 결정되는 방법.
  19. 제13항에 있어서,
    상기 가상 카메라의 위치는 미리 설정되는 방법.
  20. 제13항에 있어서,
    데이터 인터페이스 상에서, 제1 원격 장치로부터 제1 원격 이미지를 수신하는 단계,
    상기 제1 원격 이미지를 상기 디스플레이 화면 상에 디스플레이하는 단계, 및
    상기 데이터 인터페이스 상에서, 상기 합성 이미지를 상기 제1 원격 장치로 송신하는 단계를 더 포함하는 방법.
  21. 제20항에 있어서,
    상기 방법은,
    상기 데이터 인터페이스 상에서, 제2 원격 장치로부터 제2 원격 이미지를 수신하는 단계, 및
    상기 제1 원격 이미지에 인접한 상기 제2 원격 이미지를 상기 디스플레이 화면 상에 디스플레이하는 단계를 더 포함하는 방법.
  22. 제21항에 있어서,
    상기 데이터 인터페이스 상에서, 상기 합성 이미지를 상기 제2 원격 장치로 송신하는 단계를 더 포함하는 방법.
  23. 제21항에 있어서,
    상기 프로세서에 의해, 상기 소스 이미지에 기초하여 상기 디스플레이 화면에 배치된 제2 가상 카메라의 뷰에 해당하는 제2 합성 이미지를 생성하는 단계, 및
    상기 데이터 인터페이스 상에서, 상기 제2 합성 이미지를 상기 제2 원격 장치로 송신하는 단계를 더 포함하는 방법.
  24. 제13항에 있어서,
    상기 카메라로부터 추가 소스 이미지를 수신하는 단계, 및
    상기 소스 이미지 및 상기 추가 소스 이미지에 기초하여 상기 가상 카메라의 뷰에 해당하는 추가 합성 이미지를 생성하는 단계를 더 포함하는 방법.


  25. 삭제
  26. 삭제
KR1020150016304A 2012-05-04 2015-02-02 비디오에서의 시선 정렬 시스템 및 방법 KR101598069B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AU2012901830 2012-05-04
AU2012901830A AU2012901830A0 (en) 2012-05-04 System and method for eye alignment in video

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130038522A Division KR20130124188A (ko) 2012-05-04 2013-04-09 비디오에서의 시선 정렬 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20150030681A KR20150030681A (ko) 2015-03-20
KR101598069B1 true KR101598069B1 (ko) 2016-02-26

Family

ID=48576715

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020130038522A KR20130124188A (ko) 2012-05-04 2013-04-09 비디오에서의 시선 정렬 시스템 및 방법
KR1020150016304A KR101598069B1 (ko) 2012-05-04 2015-02-02 비디오에서의 시선 정렬 시스템 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020130038522A KR20130124188A (ko) 2012-05-04 2013-04-09 비디오에서의 시선 정렬 시스템 및 방법

Country Status (7)

Country Link
US (2) US20130293669A1 (ko)
EP (1) EP2661077A1 (ko)
JP (1) JP2013235562A (ko)
KR (2) KR20130124188A (ko)
CN (1) CN103384306B (ko)
TW (1) TWI543624B (ko)
WO (1) WO2013163699A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9270933B1 (en) * 2013-11-23 2016-02-23 Yuan Qing Jiang System and method for face-to-face video communication
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
EP3274986A4 (en) 2015-03-21 2019-04-17 Mine One GmbH METHODS, SYSTEMS, AND SOFTWARE FOR VIRTUAL 3D
WO2018164852A1 (en) 2017-02-22 2018-09-13 Mine One Gmbh Image reconstruction for virtual 3d
CN110324553B (zh) * 2018-03-28 2021-02-26 北京富纳特创新科技有限公司 基于视频通信的实景窗系统
CN110324555B (zh) * 2018-03-28 2021-02-26 北京富纳特创新科技有限公司 视频通信装置及方法
CN108965771B (zh) * 2018-09-29 2021-01-26 京东方科技集团股份有限公司 一种视频通话控制装置及方法、视频通话系统
US10893231B1 (en) * 2020-04-14 2021-01-12 International Business Machines Corporation Eye contact across digital mediums
JPWO2022244146A1 (ko) * 2021-05-19 2022-11-24
US20230254437A1 (en) * 2022-02-07 2023-08-10 Samsung Electronics Co., Ltd. Perspective de-skewing of electronic images
TWI828583B (zh) * 2022-06-15 2024-01-01 仁寶電腦工業股份有限公司 用於遠端視訊會議的操作方法、遠端視訊會議系統及遠端裝置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030218672A1 (en) 2002-05-23 2003-11-27 Zhengyou Zhang Head pose tracking system
JP2010250452A (ja) * 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500671A (en) * 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
US6753900B2 (en) * 2002-05-07 2004-06-22 Avaya Techology Corp. Method and apparatus for overcoming the limitations of camera angle in video conferencing applications
TW200502874A (en) * 2002-12-11 2005-01-16 Koninkl Philips Electronics Nv Method and apparatus for correcting a head pose in a video phone image
US8299979B2 (en) * 2003-05-14 2012-10-30 Broadcom Corporation Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices
JP4144492B2 (ja) * 2003-09-19 2008-09-03 株式会社日立製作所 画像表示装置
US7532230B2 (en) * 2004-01-29 2009-05-12 Hewlett-Packard Development Company, L.P. Method and system for communicating gaze in an immersive virtual environment
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
WO2007048197A1 (en) * 2005-10-26 2007-05-03 The University Of Sydney Systems for providing a 3d image
WO2007092629A2 (en) * 2006-02-09 2007-08-16 Nms Communications Corporation Smooth morphing between personal video calling avatars
WO2008064395A1 (en) * 2006-08-18 2008-06-05 National Ict Australia Limited Facial feature processing
JP2008140271A (ja) * 2006-12-04 2008-06-19 Toshiba Corp 対話装置及びその方法
US20080278516A1 (en) * 2007-05-11 2008-11-13 Santon John C System and method for adjusting perceived eye rotation in image of face
JP2010282339A (ja) * 2009-06-03 2010-12-16 Seiko Epson Corp 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置
WO2011030263A1 (en) * 2009-09-11 2011-03-17 Koninklijke Philips Electronics N.V. Image processing system
WO2011148366A1 (en) * 2010-05-26 2011-12-01 Ramot At Tel-Aviv University Ltd. Method and system for correcting gaze offset
US8144976B1 (en) * 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model
US8836777B2 (en) * 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
WO2013079607A1 (en) * 2011-11-30 2013-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030218672A1 (en) 2002-05-23 2003-11-27 Zhengyou Zhang Head pose tracking system
JP2010250452A (ja) * 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置

Also Published As

Publication number Publication date
CN103384306A (zh) 2013-11-06
CN103384306B (zh) 2016-09-07
KR20150030681A (ko) 2015-03-20
JP2013235562A (ja) 2013-11-21
TW201401880A (zh) 2014-01-01
KR20130124188A (ko) 2013-11-13
US9424463B2 (en) 2016-08-23
WO2013163699A1 (en) 2013-11-07
US20130293669A1 (en) 2013-11-07
TWI543624B (zh) 2016-07-21
EP2661077A1 (en) 2013-11-06
US20150220773A1 (en) 2015-08-06

Similar Documents

Publication Publication Date Title
KR101598069B1 (ko) 비디오에서의 시선 정렬 시스템 및 방법
US8994780B2 (en) Video conferencing enhanced with 3-D perspective control
US10171792B2 (en) Device and method for three-dimensional video communication
US9270941B1 (en) Smart video conferencing system
US8659637B2 (en) System and method for providing three dimensional video conferencing in a network environment
US8477175B2 (en) System and method for providing three dimensional imaging in a network environment
US8670019B2 (en) System and method for providing enhanced eye gaze in a video conferencing environment
US11736801B2 (en) Merging webcam signals from multiple cameras
US9424678B1 (en) Method for teleconferencing using 3-D avatar
US11218669B1 (en) System and method for extracting and transplanting live video avatar images
WO2017141511A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US10574892B2 (en) Depth camera based image stabilization
US20120274735A1 (en) System and method for providing enhanced eye gaze in a video conferencing environment
US9065975B2 (en) Method and apparatus for hands-free control of a far end camera
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
US20200252585A1 (en) Systems, Algorithms, and Designs for See-through Experiences With Wide-Angle Cameras
WO2023075810A1 (en) System and method for extracting, transplanting live images for streaming blended, hyper-realistic reality
JP2010213155A (ja) ビデオ会議システムおよび方法

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee