KR100294925B1 - 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법 - Google Patents

3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법 Download PDF

Info

Publication number
KR100294925B1
KR100294925B1 KR1019990020487A KR19990020487A KR100294925B1 KR 100294925 B1 KR100294925 B1 KR 100294925B1 KR 1019990020487 A KR1019990020487 A KR 1019990020487A KR 19990020487 A KR19990020487 A KR 19990020487A KR 100294925 B1 KR100294925 B1 KR 100294925B1
Authority
KR
South Korea
Prior art keywords
binocular
viewpoint
dimensional
distance
viewpoints
Prior art date
Application number
KR1019990020487A
Other languages
English (en)
Other versions
KR20010001341A (ko
Inventor
김도균
장의선
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019990020487A priority Critical patent/KR100294925B1/ko
Publication of KR20010001341A publication Critical patent/KR20010001341A/ko
Application granted granted Critical
Publication of KR100294925B1 publication Critical patent/KR100294925B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D46/00Filters or filtering processes specially modified for separating dispersed particles from gases or vapours
    • B01D46/0002Casings; Housings; Frame constructions
    • B01D46/0005Mounting of filtering elements within casings, housings or frames
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D2258/00Sources of waste gases
    • B01D2258/06Polluted air
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D2271/00Sealings for filters specially adapted for separating dispersed particles from gases or vapours
    • B01D2271/02Gaskets, sealings

Abstract

본 발명은 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법에 관한 것으로, 3차원 그래픽 영상 생성 방법은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; 양안 시점의 방향을 구하는 제5단계; 및 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로한다.
본 발명에 따르면, 사용자로부터 응시할 물체의 변경 또는 동일 물체내에서의 관찰점 변경에 대한 정보를 입력받고, 해당 물체에 대한 수렴 및 초점이 일치되도록 카메라의 양안 시점의 위치 및 방향을 결정하여 2차원으로 투영함으로써 주변 물체들에 대해 상대적 깊이감을 얻을 수 있고, 눈의 피로감을 감소시킬 수 있다.

Description

3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법{3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor}
본 발명은 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법에 관한 것이다.
3차원 컴퓨터 그래픽을 위한 종래의 시차 발생 방식은 컴퓨터 모니터에 양안이 보는 영상을 교대로 뿌려주는 방식이다. 따라서 3차원 세계에서 각각 서로 다른 깊이를 가지는 여러 영상이 실제로는 물리적으로 동일 거리에 있는 모니터 화면상에 뿌려지게 된다. 이 때, 인간이 모니터상에 뿌려진 영상을 보려고 한다면 인간의 양안은 시차에 의해 대상 물체가 물리적으로 위치하는 깊이에서 양안의 중심 축이 교차하도록 움직인다. 이 위치는 시차에 따라 실제 모니터의 앞이나 뒤가 될 것이다. 그런데, 실제로 그 대상 물체의 영상은 모니터 바로 위에 위치하게 되므로 인간의 양안은 모니터 위에 초점을 맞추게 된다. 이는 인간이 3차원 세계를 바라볼 때 동작하는 양안의 수렴-초점(convergence-focus) 시스템과는 다르게 양안을 움직이도록 한다.
도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이고, 도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.
일반적으로, 수렴을 위해 눈동자 자체를 움직이는 근육과 초점을 맞추도록 수정체를 움직이는 근육의 메커니즘은 독립적이다. 그러나, 인간이 공간적인 깊이감을 느끼는 경험을 수없이 겪게 되면서 두 시스템은 경험적으로 매우 밀접하게 결합되어 동작한다. 따라서, 수렴-초점의 불일치(discrepancy)는 3차원 세계를 보는 것과는 다른 부자연스러운 느낌을 주므로, 인간의 눈에 피로감을 준다. 그러나, 인간이 3차원 세계를 볼 때는 관심의 대상이 되는 물체가 항상 수렴과 초점이 일치되도록 움직이고 이를 기준으로 다른 물체들의 상대적인 깊이감을 인식하기 때문에 피로감을 느끼지 못한다.
또한, 인간이 양안을 통해 관심을 가지고 임의의 깊이에 위치하는 물체를 보고 있는 경우 이와 현저하게 차이가 있는 깊이에 있는 물체는 둘로 보이게 된다. 이를 더블 비젼(double-vision)이라 한다. 이는 물체가 가지는 시차가 인간이 깊이감을 느낄 수 있는 양안 융합 범위를 초과함으로써 발생한다. 실제로, 손가락을 눈앞에 가까이 위치시키고 눈은 멀리 떨어져 있는 다른 물체를 보면 손가락이 둘로 보이는 이치와도 같다.
종래의 3차원 컴퓨터 그래픽을 위한 시차 발생 방법은 3차원 세계를 모니터상에 스테레오 렌더링(stereo rendering)하는 경우, 관찰자가 관심을 가지고보는 물체를 알 수 없기 때문에 어느 한 깊이를 기준으로 인간의 수렴-초점 시스템을 모의실험(simulation)하거나 무한대의 거리를 시차 발생의 기준으로하여 3차원 그래픽을 생성한다. 따라서, 인간이 관심을 가지고 보는 물체가 지정된 물체와 일치하지 않을 경우 수렴-초점 불일치가 발생한다. 이러한 상태에서는 양안에 투영되는 영상의 시차를 인간의 양안 융합 범위 안에 들어오도록 하더라도 더블 비젼만을 해결할 수 있다. 결과적으로, 양안에 투영되는 영상의 시차가 고정되어 있으므로, 관찰자가 관심있게 보는 영역에 대해 수렴과 초점을 일치시키는 과정이 없다면 수렴-초점 불일치 문제를 해결되지 않는다.
본 발명이 이루고자하는 기술적 과제는 사용자가 관심을 가지고 보는 물체가 변경될 때마다 그 정보를 사용자로부터 입력받고 해당 물체에 대해 수렴과 초점이 일치되도록 컴퓨터 그래픽에서 양안에 해당되는 두 시점(viewpoint)을 통하여 보는 2개의 투사된 영상을 생성하고 이를 렌더링하여 3차원 그래픽 영상을 생성하는 방법 및 이를 위해 생성된 영상간에 발생하는 최대 시차가 인간의 양안 융합 범위를 초과하지 않도록 두 시점사이의 거리를 조절하는 방법을 제공하는데 있다.
도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이다.
도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.
도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다.
도 3은 3차원 세계 좌표와 가상 시점 좌표를 도시한 것이다.
도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다.
상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; 상기 양안 시점의 방향을 구하는 제5단계; 및 상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로한다.
상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; 및 상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로한다.
이하에서 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하기로 한다. 도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다. 도 2에 따른 3차원 그래픽 영상 생성 방법은 사용자의 정보입력 단계(200), 물체의 3차원 정보 및 가상 시점 이동 위치 계산 단계(202), 가상 시점의 위치와 3차원 세계간 최대, 최소 거리 계산 단계(204), 양안 시점간 거리 계산 단계(206), 양안 시점의 위치 계산 단계(208), 양안 시점의 방향 계산 단계(210), 양안 시점에서 2차원 투사 영상 생성 단계(212) 및 렌더링 단계(214)를 포함한다.
먼저, 사용자는 다수의 물체들이 존재하는 3차원 컴퓨터 그래픽 영상을 생성하고자할 때, 두가지 정보를 입력한다(200단계). 하나는 사용자가 관심을 가지고 보는 물체를 변경하거나 동일한 물체에서도 관찰점을 변경하는 경우 사용자는 이에 대한 정보를 입력 장치, 예를 들어, 응시 인식 장치 또는 마우스 등을 통해 입력한다. 여기서, 관찰점이란 관찰자의 양안에 해당하는 좌/우 두 시점이 바라보는 물체에 위치하는 점이다. 예를 들어, 관찰점은 해당 물체의 중심점이 될 수 있다. 물체의 중심점은 다음 식과 같이 해당 물체의 3차원 경계값을 평균한 값으로부터 구할 수 있다.
여기서, Ox,Oy,Oz는 해당 물체의 3차원 중심좌표이고, imax,imin는 각각 해당 물체의 i축 방향으로의 최대, 최소 경계값이다.
다른 하나는 3차원 세계를 자유로이 이동하기 위해서 사용자가 입력하는 가상 시점의 이동 정보이다. 시점은 3차원 세계를 2차원 모니터상에 투영하기 위해, 예를 들어, 카메라와 같은 투영장치가 위치하는 3차원 공간상의 한 점이다. 인간이 3차원 세계를 바라보기 위해서는 두 눈이 있어야하고 그 두 눈이 어디를 향하고 있으며 두 눈을 포함하는 머리의 공간적 방향을 정해야 한다. 마찬가지로 시점도 상술한 요소들을 모두 포함해야한다. 도 3은 이러한 요소들을 도시한 것이다. 도 3에 따르면, 3차원 세계 좌표(X,Y,Z) 상의 3차원 물체를 2차원 모니터에 투영하기 위해서는 시점(V), 시점에서 바라보는 방향을 나타내는 방향 벡터(O), 시점의 법선 방향을 가리키는 헤드 벡터(H)가 필요하다.
가상 시점은 인간의 양안에 해당되는 좌우 두 시점을 얻기 위해 편의상 정의한 시점으로서, 3차원 공간상에서 좌우 두 시점을 이은 선분의 중심점에 위치한다.
이렇게 입력된 정보들을 이용하여 3차원 세계에서 해당 물체의 임의의 점을 관찰점으로 정한다. 이를 이용하여 현재 가상 시점 위치로부터 이동 후의 가상 시점의 새로운 위치를 계산한다(202단계).
다음으로, 현재 정의된 모든 물체를 포함하는 3차원 세계와 가상 시점사이의 최대 및 최소 거리를 구한다(204단계). 최대 및 최소 거리는 각각 가상 시점에서 3차원 세계까지의 최대 및 최소 깊이에 해당한다.
204단계에서 구해진 최대 및 최소 거리간 차(깊이)를 구한다. 이 차로부터 가시거리에 따라 허용되는 양안 시점간 거리를 구한다(206단계). 실험적으로 결정된 양안 시점간 거리 ES는 다음 식과 같이 구할 수 있다.
여기서, z는 최대 거리와 최소 거리의 차이고, s는 모니터 스크린의 높이이다.
수학식 2에 따르면, 모니터 스크린의 높이가 일정하다고 가정하면, 양안 시점간 거리는 바라보는 3차원 세계의 최대 거리와 최소 거리의 차가 클수록 작아지고, 차이가 클수록 커지는 것을 알 수 있다. 따라서, 3차원 세계 전체의 깊이 차가 큰 경우 양안 시점 사이의 거리를 줄임으로써 결과적으로 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 작아진다.
반대로, 3차원 세계 전체의 깊이 차가 작은 경우, 양안 시점 사이의 거리를 늘림으로써 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 커져서 전체적으로 깊이감이 크게 된다.
상기 수학식 2에 따라 결정된 양안 시점간 거리 ES로부터 양안 시점의 위치를 결정한다(208단계). 좌측 시점의 위치 EL, 우측 시점의 위치 ER는 각각 다음 식과 같이 결정된다.
구해진 양안 시점의 위치에서 바라보는 방향이 그 물체의 중심점에서 일치하도록 좌측 시점의 방향 ELO, 우측 시점의 방향 ERO를 다음 식과 같이 결정한다(210단계).
이와 같이 설정된 양안 시점에서 생성된 3차원 세계의 2차원 투영 영상에서 사용자가 관심을 가지는 물체의 시차는 0이 되고, 물리적인 깊이는 컴퓨터 모니터 위가 되어 수렴과 초점이 일치하게 된다.
도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다. 도시된 바에 따르면, 양안 시점의 위치에서 바라보는 방향이 관심있는 물체(물체 2)의 중심점에서 일치하도록 결정되었음을 알 수 있다.
상술한 바와 같이 결정된 양안 시점의 위치와 양안 시점이 바라보는 방향을 이용하여 3차원 공간에 대한 2개의 투사된 영상을 생성하고(212단계), 스테레오 렌더링하여 3차원 그래픽 영상을 생성한다(214단계).
본 발명에 따르면, 사용자로부터 응시할 물체의 변경 또는 동일 물체내에서의 관찰점 변경에 대한 정보를 입력받고, 해당 물체에 대한 수렴 및 초점이 일치되도록 카메라의 양안 시점의 위치 및 방향을 결정하여 2차원으로 투영함으로써 주변 물체들에 대해 상대적 깊이감을 얻을 수 있고, 눈의 피로감을 감소시킬 수 있다.

Claims (10)

  1. 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계;
    계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계;
    상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계;
    상기 양안 시점의 방향을 구하는 제5단계; 및
    상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로하는 3차원 그래픽 영상 생성 방법.
  2. 제1항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.
  3. 제1항에 있어서, 상기 제4단계의 양안 시점의 위치는
    구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 EL 및 우측 시점의위치 ER각각은 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.
  4. 제1항에 있어서, 상기 제5단계의 양안 시점의 방향은
    상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.
  5. 제4항에 있어서, 상기 양안 시점의 방향은
    상기 제4단계에서 구해진 좌측 시점의 위치를 EL, 우측 시점의 위치를 ER, 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 ELO및 우측 시점의 방향 ERO은 각각 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.
  6. 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계;
    계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계;
    상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; 및
    상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.
  7. 제6항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.
  8. 제6항에 있어서, 상기 제4단계의 양안 시점의 위치는
    구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 EL 및 우측 시점의 위치 ER각각은 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.
  9. 제6항에 있어서, 상기 제5단계의 양안 시점의 방향은
    상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.
  10. 제9항에 있어서, 상기 양안 시점의 방향은
    상기 제4단계에서 구해진 좌측 시점의 위치를 EL, 우측 시점의 위치를 ER, 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 ELO및 우측 시점의 방향 ERO은 각각 다음의 수학식
    과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.
KR1019990020487A 1999-06-03 1999-06-03 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법 KR100294925B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (ko) 1999-06-03 1999-06-03 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (ko) 1999-06-03 1999-06-03 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법

Publications (2)

Publication Number Publication Date
KR20010001341A KR20010001341A (ko) 2001-01-05
KR100294925B1 true KR100294925B1 (ko) 2001-07-12

Family

ID=19589835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990020487A KR100294925B1 (ko) 1999-06-03 1999-06-03 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법

Country Status (1)

Country Link
KR (1) KR100294925B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747929B1 (ko) * 2010-12-21 2017-06-16 한국전자통신연구원 입체영상의 화질을 개선하기 위한 장치 및 방법
US10595011B2 (en) 2014-08-28 2020-03-17 Samsung Electronics Co., Ltd Method and apparatus for configuring screen for virtual reality

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020014456A (ko) * 2000-08-18 2002-02-25 윤병이 입체영상의 변형보정방법 및 시스템
US20030107645A1 (en) 2001-08-17 2003-06-12 Byoungyi Yoon Method and system for controlling the display location of stereoscopic images
KR100667810B1 (ko) 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
WO2012170949A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
KR101779423B1 (ko) * 2011-06-10 2017-10-10 엘지전자 주식회사 영상처리방법 및 영상처리장치
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US20140293007A1 (en) * 2011-11-08 2014-10-02 Industrial Technology Research Institute Method and image acquisition system for rendering stereoscopic images from monoscopic images
US9674501B2 (en) 2012-07-06 2017-06-06 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3D object and control method thereof
EP2873058B1 (en) 2012-07-16 2016-12-21 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747929B1 (ko) * 2010-12-21 2017-06-16 한국전자통신연구원 입체영상의 화질을 개선하기 위한 장치 및 방법
US10595011B2 (en) 2014-08-28 2020-03-17 Samsung Electronics Co., Ltd Method and apparatus for configuring screen for virtual reality

Also Published As

Publication number Publication date
KR20010001341A (ko) 2001-01-05

Similar Documents

Publication Publication Date Title
KR100294925B1 (ko) 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법
US20220292790A1 (en) Head-mounted display with pass-through imaging
US8130260B2 (en) System and method for 3-dimensional display of image data
Ware et al. Dynamic adjustment of stereo display parameters
KR101926577B1 (ko) 확장형 3차원 입체영상 디스플레이 시스템
Bruder et al. Distance estimation in large immersive projection systems, revisited
US20040066555A1 (en) Method and apparatus for generating stereoscopic images
KR20130028878A (ko) 조합형 입체 카메라 및 입체 디스플레이 상호 작용
JP2005509901A (ja) 立体マルチアスペクト画像の視覚化システムおよび視覚化方法
WO2015090421A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
KR101828017B1 (ko) 입체 영상 디스플레이 장치 및 방법
WO2009136207A1 (en) Display of 3-dimensional objects
WO2018158765A1 (en) Display system with video see-through
JPH1074269A (ja) 立体cg動画像生成装置
JP2004362218A (ja) 三次元物体操作方法
Baker Generating images for a time-multiplexed stereoscopic computer graphics system
JP2020535472A (ja) 2つのビューポイントのオートステレオスコピックイメージをnビューポイントのオートステレオスコピックディスプレイスクリーンに表示するためのシステム及び方法並びにそのようなディスプレイスクリーン上の表示を制御する方法
US20210327121A1 (en) Display based mixed-reality device
Pastoor et al. Mixed reality displays
Zhang Design of Head mounted displays
JPH03296176A (ja) 高速画像生成表示方法
Teng et al. Manipulation of motion parallax gain distorts perceived distance and object depth in virtual reality
US6614426B1 (en) Method and device for displaying simulated 3D space as an image
Chessa et al. A geometric model of spatial distortions in virtual and augmented environments

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120329

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20130328

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 17

LAPS Lapse due to unpaid annual fee