KR20240099029A - 기동차 계기의 육안 3d 디스플레이 방법 및 장치 - Google Patents

기동차 계기의 육안 3d 디스플레이 방법 및 장치 Download PDF

Info

Publication number
KR20240099029A
KR20240099029A KR1020230172085A KR20230172085A KR20240099029A KR 20240099029 A KR20240099029 A KR 20240099029A KR 1020230172085 A KR1020230172085 A KR 1020230172085A KR 20230172085 A KR20230172085 A KR 20230172085A KR 20240099029 A KR20240099029 A KR 20240099029A
Authority
KR
South Korea
Prior art keywords
visual
real
time
driver
human body
Prior art date
Application number
KR1020230172085A
Other languages
English (en)
Inventor
홍장 리
종푸 카오
후와이핑 장
하이치앙 종
진우 첸
띠앤이 루안
Original Assignee
바리트로닉스 (허위안) 디스플레이 테크놀로지 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바리트로닉스 (허위안) 디스플레이 테크놀로지 엘티디. filed Critical 바리트로닉스 (허위안) 디스플레이 테크놀로지 엘티디.
Publication of KR20240099029A publication Critical patent/KR20240099029A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements

Abstract

본 발명은 육안 3D 기술 분야에 적용되며, 기동차 계기의 육안 3D 디스플레이 방법 및 장치를 제공하며, 여기에: 운전자의 실시간 육안 위치를 실시간으로 수집하고, 실시간 육안 위치에 기반하여 대응되는 실시간 시각적 인터리브 이미지를 생성하고, 디스플레이 인터페이스 상에 상기 실시간 시각 인터리브 이미지를 디스플레이 하며; 상기 운전자가 인체 동작 발생 여부를 식별하여, 만약 인체 동작이 발생하면 상기 운전자의 인체 동작 정보를 획득하며; 상기 인체 동작 정보에 기반하여 상기 운전자의 오프셋 구간을 사전 판단하여, 상기 오프셋 구간에 대응되는 시각 이미지 모음을 생성 및 캐싱하며; 상기 시각 이미지 모음에 기반하여, 상기 디스플레이 인터페이스 상에서 상기 실시간 시각적 인터리브 이미지에 대한 응답 보상을 진행하여, 적시에 육안 3D 새로 고침이 따라가지 못하여 운전자의 현기감을 일으킬 수 있는 문제를 피하고 육안 3D의 디스플레이 효과를 향상시킨다.

Description

기동차 계기의 육안 3D 디스플레이 방법 및 장치 {Method and device for naked eye 3D displaying vehicle instrument}
본 발명은 육안 3D 기술 분야에 관한 것으로, 특히 기동차 계기의 육안 3D 디스플레이 방법 및 장치에 관한 것이다.
기존의 2D 디스플레이와 비교하여 보면, 3D 디스플레이는 인간의 시각적 특성과 더 매칭되어 시나리오를 육안으로 볼 때 더 입체적이고 몰입감을 갖도록 한다. 육안 3D 기술은 육안의 시차를 기반으로 구현되는데, 즉, 사람의 왼쪽 눈과 오른쪽 눈은 동일한 표적을 관찰할 때 이미지의 차이가 있게 되는데, 화면 상에서 일부 처리를 통해 시차가 있는 이미지를 사람의 왼쪽 눈과 오른쪽 눈에 각각 매핑하면 사람의 뇌는 깊이감 있는 입체 화면을 합성하게 된다.
육안 3D를 기동차 계기에 응용하면, 실제감, 입체감, 특수 안경 착용이 필요 없는 등의 장점이 있어, 도로 상황 정보와 차량 작동 상태 정보를 보다 직관적이고 실시간으로 표시할 수 있어 더 나은 주행 경험을 제공할 수 있다. 그러나 육안 3D 디스플레이는 관측 위치에 많은 제한을 받게 되며, 일반적으로 관측자는 최상의 전시 효과를 관측하기 위해 최적의 장소에 고정해야 한다. 육안 3D를 기동차 계기에 적용하면, 운전자가 도로 상황을 관측할 때 머리가 치우치면서 디스플레이 화면의 새로 고침이 따라가지 못하는 경우와 같이 육안 3D의 디스플레이 효과에 영향 주게 되며; 육안 3D의 디스플레이 화면이 새로 고침에 대한 응답이 적시에 이루어지지 않으면 운전자가 현기감을 느낄 수 있는 매우 위험한 운전 상태를 발생할 수 있다.
본 발명은 실시예를 통해 육안 3D 새로 고침이 따라가지 못하여 운전자가 현기감을 느낄 수 있는 문제를 해결가능한 기동차 계기의 육안 3D 디스플레이 방법 및 장치를 제공한다.
첫 번째 측면에서, 본 발명은 실시예를 통해 기동차 계기의 육안 3D 디스플레이 방법을 제공하며, 상기 방법은:
운전자의 실시간 육안 위치를 실시간으로 수집하고, 상기 실시간 육안 위치에 기반하여 대응되는 실시간 시각적 인터리브 이미지를 생성하고, 디스플레이 인터페이스 상에 상기 실시간 시각적 인터리브 이미지를 디스플레이하는 단계;
상기 운전자의 인체 동작 발생 여부를 식별하여, 만약 발생하면, 상기 운전자의 인체 동작 정보를 획득하는 단계;
상기 인체 동작 정보에 기반하여 상기 운전자의 오프셋 구간을 사전 판단하여, 상기 오프셋 구간에 대응하는 시각 이미지 모음을 생성 및 캐싱하는 단계;
상기 시각 이미지 모음에 기반하여, 상기 디스플레이 인터페이스 상에서 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상하는 단계를 포함한다.
예시적으로, 상기 실시간 육안 위치에 기반하여 대응하는 실시간 시각적 인터리브 이미지를 생성하는 단계는:
상기 실시간 육안 위치에 기반하여 시야 구간을 확정하고, 그래픽 라이브러리에서 상기 시야 구간의 3D 모델 시나리오를 생성하는 단계;
그래픽 라이브러리에서 상기 실시간 육안 위치에 대응하는 가상 시점 위치를 구성하고, 상기 가상 시점 위치를 기반으로 실시간 렌더링하여 상기 3D 모델 시나리오에서 가상 시점 위치에 대응하는 실시간 시각적 인터리브 이미지를 생성하는 단계를 포함한다.
상기 실시간 육안 위치를 기반으로 시야 구간을 확정하는 단계는;
사전 설정 운전중심이 위치한 표준 시야를 획득하는 단계-상기 표준 시야는 상기 사전 설정 운전중심의 시각이 수평 방향 좌, 우 양측 각각에 있는 약간 수량의 유닛 구간에서의 각도 범위이며, 상기 표준 시야내 각 유닛 구간은 상기 시야 구간임-;
상기 실시간 육안 위치와 상기 사전 설정 운전중심 시각의 편각에 기반하여 상기 실시간 육안 위치가 있는 시야 구간을 계산하는 단계;를 포함하는 것으로 이해되어야 한다.
두 번째 측면에서, 본 발명의 실시예는 기동차 계기의 육안 3D 디스플레이 장치를 제공하며, 상기 장치는:
운전자의 위치 정보를 수집하는 수집 모듈 -상기 수집 모듈에는 육안 포지셔닝 유닛 및 동작 식별 유닛이 포함되며; 상기 육안 포지셔닝 유닛은 실시간 육안 위치 정보를 수집하는 데 사용되며, 상기 동작 식별 유닛은 인체 동작 정보를 획득하는 데 사용됨-;
제1 계산처리 모듈 및 제2 계산처리 모듈을 포함하는 계산처리 모듈 - 상기 제1 계산처리 모듈은 상기 실시간 육안 위치 정보를 수신하여, 현재 시야 구간을 계산하고, 현재 시야 구간에 대응되는 제1 인터리브 이미지 화면을 생성하는 데 사용되며; 상기 제2 계산처리모듈은 상기 인체 동작 정보에 기반하여 운전자의 오프셋 구간을 예측하여, 오프셋 구간에 대응하는 제2 인터리브 이미지 화면을 생성하는 데 사용됨-;
제2 인터리브 이미지 화면을 캐싱하기 위한 캐시 모듈;
제1 인터리브 이미지 화면을 디스플레이하고 상기 제2 인터리브 이미지 화면을 추출하여 새로 고침하는 데 사용되는 디스플레이 모듈;을 포함한다.
세번째 측면에서, 본 발명의 실시예는 터미널 장비를 제공하며, 상기 터미널 장비는: 메모리, 프로세서 및 상기 메모리에 저장되어 상기 프로세서 상에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 상기 프로세서는 상기 컴퓨터 프로그램을 실행할 때 상기 첫번째 측면의 임의 항에 기재된 기동차 계기의 육안 3D 디스플레이 방법을 구현한다.
네번째 측면에서, 본 발명은 실시예를 통해 컴퓨터가 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터가 판독 가능한 저장 매체는: 컴퓨터 프로그램을 저장하며, 상기 컴퓨터 프로그램은 프로세서에 의해 실행될 때 상기 첫번째 측면에 기재된 임의 항에 기재된 상기 기동차 계기의 육안 3D 디스플레이 방법을 포함한다.
다섯 번째 측면에서, 본 발명은 실시예를 통해 컴퓨터 프로그램 제품을 제공하며, 컴퓨터 프로그램 제품이 터미널 장비 상에서 작동할 때, 터미널 장비는 상기 첫 번째 측면의 임의 항에 기재된 기동차 계기의 육안 3D 디스플레이 방법을 수행하도록 한다.
상기 두번째 측면 내지 다섯째 측면을 통해 이루어지는 유익한 효과는 상기 첫번째 측면의 관련 설명을 참조할 수 있으며 여기서서 더 이상 설명하지 않음은 자명하다.
본 실시예가 종래 기술에 비해 달성할 수 있는 유익한 효과는 다음과 같다:
본 발명의 실시예에서는 운전자의 인체 동작 정보에 대한 수집을 통해, 운전자의 오프셋 구간을 사전 판단하고 오프셋 구간에 대응되는 시각 이미지 모음을 생성하여 실시간 시각적 인터리브 이미지에 대한 응답 보상을 수행하게 되며, 운전자가 고개를 돌리거나 원래 위치에서 벗어나는 기타 동작을 할 때 디스플레이 되는 육안 3D 화면의 새로 고침 속도가 100ms에서 30ms 이내로 감소되면서 육안 3D 화면을 볼 때의 현기감을 줄이고 3D 화면의 체험 효과를 대폭 개선하며;
본 발명의 실시예에서, 육안 포지셔닝 유닛은 실시간 육안 위치 정보를 수집하고, 현재 시야 구간에 대응되는 제1 인터리브 이미지 화면을 생성 및 디스플레이 하며; 동작 식별 유닛을 채택하여 인체 동작 정보를 획득하고, 운전자의 오프셋 구간을 예측하여 오프셋 구간에 대응되는 제2 인터리브 이미지 화면을 생성 및 캐싱하여, 단일 카메라의 부담을 대폭 줄여 주고 육안의 시각적 인터리브 이미지를 디스플레이하는 과정에서의 새로 고침 속도를 향상시킨다.
물론, 본 발명을 통해 실시하는 임의 제품은 위에서 언급한 모든 장점을 동시에 달성할 필요가 있는 것은 아니다.
상술한 설명은 본 발명을 통해 안출하는 기술방안에 대한 개략적인 기재일 뿐이며, 본 발명의 기술적 수단을 보다 명확하게 이해하기 위하여, 명세서의 내용에 따라 실시할 수 있으며, 본 발명의 목적, 특징 및 장점을 보다 명확하고 쉽게 이해할 수 있도록 하기 위하여 다음과 같이 본 발명의 구체적인 실시방식을 특기한다.
본 발명의 실시예에 기재된 기술방안을 보다 명확하게 설명하기 위하여, 이하에서는 실시예 또는 기존 기술 설명에 필요한 도면을 요약하여 소개하게 되며, 아래에 설명되는 도면은 본 발명에 기재된 일부 실시예일 뿐이며, 본 분야의 일반 기술자라면, 창조적인 노력을 투입하지 않는 전제 하에서, 이러한 도면에 기반하여 다른 도면을 도출해 낼 수 있음은 자명하다.
도 1은 본 발명의 일 실시예에 따른 기동차 계기의 부분적인 구조 개략도를 나타내며;
도 2는 본 발명의 일 실시예에 따른 기동차 계기의 육안 3D 디스플레이 방법 관련 흐름 개략도;
도 3은 본 발명의 일 실시예 따른 실시간 육안 위치에 대응하는 실시간 시각적 인터리브 이미지를 생성하는 방법 관련 흐름 개략도;
도 4는 본 발명의 일 실시예에 따른 운전자의 인체 동작 발생 여부를 식별하는 방법 관련 흐름 개략도이고;
도 5는 본 발명의 일 실시예에 따른 실시간 시각적 인터리브 이미지에 대한 응답 보상 방법 관련 흐름 개략도;
도 6은 본 발명의 일 실시예에 따른 기동차 계기의 육안 3D 디스플레이 장치의 구조 블록도를 나타낸다.
하기의 내용은 본 발명을 한정하기 위함이 아니라 본 발명의 실시예를 보다 충분히 이해할 수 있도록 특정 시스템 구조, 기술 등의 구체적인 내용을 안출한다. 단, 본 업계의 당업자라면 이러한 구체적인 세부 사항이 없는 다른 실시예를 통해서도 본 발명을 구현할 수 있음은 자명하다. 다른 경우에, 본 발명에 대한 설명을 방해하는 불필요한 세부 사항을 피하기 위해 주지하는 시스템, 장치, 회로 및 방법에 대한 상세한 설명을 생략한다.
본 발명의 명세서 및 첨부된 청구범위에 사용되는 “포함”이라는 용어는 설명된 특징, 전체, 단계, 작동, 요소 및/또는 구성 요소의 존재를 나타내지만, 하나 또는 그 이상의 다른 특징, 전체, 단계, 작동, 요소 및/또는 그 집합의 존재 또는 추가를 배제하지 않음은 자명하다.
또한, 본 발명의 명세서 및 첨부된 특허청구범위 취급 시, 사용된 용어 "및/또는"은 나열된 관련 항목 중 하나 또는 그 이상에 대한 임의 조합 및 모든 가능한 조합을 의미하며, 이러한 조합을 포함함은 자명하다.
본 발명의 명세서 및 첨부된 청구범위에 사용된 바와 같이, “만약”이라는 용어는 파일의 상,하 맥락에 따라 “만약 ...일 경우” 또는 “일단” 또는 “확정된 ...에 응답” 또는 “검출된 ...에 응답”으로 해석될 수 있다. 유사하게, “만약 ...이 확인되면” 또는 “만약 [설명된 조건 또는 이벤트]가 검출되면”과 같은 문구는 파일 상, 하 맥락에 따라 “일단 확인되면” 또는 “확인된 것에 응답하여” 또는 “일단 [설명된 조건 또는 이벤트]가 검출되면” 또는 “검출된[설명된 조건 또는 이벤트]에 응답하여”를 의미하는 것으로 해석될 수 있다.
별도로, 본 발명의 명세서 및 첨부된 청구항들에 있어서, "제1", "제2", "제3" 등의 용어는 설명을 구분하기 위한 것일 뿐, 상대적 중요성을 지시하거나 암시하는 것으로 이해하지 말아야 한다.
본 발명의 명세서에 기재된 "일 실시예” 또는 "일부 실시예" 등은 본 발명의 하나 또는 다수 실시예에 이와 같은 실시예가 설명하는 특정 특징, 구조 또는 특성에 대한 결합을 포함함을 의미한다. 따라서, 본 명세서의 상이한 단락에 나타난 "일 실시예에서", "일부 실시예에서", "다른 일부 실시예에서", "또 다른 일부 실시예에서" 등과 같은 문구는 반드시 전부 동일한 실시예를 참조하고 있음을 의미하지 않으며, 기타 방식을 통해 특별 강조하지 않는 한 “하나 또는 다수지만 전부가 아닌 실시예”를 의미한다. “포괄", "포함", "구비" 등의 용어 및 이들의 변형은 기타 방식으로 특별히 강조되지 않는 한 모두 "포함하지만 이에 제한되지 않음"을 의미한다.
육안 3D를 기동차 계기에 적용할 경우, 운전자가 도로 상황을 관측하기 위해 때 머리가 치우쳐 지게 되며, 육안 3D 디스플레이 화면의 새로 고침 응답이 적시에 이루어지지 않으면 운전자는 현기감을 느낄 수 있으며; 본 발명의 실시예는 운전자의 오프셋 구간을 사전 판단하고 오프셋 구간에 대응되는 시각 이미지 모음을 생성하여 실시간 시각적 인터리브 이미지에 대한 응답 보상을 함으로써 육안 3D의 디스플레이 효과를 향상시킬 수 있는 기동차 계기의 육안 3D 방법을 제공한다.
본 발명의 실시예에서 제공하는 기동차 계기의 육안 3D 디스플레이 방법은 차량 탑재 장비와 같은 터미널 장비에 적용될 수 있다. 비한정적인 사례로써, 상기 터미널 장비가 차량탑재 장비인 경우, 해당 차량탑재용 장비는 기동차 계기판, 디스플레이 패널 등과 같이 차량탑재 장비 기술을 적용하여 기동차를 지능적으로 설계하면서 개발해낸 디스플레이 기능을 구비한 장비의 총칭을 수 있다.
상기 터미널 장비는 기동차 계기를 예로 들어 설명한다. 도 1은 본 발명의 일 실시예에 따른 기동차 계기의 부분적인 구조 개략도를 나타낸다. 도 1을 참조하여 보면, 기동차 계기는: 디스플레이 장치(100), 카메라 세트(200) 및 프로세서(300)와 같은 부재를 포함하며, 프로세서(300)와 디스플레이 장치(100)은 유/무선 방식을 통해 데이터 신호를 전송한다.
구체적으로, 디스플레이 장치(100)는 조명광선을 제공하기 위한 백라이트, 3D 이미징을 위한 회절격자 및 화면을 디스플레이하기 위한 현상 모듈을 포함한다.
비한정적인 사례로써, 디스플레이 장치(100)는 커버판(101), 3D 회절격자(102), TFT(Thin Film Transistor, 박막 트랜지스터) 모듈(103), 백라이트 모듈(104) 및 케이스(105)를 포함한다. 여기서, 상기 커버판(101), 3D 회절격자(102), TFT 모듈(103) 및 백라이트 모듈(104)은 전부 케이스(105) 내부에 싸여 있고, 카메라 세트(200)는 케이스(105)의 상표면에 설치된다.
구체적으로, 카메라 세트(200)는 듀얼 카메라 모듈일 수 있으며, 카메라 세트(200)는 RGB 카메라, 구조 광 카메라 및 IR 카메라 중 임의 1종 또는 그 이상을 포함하여 구성된다. 카메라의 작동 원리는: 물체에 발사된 빛이 물체 표면으로부터 반사되고, 반사광은 렌즈를 통해 이미지 센서로 전송되며, 이미지 센서는 반사광을 접수하고 광신호를 전기 신호로 전환하여 아날로그 디지털 전환 회로로 전송하며; 아날로그 디지털 전환 회로는 수신된 아날로그 전기 신호를 디지털 전기 신호로 전환하여 디지털 신호 처리 칩으로 전송하여 가공처리하며, USB 인터페이스를 통해 최종 처리된 신호를 컴퓨터로 전송하여, 디스플레이를 통해 원본 이미지를 디스플레이 하는 것으로 이해할 수 있다. 따라서, 카메라 세트(200)을 통해 기동차 내부, 특히 운전자의 안면과 신체 이미지 데이터를 수집할 수 있다.
선택 가능하게, 구현 원가 및 어두운 톤의 환경에서 진행하는 촬영을 감안하여 카메라 세트(200)는 RGB 카메라와 IR 카메라의 조합일 수 있다.
구체적으로, 프로세서(300)는 중앙 처리 장치, 애플리케이션 프로세서(application processor, AP), 베이스밴드 프로세서 등과 같은 프로세서 중 1종 또는 그 이상을 포함할 수 있다. 프로세서(300)는 무선 공유기의 신경 중추이자 지휘 센터일 수 있다. 프로세서(300)는 명령어 작동 코드와 시계열 신호에 따라 작동 제어 신호를 생성하고 명령어를 취하고 실행하는 제어를 완성할 수 있다. 메모리는 컴퓨터 실행 가능한 프로그램 코드를 저장하는 데 사용할 수 있으며 실행 가능한 프로그램 코드에는 명령어가 포함된다. 프로세서(300)는 메모리에 저장된 명령어를 실행하여 네트워크 장비의 다양한 기능 애플리케이션 및 데이터 처리를 수행한다. 메모리에는 시각적 인터리브 이미지 화면 저장과 같은 프로그램 저장 영역과 데이터 저장 영역이 포함될 수 있다. 예를 들어, 해당 메모리는 이중 속도 동기식 동적 랜덤 메모리 DDR 또는 플래시 Flash 등일 수 있다.
도시되지 않고 있지만 기동차 계기는 각 부재에 전력을 공급하는 전원을 포함할 수 있으며, 바람직하게는, 전원은 전원 관리 시스템을 통해 프로세서(300)과 로직적으로 연결되어 전원 관리 시스템을 통해 충전, 방전 및 전력 소모 관리 등의 기능을 구현할 수 있다.
본 분야의 당업자라면 도 1에 도시된 기동차 계기 구조가 기동차 계기에 대한 제한을 구성하지 않으며, 도시된 것보다 더 많거나 더 적은 부재를 포함하거나, 또는 일부 부재를 조합하거나, 또는 상이한 부재로 구성될 수 있음은 자명하다.
구체적인 실시예와 연결시켜 본 발명에서 제공하는 기동차 계기의 육안 3D 디스플레이 방법에 대하여 다음과 같이 예시적으로 설명하고자 한다. 도 2는 본 발명의 일 실시예에 따른 기동차 계기의 육안 3D 디스플레이 방법 관련 흐름 개략도를 도시하며, 비한정적인 예시로써, 해당 방법은 상기 기동차 계기의 육안 3D 디스플레이 장치에 적용될 수 있다.
단계 S201: 운전자의 실시간 육안 위치를 실시간으로 수집하고, 실시간 육안 위치에 기반하여 대응되는 실시간 시각적 인터리브 이미지를 생성하고, 디스플레이 인터페이스 상에 실시간 시각적 인터리브 이미지를 디스플레이한다.
실시예에서, 실시간 육안 위치 정보는 육안 추적 시스템을 내장한 이미지 수집 장비를 통해 이미지 또는 비디오 정보를 수집하여 얻는다. 이미지 수집 장비에는 적외선 방수 건식 카메라,적외선 반구형 카메라,등속 볼 머신, 고속 볼 머신, 와이드 다이내믹 카메라, 비디오 단말기, 비디오 레코딩카드 및 DVR(Digital Video Recorder) 비디오 레코더 중 임의 1종 또는 그 이상의 기기 조합을 포함하며, 이미지 수집 장비는 상이한 환경 및 수집 요구사항에 따라 상이하게 선택할 수 있다.
예를 들어, 육안 추적 시스템을 갖춘 이미지 수집 장비에는 적외선 카메라, 적외선 조명기 및 동공 중심 검출 및 아티팩트 제거를 위한 눈 운동 추적 알고리즘이 포함되며, 이미지 처리 및 데이터 수집은 전용 하드웨어로 처리되거나 컴퓨터 또는 소프트웨어를 통해 처리된다. 적외선 기반 조명은 참여자가 조명을 거의 볼 수 없고 인공 광원에서 오는 아티팩트를 파장으로 필터링할 수 있다는 다양한 장점을 가진다. 육안 추적 시스템을 갖춘 이미지 수집 장비를 통해 수집한 실시간 육안 위치에는 지구 좌표계에 대한 육안의 3차원 좌표가 포함된다.
일 실시예에서, 도 3은 본 발명의 실시예 따른 실시간 육안 위치에 대응하는 실시간 시각적 인터리브 이미지를 생성하는 방법 관련 흐름을 나타내며, 비한정적인 사례로써, 구체적인 단계는 다음과 같다:
S301: 사전 설정 운전중심의 시각이 위치한 표준 시야를 획득한다.
구체적으로, 표준 시야는 사전 설정 운전중심의 시각이 수평 방향 좌, 우 양측 각각에 있는 약간 수량의 유닛 구간에서의 각도 범위이며, 표준 시야내에 있는 각 유닛 구간은 시야 구간이다.
예시적으로, 운전 위치 상에 있는 중심점을 사전 설정 운전중심으로 설정하고, 사전 설정 운전중심과 듀얼 카메라 광심 연결선 중심 사이의 연결선을 사전 설정 운전중심의 시각으로 설정하며, 운전 위치에서 운전자의 두 눈과 듀얼 카메라 광심 연결선 중심 사이의 거리를 관찰 거리로 설정하고, 듀얼 카메라 광심 연결선 중심을 정점으로 설정하며, 관찰 거리를 한 변의 길이로 설정하여, 운전자의 동작 범위를 커버하는 하나의 섹터 구간을 획분하여 표준 시야로 한다, 선택 가능하게, 최적의 관찰 거리는 60cm~90cm일 수 있으며, 사전 설정 운전중심의 시각 범위 +/-25°를 표준 시야로 하며, 표준 시야를 10개의 유닛 구간, 즉 5°마다 1개의 시야 구간으로 획분한다.
S302: 실시간 육안 위치와 사전 설정 운전중심의 시각 편각에 기반하여 실시간 육안 위치가 있는 시야 구간을 계산한다.
실시간 육안 위치의 지구 좌표 데이터를 추출하고 듀얼 카메라의 포지셔닝 정보를 기반으로 듀얼 카메라 광심 연결선 중심의 지구 좌표 데이터를 계산한 다음, 진일보로 삼각법을 사용하여 실시간 육안 위치와 듀얼 카메라 광심 연결선 중심 사이의 거리 및 실시간 육안 위치와 사전 설정 운전 중심의 시각 편각을 계산한다.
편각의 도수 및 표준 시야 내 단위 구간의 획분에 기반하여 실시간 육안 위치가 있는 시야 구간을 확정한다.
S303:그래픽 라이브러리에서 시야 구간의 3D 모델 시나리오를 생성한다.
예시적으로, 그래픽 라이브러리는 OpenGL(Open Graphics Library, 개방형 그래픽 라이브러리), Direct3D(마이크로소프트의 일반 객체 모드를 기반으로 하는 3D 그래픽 프로그래밍 인터페이스) 등과 같이 렌더링2D, 3D벡터 그래픽에 적용되는 크로스언어, 크로스 플랫폼의 애플리케이션 프로그래밍 인터페이스일 수 있다.
선택 가능하게, 개방형 그래픽 라이브러리(Open Graphics Library, 영어 약칭 OpenGL)는 2D 및 3D 벡터 그래픽을 렌더링하는 데 사용되는 크로스 언어 및 크로스 플랫폼의 애플리케이션 프로그래밍 인터페이스이다. 본 실시예에서, OpenGL을 그래픽 라이브러리로 사용하여, OpenGL 엔진 환경을 초기화하고 렌더링 데이터를 준비하며, 실시간 육안 위치가 있는 시야 구간에 기반하여 OpenGL 내부에 대응되는 3D 모델 시나리오를 생성한다.
S304:그래픽 라이브러리에 실시간 육안 위치에 대응하는 가상 시점 위치를 구성하고, 가상 시점 위치를 기반으로 실시간 렌더링하여 3D 모델 시나리오에서 가상 시점 위치에 대응하는 실시간 시각적 인터리브 이미지를 생성한다.
일 실시예에서, 실시간 육안 위치에 기반하여 OpenGL에서 실제 육안 뷰 시점에 대응되는 가상 시점 위치를 구성한 다음, 진일보로 실시간 렌더링을 통해 대응된 시각의 화면을 생성하여 디스플레이 메모리에 푸시한 다음, 진일보로 액정 디스플레이에 화면을 표시한다.
선택 가능하게, Frameebuffer는 하나의 비디오 출력 장비를 사용하여 완전한 프레임 데이터를 포함하는 하나의 메모리 버퍼에서 하나의 비디오 디스플레이 장비를 구동하며, 본 실시예에서 Frameebuffer를 디스플레이 메모리로 사용하여, 실시간 랜더링을 통해 시각에 대응되는 화면을 생성하여 디스플레이로 출력한다.
선택 가능하게, 액정 디스플레이(Liquid Crystal Display, 영문 약칭 LCD)는 2개의 평행된 유리기판 사이에 액정박스를 방치하고, 하부기판 유리 위에 유리(박막 트랜지스터)를 설치하며, 상부 기판 유리 상에 컬러필터를 설치하여, TFT 상의 신호와 전압변화를 통해 액정분자의 회전방향을 제어하여, 각 픽셀 포인트의 편광 출사 여부를 제어하여 디스플레이 목적을 달성한다. 본 실시예에서는 LCD를 디스플레이로 사용하여 전술한 대응된 시각의 화면을 디스플레이한다.
가상 시점 위치의 변화가 적은 상황에서, 새로 고침 효율을 높이기 위해 OpenGL을 사용하여 부분적인 새로 고침을 수행할 수도 있으며: 현재 프레임 렌더링 시 상태가 변경된 노드를 통계하고, 상태가 변경된 모든 노드에서 생성된 새로 고침 영역을 계산하고, 새로 고침 영역에서 화면 상에 대응되는 화면 영역을 계산하며, 화면 영역에 기반하여 투영 매트릭스를 설정하고, 뷰 포트와 클리핑 영역을 설정하여, 얻어진 모델 데이터와 텍스처 데이터를 렌더러에 제출하여 렌더링 하며, 진일보로 대응된 실시간 시각적 인터리브 이미지를 획득한다.
단계 S202: 운전자의 인체 동작 발생 여부를 식별하여, 만약 발생하면, 운전자의 인체 동작 정보를 획득한다.
일 실시예에서 운전 중에 운전자의 너무 큰 인체 동작 폭은 육안 3D 화면의 새로 고침 응답이 적시에 이루어지지 않는 주요 원인되며, 운전자에게서 발생하는 주요한 인체 동작은 고개를 돌리고 이동하는 것으로 카메라를 사용하여 운전자의 안면과 몸통의 제스처 정보를 캡처하게 된다. 즉, 운전자의 인체 동작에 기반하여 캐시된 화면을 추출하여 화면의 새로 고침 속도를 높이고 육안 3D 화면을 볼 때 현기감을 줄일 수 있다. 도 4는 본 발명의 실시예에 따른 운전자의 인체 동작 발생 여부를 식별하는 방법 프로세스를 제공하며, 비한정적인 사례로써, 구체적인 단계는 다음과 같다:
S401: 운전자의 제스처 키 포인트를 실시간으로 수집하고, 제스처 키 포인트에 기반하여 인체 몸통 제스처 벡터와 안면각 포인트의 동작 벡터를 구성한다;
카메라는 인체의 2차원 RGB 이미지 정보를 수집하는 데 사용되며, 인체 제스처 추정 계산법에 기반하여 2차원 RGB 이미지로부터 18개 이상의 인체 키 포인트를 획득하고, 표준 인체 제스처와 비교하여 인체의 머리부분의 회전 또는 상반신의 이동을 정확하게 설명할 수 있는 제스처 키 포인트를 획득하며, 인체 제스처 추정 계산법을 적용하여 이미지 좌표계 상에서 인체의 제스처 키 포인트의 원본 데이터를 얻어, 인체 몸통을 대표하는 제스처 벡터와 안면각 포인트의 동작 벡터를 구성한다.
선택 가능하게, OpenPose는 컨볼루션신경망 및 감독 학습을 기반으로 하는 인체 제스처 식별 알고리즘의 오픈 소스 라이브러리이며, 인체 동작, 얼굴 표정, 손가락 움직임 등과 같은 제스처에 대한 추정을 구현할 수 있다. 본 실시예에서, OpenPose를 사용하여 2차원 RGB 이미지를 통해 인체 키 포인트를 획득하며, 비한정적인 사례로써, 인체 키 포인트 부위를 1(코), 2(목), 3(오른쪽 어깨), 6(왼쪽 어깨), 15(오른쪽 눈), 16(왼쪽 눈) 등의 순번으로 설정하여 인체 제스처 키 포인트로 적용한다.
S402: 운전자의 몸통과 머리의 오프셋각은 인체 몸통의 제스처 벡터와 안면각 포인트의 동작 벡터에 의해 계산된다;
S403: 몸통과 머리의 오프셋각에 기반하여 인체 동작을 판단하며, 만약 몸통과 머리의 오프셋각이 사전 설정값을 초과하는 경우, 운전자가 인체 동작이 있는 것으로 판단하고 몸통과 머리의 오프셋각을 인체의 기울어진 제스처를 표징하는 인체 동작 정보로 적용한다.
단계 S203: 인체 동작 정보에 기반하여 운전자의 오프셋 구간을 사전 판단하여, 상기 오프셋 구간에 대응하는 시각 이미지 모음을 생성 및 캐싱한다.
일 실시예에서, 인체 제스처 알고리즘을 적용하여 인체 동작 정보를 정합하고 식별하여 운전자의 동작 추세 확률값을 획득한다.
비한정적인 사례로써, 인체 동작 정보를 추출하고, 운전자 몸통의 오프셋각으로 이동 특징 벡터를 구성하고, 운전자 머리의 오프셋각으로 머리 돌림 특징 벡터를 구성하며; 훈련된 SVM(Support Vector Machine, 서포트 벡터 머신)을 사용하여 이동 특징 벡터의 동작을 판단하여, 제1 분류 결과를 x로 출력한다:
마찬가지로, 훈련된 SVM을 사용하여 머리 돌림 특징 벡터에 대한 동작을 판단하고 제2 분류 결과를 y로 출력할 수 있다:
운전자의 동작 추세 확률값은 제1 분류 결과 x와 제2 분류 결과 y의 합이다.
인체 동작 추세 확률값에 기반하여 운전자의 다음 단위 시간 내 육안 위치를 예측할 수 있으며, 예를 들어, 추세 확률값이 -1일 때, 운전자의 다음 단위 시간 내 육안 위치는 현재 시야 구간 왼쪽에 있는 일 시야 구간 내에 있게 되며, 즉, 운전자의 오프셋 구간은 현재 시야 구간 왼쪽에 있는 일 시야 구간이다.
비한정적인 사례로써, OpenGL을 그래픽 라이브러리로 적용하여 오프셋 구간을 기반으로 오프셋 구간에 대응되는 시각 이미지 모음을 생성 및 캐싱할 수도 있으며, 구체적인 단계는 다음과 같다:
(1) 그래픽 라이브러리에서 오프셋 구간의 3D 모델 시나리오를 생성한다;
(2) 오프셋 구간내에 사전 설정된 약간의 시야 구간의 사전 설정된 시점에 기반하여 각 시야 구간에 사전 설정된 시점 각각에 대응하는 캐시 이미지를 렌더링하여 생성한다;
(3) 모든 시야 구간의 사전 설정된 시점에 대응하는 캐시 이미지를 오프셋 구간에 대응하는 시점 이미지 모음으로 적용한다.
구체적으로, 각 시야 구간에 약간의 시점을 사전 설정하며, 시야 구간에 사전 설정된 시점은 원주 방향을 따라 각 시야 구간에 균일하게 분포되며, 듀얼 카메라 광심 연결선의 중심을 정점으로 하고, 인접한 시야 구간에 사전 설정된 시점 사이의 협각은 동일하며, 시야 구간에 사전 설정된 시점과 사전 설정 운전 중심의 시각 편각을 시야 구간에 사전 설정된 시점의 위치 정보로 사용하며, 시야 구간에 사전 설정된 시점에 대응하는 뷰를 메모리에 사전 저장하며, 후속 오프셋 구간에 대응하는 시각 이미지 모음에 대한 지속적인 실시간 새로 고침 처리를 진행하여, 관찰자가 수시로 최적의 3D 화면을 관찰할 수 있도록 하여, 현기감을 진일보로 개선한다. 예를 들어, 각 시야 구간에 24개의 시점을 사전 설정할 수 있다.
단계 S204: 시각 이미지 모음에 기반하여 디스플레이 인터페이스 상에서 실시간 시각적 인터리브 이미지에 대하여 응답 보상을 수행한다.
일 실시예에서, 도 5는 본 발명의 실시예 따른 실시간 시각적 인터리브 이미지에 대한 응답 보상을 진행하는 방법 관련 흐름을 나타내며, 비한정적인 사례로써, 구체적인 단계 다음과 같다:
S501: 운전자의 실시간 육안 위치에 기반하여 운전자의 실시간 육안 위치와 이전 프레임을 통해 수집한 운전자의 육안 위치가 동일한 시야 구간에 있는지 여부를 판단한다;
본 실시예에서, 카메라를 통해 수집한 각 프레임의 운전자 육안 위치의 지구 좌표 데이터는 전부 삼각법 알고리즘을 통해 운전자 육안 위치와 듀얼 카메라의 광심 연결선 중심 사이의 거리 및 운전자 육안 위치와 사전 설정 운전중심 간의 시각 편각을 계산할 수 있으며, 진일보로, 운전자의 육안 위치와 사전 설정 운전중심의 시각 편각의 도수에 기반하여 표준 시야 영역 내 단위 구간에서 획분하여, 운전자의 육안 위치가 있는 시야 영역을 확정한다.
이전 프레임의 운전자 육안 위치가 있는 시야 구간을 캐싱하고, 계산하여 얻은 실시간 육안 위치가 있는 시야 구간과 이전 프레임의 운전자 육안 위치가 있는 시야 구간을 비교하여, 양측의 동일 여부를 판단하며; 만약 동일한 경우, 운전자의 실시간 육안 위치는 이전 프레임을 통해 수집한 운전자의 육안 위치와 동일한 시야 구간에 위치한다.
S502: 만약 운전자의 실시간 육안 위치가 이전 프레임을 통해 수집한 운전자의 육안 위치와 동일한 시야 구간에 있지 않으면, 운전자의 실시간 육안 위치가 오프셋 구간에 있는지 여부를 판단한다;
S503: 만약 운전자의 실시간 육안 위치가 오프셋 구간에 있으면, 오프셋 구간 중 운전자의 실시간 육안 위치와 가장 가까운 시야 구간의 사전 설정 시점을 타겟 시야 구간의 사전 설정 시점으로 하여, 시각 이미지 모음으로부터 타겟 시야 구간 사전 설정 시점에 대응하는 타겟 캐시 이미지를 획득한다;
본 실시예에서, 실시간 육안 위치와 사전 설정 운전중심의 시각 편각에 기반하여, 위치 정보와 실시간 육안 위치가 가장 유사한 시야 구간의 사전 설정 시점을 확정하며, 가장 유사한 시야 구간의 사전 설정 시점을 타겟 사전 설정 시점으로 하고, 시점 이미지 모음으로부터 타겟 사전 설정 시점에 대응하는 캐시 이미지를 추출하여 타겟 캐시 이미지로 적용한다.
S504:타겟 캐시 이미지는 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상을 수행한다.
운전자의 실시간 육안 위치도 오프셋 구간에 있지 않으면, 메모리로부터 실시간 육안 위치와 가장 가까이에 있는 시야 구간의 사전 설정된 시점에 대응되는 뷰를 획득하여, 실시간 시각적 인터리브 이미지에 대한 응답 보상을 수행함을 이해할 수 있다.
다른 실시예에서, 운전환경의 밝기가 너무 낮으면 육안 3D 효과가 저하되어, 운전자가 육안 3D화면을 볼 때 더 쉽게 피로해질 수 있다는 점을 고려하여, 본 발명을 통해 제공하는 기동차 계기의 육안 3D 디스플레이 방법에는 육안 3D효과를 자동으로 끄는 방법이 더 포함되며, 비한정적인 사례로써, 육안 3D효과를 자동으로 끄는 구체적인 단계는 다음과 같다:
(1) RGB 카메라 스냅 촬영 화면의 밝기에 대해 데이터 프레임의 평균값 처리를 수행하여 현재 환경의 데이터 프레임 세그먼트의 중간값을 계산한다;
(2) 현재 환경의 데이터 프레임 세그먼트의 중간값에 대해 작업 환경 판단을 수행하고, 현재 환경의 데이터 프레임 세그먼트의 중간값이 사전 설정된 참조 임계값보다 작으면 환경 조명이 충분하지 않은 것으로 판단되어, 조명이 부족한 상황을 보완하기 위해 IR 카메라를 가동하여 프레임 측정을 수행한다;
(3) IR 카메라가 프레임 측정한 데이터가 사전 설정된 임계값보다 작으면 육안 3D 효과가 자동으로 꺼지고 2D 디스플레이로 전환되며, 이 경우, RGB 카메라의 안구 추적 시스템은 오프 된다.
위의 실시예에서 각 단계의 순번 크기는 실행의 전후 순서를 의미하지 않으며, 각 과정에서의 실행 순서는 관련 기능 및 내부 로직에 의해 확정되며, 본 발명의 실시예의 실시 과정에 대하여 어떠한 제한도 구성해서는 아니됨은 자명하다.
위의 실시예의 기동차 계기 육안 3D 디스플레이 방법에 대응되게, 도 6은 본 발명의 실시예에서 제공하는 기동차 계기의 육안 3D 디스플레이 장치의 구조 블록도를 나타내며, 설명의 편의를 위해 본 발명의 실시예와 관련된 부분만 제시한다.
도 6을 참조하여 보면, 해당 장치는:
운전자의 위치 정보를 수집하는 수집 모듈 - 수집 모듈에는 육안 포지셔닝 유닛 및 동작 식별 유닛이 포함되며; 육안 포지셔닝 유닛은 실시간 육안 위치 정보를 수집하는 데 사용되며, 동작 식별 유닛은 인체 동작 정보를 획득하는 데 사용됨-;
제1 계산처리 모듈 및 제2 계산처리 모듈을 포함하는 계산처리 모듈 - 제1 계산처리 모듈은 실시간 육안 위치 정보를 수신하여, 현재 시야 구간을 계산하고, 현재 시야 구간에 대응되는 제1 인터리브 이미지 화면을 생성하는 데 사용되며; 제2 계산처리모듈은 인체 동작 정보에 기반하여 운전자의 오프셋 구간을 예측하여, 오프셋 구간에 대응하는 제2 인터리브 이미지 화면을 생성하는 데 사용됨-;
(2) 오프셋 구간내에 사전 설정된 약간의 시야 구간의 사전 설정된 시점에 기반하여 각 시야 구간에 사전 설정된 시점 각각에 대응하는 캐시 이미지를 렌더링하여 생성한다;
(3) 모든 시야 구간의 사전 설정된 시점에 대응하는 캐시 이미지를 오프셋 구간에 대응하는 시점 이미지 모음으로 적용한다.
구체적으로, 각 시야 구간에 약간의 시점을 사전 설정하며, 시야 구간에 사전 설정된 시점은 원주 방향을 따라 각 시야 구간에 균일하게 분포되며, 듀얼 카메라 광심 연결선의 중심을 정점으로 하고, 인접한 시야 구간에 사전 설정된 시점 사이의 협각은 동일하며, 시야 구간에 사전 설정된 시점과 사전 설정 운전 중심의 시각 편각을 시야 구간에 사전 설정된 시점의 위치 정보로 사용하며, 시야 구간에 사전 설정된 시점에 대응하는 뷰를 메모리에 사전 저장하며, 후속 오프셋 구간에 대응하는 시각 이미지 모음에 대한 지속적인 실시간 새로 고침 처리를 진행하여, 관찰자가 수시로 최적의 3D 화면을 관찰할 수 있도록 하여, 현기감을 진일보로 개선한다. 예를 들어, 각 시야 구간에 24개의 시점을 사전 설정할 수 있다.
단계 S204: 시각 이미지 모음에 기반하여 디스플레이 인터페이스 상에서 실시간 시각적 인터리브 이미지에 대하여 응답 보상을 수행한다.
일 실시예에서, 도 5는 본 발명의 실시예 따른 실시간 시각적 인터리브 이미지에 대한 응답 보상을 진행하는 방법 관련 흐름을 나타내며, 비한정적인 사례로써, 구체적인 단계 다음과 같다:
S501: 운전자의 실시간 육안 위치에 기반하여 운전자의 실시간 육안 위치와 이전 프레임을 통해 수집한 운전자의 육안 위치가 동일한 시야 구간에 있는지 여부를 판단한다;
본 실시예에서, 카메라를 통해 수집한 각 프레임의 운전자 육안 위치의 지구 좌표 데이터는 전부 삼각법 알고리즘을 통해 운전자 육안 위치와 듀얼 카메라의 광심 연결선 중심 사이의 거리 및 운전자 육안 위치와 사전 설정 운전중심 간의 시각 편각을 계산할 수 있으며, 진일보로, 운전자의 육안 위치와 사전 설정 운전중심의 시각 편각의 도수에 기반하여 표준 시야 영역 내 단위 구간에서 획분하여, 운전자의 육안 위치가 있는 시야 영역을 확정한다.
이전 프레임의 운전자 육안 위치가 있는 시야 구간을 캐싱하고, 계산하여 얻은 실시간 육안 위치가 있는 시야 구간과 이전 프레임의 운전자 육안 위치가 있는 시야 구간을 비교하여, 양측의 동일 여부를 판단하며; 만약 동일한 경우, 운전자의 실시간 육안 위치는 이전 프레임을 통해 수집한 운전자의 육안 위치와 동일한 시야 구간에 위치한다.
S502: 만약 운전자의 실시간 육안 위치가 이전 프레임을 통해 수집한 운전자의 육안 위치와 동일한 시야 구간에 있지 않으면, 운전자의 실시간 육안 위치가 오프셋 구간에 있는지 여부를 판단한다;
S503: 만약 운전자의 실시간 육안 위치가 오프셋 구간에 있으면, 오프셋 구간 중 운전자의 실시간 육안 위치와 가장 가까운 시야 구간의 사전 설정 시점을 타겟 시야 구간의 사전 설정 시점으로 하여, 시각 이미지 모음으로부터 타겟 시야 구간 사전 설정 시점에 대응하는 타겟 캐시 이미지를 획득한다;
본 실시예에서, 실시간 육안 위치와 사전 설정 운전중심의 시각 편각에 기반하여, 위치 정보와 실시간 육안 위치가 가장 유사한 시야 구간의 사전 설정 시점을 확정하며, 가장 유사한 시야 구간의 사전 설정 시점을 타겟 사전 설정 시점으로 하고, 시점 이미지 모음으로부터 타겟 사전 설정 시점에 대응하는 캐시 이미지를 추출하여 타겟 캐시 이미지로 적용한다.
S504:타겟 캐시 이미지는 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상을 수행한다.
운전자의 실시간 육안 위치도 오프셋 구간에 있지 않으면, 메모리로부터 실시간 육안 위치와 가장 가까이에 있는 시야 구간의 사전 설정된 시점에 대응되는 뷰를 획득하여, 실시간 시각적 인터리브 이미지에 대한 응답 보상을 수행함을 이해할 수 있다.
다른 실시예에서, 운전환경의 밝기가 너무 낮으면 육안 3D 효과가 저하되어, 운전자가 육안 3D화면을 볼 때 더 쉽게 피로해질 수 있다는 점을 고려하여, 본 발명을 통해 제공하는 기동차 계기의 육안 3D 디스플레이 방법에는 육안 3D효과를 자동으로 끄는 방법이 더 포함되며, 비한정적인 사례로써, 육안 3D효과를 자동으로 끄는 구체적인 단계는 다음과 같다:
(1) RGB 카메라 스냅 촬영 화면의 밝기에 대해 데이터 프레임의 평균값 처리를 수행하여 현재 환경의 데이터 프레임 세그먼트의 중간값을 계산한다;
(2) 현재 환경의 데이터 프레임 세그먼트의 중간값에 대해 작업 환경 판단을 수행하고, 현재 환경의 데이터 프레임 세그먼트의 중간값이 사전 설정된 참조 임계값보다 작으면 환경 조명이 충분하지 않은 것으로 판단되어, 조명이 부족한 상황을 보완하기 위해 IR 카메라를 가동하여 프레임 측정을 수행한다;
(3) IR 카메라가 프레임 측정한 데이터가 사전 설정된 임계값보다 작으면 육안 3D 효과가 자동으로 꺼지고 2D 디스플레이로 전환되며, 이 경우, RGB 카메라의 안구 추적 시스템은 오프 된다.
위의 실시예에서 각 단계의 순번 크기는 실행의 전후 순서를 의미하지 않으며, 각 과정에서의 실행 순서는 관련 기능 및 내부 로직에 의해 확정되며, 본 발명의 실시예의 실시 과정에 대하여 어떠한 제한도 구성해서는 아니됨은 자명하다.
위의 실시예의 기동차 계기 육안 3D 디스플레이 방법에 대응되게, 도 6은 본 발명의 실시예에서 제공하는 기동차 계기의 육안 3D 디스플레이 장치의 구조 블록도를 나타내며, 설명의 편의를 위해 본 발명의 실시예와 관련된 부분만 제시한다.
도 6을 참조하여 보면, 해당 장치는:
운전자의 위치 정보를 수집하는 수집 모듈 - 수집 모듈에는 육안 포지셔닝 유닛 및 동작 식별 유닛이 포함되며; 육안 포지셔닝 유닛은 실시간 육안 위치 정보를 수집하는 데 사용되며, 동작 식별 유닛은 인체 동작 정보를 획득하는 데 사용됨-;
제1 계산처리 모듈 및 제2 계산처리 모듈을 포함하는 계산처리 모듈 - 제1 계산처리 모듈은 실시간 육안 위치 정보를 수신하여, 현재 시야 구간을 계산하고, 현재 시야 구간에 대응되는 제1 인터리브 이미지 화면을 생성하는 데 사용되며; 제2 계산처리모듈은 인체 동작 정보에 기반하여 운전자의 오프셋 구간을 예측하여, 오프셋 구간에 대응하는 제2 인터리브 이미지 화면을 생성하는 데 사용됨-;
제2 인터리브 이미지 화면을 캐싱하기 위한 캐시 모듈;
제1 인터리브 이미지 화면을 디스플레이하고 제2 인터리브 이미지 화면을 추출하여 새로 고침하는 데 사용되는 디스플레이 모듈;을 포함한다.
위에서 언급한 장치/유닛 간의 정보 인터랙션, 실행 프로세스 등과 같은 내용은 본 발명의 방법 실시예와 동일한 마인드를 기반으로 하기 때문에 구체적인 기능 및 기술적 효과는 구체적으로 방법 실시예 부분을 참조할 수 있으며, 여기에서 더 이상 설명하지 아니함은 자명하다.
관련 분야의 기술자라면, 설명의 편리와 간결성을 위해, 상기 각 기능 유닛, 모듈에 대한 획분과 관련하여 예를 들어 설명하며, 실제 응용에서, 상기 기능에 대한 할당은 필요에 따라 상이한 기능 유닛, 모듈에 의해 완성될 수 있으며, 즉, 상기 장치의 내부 구조를 상이한 기능 유닛 또는 모듈로 획분하여, 전술한 기능의 전부 또는 일부를 완성할 수 있음은 자명하다. 상술한 실시예에서 각 기능 유닛 및 모듈은 1개의 처리 유닛에 통합될 수도 있고, 각 유닛별로 물리적으로 독립 존재할 수도 있고, 2개 또는 그 이상의 유닛이 1개의 유닛 상에 통합될 수도 있으며, 상기 통합된 유닛은 하드웨어 형식을 채택하여 구현할 수 있으며, 소프트웨어 기능 유닛 형식을 채택하여 구현할 수도 있다. 또한, 각 기능 유닛 및 모듈의 구체적인 명칭은 상호간 구별을 위해 적용되는 것일 뿐, 본 발명의 보호 범위를 제한하기 위해 사용되는 것은 아니다. 상기 시스템 중의 유닛, 모듈의 구체적인 작업 과정은 위에서 설명한 방법 실시예 중의 대응된 과정을 참조할 수 있으며, 이 부분에서 더 이상 상세하게 설명하지 아니한다.
본 발명의 실시예는 네트워크 장비를 더 제공하며, 해당 네트워크 장비는: 적어도 하나의 프로세서, 메모리 및 메모리에 저장되어 상기 적어도 하나의 프로세서 상에서 실행할 수 있는 컴퓨터 프로그램을 포함하며, 상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 상기 임의 각 방법 실시예 중의 단계를 구현한다.
본 발명의 실시예는 컴퓨터 프로그램을 저장하는 컴퓨터가 판독 가능한 저장 매체를 더 제공하며, 상기 컴퓨터 프로그램은 프로세서에 의해 실행될 때, 상기 각 방법 실시예를 구현할 수 있는 각 단계들을 실현한다.
본 발명의 실시예는 컴퓨터 프로그램 제품을 제공하며, 컴퓨터 프로그램 제품을 모바일 단말기 상에서 실행될 때, 모바일 단말기의 수행을 통해 실현 가능한 상기 각 방법 실시예 중의 각 단계가 구현되도록 한다.
상기 통합된 유닛을 소프트웨어 기능유닛 형태로 구현하여 별도의 제품으로 판매 또는 사용하는 경우, 하나의 컴퓨터가 판독 가능한 저장 매체에 저장할 수 있다. 이와 같은 이해를 바탕으로, 본 발명은 상기 실시예 방법 중의 전부 또는 일부의 프로세스를 구현하며, 컴퓨터 프로그램을 통해 관련 하드웨어를 지시하여 완성할 수 있으며, 상기 컴퓨터 프로그램은 컴퓨터가 판독 가능한 일 저장 매체에 저장될 수 있으며, 해당 컴퓨터 프로그램은 프로세서에 의해 실행되면서 상기 각 방법 실시예의 각 단계를 구현할 수 있다. 이 중, 상기 컴퓨터 프로그램은 컴퓨터 프로그램 코드를 포함하며, 상기 컴퓨터 프로그램 코드는 소스코드 형식, 객체 코드 형식, 실행 가능한 파일 또는 일부 중간 형식 등일 수 있다. 상기 컴퓨터가 판독 가능한 매체는 적어도: 상기 컴퓨터 프로그램 코드를 촬영장비/터미널 장비에 탑재할 수 있는 임의 실체 또는 장치, 기록 매체, 컴퓨터 스토리지, 읽기 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 전기 반송파 신호, 전신 신호 및 소프트웨어 배포 매체를 포함할 수 있다. 예를 들어, USB, 외장 하드 디스크, 디스크 또는 CD 등이 있다. 일부 사법관할구역에서는 입법 및 특허 관행에 따라 컴퓨터가 판독 가능한 매체에는 전기 반송파 신호 및 전신 신호가 포함되지 못한다.
상기 실시예들에서, 각 실시예에 대한 설명은 각각 자체의 강조점을 가지며, 특정 실시예를 통한 설명에서 상세하지 않거나 기재되지 않은 부분에 대해서는 기타 실시예의 관련 설명을 참조할 수 있다.
본 분야의 당업자라면 본 문에 개시된 실시예를 통해 설명하는 각 사례적인 유닛 및 알고리즘 단계와 연결시켜, 전자 하드웨어, 또는 컴퓨터 소프트웨어 및 전자 하드웨어의 조합에 의해 구현될 수 있음은 자명하다. 이러한 기능이 하드웨어를 통해 구현되는지 아니면 소프트웨어를 통해 구현되는지는 기술 방안의 특정 응용 및 디자인 약속 여건에 따라 달라진다. 전문 기술인원은 기재된 기능을 구현하기 위해 각 특정 애플리케이션에 대해 다른 방법을 사용할 수 있지만 이와 같은 구현은 본 발명의 청구 범위를 벗어나지 말아야 한다.
본 발명을 통해 안출하는 실시예에 대하여 개시된 장치/네트워크 장비 및 방법은 기타 방식을 통해 구현할 수 있음을 자명하다. 예를 들어, 이상과 같이 기재된 장치/네트워크 장비 관련 실시예는 예시적인 것에 불과하며, 예를 들어 상기 모듈 또는 유닛에 대한 획분은 로직 기능에 대한 구분에 불과하며, 실제 구현에서 별도의 획분 방법을 적용할 수 있으며, 예를 들어, 다수의 유닛 또는 컴포넌트를 다른 시스템에 결합 또는 통합하거나 일부 특징을 무시하거나 수행하지 않을 수 있다. 반면에, 도시되거나 논의되는 상호 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결일 수 있으며, 전기적, 기계적 또는 다른 형태일 수 있다.
상기 분리 부재로 설명된 유닛은 물리적인 분리거나 또는 아닐 수 있으며, 유닛으로 표시된 부재는 물리적인 유닛이거나 또는 아닐 수 있도 있으며, 즉, 한 위치에 구성되거나 또는 다수 네트워크 유닛 상에 분포될 수도 있다. 실제 필요성에 따라 이 중 일부 또는 전부의 유닛을 선택하여 본 실시예가 안출한 방안의 목적을 달성할 수 있다.
상기 실시예는 단지 본 발명의 기술 방안을 설명하기 위함이고, 이를 한정하려는 의도가 아님에 유의해야 하며; 전술한 실시예를 참조하여 본 발명을 상세히 설명하였지만, 본 분야의 통상의 지식을 가진 기술자라면: 전술한 각 실시예에 기재된 기술방안은 수정하거나 이 중에 있는 기술적 특징 중 일부에 대해 동등한 교체를 수행할 수 있으며; 이와 같은 수정 또는 교체에 따른 해당 기술 방안은 본 발명의 각 실시예에 기재된 기술방안의 요지와 범위를 본질적으로 초과하지 않으며, 전부 본 발명의 보호 범위 내에 듬은 자명하다.

Claims (10)

  1. 기동차 계기의 육안 3D 디스플레이 방법에 있어서,
    운전자의 실시간 육안 위치를 실시간으로 수집하고, 상기 실시간 육안 위치에 기반하여 대응되는 실시간 시각적 인터리브 이미지를 생성하고, 디스플레이 인터페이스 상에 상기 실시간 시각적 인터리브 이미지를 디스플레이하는 단계;
    상기 운전자의 인체 동작 발생 여부를 식별하여, 만약 발생하면, 상기 운전자의 인체 동작 정보를 획득하는 단계.
    상기 인체 동작 정보에 기반하여 상기 운전자의 오프셋 구간을 사전 판단하여, 상기 오프셋 구간에 대응하는 시각 이미지 모음을 생성 및 캐싱하는 단계;
    상기 시각 이미지 모음에 기반하여, 상기 디스플레이 인터페이스 상에서 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상하는 단계를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  2. 제1항에 있어서,
    상기 실시간 육안 위치에 기반하여 대응하는 실시간 시각적 인터리브 이미지를 생성하는 단계는:
    상기 실시간 육안 위치에 기반하여 시야 구간을 확정하고, 그래픽 라이브러리에서 상기 시야 구간의 3D 모델 시나리오를 생성하는 단계;
    그래픽 라이브러리에서 상기 실시간 육안 위치에 대응하는 가상 시점 위치를 구성하고, 상기 가상 시점 위치를 기반으로 실시간 렌더링하여 상기 3D 모델 시나리오에서 가상 시점 위치에 대응하는 실시간 시각적 인터리브 이미지를 생성하는 단계;를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  3. 제2항에 있어서,
    상기 실시간 육안 위치를 기반으로 시야 구간을 확정하는 단계는;
    사전 설정 운전중심의 시각이 위치한 표준 시야를 획득하는 단계 -상기 표준 시야는 상기 사전 설정 운전중심의 시각이 수평 방향 좌, 우 양측 각각에 있는 약간 수량의 유닛 구간에서의 각도 범위이며, 상기 표준 시야내 각 유닛 구간은 상기 시야 구간임-;
    상기 실시간 육안 위치와 상기 사전 설정 운전중심 시각의 편각에 기반하여 상기 실시간 육안 위치가 있는 시야 구간을 계산하는 단계;를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  4. 제1항에 있어서,
    상기 운전자의 인체 동작 발생 여부를 식별하는 단계는:
    운전자의 제스처 키 포인트를 실시간으로 수집하고, 상기 제스처 키 포인트에 기반하여 인체 몸통 제스처 벡터와 안면각 포인트의 동작 벡터를 구성하는 단계;
    상기 인체 몸통 제스처 벡터와 상기 안면각 포인트의 동작 벡터에 기반하여 운전자의 몸통 및 머리의 오프셋각을 계산하며, 만약 상기 몸통과 머리의 오프셋각이 사전 설정값을 초과하면, 운전자가 인체 동작이 있는 것으로 판단하고, 상기 몸통과 머리의 오프셋각을 인체의 기울어진 제스처를 표징하는 인체 동작 정보로 적용하는 단계;를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  5. 제1항에 있어서,
    상기 인체 동작 정보에 기반하여 상기 운전자의 오프셋 구간을 사전 판단하는 단계는:
    인체 제스처 알고리즘을 적용하여 상기 인체 동작 정보를 정합하고 식별하여 운전자의 동작 추세 확률값을 획득하는 단계;
    상기 인체 동작 추세 확률값에 기반하여 운전자의 다음 단위 시간 내 육안 위치를 예측하며, 상기 운전자의 다음 단위 시간 내 육안 위치에 기반하여 상기 운전자의 오프셋 구간을 계산하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  6. 제1항에 있어서,
    상기 오프셋 구간에 대응하는 시각 이미지 모음을 생성 및 캐싱하는 단계는:
    그래픽 라이브러리에서 상기 오프셋 구간의 3D 모델 시나리오를 생성하는 단계;
    상기 오프셋 구간내에 사전 설정된 약간의 시야 구간의 사전 설정된 시점에 기반하여 상기 각 시야 구간에 사전 설정된 시점 각각에 대응하는 캐시 이미지를 렌더링하여 생성하며, 모든 상기 시야 구간의 사전 설정된 시점에 대응하는 상기 캐시 이미지를 상기 오프셋 구간에 대응하는 시각 이미지 모음으로 적용하는 단계
    를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  7. 제6항에 있어서,
    상기 시각 이미지 모음에 기반하여, 상기 디스플레이 인터페이스 상에서 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상하는 단계는:
    상기 실시간 육안 위치에 기반하여 상기 실시간 육안 위치와 이전 프레임을 통해 수집한 운전자의 육안 위치가 동일한 시야 구간에 있는지 여부를 판단하는 단계;
    만약 상기 실시간 육안 위치가 상기 이전 프레임을 통해 수집한 운전자의 육안 위치와 동일한 시야 구간에 있지 않으면, 상기 실시간 육안 위치가 오프셋 구간에 있는지 여부를 판단하는 단계;
    만약 상기 실시간 육안 위치가 상기 오프셋 구간에 있으면, 상기 오프셋 구간 중 상기 실시간 육안 위치와 가장 가까운 시야 구간의 사전 설정 시점을 타겟 시야 구간의 사전 설정 시점으로 하여, 상기 시각 이미지 모음으로부터 상기 타겟 시야 구간 사전 설정 시점에 대응되게 매칭하는 상기 타겟 캐시 이미지를 획득하는 단계;
    상기 타겟 캐시 이미지에 기반하여 상기 실시간 시각적 인터리브 이미지에 대하여 응답 보상하는 단계를 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 방법.
  8. 기동차 계기의 육안 3D 디스플레이 장치에 있어서,
    운전자의 위치 정보를 수집하는 수집 모듈 -상기 수집 모듈에는 육안 포지셔닝 유닛 및 동작 식별 유닛이 포함되며; 상기 육안 포지셔닝 유닛은 실시간 육안 위치 정보를 수집하는 데 사용되며, 상기 동작 식별 유닛은 인체 동작 정보를 획득하는 데 사용됨-;
    제1 계산처리 모듈 및 제2 계산처리 모듈을 포함하는 계산처리 모듈 - 상기 제1 계산처리 모듈은 상기 실시간 육안 위치 정보를 수신하여, 현재 시야 구간을 계산하고, 현재 시야 구간에 대응되는 제1 인터리브 이미지 화면을 생성하는 데 사용되며; 상기 제2 계산처리모듈은 상기 인체 동작 정보에 기반하여 운전자의 오프셋 구간을 예측하여, 오프셋 구간에 대응하는 제2 인터리브 이미지 화면을 생성하는 데 사용됨-;
    상기 제2 인터리브 이미지 화면을 캐싱하기 위한 캐시 모듈;
    제1 인터리브 이미지 화면을 디스플레이하고 상기 제2 인터리브 이미지 화면을 추출하여 새로 고침하는 데 사용되는 디스플레이 모듈;을 포함하는 것을 특징으로 하는 기동차 계기의 육안 3D 디스플레이 장치.
  9. 터미널 장비에 있어서,
    메모리, 프로세서 및 상기 메모리에 저장되어 상기 프로세서 상에서 실행 가능한 컴퓨터 프로그램을 포함하며, 상기 프로세서를 통해 상기 컴퓨터 프로그램을 실행할 때, 제1항 내지 제7항 중 어느 하나의 항에 기재된 상기 방법을 구현하는 것을 특징으로 하는 터미널 장비.
  10. 컴퓨터가 판독 가능한 저장 매체에 있어서,
    상기 컴퓨터가 판독 가능한 저장 매체는 컴퓨터 프로그램을 저장하며, 상기 컴퓨터 프로그램은 프로세서에 의해 실행될 때 제1항 내지 제7항 중 어느 하나의 항에 기재된 상기 방법을 구현하는 것을 특징으로 하는 컴퓨터가 판독 가능한 저장 매체.
KR1020230172085A 2022-12-21 2023-12-01 기동차 계기의 육안 3d 디스플레이 방법 및 장치 KR20240099029A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211651220.1 2022-12-21

Publications (1)

Publication Number Publication Date
KR20240099029A true KR20240099029A (ko) 2024-06-28

Family

ID=

Similar Documents

Publication Publication Date Title
US11836289B2 (en) Use of eye tracking to adjust region-of-interest (ROI) for compressing images for transmission
US10775886B2 (en) Reducing rendering computation and power consumption by detecting saccades and blinks
EP3571673B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
EP3605279A1 (en) Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
US9348141B2 (en) Low-latency fusing of virtual and real content
EP3608755A1 (en) Electronic apparatus operated by head movement and operation method thereof
US10999412B2 (en) Sharing mediated reality content
KR20210113602A (ko) 시선 추적에 기초한 동적 렌더링 시간 타겟팅
US20190102934A1 (en) Shadows for inserted content
CN109725730B (zh) 头戴显示设备及其驱动方法、显示系统及其驱动方法
KR20220137880A (ko) 증강 현실에서 물리적 객체에 의한 가상 객체의 오클루전
JP2022517990A (ja) Hmd内のディスプレイパネルおよび/または仮想カメラの反対への回転
CN112384843A (zh) 动态面板掩膜
KR20210092228A (ko) 밝기 제어 환경에서 로컬 디밍을 위한 장치 시스템 및 방법
US11308685B2 (en) Rendering computer-generated reality text
CN109890472A (zh) 一种图像渲染的方法、装置及vr设备
JP2019047296A (ja) 表示装置、表示方法、制御プログラム、および電子ミラーシステム
KR20240099029A (ko) 기동차 계기의 육안 3d 디스플레이 방법 및 장치
CN115914603A (zh) 图像渲染方法、头戴显示设备和可读存储介质
EP3467637B1 (en) Method, apparatus and system for displaying image
Schinko et al. Building a Driving Simulator with Parallax Barrier Displays.
US20240214545A1 (en) Method and device for naked eye 3d displaying vehicle instrument
US11823343B1 (en) Method and device for modifying content according to various simulation characteristics
WO2020184029A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN115761089A (zh) 图像渲染方法、装置、头戴显示设备和可读存储介质