KR101997298B1 - 3차원 가상의 시나리오 내 물체의 선택 - Google Patents

3차원 가상의 시나리오 내 물체의 선택 Download PDF

Info

Publication number
KR101997298B1
KR101997298B1 KR1020147006821A KR20147006821A KR101997298B1 KR 101997298 B1 KR101997298 B1 KR 101997298B1 KR 1020147006821 A KR1020147006821 A KR 1020147006821A KR 20147006821 A KR20147006821 A KR 20147006821A KR 101997298 B1 KR101997298 B1 KR 101997298B1
Authority
KR
South Korea
Prior art keywords
virtual
scenario
dimensional
surface area
marking element
Prior art date
Application number
KR1020147006821A
Other languages
English (en)
Other versions
KR20140060534A (ko
Inventor
리온하드 보겔미어
데이비드 위트만
Original Assignee
에어버스 디펜스 앤드 스페이스 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에어버스 디펜스 앤드 스페이스 게엠베하 filed Critical 에어버스 디펜스 앤드 스페이스 게엠베하
Publication of KR20140060534A publication Critical patent/KR20140060534A/ko
Application granted granted Critical
Publication of KR101997298B1 publication Critical patent/KR101997298B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

본 발명은 3차원 가상의 시나리오(300)를 대표하기 위한 그리고 3차원 시나리오와 상호작용하기 위한 표현 장치(100)에 대한 것이며, 3차원 시나리오를 표현하기 위한 적어도 하나의 표현 영역을 가지며 그리고 한 입력 유닛을 갖는 표현 장치에 대한 것이다. 한 마킹 요소(602)가 가상의 표면 영역(601)에서 병진 2 자유도계를 갖도록 이동되며, 3차원 가상의 시나리오 내 가상의 물체(301) 각각이 상기 마킹 요소로 선택될 수 있도록 한다.

Description

3차원 가상의 시나리오 내 물체의 선택{SELECTION OF OBJECTS IN A THREE-DIMENSIONAL VIRTUAL SCENE}
본 발명은 3차원 가상의 시나리오를 표현하고 상기 3차원 가상의 시나리오와 상호작용하기 위한 표현 장치, 3차원 가상의 시나리오를 표현하고 동작시키기 위한 워크스테이션 장치, 에어 트래픽 제어 워크스테이션으로서 영공을 표현하고 모니터링하기 위한 그리고 무인 비행체를 모니터링하기 위한 워크스테이션 장치의 사용, 그리고 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법에 대한 것이다.
입체 시각화(visualization) 기술이 입체 디스플레이 관찰자에게 3차원 시나리오의 인상을 발생시키도록 사용된다. 상기 관찰자는 관찰자의 눈이 다른 이미지를 인식하므로 3차원 인상을 경험한다.
3차원 가상의 시나리오 내 3차원 가상의 물체와의 상호작용은 병진의 3 자유도계( three translational degrees of freedom) 입력을 필요로 하는데, 이는 2차원 시나리오와 비교하여, 3차원 시나리오가 깊이 차원을 가지기 때문이다. 소위 컴퓨터 마우스 또는 소위 트랙볼과 같은 종래의 상호작용 장치가 병진의 2 자유도계만을 제공하기 때문에, 특수한 상호작용 장치 및/또는 방법에 의한 3 자유도계의 입력이 필요하다.
본 발명의 목적은 3차원 가상의 시나리오를 표현하고, 그리고 표현 장치가 3차원 가상의 시나리오와 선택적인 상호작용 가능성을 제공하는, 이 같은 3차원 가상의 시나리오와 상호작용하기 위한 표현 장치를 제공하는 것이다.
표현 장치, 워크스테이션 장치, 워크스테이션 장치의 사용, 한 방법, 컴퓨터 프로그램 요소, 그리고 컴퓨터-판독가능 매체가 독립 청구항의 특징에 따라 제공된다. 하위 청구항 그리고 다음 설명은 본 발명의 세부 사항들을 제공한다.
표현 장치 그리고 워크스테이션 장치에 대하여 설명된 많은 특징이 방법 단계로 실시 될 수 있으며 그 반대도 마찬가지이다.
본 발명의 첫 번째 특징에 따라, 3차원 시나리오를 표현하기 위한 적어도 하나의 표현 영역 그리고 한 입력 유닛을 갖는 3차원 가상의 시나리오를 표현하기 위한 그리고 3차원 시나리오와 상호작용하기 위한 표현 장치가 제공된다. 상기 입력 유닛은 3차원 시나리오 내 마킹 요소의 이동을 제어하기 위해 실시되며, 이때의 이동은 2 자유도계를 가져서 가상의 물체 각각이 3차원 가상의 시나리오 내에서 선택될 수 있도록 한다.
상기 표현 장치는 물론 예를 들면 2, 3, 4, 또는 이보다 큰 수의 표현 영역과 같은 2 이상의 표현 영역을 가질 수 있다.
상기 표현 영역은 입체 시각화를 위해 실시되는 디스플레이 요소일 수 있다. 이 같은 표현 영역들은 따라서 입체 시각화 기술을 위해 사용되기 위해 적절한 디스플레이 또는 투영 표면일 수 있다.
상기 그리고 이전에 설명된 표현 장치는 병진의 2 자유도계를 제공하는 한 입력 유닛을 사용하는 동안, 3차원 가상의 시나리오 내 가상의 물체와 상호작용을 허용한다.
회전 자유도계(rotational degree of freedom)와 달리, 병진의 자유도계는 병진 이동을 수행하는 때 바디(body)가 한 방향으로 이동하는 것을 의미한다.
병진의 2 자유도계를 갖는 마킹 요소의 이동은 마킹 요소가 표면 영역을 따라 이동함을 의미한다. 다시 말해서, 한 마킹 요소가 제1 방향을 따라 그리고 제2 방향을 따라 한 표면에서 이동할 수 있고, 제1 방향에 대한 이동 벡터와 제2 방향에 대한 이동 벡터는 서로 직각이다. 자연적으로 합성 방향의 이동이 또한 가능하다. 즉 한 합성 이동 방향은 제1 이동 벡터로부터의 한 성분 그리고 제2 이동 벡터로부터의 한 성분을 갖는다.
다시 말해서, 이는 마킹 요소들이 두 설정 이동 방향을 따라 이동할 수 있음을 의미한다. 이는 상기 마킹 요소가 병진의 2 자유도계를 가짐을 의미한다.
따라서, 상기 그리고 다음에서 설명되는 표현 장치는 3차원 가상의 시나리오와의 상호작용이 단순하고 신속하게 습득될 수 있도록 한다.
3차원 가상의 시나리오와의 상호작용이라 함은 특히, 3차원 가상의 시나리오에 배치된 가상의 물체의 선택 및 조작을 의미한다.
본 발명의 한 실시 예에 따라, 병진의 2 자유도계를 갖는 마킹 요소의 이동은 가상의 표면 영역에서 발생 된다.
상기 가상의 표면 영역은 상기 마킹 요소의 두 허용가능한 이동 방향에 의해 결정된다.
상기 3차원 가상의 시나리오 내 가상의 물체는 마킹 요소를 사용하는 표현 장치의 오퍼레이터 한 눈으로부터 한 연결라인이 계산되어 선택될 수 있다. 상기 가상의 표면 영역 상에서 마킹 요소(marking element)의 이동은 상기 연결 라인의 위치를 변경시킨다. 마찬가지로, 상기 연결 라인의 위치는 관찰자가 자신의 눈의 위치를 변경하는 때 변경된다. 상기 3차원 가상의 시나리오 내 가상의 물체는 상기 연결 라인이 3차원 가상의 시나리오 내로 연장되는 때 선택되며, 상기 연결 라인이 가상의 물체의 가상의 위치에 대한 가상의 좌표와 교차하는 때 한 가상의 물체가 선택된다.
특히, 한 가상의 물체는 가상의 물체가 보이는 때, 즉 상기 연결 라인이 가상의 물체와 교차하도록 마킹 요소가 이동하는 때, 그리고 예를 들면 컴퓨터 마우스에서 키를 누름으로써, 입력 요소에서 선택 요소를 작동시키어 선택될 수 있으며, 가상의 물체의 선택이 확인된다.
본 발명의 또 다른 실시 예에 따라, 상기 가상의 표면 영역은 한 평면으로 실시된다.
특히 가상의 표면 영역이 3차원 가상의 시나리오 내 관념적인 표면 영역에 불과하며 상기 마킹 요소의 두 허용가능한 이동 방향에 의해 정해진다.
본 발명의 또 다른 실시 예에 따라, 상기 가상의 표면 영역은 원형 아크로서 실시된다.
상기 가상의 3차원 시나리오에서, 따라서 상기 가상의 표면 영역은 원형 아크의 물리적인 등가물, 즉 중공의 실린더 아크를 나타낸다.
상기 가상의 표면 영역이 둥근 형상으로부터 깊이 컴포넌트를 얻는다 하여도, 상기 마킹 요소는 두 이동 방향의 명세를 사용하여 상기 가상의 표면 영역 상의 한 포인트로부터 상기 가상의 표면 영역의 다른 한 요구된 포인트로 이동하는 것이 가능하다.
상기 가상의 표면 영역은 예를 들면 반구 또는 구 형상과 같은 다른 요구된 형상으로 실시될 수도 있다.
가령 상기 3차원 시나리오는 관찰자가 가상의 물체에 의해 둘러싸이도록, 다시 말해서 관찰자가 3차원 가상의 시나리오의 중앙에 배치되도록 투영될 수 있다. 이 같은 경우, 상기 가상의 표면은 한 구로서 관찰자를 둘러싸며 상기 마킹 요소는 구 표면 위에서 이동하도록 실시된다.
본 발명의 또 다른 실시 예에 따라, 상기 가상의 표면 배치는 3차원 가상의 시나리오 내에서 변경될 수 있다.
상기 3차원 가상의 시나리오 내 가상의 표면 영역의 배치 변경은 상기 마킹 요소가 가상의 표면 영역을 따라서만 이동한다는 사실을 변경하지 않는다. 3차원 가상의 시나리오 내에 배치된 가상의 표면 영역이 깊이 컴포넌트를 가질 수 있기 때문에, 3차원 가상의 시나리오 내 가상의 표면 영역 배치 변경은 상기 마킹 요소가 3차원 가상의 시나리오와 관련하여 상응하여 변경된 이동을 하도록 할 수 있다.
예를 들어 가상의 표면 영역이 한 평면이라면, 상기 가상 표면 영역이 3차원 가상의 시나리오 내에서 갖는 기울기 각도가 변경될 수 있다. 마찬가지로, 3차원 가상의 시나리오 내 상기 가상의 표면 영역의 위치가 변경될 수 있다.
본 발명의 또 다른 특징에 따라, 3차원 가상의 시나리오를 표현하고 3차원 가상의 시나리오와 상호작용하기 위하여 한 표현 장치를 갖는 3차원 가상의 시나리오를 표현하고 동작시키기 위한 워크스테이션 장치가 제공된다.
상기 워크스테이션 장치는 예를 들면 한 사람 또는 다수의 사용자에 의해 사용되어 무인 비행체를 조정하거나 요구된 시나리오를 모니터하도록 한다.
상기 그리고 다음에 설명되는 워크스테이션 장치는 또한 다수의 표현 장치를 가질 수 있으며, 그러나 또한 추가의 2차원으로 표현된 정보를 표현하기 위한 하나 또는 다수의 종래 디스플레이를 가질 수 있기도 하다.
또한, 상기 워크스테이션 장치는 상기 그리고 다음에 설명되는 3차원 가상의 시나리오와의 상호작용에 추가하여 또는 대신하여 사용될 수 있는 입력 요소들을 가질 수 있다.
상기 워크스테이션 장치는 예를 들면 에어 트래픽 컨트롤 워크스테이션을 위한 것과 같은, 소위 컴퓨터 마우스, 키보드, 또는 사용-전형적인 상호작용 장치를 가질 수 있다.
마찬가지로, 상기 디스플레이 또는 표현 유닛은 종래의 디스플레이 또는 터치-민감 디스플레이 또는 표현 유닛(소위 터치스크린)일 수 있다.
본 발명의 또 다른 실시 예에 따라, 상기 그리고 다음에 설명되는 바와 같은 워크스테이션장치가 영공을 모니터하기 위해 제공된다.
본 발명의 다른 한 특징에 따라, 상기 그리고 다음에 설명되는 바와 같은 워크스테이션 장치는 에어 트래픽 컨트롤 워크스테이션으로서 제공된다.
따라서 워크스테이션 장치의 오퍼레이터가 간단한 방법으로 상기 표현된 가상의 물체, 즉 모니터되고 표현될 상기 영역 내 비행체와 상호작용하는 것이 가능하며, 즉 이들 비행체를 선택하고 선택된 비행체로 지시를 전송하는 것이 가능하다.
본 발명의 또 다른 특징에 따라, 상기 그리고 다음에 설명되는 바와 같은 워크스테이션의 사용이 무인 비행체를 모니터하고 컨트롤하기 위해 제공된다.
따라서 워크스테이션 장치의 오퍼레이터가 간단한 방법으로 상기 표현된 가상의 물체, 즉 표현된 3차원 가상의 시나리오 내 무인 비행체와 상호작용하는 것이 가능하며, 즉 이들 비행체를 선택하고 선택된 비행체로 지시를 전송하는 것이 가능하다.
마찬가지로, 상기 워크스테이션 장치는 또한 예를 들면 무인 비행체의 컴포넌트인 카메라 또는 다른 센서와 같은 컴포넌트를 제어하기 위해 사용될 수 있기도 하다.
본 발명의 또 다른 특징에 따라, 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법이 제공된다. 이 같은 방법은 다음의 단계들을 갖는다: 3차원 가상의 시나리오 내 한 마킹 요소를 재생시키고; 한 가상의 표면 영역을 따라 2 자유도계를 갖는 마킹 요소를 이동시키며; 상기 가상의 표면 영역에서 상기 마킹 요소를 일정한 영역에 위치시킴에 의해 3차원 가상의 시나리오 내 한 가상의 물체를 선택하는 단계.
본 발명의 한 실시 예에 따라, 상기 방법은 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 다음의 단계를 더욱 갖는다: 관찰자의 눈으로부터 상기 마킹 요소로의 한 연결 라인을 결정하며, 상기 연결 라인을 결정하는 것이 상기 가상의 물체를 선택하기 전에 발생 되는 것이고, 상기 마킹 요소가 가상의 표면 영역에서 이동하여 상기 연결 라인이 3차원 가상의 시나리오 내 가상의 물체의 가상의 위치와 상호작용하도록 상기 물체가 선택되는 단계.
본 발명의 또 다른 한 특징에 따라, 상기 그리고 다음에 설명되는 바와 같이 3차원 가상의 시나리오를 표현하고 그와 상호작용하기 위해 표현 장치를 제어하기 위한 컴퓨터 프로그램 요소가 제공되며, 상기 그리고 다음에 설명되는 바와 같이 상기 컴퓨터 프로그램 요소가 계산 유닛의 처리기에서 실행되는 때 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법을 수행하도록 실시된다.
상기 컴퓨터 프로그램 요소는 계산 유닛의 처리기를 지시하여 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법을 수행하도록 한다.
본 발명의 또 다른 특징에 따라, 컴퓨터-판독가능 매체에는 상기 그리고 다음에 설명되는 바와 같은 컴퓨터 프로그램 요소가 제공된다.
컴퓨터-판독가능 매체는 예를 들면 디스크 드라이브, CD, 및 DVD, 디스켓, 저장 카드 또는 다른 컴퓨터-판독가능 매체 또는 저장 매체일 수 있다.
본 발명의 예시적인 실시 예들이 하기에서 도면을 참고로 하여 상세히 설명될 것이다.
도 1은 본 발명의 한 예시적 실시 예에 따른 표현 장치의 사시도.
도 2는 본 발명의 또 다른 예시적인 실시 예에 따른 표현 장치의 측면도.
도 3은 본 발명의 또 다른 예시적인 실시 예에 따른 표현 장치의 측면도.
도 4는 본 발명의 한 예시적인 실시 예에 따른 표현 장치의 도면.
도 5는 본 발명의 한 예시적인 실시 예에 따른 워크스테이션 장치 측면도.
도 6은 본 발명의 한 예시적인 실시 예에 따른 방법의 도면.
도 7은 본 발명의 한 예시적인 실시 예에 따른 컴퓨터-판독가능 매체의 도면.
도 1은 표현 영역(111)을 갖는, 3차원 가상의 시나리오(300)를 표현하기 위한 표현 장치(100)를 도시한 도면이다. 한 가상의 물체(301) 그리고 한 가상의 표면 영역(601)이 3차원 가상의 시나리오(300)에서 배치된다.
상기 가상의 표면 영역(601)은 한 마킹 요소가 이 영역을 따라 이동할 수 있도록 실시된다. 이 같은 마킹 요소는 3차원 가상의 시나리오(300) 내에서 두 방향으로 이동할 수 있다.
도 2는 3차원 가상의 시나리오(300)를 표현하기 위한 한 표현 영역(111)을 갖는 표현 장치(100)의 측면도이다.
상기 가상의 표면 영역(601) 그리고 가상의 물체(301)는 3차원 가상의 시나리오로 배치된다.
상기 가상의 표면 영역(601)은 3차원 시나리오에서 배치될 수 있다. 이는 상기 가상의 표면 영역의 기울기 및 위치가 조정될 수 있음을 의미한다.
상기 가상의 표면 영역(601)의 위치가 변경된다면, 이는 상기 가상의 표면 영역(601)과 관련하여 가상의 물체(301)의 가상의 위치가 변경되도록 한다. 도 2에서, 상기 가상의 표면 영역(601)은 상기 가상의 물체(301)가 표현 영역(111)과 가상의 표면 영역(601) 사이에 배치되도록 배열된다.
그러나, 상기 가상의 표면 영역(601)은 또한 하나 또는 다수의 가상의 물체(301)와 상기 표현 영역(111) 사이에 배치되도록 배열된다.
원칙적으로, 상기 3차원 가상의 시나리오 내 가상의 표면 영역의 위치는 가상의 물체를 선택하기 위한 방법에서의 어떠한 변경에도 영향을 미치지 않는다.
선택될 한 가상의 물체가 가상의 표면 영역과 관측자의 눈 사이에 배치되면, 상기 가상의 물체는, 관찰자의 눈으로부터 마킹 요소로의 연결 라인이 상기 가상의 물체의 위치에 대한 가상의 좌표를 통해 진행하도록 선택된다.
선택될 상기 가상의 물체가 가상의 표면 영역과 표현 유닛 사이에 배치되면, 상기 가상의 물체는, 3차원 가상의 시나리오 내로 상기 연결 라인이 확장되고 가상의 물체의 위치를 위한 좌표를 통해 진행하도록 선택된다.
도 3은 3차원 가상의 장면(300)에 대한 표현 영역(111)을 갖는 표현 장치(100)를 도시하며, 가상의 물체(301) 그리고 가상의 표면 영역(601)이 3차원 가상의 장면으로 도시된다.
가상의 표면 영역이 원형 아크 형상으로 또는 중공의 실린더 형 아크 형상으로, 또는 이들의 등가 형상으로 실시된다. 마킹 요소가 가상의 표면 영역의 표면을 따라 이동할 수 있다.
도 4는 제1 표현 영역(111) 그리고 제2 표현 영역(112)이 있는 표현 유닛(110)을 갖는 3차원 가상의 시나리오에 대한 표현 장치(100)를 도시한다. 가상의 3차원 물체(301)는 표현 공간(130)에서 재생된다.
상기 3차원 가상의 장면에는 가상의 표면 영역(601)이 배치되며, 상기 가상의 표면 영역(601)에서 마킹 요소(602)가 이동한다. 상기 마킹 요소(602)는 이동시 병진하는 2 자유도계를 갖도록, 상기 가상의 표면 영역(601)에서만 이동한다. 다시 말해서, 상기 마팅 요소(602)는 2차원 이동을 수행하도록 실시된다. 따라서, 상기 마킹 요소는 예를 들면 종래의 컴퓨터 마우스에 의해 제어될 수 있다.
3차원 시나리오 내 한 가상의 물체가 선택되어서, 한 관찰자의 눈(503) 중 적어도 하나의 위치가 검출되도록 그리고 눈(503)의 결정된 위치로부터 상기 표시 공간(130) 내 3차원 시나리오 내로의 한 연결 라인(504)이 상기 마킹 요소(602)를 사용하여 계산되도록 한다.
상기 눈의 위치는 예를 들면 사용자가 반사기를 갖는 아이그레스를 착용하고 카메라 시스템이 반사기의 위치를 검출하여 검출될 수 있다. 그러나, 다른 방법이 상기 눈의 위치를 검출하기 위하여 사용될 수 있기도 하다.
상기 연결 라인은 물론 관찰자 두 눈의 평균 위치로부터 시작하여 계산될 수 있기도 하다. 또한, 사용자 눈의 위치는 적절한 반사기와 함께 또는 반사기 없이 계산될 수 있다. 본 발명과 관련하여, 눈의 위치를 결정하기 위한 어떠한 메카니즘과 방법도 사용될 수 있다.
3차원 시나리오 내 가상의 물체(301)는 상기 연결 라인(504)이 상기 표현 공간(130) 내로 연장되도록 선택되며, 그리고 가상의 좌표가 상기 연결 라인(504)에 의해 교차 되는 그러한 가상의 물체가 선택된다. 다음에 한 가상의 물체(301)가 예를 들면 한 선택 인디케이터(603)에 의해 선택된다.
자연적으로 상기 마킹 요소(602)는 가상의 표면 영역(601) 위에서 이동하는 것으로서, 이 같은 가상의 표면 영역(601)은 표현 공간(130) 내에서 가상의 시나리오 내에 배열되며, 사용자의 관측 포인트로부터 가상 물체(301)가 상기 가상 표면 영역(601) 정면 및/또는 뒤에 배치될 수 있도록 한다.
상기 마킹 요소(602)가 가상의 표면 영역(601) 상에서 이동하여, 상기 연결 라인(504)이 가상의 물체(301)의 좌표와 교차하도록 하자마자, 상기 마킹 요소(602)가 3차원 시나리오 내에 표현되어, 추가의 깊이 정보로 또는 상기 깊이 정보의 변경으로, 상기 선택된 물체의 가상의 3차원 좌표를 채택할 수 있도록 한다. 사용자의 관측 포인트로부터, 이 같은 변경이 표현되어, 가상의 물체(301)가 선택되자마자, 상기 마킹 요소(602)가 사용자를 향하여 또는 사용자로부터 멀어져 공간 이동을 할 수 있도록 한다.
이와 같이 하여, 예를 들면 컴퓨터 마우스와 같은 처리하기 용이한 2차원 상호작용 장치에 의해, 즉 병진의 2 자유도계를 갖는 상호작용 장치에 의해 3차원 시나리오 내 가상의 물체와 상호작용을 허용한다. 3 자유도계를 갖는 특수한 3차원 상호작용 장치와는 대조적으로, 이는 3차원 시나리오와의 상호작용을 배우는 것을 단순하게 하고 용이하게 하는 데, 이는 더욱 적은 자유도계를 갖는 입력 장치가 상기 상호작용을 위해 사용되기 때문이다.
자연적으로 가상의 물체가 또한 3차원 시나리오로 표현되어, 가상의 시나리오 내 물체의 좌표가 마치 가상의 물체가 표현 장치의 시각화 표면 뒤에 배치된 것처럼 사용자의 관측 포인트부터 나타나도록 한다.
도 5는 3차원 가상의 시나리오를 묘사하고 상기 가상의 시나리오와 상호작용하기 위한 워크스테이션 장치(200)를 도시한다. 상기 워크스테이션 장치(200)는 한 표현 유닛(110)이 있는 표현 장치(100)를 갖는다.
상기 표현 유닛(110)은 제1 표현 영역(111) 그리고 제2 표현 영역(112)을 가지며, 제2 표현 영역은 제1 표현 영역과 관련하여 사용자를 향하여 각이 져서, 두 표현 영역이 포함된 각 α(115)를 형성하도록 한다.
이들 관찰자 위치(195)와 관련하여 각이진 위치로, 즉 사용자의 눈 위치로, 표현 유닛(110)의 제1 표현 영역(111) 그리고 표현 유닛(110)의 제2 표현 영역(112)이 3차원 가상의 시나리오를 위한 표현 공간(130)을 커버 한다.
상기 표현 공간(130)은 따라서 가시적인 3차원 가상의 장면이 표현되는 공간 체적이다.
3차원 가상의 시나리오를 위한 표현 공간(130)을 사용함에 추가하여, 상기 워크스테이션 장치(200)를 사용하는 동안 좌석(190)을 사용하는 관찰자는, 또한 워크스테이션 영역(140)을 또한 사용할 수 있으며, 그와 같은 워크스테이션 영역 위에 추가의 터치-민감 또는 종래의 디스플레이가 배치된다.
상기 포함된 각 α(115)는 상기 표현 공간(130) 내 모든 가상의 물체가 상기 워크스테이션 장치(200)의 사용자 팔이 닿는 범위 내에 배치되도록 크기가 정해진다. 특히 90도와 150도 사이인 포함된 각 α인 경우 사용자 팔이 도달하는 범위에 잘 적응된다. 이 같은 포함된 각도 α는 개별 사용자의 개별 요구 사항에 맞도록 할 수 있기도 하며, 따라서 90도 내지 150 도 범위에 못 미치거나 이 같은 범위를 초과할 수 있기도 하다. 한 예시적인 실시 예에서, 상기 포함된 각도 α는 120도이다.
에어 공간을 모니터하기 위해, 3차원 가상의 시나리오가 예를 들면 표현 유닛(110)의 제2 표현 영역(112)이 지구의 가상의 디스플레이 표면 또는 우주 공간의 기준 표면 이도록 묘사될 수 있다.
따라서 본 발명의 워크스테이션 장치는 간단한 직관적인 상호작용 옵션으로 특히 항공기, 웨이포인트, 관리 영역, 위협 공간, 터레인 지형, 그리고 기상 현상과 같은 지리학적으로 기준이 설정된 데이터의 통합된 공간 표현으로 3차원 가상의 시나리오의 장시간 그리고 낮은 피로 처리에 적합하다.
따라서 상기 그리고 다음에 설명된 워크스테이션 장치는 큰 입체 표현 체적 또는 표현 영역을 허용한다. 또한, 상기 워크스테이션 장치는, 상기 실제로 존재하는 표현 영역 또는 터치 유닛과 동일한 평면에서, 가상의 기준 표면이 가령 터레인 표면(terrain surface)과 같은 3차원 시나리오 내에 위치하도록 허용한다.
도 6은 다음의 단계들을 갖는 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법을 개략적으로 도시한 도면이다: 3차원 가상의 시나리오(601) 내에 한 마킹 요소를 재생하고; 한 가상의 표면 영역(602)을 따라 2 자유도계를 갖는 마킹 요소를 이동시키며; 관측자의 한 눈으로부터 상기 마킹 요소(603)으로의 한 연결 라인을 결정하고; 그리고 상기 가상의 표면 영역(604) 상의 일정 영역에 상기 마킹 요소를 위치시킴에 의해 상기 3차원 가상의 시나리오 내 한 가상의 물체를 선택한다.
상기 물체는 상기 마킹 요소가 상기 가상의 표면 영역에서 이동하도록 선택되어서, 관측자의 눈으로부터 상기 마팅 요소로의 연결 라인이 3차원 가상의 시나리오 내 선택될 가상의 물체의 가상의 위치와 교차하도록 한다.
도 7은 이전에 그리고 다음에 설명되는 표현 장치를 제어하기 위한 컴퓨터 프로그램 요소를 갖는 컴퓨터-판독가능 매체(701)를 도시하며, 이는 상기 컴퓨터 프로그램 요소가 머신의 처리기에서 실행되는 때 3차원 가상의 시나리오 내 가상의 물체를 선택하기 위한 방법을 수행하기 위해 실시된다.

Claims (13)

  1. 3차원 가상의 시나리오(300)를 표현하기 위한 그리고 그와 상호작용하기 위한 표현장치(100)로서:
    상기 3차원 가상의 시나리오를 표현하기 위한 하나 이상의 표현 영역(111);
    상기 3차원 가상의 시나리오 내에서 가상의 물체(301) 각각이 선택될 수 있도록, 마킹 요소(602)의 이동이 2 자유도계를 갖는, 상기 3차원 가상의 시나리오 내에서 마킹 요소(602)의 이동을 제어하기 위한 한 입력 유닛(150)을 가지며, 2 자유도계를 갖는 상기 마킹 요소(602)의 이동이 가상의 표면 영역(601)에서 발생 되고,
    상기 가상의 표면 영역(601)이 상기 3차원 가상의 시나리오 내에서 배열되며(arranged), 가상 표면 영역(601)의 기울기 및 위치가 조정될 수 있고, 상기 가상 표면 영역(601)은 상기 가상의 물체(301)가 표현 영역(111)과 가상 표면 영역(601) 사이에 위치하도록(disposed) 배열되며,
    3차원 가상의 시나리오 내 가상의 물체(301) 선택이 사용자의 적어도 한 눈(eye)(503)을 검출하고, 상기 눈(eye)의 검출된 위치 그리고 가상의 표면 영역 내 마킹 요소(602)의 위치에 기초한 연결라인(504)을 계산하며, 그리고 상기 연결 라인을 상기 가상의 3 차원 시나리오 내로 연장함에 의해 달성되며,
    상기 마킹 요소(602)가 상기 가상 표면 영역(601)에서 이동되어, 상기 연결 라인(504)이 가상 물체(301)의 좌표와 교차하면, 상기 마킹 요소(602)가 3차원 가상의 시나리오로 표현될 수 있어서, 추가의 깊이 정보를 갖는 선택된 물체(301)에 대한 가상의 3차원 좌표를 채택할 수 있도록 하고,
    3차원 시나리오 내 가상 물체(301)와의 상호 작용이 병진의 2 자유도계를 갖는 마킹 요소에 의해 허용되며, 그리고 더욱 적은 자유도계를 갖는 입력 유닛이 상기 상호 작용을 위해 사용되어서 3차원 시나리오와의 상호 작용을 배우는 것을 단순하고 용이하게 하도록 함을 특징으로 하는 3차원 가상의 시나리오(300)를 표현하기 위한 그리고 그와 상호작용하기 위한 표현장치(100).
  2. 삭제
  3. 제1항에 있어서, 상기 가상의 표면 영역이 한 평면에서 실시됨을 특징으로 하는 표현 장치.
  4. 제1항에 있어서, 상기 가상의 표면 영역이 원형 아크로서 실시됨을 특징으로 하는 표현 장치.
  5. 제3항에 있어서, 상기 3차원 가상의 시나리오 내 가상의 표면 영역 배치가 변경될 수 있음을 특징으로 하는 표현 장치.
  6. 제1항, 3항 또는 4항에 따른 표현 장치를 갖는 3차원 가상의 시나리오를 표현하고 동작시키기 위한 워크스테이션 장치.
  7. 영공을 표현하고 모니터링하도록 사용하기 위한 제5항에 따른 워크스테이션 장치.
  8. 에어 트래픽 제어 워크스테이션으로서 사용하기 위한 제5항에 따른 워크스테이션 장치.
  9. 무인 비행체를 모니터링하고 제어하기 위한 제5항에 따른 워크스테이션 장치.
  10. 3차원 가상의 시나리오 내 한 마킹 요소(602)를 재생시키고;
    한 가상의 표면 영역(601)을 따라 2 자유도계를 갖는 마킹 요소(602)를 이동시키며;
    상기 가상의 표면 영역(601)에서 상기 마킹 요소(602)를 일정한 영역에 위치시킴에 의해 3차원 가상의 시나리오 내 한 가상의 물체(301)를 선택하는 단계를 갖는 3차원 가상의 시나리오 내 가상의 물체를 선택하는 방법으로서,
    상기 마킹 요소(602)의 이동이 2자유도계를 가지며, 가상의 표면 영역(601)에서 발생 되고;
    상기 가상의 표면 영역(601)이 상기 3차원 가상의 시나리오 내에서 배열되며(arranged), 가상 표면 영역(601)의 기울기 및 위치가 조정될 수 있고, 상기 가상 표면 영역(601)은 상기 가상의 물체(301)가 표현 영역(111)과 가상 표면 영역(601) 사이에 위치하도록(disposed) 배열되며,
    3차원 가상의 시나리오 내 가상의 물체 선택이 사용자의 적어도 한 눈(eye)(503)을 검출하고; 상기 눈(eye)의 검출된 위치 그리고 가상의 표면 내 마킹 요소(602)의 위치에 기초한 연결라인(504)을 계산하며, 그리고 상기 연결 라인을 상기 가상의 3 차원 시나리오 내로 연장함에 의해 달성되며,
    상기 마킹 요소(602)가 상기 가상 표면 영역(601)에서 이동되어, 상기 연결 라인(504)이 가상 물체(301)의 좌표와 교차하면, 상기 마킹 요소(602)가 3차원 가상의 시나리오로 표현될 수 있어서, 추가의 깊이 정보를 갖는 선택된 물체(301)에 대한 가상의 3차원 좌표를 채택할 수 있도록 하고,
    3차원 시나리오 내 가상 물체(301)와의 상호 작용이 병진의 2 자유도계를 갖는 마킹 요소에 의해 허용되며, 그리고 더욱 적은 자유도계를 갖는 입력 유닛이 상기 상호 작용을 위해 사용되어서 3차원 시나리오와의 상호 작용을 배우는 것을 단순하고 용이하게 하도록 함을 특징으로 하는 3차원 가상의 시나리오(300) 내 가상의 물체(301)를 선택하는 방법.
  11. 제10항에 있어서, 관찰자의 눈으로부터 상기 마킹 요소로의 한 연결 라인을 결정하는 단계를 더욱 가지며;
    상기 연결 라인을 결정하는 것이 상기 가상의 물체(301)를 선택하기 전에 발생 되는 것이며;
    상기 마킹 요소(602)가 가상의 표면 영역(601)에서 이동하여 연결 라인이 3차원 가상의 시나리오 내 가상의 물체의 가상의 위치와 상호작용하도록 상기 물체가 선택됨을 특징으로 하는 3차원 가상의 시나리오 내 가상의 물체를 선택하는 방법.
  12. 청구항 10항에 따른 3차원 가상의 시나리오 내 가상의 물체를 선택하는 방법을 수행하도록 실시되는, 제1항, 제3항 내지 5항 중 어느 한 항에 따른 표현 장치를 제어하기 위한 컴퓨터 처리기에 의해 실행되는 컴퓨터 판독가능 매체.
  13. 삭제
KR1020147006821A 2011-09-08 2012-09-05 3차원 가상의 시나리오 내 물체의 선택 KR101997298B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102011112619A DE102011112619A1 (de) 2011-09-08 2011-09-08 Auswahl von Objekten in einem dreidimensionalen virtuellen Szenario
DE102011112619.1 2011-09-08
PCT/DE2012/000884 WO2013034131A1 (de) 2011-09-08 2012-09-05 Auswahl von objekten in einem dreidimensionalen virtuellen szenario

Publications (2)

Publication Number Publication Date
KR20140060534A KR20140060534A (ko) 2014-05-20
KR101997298B1 true KR101997298B1 (ko) 2019-07-05

Family

ID=47080109

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147006821A KR101997298B1 (ko) 2011-09-08 2012-09-05 3차원 가상의 시나리오 내 물체의 선택

Country Status (7)

Country Link
US (1) US10372288B2 (ko)
EP (1) EP2754298B1 (ko)
KR (1) KR101997298B1 (ko)
CA (1) CA2847421C (ko)
DE (1) DE102011112619A1 (ko)
RU (1) RU2616884C2 (ko)
WO (1) WO2013034131A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011112619A1 (de) 2011-09-08 2013-03-14 Eads Deutschland Gmbh Auswahl von Objekten in einem dreidimensionalen virtuellen Szenario
US9754496B2 (en) 2014-09-30 2017-09-05 Elwha Llc System and method for management of airspace for unmanned aircraft
US20160272310A1 (en) 2014-12-04 2016-09-22 Elwha Llc Reconfigurable unmanned aircraft system
US9919797B2 (en) 2014-12-04 2018-03-20 Elwha Llc System and method for operation and management of reconfigurable unmanned aircraft
US9878787B2 (en) 2015-07-15 2018-01-30 Elwha Llc System and method for operating unmanned aircraft
US20170015414A1 (en) * 2015-07-15 2017-01-19 Elwha Llc System and method for power transfer to an unmanned aircraft
KR101855778B1 (ko) 2016-12-06 2018-05-09 현대자동차 주식회사 가상 마킹을 이용한 차체 결함 제거 방법, 및 시스템
WO2019012315A1 (ru) * 2017-07-13 2019-01-17 Девар Энтертеймент Лимитед Способ формирования среды дополненной реальности
US10922895B2 (en) * 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005527872A (ja) * 2001-09-12 2005-09-15 ヴォリューム・インタラクションズ・プライヴェート・リミテッド 3次元コンピュータモデルと相互作用するための方法および装置
US20050286101A1 (en) * 2004-04-13 2005-12-29 Board Of Regents, The University Of Texas System Holographic projector
US20080040689A1 (en) * 2002-01-25 2008-02-14 Silicon Graphics, Inc. Techniques for pointing to locations within a volumetric display
US20080094398A1 (en) * 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5015188A (en) 1988-05-03 1991-05-14 The United States Of America As Represented By The Secretary Of The Air Force Three dimensional tactical element situation (3DTES) display
US5179377A (en) * 1990-12-31 1993-01-12 Honeywell Inc. Tcas view display format with horizontal trend
US6052100A (en) * 1994-03-16 2000-04-18 The United States Of America Represented By The Secertary Of The Navy Computer controlled three-dimensional volumetric display
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
US6031519A (en) 1997-12-30 2000-02-29 O'brien; Wayne P. Holographic direct manipulation interface
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
SE0102584D0 (sv) 2001-07-23 2001-07-23 Ck Man Ab Sätt och anordning för bildpresentation
JP3579685B2 (ja) 2001-10-24 2004-10-20 独立行政法人電子航法研究所 航空管制用表示装置における航空機位置表示方法
DE10256659A1 (de) * 2002-12-04 2004-07-08 Siemens Ag Engabevorrichtung zur Orientierung in einer dreidimensionalen Visualisierung, Verfahren zur Visualisierung von dreidimensionalen Datensätzen, Darstellungsvorrichtung zur Darstellung einer Visualisierung von dreidimensionalen Datensätzen, Verfahren zum Betrieb eines bildgebenden medizinischen Üntersuchungsgeräts und Verfahren zur graphischen Positionierung einer mittels eines bildgebenden medizinischen Untersuchungsgeräts zu messenden Schicht in einem dreidimensionalen Datensatz einer Vorbereitungsmessung
FR2854265B1 (fr) * 2003-04-28 2006-05-19 Snecma Moteurs Optimisation de l'ergonomie lors du deplacement d'un mannequin virtuel
US7348997B1 (en) * 2004-07-21 2008-03-25 United States Of America As Represented By The Secretary Of The Navy Object selection in a computer-generated 3D environment
DE102007057208A1 (de) 2007-11-15 2009-05-28 Spatial View Gmbh Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
RU2451982C1 (ru) * 2008-06-24 2012-05-27 Олег Станиславович Рурин Способ воздействия на виртуальные объекты
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
JP4900741B2 (ja) 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
KR101682205B1 (ko) 2010-05-03 2016-12-05 삼성전자주식회사 입체영상의 시청피로를 저감하는 장치 및 방법
US8896667B2 (en) 2010-10-25 2014-11-25 Aptina Imaging Corporation Stereoscopic imaging systems with convergence control for reducing conflicts between accomodation and convergence
JP5678643B2 (ja) 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102011112619A1 (de) 2011-09-08 2013-03-14 Eads Deutschland Gmbh Auswahl von Objekten in einem dreidimensionalen virtuellen Szenario

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005527872A (ja) * 2001-09-12 2005-09-15 ヴォリューム・インタラクションズ・プライヴェート・リミテッド 3次元コンピュータモデルと相互作用するための方法および装置
US20080040689A1 (en) * 2002-01-25 2008-02-14 Silicon Graphics, Inc. Techniques for pointing to locations within a volumetric display
US20050286101A1 (en) * 2004-04-13 2005-12-29 Board Of Regents, The University Of Texas System Holographic projector
US20080094398A1 (en) * 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")

Also Published As

Publication number Publication date
US20140250412A1 (en) 2014-09-04
KR20140060534A (ko) 2014-05-20
CA2847421A1 (en) 2013-03-14
EP2754298A1 (de) 2014-07-16
RU2014113401A (ru) 2015-10-20
US10372288B2 (en) 2019-08-06
WO2013034131A1 (de) 2013-03-14
RU2616884C2 (ru) 2017-04-18
EP2754298B1 (de) 2022-05-18
CA2847421C (en) 2020-07-07
DE102011112619A1 (de) 2013-03-14

Similar Documents

Publication Publication Date Title
KR101997298B1 (ko) 3차원 가상의 시나리오 내 물체의 선택
CN106662925B (zh) 使用头戴式显示器设备的多用户注视投影
JP4901539B2 (ja) 立体映像表示システム
EP3106963B1 (en) Mediated reality
EP2915486B1 (en) Method and apparatus for displaying 3d image
JP6662914B2 (ja) 媒介現実
WO2015090421A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
CN106575153A (zh) 虚拟现实环境内基于注视的对象放置
US20100315414A1 (en) Display of 3-dimensional objects
EP3112986A1 (en) Content browsing
EP2792148A1 (en) Improved three-dimensional stereoscopic rendering of virtual objects for a moving observer
CN105657406A (zh) 三维观察视角选定方法和装置
JP2023520765A (ja) 仮想および拡張現実のためのシステムおよび方法
US20210081051A1 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
RU2604430C2 (ru) Взаимодействие с трехмерным виртуальным динамическим отображением
US20070200847A1 (en) Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques
US20130201178A1 (en) System and method providing a viewable three dimensional display cursor
Tara et al. Improving the visual momentum of tethered viewpoint displays using spatial cue augmentation
WO2023204013A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US10650595B2 (en) Mediated reality
Kleiber et al. Case study: using a stereoscopic display for mission planning
Bordegoni et al. A Mixed Environment for Ergonomics Tests: Tuning of Stereo Viewing Parameters.
Bapat Integration of multiple vision systems and toolbox development

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant