KR20150007023A - Vehicle simulation system and method to control thereof - Google Patents

Vehicle simulation system and method to control thereof Download PDF

Info

Publication number
KR20150007023A
KR20150007023A KR20130080823A KR20130080823A KR20150007023A KR 20150007023 A KR20150007023 A KR 20150007023A KR 20130080823 A KR20130080823 A KR 20130080823A KR 20130080823 A KR20130080823 A KR 20130080823A KR 20150007023 A KR20150007023 A KR 20150007023A
Authority
KR
South Korea
Prior art keywords
infrared ray
image
ray emitting
user
projector
Prior art date
Application number
KR20130080823A
Other languages
Korean (ko)
Other versions
KR101507014B1 (en
Inventor
김성석
Original Assignee
주식회사 도담시스템스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 도담시스템스 filed Critical 주식회사 도담시스템스
Priority to KR1020130080823A priority Critical patent/KR101507014B1/en
Publication of KR20150007023A publication Critical patent/KR20150007023A/en
Application granted granted Critical
Publication of KR101507014B1 publication Critical patent/KR101507014B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • G09B19/165Control of aircraft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/10Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer with simulated flight- or engine-generated force being applied to aircraft occupant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Abstract

According to the present invention, a vehicle simulation system includes: a boarding part on which a user can sit on; an infrared ray emission part which is worn on a head of the user; an infrared camera which is located on a front side of the boarding part and senses movement of the infrared ray emission part; a control part which generates an image in the direction of user′s vision corresponding to the movement of the infrared ray emission part recorded by the infrared ray camera; and a display part which outputs and displays the image generated by the control part. According to the present invention, multiple users can get on one vehicle simulation system at the same time and can practice flight simulation based on tasks for the users and training characteristics for one vehicle when both a pilot and a co-pilot practice flight training using simulation for a vehicle such as a helicopter and an airplane. During a flight training process using simulation, the image corresponding to a location and movement of the user is provided in real time. The vehicle simulation system can provide training images optimized for each user, and thus enables the users to more effectively practice flight training using simulation for a vehicle.

Description

운송장치 시뮬레이션 시스템 및 그 제어방법{Vehicle simulation system and method to control thereof} Technical Field [0001] The present invention relates to a vehicle simulation system and a control method thereof,

본 발명은 운송장치 시뮬레이션 시스템 및 그 제어방법에 관한 것으로, 더욱 상세하게는 적외선 트랙킹 기술을 이용하여 사용자의 위치 및 방향에 최적화된 영상을 제공하도록 하는 운송장치 시뮬레이션 시스템 및 그 제어방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a transportation device simulation system and a control method thereof, and more particularly, to a transportation device simulation system and a control method thereof for providing an optimized image in a user's position and direction using an infrared tracking technology.

일반적으로 운송장치 시뮬레이션 시스템은 항공기와 같은 각종 운송장치의 사전 조작 훈련을 위하여 많이 사용된다. 시뮬레이션 시스템은 가상의 환경에 대한 모의 영상을 디스플레이부에 표시하고, 사용자가 이 디스플레이부를 시청하면서 실제 운송장치의 조종부와 매우 유사한 조종부를 이용하여 디스플레이 되는 영상에 따라 해당 운송장치를 가상으로 운전함으로써 훈련하는 것이다.In general, the transportation device simulation system is widely used for the pre-operation training of various transportation devices such as an aircraft. The simulation system displays a simulated image of a virtual environment on the display unit and while the user views the display unit, the simulator drives the corresponding transportation apparatus in accordance with the displayed image using the control unit very similar to the control unit of the actual transportation apparatus It is training.

운송장치 시뮬레이션 시스템은 한명의 사용자가 탑승하여 사용하는 경우도 있지만 복수의 사용자가 동시에 탑승하여 사용하는 경우도 있다. 예를 들어 항공기용 시뮬레이터 시스템의 경우 주조종사와 부조종사 및 그 외 다른 탑승자가 동시에 탑승하여 하나의 운송장치를 조작하는 훈련을 수행할 수 있다.In some cases, a transportation system simulation system is used by a single user, but a plurality of users may simultaneously use the system. For example, in the case of an aircraft simulator system, a main pilot, a co-pilot, and other passengers may be simultaneously riding to perform training to operate one transportation device.

그런데, 이와 같이 복수의 사용자가 탑승하여 훈련하는 경우에 각각의 탑승자에게 동일한 영상을 표시하는 것은 실제 운송장치의 운송시에 사용자가 시청하게 되는 외부 환경과는 다르기 때문에 훈련 효과를 반감시키는 문제가 있다. However, in the case where a plurality of users are trained and boarded, the same image is displayed on each occupant, which is different from the external environment that the user sees during transportation of the actual transportation apparatus, and thus there is a problem in half the training effect .

예를 들어 항공기의 콕핏의 프레임에 가려진 부분의 영상을 시청하기 위하여 복수의 사용자중 어느 한명의 사용자가 머리를 움직여 보이지 않은 부분을 확인하더라도 이에 매칭된 영상을 개별적으로 제공하지 못하기 때문에 시뮬레이션 시스템을 이용한 운송 장치의 현실감 있는 체감 훈련에 한계가 있다.
For example, even if one of a plurality of users moves their head to view an image of a part hidden in a frame of the cockpit of an aircraft, it can not individually provide matching images even if they are not visible, There is a limit to the realistic sense of body training of the transportation system.

미국등록특허번호 US8194193, "Method and apparatus for a wide field of view display"US Patent No. 8,194,193, entitled "Method and apparatus for a wide field of view display &

본 발명은 전술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 복수의 사용자가 탑승한 운송장치의 시뮬레이션 시스템에서 각각의 사용자의 움직임에 대응하는 영상을 생성하여 디스플레이부에 표시하도록 하는 운송장치 시뮬레이션 시스템 및 그 제어방법을 제공하기 위한 것이다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a simulation apparatus and a simulation method of a transportation apparatus simulating a plurality of users, System and a control method thereof.

본 발명에 따른 운송장치 시뮬레이션 시스템은 사용자가 탑승 가능한 탑승부, 상기 사용자의 머리부분에 착용되는 적외선 발광부, 상기 탑승부의 전방에 위치하여 상기 적외선 발광부의 움직임을 감지하는 적외선 카메라, 상기 적외선 카메라에서 촬영한 상기 적외선 발광부의 움직임에 대응하여 상기 사용자의 시야 방향에 대한 영상을 생성하는 제어부, 상기 제어부에서 생성된 상기 영상을 출력하여 표시하는 디스플레이부를 구비한다.The transportation system simulation system according to the present invention is characterized in that the transportation system simulation system comprises a boarding passable portion for the user, an infrared ray emitting portion to be worn on the head portion of the user, an infrared ray camera for detecting the movement of the infrared ray emitting portion, A control unit for generating an image of the user's viewing direction corresponding to the movement of the infrared light emitting unit; and a display unit for outputting and displaying the image generated by the control unit.

상기 디스플레이부는 상기 탑승부의 전방에 설치된 스크린과 상기 스크린에 영상을 투사하는 프로젝터를 구비할 수 있다.The display unit may include a screen installed in front of the boarding unit and a projector for projecting an image on the screen.

상기 탑승부는 제 1사용자가 탑승하는 제 1탑승부와 제 2사용자가 탑승하는 제 2탑승부를 구비하고, 상기 적외선 발광부는 상기 제 1사용자가 착용하는 제 1적외선 발광부와 상기 제 2사용자가 착용하는 제 2적외선 발광부를 구비할 수 있다.Wherein the boarding section includes a first boarding section on which the first user boarded and a second boarding section boarded by the second user, the infrared ray emitting section includes a first infrared ray emitting section worn by the first user and a second infrared ray emitting section worn by the second user And a second infrared ray emitting unit.

상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하고, 상기 프로젝터는 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비할 수 있다.Wherein the controller generates a first image corresponding to the movement of the first infrared ray emitting unit and a second image corresponding to the movement of the second infrared ray emitting unit and the projector includes a first projector for projecting the first image onto the screen, And a second projector for projecting the second image onto the screen.

상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하고, 상기 제 1영상과 상기 제 2영상은 서로 다른 편광으로 편광 조절되어 교번적으로 상기 프로젝터에 의하여 투사될 수 있다.The control unit generates a first image corresponding to the movement of the first infrared ray emitting unit and a second image corresponding to the movement of the second infrared ray emitting unit and the first image and the second image are polarized with different polarizations And can be projected by the projector alternately.

상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하고, 상기 제 1영상과 상기 제 2영상은 서로 다른 편광으로 편광 조절되고, 상기 프로젝터는 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비할 수 있다.The controller generates a first image corresponding to the movement of the first infrared ray emitting portion and a second image corresponding to the movement of the second infrared ray emitting portion and the first image and the second image are polarization- The projector may include a first projector for projecting the first image onto the screen and a second projector for projecting the second image onto the screen.

본 발명에 따른 운송장치 시뮬레이션 시스템의 제어방법은 사용자가 착용한 적외선 발광부를 적외선 카메라가 감지하고, 상기 적외선 카메라에서 감지된 상기 적외선 발광부의 위치에 따라 상기 사용자의 시야 방향에 대한 정보를 획득하고, 상기 시야 방향에 대한 정보와 매칭되는 출력 영상을 생성하여 디스플레이부에서 출력한다.A control method of a transportation device simulation system according to the present invention is a method of controlling a transportation device simulation system, comprising: detecting an infrared ray emitting unit worn by a user with an infrared camera; acquiring information on a viewing direction of the user according to a position of the infrared ray emitting unit sensed by the infrared camera; Generates an output image matched with the information on the viewing direction, and outputs the generated output image on the display unit.

상기 탑승부는 제 1사용자가 탑승하는 제 1탑승부와 제 2사용자가 탑승하는 제 2탑승부를 구비하고, 상기 적외선 발광부는 상기 제 1사용자가 착용하는 제 1적외선 발광부와 상기 제 2사용자가 착용하는 제 2적외선 발광부를 구비하여 상기 제 1적외선 발광부의 움직임에 대응하는 제 1영상을 생성하여 상기 디스플레이부에서 출력하고, 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하여 상기 디스플레이부에서 출력할 수 있다.Wherein the boarding section includes a first boarding section on which the first user boarded and a second boarding section boarded by the second user, the infrared ray emitting section includes a first infrared ray emitting section worn by the first user and a second infrared ray emitting section worn by the second user And a second image corresponding to the movement of the second infrared ray emitting unit is generated to generate a first image corresponding to the movement of the first infrared ray emitting unit and output from the display unit, .

상기 디스플레이부는 상기 탑승부의 전방에 설치된 스크린과 상기 스크린에 영상을 투사하는 프로젝터를 구비하고, 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비할 수 있다.Wherein the display unit comprises a first projector for projecting the first image onto the screen and a second projector for projecting the second image onto the screen, the projector having a screen installed in front of the boarding section and a projector for projecting an image on the screen, .

상기 제 1적외선 발광부의 움직임에 대응하는 상기 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 상기 제 2영상을 서로 다른 편광으로 편광 조절되어 교번적으로 상기 디스플레이부에 표시할 수 있다.
The first image corresponding to the movement of the first infrared ray emitting part and the second image corresponding to the movement of the second infrared ray emitting part can be polarized and displayed with different polarized light and displayed alternately on the display part.

본 발명에 따른 운송장치 시뮬레이션 시스템은 조종사와 부조종사가 함께 훈련하는 헬리콥터 및 항공기 등과 같은 운송장치에 대한 모의 조종 훈련을 수행할 때 복수의 사용자가 시뮬레이션 시스템에 함께 탑승하여 하나의 운송장치에서 사용자의 임무와 훈련 특성에 맞는 훈련을 할 수 있도록 하고, 이때 각각의 사용자의 위치와 움직임에 대응한 영상을 실시간으로 제공하여 각각의 사용자에게 최적화된 훈련 영상의 제공이 가능하게 함으로써 보다 효과적인 운송장치에 대한 모의 조종 훈련이 가능하게 하는 효과가 있다.
A simulation system for a transportation device according to the present invention is a system in which a plurality of users are boarded together in a simulation system to perform a simulation exercise on a transportation device such as a helicopter and an aircraft, In this way, it is possible to provide training images that are optimized for each user by providing images corresponding to the positions and motions of the respective users in real time, thereby simulating more effective transportation devices This has the effect of enabling pilot training.

도 1은 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템을 도시한 블록 구성도이다.
도 3은 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템의 동작을 설명하기 위한 순서도이다.
도 4는 운송장치 시뮬레이션 시스템의 스크린에 나타난 운송장치의 콕핏 프레임이 나타난 상태를 설명하기 위한 도면이다.
도 5a, 도 5b, 도 5c는 복수의 사용자가 시야를 변경하는 상태를 설명하기 위한 도면이다.
1 is a diagram illustrating a transportation device simulation system according to an embodiment of the present invention.
2 is a block diagram illustrating a transportation device simulation system according to an embodiment of the present invention.
3 is a flow chart for explaining the operation of the transportation device simulation system according to the embodiment of the present invention.
4 is a view for explaining a state in which a cockpit frame of a transportation apparatus shown on a screen of a transportation device simulation system appears.
5A, 5B and 5C are diagrams for explaining a state in which a plurality of users change their view.

이하에서 설명하는 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템에 대한 실시예를 도면을 참조하여 설명하도록 한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 이하에서 설명되는 실시예는 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Embodiments of a transportation device simulation system according to an embodiment of the present invention described below will be described with reference to the drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in various forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully inform the user.

이하에서는 도면을 참조하여 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템에 대한 구성을 설명하기로 한다.Hereinafter, a configuration of a transportation device simulation system according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템을 도시한 도면이고, 도 2는 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템을 도시한 블록 구성도이다. FIG. 1 is a diagram showing a transportation device simulation system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a transportation device simulation system according to an embodiment of the present invention.

도 1과 도 2에 도시된 바와 같이 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템은 사용자가 탑승 가능한 탑승부(100)(101)와 사용자(110)(111)의 머리 부분에 착용되는 적외선 발광부(131)(141), 탑승부(100)(101)의 전방에 위치하여 적외선 발광부(131)(141)의 움직임을 감지하는 복수개의 적외선 카메라(150), 적외선 카메라(150)에서 촬영한 적외선 발광부(131)(141)의 움직임에 대응하여 사용자(110)(111)의 시야 방향에 대한 영상을 생성하는 주제어부(210) 그리고 주제어부(210)에서 생성된 영상을 출력하여 표시하는 디스플레이부(160)를 구비한다.1 and 2, a transportation device simulation system according to an embodiment of the present invention includes an infrared light emitting device 110 mounted on a head portion of a user 110, A plurality of infrared cameras 150 positioned in front of the passenger compartments 100 and 101 to sense the movement of the infrared ray emitting units 131 and 141, A main controller 210 for generating an image of a direction of the user 110 or 111 in response to the movement of the infrared ray emitting units 131 and 141, And a display unit 160 for displaying an image.

탑승부(100)(101)는 사용자(110)(111)가 착석 가능한 좌석과 이 좌석의 전방에 위치하여 모의 운송장치의 조종을 위한 조종부(120)를 구비한다. 또한 탑승부(100)(101)는 제 1사용자(110)가 탑승하는 제 1탑승부(100)와 제 2사용자(111)가 탑승하는 제 2탑승부(101)가 좌우로 위치한다. 다른 실시예로 제 1탑승부(100)와 제 2탑승부(111)는 전후 방향으로 위치할 수 있다.The boarding sections 100 and 101 include a seat 120 on which the users 110 and 111 can be seated and a steering section 120 for steering the simulated transporting device in front of the seat. The first and second boarding passages 100 and 101 are located on the left and right sides of the first boarding part 100 and the second boarding part 101 on which the second user 111 boarded. In another embodiment, the first boarding portion 100 and the second boarding portion 111 may be positioned in the forward and backward directions.

적외선 발광부(131)(141)는 탑승부(100)(101)에 착석하는 사용자(110)(111)가 착용하는 헤드 마운트 장치(130)(140)에 설치될 수 있다. 적외선 발광부(131)(141)는 헤드 마운트 장치(130)(140)의 머리 부분 다수의 위치에 다수개가 설치될 수 있고, 또는 헤드 마운트 장치(130)(140)에 설치되는 글래스의 시선 방향에서 발광하도록 설치될 수 있다. 또한 그 외의 다양한 위치에 설치되어 사용자(110)(111)의 머리와 시선의 움직임을 2차원적 또는 3차원적으로 효과적으로 감지할 수 있는 위치에 설치될 수 있다.The infrared ray emitting units 131 and 141 may be installed in the head mount apparatuses 130 and 140 to be worn by the users 110 and 111 seated in the boarding units 100 and 101. A plurality of infrared ray emitting units 131 and 141 may be installed at a plurality of positions of the head mounts 130 and 140 or a plurality of infrared ray emitting units 131 and 141 may be mounted on the head mounts 130 and 140, As shown in FIG. And may be installed at various other positions so as to be able to detect the movement of the head and the eyes of the user 110 (111) two-dimensionally or three-dimensionally.

그리고 적외선 카메라(150)는 탑승부(100)(101)의 전방에 위치하여 사용자(110)(111)가 착용한 헤드 마운트 장치(130)(140)에 설치된 적외선 발광부(131)(141)를 감지하도록 구성된다.  The infrared camera 150 includes infrared light emitting units 131 and 141 mounted on the head mount devices 130 and 140 placed in front of the boarding passages 100 and 101 and worn by the users 110 and 111, .

따라서 이 적외선 발광부(131)(141)는 제 1사용자(110)가 착용하는 제 1헤드 마운트 장치(130)에 설치된 제 1적외선 발광부(131)와 제 2사용자(111)가 착용하는 제 2헤드 마운트 장치(140)에 설치된 제 2적외선 발광부(141)로 구분되어 구비되고, 적외선 카메라(150)는 제 1적외선 발광부(131)와 제 2적외선 발광부(141)를 식별하여 감지하도록 복수개가 설치된다.Accordingly, the infrared ray emitting units 131 and 141 may include a first infrared ray emitting unit 131 mounted on the first head mount apparatus 130 worn by the first user 110 and a second infrared ray emitting unit 131 mounted on the second user 111 The first infrared ray emitting unit 131 and the second infrared ray emitting unit 141 are distinguished from each other by a second infrared ray emitting unit 141 installed in the head mount apparatus 140. The infrared ray camera 150 identifies the first infrared ray emitting unit 131 and the second infrared ray emitting unit 141, .

그리고 적외선 발광부(131)(141)는 자체적으로 적외선을 발광하는 적외선 발광다이오드(LED : Light Emitting Diode)로 실시될 수 있다. 적외선 발광부(131)(141)는 사용자(110)(111)가 착용한 헤드 마운트 장치(130)(140)의 움직임 정보(각도, 방향, 위치 등)를 획득하기 위한 것으로 사용자(110)(111)의 헤드 마운트 장치(130)(140)에 복수개가 장착될 수 있다. The infrared ray emitting units 131 and 141 may be implemented by an infrared light emitting diode (LED) that emits infrared rays. The infrared ray emitting units 131 and 141 are used to obtain motion information (angle, direction, position, etc.) of the head mount apparatuses 130 and 140 worn by the users 110 and 111, A plurality of heads may be mounted on the head mount devices 130,

다른 실시예로 적외선 발광부(131)(141)는 적외선 마커로 실시될 수 있다. 적외선 마커로 실시되는 경우 적외선 마커는 구 형상으로 형성되며, 이 구에는 적외선을 반사하는 반사층이 코팅되어 있을 수 있다. 이러한 적외선 마커의 구조와 실시예는 "Imagination Computer Services Ges.m.b.H."사의 "아이오트랙커(iotracker)"제품과 같은 기술을 참조하여 변형 실시할 수 있다. In another embodiment, the infrared ray emitting units 131 and 141 may be implemented with an infrared marker. When implemented with an infrared marker, the infrared marker is formed into a spherical shape, and the sphere may be coated with a reflective layer that reflects infrared rays. The structure and the embodiment of such an infrared marker can be modified by referring to a technique such as " Imagination Computer Services Ges.m.b.H. ", "iotracker"

그리고 디스플레이부(160)는 적외선 카메라(150)의 후방에 위치하는 스크린(161)과 이 스크린(161)에 영상을 투사하는 적어도 하나 이상의 프로젝터(162)(163)를 포함한다. 프로젝터(162)(163)는 1개 또는 2개로 실시될 수 있다.The display unit 160 includes a screen 161 positioned behind the infrared camera 150 and at least one projector 162 or 163 for projecting an image on the screen 161. The projectors 162 and 163 may be implemented by one or two projectors.

프로젝터(162)(163)가 1개로 실시될 때에는 주제어부(210)가 제 1적외선 발광부(131)의 움직임에 대응하는 제 1편광 영상과 제 2적외선 발광부(141)의 움직임에 대응하는 제 2편광 영상을 생성한다. 그리고 이 제 1편광 영상과 제 2편광 영상을 서로 다른 편광으로 편광 조절하여 교번적으로 하나의 프로젝터(162)(163)에서 스크린(161)으로 투사할 수 있다. 그리고 이를 위하여 프로젝터(162)(163)에는 교번하여 다른 편광 영상을 투사하는 회전형 편광판이 부가적으로 설치될 수 있다. When the projectors 162 and 163 are provided as one unit, the main controller 210 controls the first polarized image corresponding to the movement of the first infrared ray emitting unit 131 and the second polarized image corresponding to the movement of the second infrared ray emitting unit 141 Thereby generating a second polarized image. The first polarized light image and the second polarized light image can be polarized by different polarizations and projected from the one projector 162 or 163 to the screen 161 alternately. To this end, the projectors 162 and 163 may additionally include a rotatable polarizer for alternately projecting another polarized image.

그리고 프로젝터(162)(163)가 2개로 실시될 때에는 제 1적외선 발광부(131)의 움직임에 대응하는 제 1편광 영상을 스크린(161)에 투사하는 제 1프로젝터(162)와 제 2적외선 발광부(141)의 움직임에 대응하는 제 2편광 영상을 스크린(161)에 투사하는 제 2프로젝터(163)로 실시하고, 제 1편광 영상과 제 2편광 영상이 다른 편광 성분으로 편광 조절되어 스크린(161)에 투사되도록 할 수 있다. 따라서 제 1프로젝터(162)와 제 2프로젝터(163)에는 서로 다른 편광성분의 영상을 투사하도록 각각의 프로젝터(162)(163)에 고정된 편광필터가 설치될 수 있다.When the two projectors 162 and 163 are used, the first projector 162 that projects the first polarized image corresponding to the movement of the first infrared ray emitting unit 131 to the screen 161, and the second infrared ray radiator And a second projector 163 that projects a second polarized image corresponding to the movement of the first polarized light image 141 and the second polarized light image to the screen 161. The first polarized light image and the second polarized light image are polarized with different polarization components, 161, respectively. Therefore, a polarizing filter fixed to each of the projectors 162 and 163 may be installed in the first projector 162 and the second projector 163 to project images of different polarization components.

이에 따라 제 1사용자(110)가 착용한 제 1헤드 마운트 장치(130)에 설치된 글래스(HMD 또는 보안경 등)는 제 1편광성분(예를 들면 "P" 편광)으로 편광 조절된 영상에 대한 시청이 가능하도록 편광 필름이 구비되고, 제 2사용자(111)가 착용한 제 2헤드 마운트 장치(140)에 설치된 글래스는 제 2편광성분(예를 들면 "S" 편광)으로 편광 조절된 영상에 대한 시청이 가능하도록 편광 필름이 구비될 수 있다. Accordingly, the glass (such as the HMD or safety goggles) provided in the first head mount apparatus 130 worn by the first user 110 can be watched for the polarization-adjusted image with the first polarized light component (for example, "P" polarized light) And the glass provided on the second head mount apparatus 140 worn by the second user 111 is provided with a polarizing film for the polarized light of the second polarized light component (for example, "S" polarized light) A polarizing film may be provided to enable viewing.

계속해서 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템은 적외선 카메라(150)에서 촬영한 적외선 발광부(131)(141)에 대한 이미지를 수신하여 처리하는 적외선 영상 제어부(170)와 사용자(110)(111)가 조종부(120)를 조종할 때 발생하는 동작 데이터를 수신하여 처리하는 조종 제어부(180), 사용자(110)(111)가 착용하는 헤드 마운트 장치(130)(140)의 동작을 제어하는 헤드 마운트 장치 제어부(190), 프로젝터(162)(163)의 동작을 제어하는 프로젝터 제어부(200) 그리고 주제어부(210)를 구비한다.The transportation system simulation system according to the embodiment of the present invention includes an infrared image control unit 170 for receiving and processing images of the infrared ray emitting units 131 and 141 taken by the infrared camera 150, A control unit 180 for receiving and processing operation data generated when the control unit 111 controls the control unit 120 and the operation of the head mount devices 130 and 140 worn by the user 110 A projector control unit 200 for controlling the operation of the projectors 162 and 163, and a main control unit 210. The head control unit 190 controls the operations of the head-mounted device control unit 190, the projectors 162 and 163,

적외선 영상 제어부(170)에서는 복수개의 적외선 카메라(150)에서 촬영한 복수개의 적외선 발광부(131)(141)의 위치 및 방향을 추정하는 트랙킹 알고리즘이 구현된다. 이 트랙킹 알고리즘은 특징점 예측 및 추출 알고리즘 (feature detection & estimation), 특징점 정합 알고리즘 (feature matching), 3 차원 움직임 추정 알고리즘 (3D motion estimation) 으로 구성될 수 있다. The infrared image controller 170 implements a tracking algorithm for estimating the positions and directions of the plurality of infrared ray emitting units 131 and 141 taken by the plurality of infrared cameras 150. This tracking algorithm can be composed of feature detection & estimation, feature matching, and 3D motion estimation.

특징점 예측 및 추출 알고리즘은 3 차원 움직임 추정 알고리즘의 결과 데이터로부터 2 차원 영상 평면의 특징점을 예측 한 후 특징점의 중심 좌표를 추출하기 위한 것이고, 특징점 정합 알고리즘은 특징점의 형태 및 개수 변화를 고려하여 연속적으로 특징점을 추적하기 위해 것으로 복수개의 적외선 카메라(150)의 영상 평면에 동시에 원근 투시 된 특징점을 찾기 위해 구현된다. 그리고 3차원 움직임 추정 알고리즘은 적외선 발광부(131)(141), 즉 사용자의 헤드 마운트 장치(130)(140)의 위치 및 자세를 추정하기 위한 것이다.The feature point prediction and extraction algorithm is for extracting the center coordinates of the feature point after predicting the feature points of the 2D image plane from the result data of the 3D motion estimation algorithm and the feature point matching algorithm is consecutively performed considering the shape and number change of the feature points And is used to track feature points simultaneously viewed in perspective on the image plane of a plurality of infrared cameras 150 to track feature points. The 3D motion estimation algorithm is for estimating the position and the posture of the infrared light emitting units 131 and 141, that is, the head mount units 130 and 140 of the user.

조종 제어부(180)는 사용자가 조종부(120)를 조작할 때 발생하는 운송장치의 동작 요구 신호를 수신하여 처리한 후 주제어부(210)로 전송하고, 헤드 마운트 장치 제어부(190)는 헤드 마운트 장치(130)(140)에 대한 동작을 제어하기 위한 것인데, 이 헤드 마운트 장치(130)(140)의 글래스에 별도의 디스플레이가 장착된 경우에 해당 디스플레이에 필요한 영상을 주제어부(210)로부터 수신하여 출력하도록 할 수 있고, 헤드 마운트 장치(130)(140)에 자이로 센서 등이 장착되었을 때 사용자(110)(111)의 움직임에 대한 신호를 헤드 마운트 장치(130)(140)로부터 수신하여 주제어부(210)로 전송하는 기능을 할 수 있다.The steering control unit 180 receives and processes the operation request signal of the transportation device generated when the user operates the control unit 120 and transmits the operation request signal to the main control unit 210. The head mounting control unit 190 controls the head- When an additional display is mounted on the glass of the head mounting apparatuses 130 and 140, an image necessary for the display is received from the main control unit 210 When a gyro sensor or the like is mounted on the head mounts 130 and 140, a signal indicating the movement of the users 110 and 111 is received from the head mounts 130 and 140, And transmits the data to the unit 210.

그리고 프로젝터 제어부(200)는 주제어부(210)로부터 전송된 영상 신호를 각각의 프로젝터(162)(163)로 전송하는 기능 및 기타 일반적으로 프로젝터(162)(163)에서 필요한 기능을 제어한다.The projector control unit 200 controls the functions of transmitting the video signals transmitted from the main control unit 210 to the respective projectors 162 and 163 and other functions generally required in the projectors 162 and 163.

한편, 주제어부(210)의 주요한 기능은 프로젝터(162)(163)에 출력할 영상 신호를 생성하는 것이다. 즉 기본적인 배경영상과 이 배경영상에 적용되어 출력되는 각종 조건 영상을 머징하고, 또한 모의 동작을 위한 필요한 효과가 부가된 영상을 생성한다.The main function of the main control unit 210 is to generate a video signal to be output to the projectors 162 and 163. That is, a basic background image and various condition images applied to the background image are merged, and an image with necessary effects for a simulation operation is generated.

이하에서는 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템의 제어방법에 대한 실시예를 설명하기로 한다.Hereinafter, an embodiment of a method of controlling a transportation device simulation system according to an embodiment of the present invention will be described.

도 3은 본 발명의 실시예에 따른 운송장치 시뮬레이션 시스템의 동작을 설명하기 위한 순서도이다.3 is a flow chart for explaining the operation of the transportation device simulation system according to the embodiment of the present invention.

도 3에 도시된 바와 같이 본 발명의 실시예에 따른 제어방법은 적외선 발광부(131)(141)의 기준위치를 설정하고(S100), 적외선 발광부(131)(141)의 움직임을 감지하고(S110), 적외선 발광부(131)(141)의 움직임을 감지하여 트랙킹 알고리즘을 구동하고(S120), 트랙킹 결과에 부합하는 영상을 생성하고(S130), 생성된 모의 영상을 출력하는 단계(S140)로 진행된다.3, the control method according to the embodiment of the present invention sets the reference position of the infrared ray emitting units 131 and 141 (S100), detects the movement of the infrared ray emitting units 131 and 141 (Step S120), generating an image corresponding to the tracking result (step S130), and outputting the generated simulation image (step S140) ).

먼저 적외선 발광부(131)(141)의 기준위치를 설정하는 단계(S100)는 동작 초기에 프로젝터(162)(163)에서 출력되는 영상과 사용자의 모의 훈련을 위한 조작 시작 위치를 설정하는 단계이다. 예를 들어 항공기에 대한 시뮬레이션 훈련의 경우 지상에 항공기가 주기한 상태에서 사용자(110)(111)가 조종부(120)에 착석하면, 이때를 모의 훈련 시뮬레이션 시스템의 동작을 시작하는 위치로 설정할 수 있다.The step S100 of setting the reference position of the infrared ray emitting units 131 and 141 is a step of setting an image to be output from the projectors 162 and 163 at the beginning of the operation and an operation start position for simulation training of the user . For example, in the case of a simulation training for an aircraft, when the user 110 (111) is seated in the control unit 120 while the aircraft is on the ground, the position can be set to a position where the operation of the simulated training simulation system is started have.

이후 시뮬레이터 시스템을 이용하여 모의 훈련을 시작하면 적외선 카메라(150)는 제 1사용자(110)와 제 2사용자(111)가 착용한 헤드 마운트 장치(130)(140)의 적외선 발광부(131)(141)를 감지하고(S110), 이 감지된 영상을 이용하여 트랙킹 알고리즘을 구동하여 사용자의 3차원적 위치 이동을 연산한다(S120). 트랙킹 알고리즘은 특징점 예측 및 추출 알고리즘, 특징점 정합 알고리즘, 3 차원 움직임 추정 알고리즘으로 실시될 수 있다. When the simulator training is started by using the simulator system, the infrared camera 150 transmits infrared light to the infrared light emitting unit 131 (FIG. 1) of the head mount apparatus 130 (140) worn by the first user 110 and the second user 111 (S110), and drives the tracking algorithm using the sensed image to calculate the three-dimensional position movement of the user (S120). The tracking algorithm can be implemented by feature point prediction and extraction algorithm, feature point matching algorithm, and 3D motion estimation algorithm.

특징점 예측 및 추출 알고리즘은 추정된 헤드 마운트 장치(130)(140)의 3 차원 움직임을 이용하여 헤드 마운트 장치(130)(140)의 특징점을 예측 한 후 특징점의 중심점을 추출하는 알고리즘이다. 이 때 t 시간의 특징점의 중심 좌표 데이터는 이후 3 차원 움직임 추정 알고리즘에 사용된다. 이 알고리즘은 확장 칼만 필터를 사용하여 구현되었기 때문에, t 시간 및 t +1 시간의 헤드 마운트 장치(130)(140) 움직임을 추정할 수 있다. 따라서 t +1시간의 3 차원 헤드 마운트 장치(130)(140) 움직임을 적외선 카메라(150)에서 촬영한 영상 평면의 2 차원 움직임으로 변환하면, t +1 시간에 획득될 특징점의 영상 좌표를 추정 할 수 있다. 특징점의 3 차원 좌표를 2 차원의 영상 좌표로 변환하기 위해서 원근 투시도법을 사용할 수 있다.The feature point prediction and extraction algorithm is an algorithm for predicting feature points of the head mount devices 130 and 140 using the estimated three-dimensional movement of the head mount devices 130 and 140 and then extracting the center points of the feature points. At this time, the center coordinate data of the feature points of the time t is used in the 3D motion estimation algorithm thereafter. Since this algorithm is implemented using an extended Kalman filter, it is possible to estimate the movement of the head-mounted device 130 (140) at time t and time t + 1. Accordingly, when the motion of the three-dimensional head mount apparatus 130 (140) at time t + 1 is converted into the two-dimensional motion of the image plane photographed by the infrared camera 150, the image coordinates of the feature point to be acquired at time t + can do. Perspective perspective method can be used to convert the three-dimensional coordinates of the minutiae to two-dimensional image coordinates.

특징점 정합 알고리즘은 헤드 마운트 장치(130)(140) 특징점에 고유한 번호를 부여하여 매 시간의 특징점을 추적하는데 목적이 있다. 특징점 정합은 두 대의 적외선 카메라(150) 영상 평면에 맺혀진 특징점의 응답점(correspondence)을 찾는 것과 이전 시간과 현재 시간 상의 특징점을 정합하는 것으로 나눌 수 있다. 전자의 경우를 스테레오 정합, 후자의 경우를 특징점 맵 정합으로 구별하여 알고리즘을 구현할 수 있다. 스테레오 정합알고리즘은 두 대의 적외선 카메라(150) 영상 평면에 맺혀진 특징점의 개수 및 형태가 다를 경우에도 특징점의 응답점을 정합 할 수 있게 구현된다. 특징점 맵 정합알고리즘은 스테레오 정합된 특징점의 개수 및 형태 변화가 생겨도 특징점에 고유한 번호를 부여하여 특징점을 추적하기 위하여 설계될 수 있다. The feature point matching algorithm is intended to track the feature points of each time by assigning unique numbers to the feature points of the head mount apparatuses 130 and 140. The feature point matching can be divided into finding the correspondence of the feature points formed on the image planes of the two infrared cameras 150 and matching the feature points on the previous time and the current time. The algorithm can be implemented by distinguishing the case of the former by the stereo matching and the latter case by the feature point map matching. The stereo matching algorithm is implemented so that the response points of feature points can be matched even when the number and types of feature points formed on the image plane of two infrared cameras 150 are different. The feature point map matching algorithm can be designed to track a feature point by assigning a unique number to a feature point even if the number and shape of the stereo-matched feature points change.

3 차원 움직임 추정 알고리즘은 확장 칼만 필터를 사용하며 구현되며 특징점 예측 및 추출 알고리즘과 특징점 정합 알고리즘의 결과 데이터를 이용하여 수행된다. 상태 변수 벡터는 카메라 프레임에 대한 헤드 좌표계의 위치 변수, 속도 변수, 증분각으로 구성된다. 그리고 헤드 마운트 장치(130)(140)의 자세를 추정하기 위한 회전 행렬은 오일러 증분각을 계산하는 증분 쿼터니언(incremental quaternion)으로 구성된다. 그리고 각각의 프레임에서 증분 회전 행렬을 추정한 후 이전 시간의 회전 행렬에 곱하여 현재의 회전 행렬을 구할 수 있다.The 3D motion estimation algorithm is implemented using an extended Kalman filter and is performed using the resultant data of the feature point prediction and extraction algorithm and the feature point matching algorithm. The state variable vector consists of positional variables, velocity variables, and incremental angles in the head coordinate system for the camera frame. The rotation matrix for estimating the posture of the head mount devices 130 and 140 is configured with an incremental quaternion for calculating the Euler increment angle. Then, the current rotation matrix can be obtained by multiplying the rotation matrix of the previous time by estimating the incremental rotation matrix in each frame.

이와 같은 트랙킹 알고리즘을 이용하여 사용자(110)(111)의 헤드 마운트 장치(130)(140)의 3차원적 위치와 사용자(110)(111)의 시야 방향을 추정할 수 있다. 그리고 적외선 영상 제어부(170)에서 트랙킹 알고리즘의 구동으로 사용자의 시야 방향과 위치에 대한 데이터를 획득하면 이 데이터를 주제어부(210)로 전송한다. 주제어부(210)는 해당 훈련 영상에 대한 처리를 위하여 중앙처리장치, 데이터 베이스 그리고 그래픽 카드를 구비한다. The three dimensional position of the head mount apparatus 130 (140) of the user 110 (111) and the view direction of the user 110 (111) can be estimated by using the tracking algorithm. Then, the infrared image controller 170 acquires data on the direction and position of the user's view by driving the tracking algorithm, and transmits the obtained data to the main controller 210. The main control unit 210 includes a central processing unit, a database, and a graphic card for processing the corresponding training image.

따라서 사용자의 시야 방향과 위치에 대한 데이터를 이용하여 중앙처리장치가 이에 해당하는 영상을 생성할 것을 그래픽 카드에 명령하고, 그래픽 카드의 영상 처리 장치는 이에 해당하는 영상을 생성하여 그래픽 메모리에 저장한 후 프로젝터(162)(163)를 통하여 영상을 출력한다(S120)(S130). 도 4와 도 5a, b, c는 이와 같은 구동에 대한 동작 예를 설명하기 위한 도면이다. Accordingly, the central processing unit instructs the graphics card to generate an image corresponding to the user's view direction and position, and the image processing apparatus of the graphic card generates an image corresponding to the generated image and stores the image in the graphic memory And outputs an image through the rear projectors 162 and 163 (S120) (S130). FIG. 4 and FIGS. 5A, 5B and 5C are diagrams for explaining operation examples for such driving.

도 4는 운송장치 시뮬레이션 시스템의 스크린(161)에 나타난 콕핏의 프레임이 표시되는 상태를 설명하기 위한 도면이고 도 5a, 도 5b, 도 5c는 복수의 사용자가 시야를 변경하는 상태를 설명하기 위한 도면이다.FIG. 4 is a view for explaining a state in which a frame of the cockpit displayed on the screen 161 of the transportation device simulation system is displayed, and FIGS. 5A, 5B and 5C are views for explaining a state in which a plurality of users change their visibility to be.

도 4에 도시된 바와 같이 시뮬레이션 시스템이 항공기에 대한 모의 훈련을 위한 것인 경우 항공기의 좌측 또는 우측의 프레임 부분이 가려진 상태로 영상이 출력된다. 이때 실제 항공기의 운항시에는 해당 가려진 부분의 시야를 확보하기 위하여 조종사는 머리를 좌우로 움직여 가려진 시야를 확보할 수 있다. 하지만 종래의 시뮬레이션 시스템은 사용자(110)(111)의 움직임에 반응하여 사용자(110)(111)가 원하는 영상을 식별하여 제공하지 못한다. 더욱이 복수의 모의 훈련 조종사가 탑승한 경우에는 출력되는 영상이 조종사마다의 시야에 따라 구분하여 출력할 수 없다. As shown in FIG. 4, when the simulation system is for simulation training on an aircraft, the image is output with the left or right frame portion of the aircraft obscured. At this time, when the actual aircraft is operated, the pilot can move the head to the left or right to secure the field of view of the obstructed area. However, in the conventional simulation system, the user 110 (111) does not provide the desired image in response to the movement of the user 110 (111). Further, when a plurality of simulated training pilots are aboard, the outputted images can not be classified according to the view of each pilot and can not be outputted.

그러나 본 발명의 실시예에서는 복수의 사용자(110)(111)가 시뮬레이션 시스템에 탑승하여 모의 훈련을 실시하는 경우에 이 각각의 사용자(110)(111)의 시야 및 동작에 최적화된 개별 영상을 하나의 스크린(161)에 동시에 투사하여 각각의 사용자(110)(111)에게 최적화된 훈련 영상을 제공할 수 있다.However, in the embodiment of the present invention, when a plurality of users (110) 111 ride on a simulation system and perform simulated training, individual images optimized for the view and operation of each of the users (110) And simultaneously provide the optimized training images to the users 110 and 111. [0064] FIG.

예를 들어 도 5a에서와 같이 두 사용자(110)(111)가 모두 동일한 방향을 주시하고 있는 경우라고 하더라도 사용자 서로 간의 위치에 차이가 있기 때문에 실제적으로 다른 영상이 제공되어야 한다. 따라서 제 1프로젝터(162)와 제 2프로젝터(163)는 편광성분이 다른 제 1영상과 제 2영상을 제 1사용자(110)와 제 2사용자(111)의 시야에 최적화된 영상으로 동시에 하나의 스크린(161)에 투사한다.For example, even if both users 110 and 111 are looking in the same direction as shown in FIG. 5A, since there is a difference in position between users, a different image should be actually provided. Accordingly, the first projector 162 and the second projector 163 can simultaneously output the first and second images having different polarization components to the images optimized for the view of the first user 110 and the second user 111, And projects it onto the screen 161.

이때 영상의 시청은 제 1사용자(110)와 제 2사용자(111)는 서로 다른 편광성분의 영상의 시청할 수 있는 헤드 마운트 글라스를 착용하고 있기 때문에 각각 서로에게 최적화된 영상을 독립적으로 시청하게 된다.At this time, since the first user 110 and the second user 111 wear head-mounted glasses capable of viewing images of different polarized components, the user views the optimized images independently of each other.

그리고 도 5b와 도 5c에 도시된 바와 같이 제 1사용자(110)와 제 2사용자(111)가 서로 반대 방향으로 시야를 변경하는 경우에 적외선 카메라(150)는 제 1사용자(110)와 제 2사용자(111)가 착용한 헤드 마운트 장치(130)(140)의 적외선 발광부(131)(141)를 감지하여 해당 사용자의 움직임에 대한 트랙킹 정보를 확보하고, 이 움직임에 대한 트랙킹 정보에 따른 새로운 영상을 실시간으로 프로젝터(162)(163)를 통하여 스크린(161)에 투사함으로써 사용자(110)(111)의 시야에 맞는 최적화된 모의 영상을 제공할 수 있다.5B and 5C, when the first user 110 and the second user 111 change their viewing directions in opposite directions to each other, the infrared camera 150 transmits the first user 110 and the second user 111, The infrared ray emitting units 131 and 141 of the head mount devices 130 and 140 worn by the user 111 are detected to obtain tracking information on the user's movements and a new It is possible to provide an optimized simulated image according to the view of the user 110 (111) by projecting the image in real time on the screen 161 through the projector 162 (163).

즉, 다시 도 4를 참조하여 설명하면 항공기의 좌측 프레임에 가려진 부분에 대한 시야를 확보하기 위하여 사용자가 머리를 전방으로 숙여 프레임의 뒤쪽을 보려고 움직일 경우에 적외선 카메라(150)는 이에 대한 동작을 감지한 후 프레임의 뒤쪽에 대한 영상을 스크린(161)에 투사함으로서 현실감 있는 모의 영상을 제공할 수 있도록 한다.Referring to FIG. 4 again, when the user moves his / her head forward to see the rear of the frame to secure a field of view on the left side frame of the aircraft, the infrared camera 150 detects So that a realistic simulated image can be provided by projecting an image of the back of the frame onto the screen 161. [

이상에서 설명한 본 발명의 실시예들은 단지 예시와 설명을 위한 것일 뿐이며, 본 발명을 설명된 형태로 한정하려는 것이 아니다. 또한, 본 명세서의 상세한 설명이 본 발명의 범위를 제한하는 것은 아니며, 상세한 설명에 설명되며 첨부된 청구항에 의해 정의된 발명의 사상 및 범위 내에서, 다양한 변화 및 변경을 할 수 있음은 본 발명이 속하는 분야의 당업자에게 자명하다.
The embodiments of the present invention described above are for illustrative purposes only and are not intended to limit the present invention to the described embodiments. It is also to be understood that the detailed description of this specification does not limit the scope of the invention and that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims and defined by the appended claims, To those skilled in the art.

100, 101...탑승부
110, 111...사용자
120...조종부
130...제 1헤드 마운트 장치
131...제 1적외선 발광부
140...제 2헤드 마운트 장치
141...제 2적외선 발광부
150...적외선 카메라
160...디스플레이부
170...적외선 영상 제어부
180...조종 제어부
190...헤드 마운트 장치 제어부
200...프로젝터 제어부
100, 101 ... boarding section
110, 111 ... users
120 ... control section
130 ... first head mount device
131 ... First infrared ray emitting portion
140 ... second head mount unit
141 ... second infrared ray emitting portion
150 ... Infrared camera
160 ... display portion
170 ... Infrared image control unit
180:
190 ... Head mount apparatus control section
200 ... projector control unit

Claims (13)

사용자가 탑승 가능한 탑승부;
상기 사용자가 착용 가능한 적외선 발광부
상기 탑승부의 전방에 위치하여 상기 적외선 발광부의 움직임을 감지하는 적외선 카메라;
상기 적외선 카메라에서 촬영한 상기 적외선 발광부의 움직임에 대응하는 영상을 생성하는 제어부;
상기 제어부에서 생성한 상기 영상을 출력하는 디스플레이부를 구비하는 운송장치 시뮬레이션 시스템.
A boarding section on which the user can board;
The infrared ray emitting part
An infrared camera positioned in front of the boarding portion and sensing movement of the infrared light emitting portion;
A control unit for generating an image corresponding to the movement of the infrared light emitting unit taken by the infrared camera;
And a display unit for outputting the image generated by the control unit.
제 1항에 있어서, 상기 디스플레이부는 상기 탑승부의 전방에 설치된 스크린과 상기 스크린에 영상을 투사하는 프로젝터를 구비하는 운송장치 시뮬레이션 시스템.
The transportation system simulation system according to claim 1, wherein the display unit comprises a screen installed in front of the boarding section and a projector for projecting an image on the screen.
제 1항에 있어서, 상기 탑승부는 제 1사용자가 탑승하는 제 1탑승부와 제 2사용자가 탑승하는 제 2탑승부를 구비하는 운송장치 시뮬레이션 시스템.
The transportation system simulation system of claim 1, wherein the boarding section includes a first boarding section on which the first user boards and a second boarding section boarded by the second users.
제 3항에 있어서, 상기 적외선 발광부는 상기 제 1사용자가 착용하는 제 1적외선 발광부와 상기 제 2사용자가 착용하는 제 2적외선 발광부를 구비하는 운송장치 시뮬레이션 시스템.
The transportation device simulation system according to claim 3, wherein the infrared ray emitting portion includes a first infrared ray emitting portion worn by the first user and a second infrared ray emitting portion worn by the second user.
제 3항에 있어서, 상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하는 운송장치 시뮬레이션 시스템.
The system according to claim 3, wherein the control unit generates a first image corresponding to the movement of the first infrared ray emitting unit and a second image corresponding to the movement of the second infrared ray emitting unit.
제 5항에 있어서, 상기 프로젝터는 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비하는 운송장치 시뮬레이션 시스템.
6. The system of claim 5, wherein the projector comprises a first projector for projecting the first image onto the screen and a second projector for projecting the second image onto the screen.
제 3항에 있어서, 상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하고, 상기 제 1영상과 상기 제 2영상은 서로 다른 편광으로 편광 조절되어 교번적으로 상기 프로젝터에 의하여 투사되는 운송장치 시뮬레이션 시스템.
The apparatus of claim 3, wherein the controller generates a first image corresponding to a movement of the first infrared ray emitting unit and a second image corresponding to a movement of the second infrared ray emitting unit, And the other polarized light is polarized and projected by the projector in an alternating manner.
제 3항에 있어서, 상기 제어부는 제 1적외선 발광부의 움직임에 대응하는 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하고, 상기 제 1영상과 상기 제 2영상은 서로 다른 편광으로 편광 조절되고, 상기 프로젝터는 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비하는 운송장치 시뮬레이션 시스템.
The apparatus of claim 3, wherein the controller generates a first image corresponding to the movement of the first infrared ray emitting unit and a second image corresponding to the movement of the second infrared ray emitting unit, Wherein the projector is polarized with different polarized light, the projector comprising: a first projector that projects the first image onto the screen; and a second projector that projects the second image onto the screen.
사용자가 착용한 적외선 발광부를 적외선 카메라가 감지하고,
상기 적외선 카메라에서 감지된 상기 적외선 발광부의 위치에 따라 상기 사용자의 시야 방향에 대한 정보를 획득하고,
상기 시야 방향에 대한 정보와 매칭되는 출력 영상을 생성하여 디스플레이부에서 출력하는 운송장치 시뮬레이션 시스템의 제어방법.
An infrared camera senses an infrared light emitting portion worn by the user,
Acquiring information on the viewing direction of the user according to the position of the infrared ray emitting portion sensed by the infrared ray camera,
And generating an output image matched with the information on the viewing direction and outputting the output image on a display unit.
제 9항에 있어서, 상기 탑승부는 제 1사용자가 탑승하는 제 1탑승부와 제 2사용자가 탑승하는 제 2탑승부를 구비하는 운송장치 시뮬레이션 시스템의 제어방법.
10. The method according to claim 9, wherein the boarding section comprises a first boarding section on which the first user boards and a second boarding section boarding the second users.
제 10항에 있어서, 상기 적외선 발광부는 상기 제 1사용자가 착용하는 제 1적외선 발광부와 상기 제 2사용자가 착용하는 제 2적외선 발광부를 구비하여 상기 제 1적외선 발광부의 움직임에 대응하는 제 1영상을 생성하여 상기 디스플레이부에서 출력하고, 상기 제 2적외선 발광부의 움직임에 대응하는 제 2영상을 생성하여 상기 디스플레이부에서 출력하는 운송장치 시뮬레이션 시스템의 제어방법.
The apparatus according to claim 10, wherein the infrared ray emitting unit includes a first infrared ray emitting unit worn by the first user and a second infrared ray emitting unit worn by the second user so that a first image corresponding to the motion of the first infrared ray emitting unit Generating a second image corresponding to the motion of the second infrared ray emitting unit, and outputting the second image to the display unit.
제 9항에 있어서, 상기 디스플레이부는 상기 탑승부의 전방에 설치된 스크린과 상기 스크린에 영상을 투사하는 프로젝터를 구비하고, 상기 제 1영상을 상기 스크린에 투사하는 제 1프로젝터와 상기 제 2영상을 상기 스크린에 투사하는 제 2프로젝터를 구비하는 운송장치 시뮬레이션 시스템의 제어방법.
10. The apparatus according to claim 9, wherein the display unit includes a screen provided in front of the boarding section and a projector for projecting an image on the screen, the first projector projecting the first image onto the screen, And a second projector for projecting the light onto the second projector.
제 9항에 있어서, 상기 제 1적외선 발광부의 움직임에 대응하는 상기 제 1영상과 상기 제 2적외선 발광부의 움직임에 대응하는 상기 제 2영상을 서로 다른 편광으로 편광 조절하여 교번적으로 상기 디스플레이부에 표시하는 운송장치 시뮬레이션 시스템의 제어방법.The display device according to claim 9, wherein the first image corresponding to the movement of the first infrared ray emitting part and the second image corresponding to the movement of the second infrared ray emitting part are polarized with different polarizations, A method of controlling a transportation device simulation system for displaying.
KR1020130080823A 2013-07-10 2013-07-10 Vehicle simulation system and method to control thereof KR101507014B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130080823A KR101507014B1 (en) 2013-07-10 2013-07-10 Vehicle simulation system and method to control thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130080823A KR101507014B1 (en) 2013-07-10 2013-07-10 Vehicle simulation system and method to control thereof

Publications (2)

Publication Number Publication Date
KR20150007023A true KR20150007023A (en) 2015-01-20
KR101507014B1 KR101507014B1 (en) 2015-03-30

Family

ID=52570117

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130080823A KR101507014B1 (en) 2013-07-10 2013-07-10 Vehicle simulation system and method to control thereof

Country Status (1)

Country Link
KR (1) KR101507014B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107516452A (en) * 2017-08-17 2017-12-26 北京航空航天大学 A kind of general flight simulation simulated environment evaluation system
KR20180068355A (en) * 2016-12-13 2018-06-22 한국철도기술연구원 Joint training simulator for railway driving workers and method for evaluating joint training of railway driving workers using the same
KR20180128606A (en) * 2017-05-24 2018-12-04 (주)루쏘팩토리 Moving virtual reality experience system
US10937332B2 (en) 2015-10-20 2021-03-02 The Boeing Company Systems and methods for providing a virtual heads up display in a vehicle simulator
KR102471971B1 (en) * 2021-12-29 2022-11-29 한국가스공사 Unloading rock manipulation training device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078803B1 (en) * 2019-06-07 2020-02-18 이남혁 flight laboratary

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4512745A (en) * 1983-05-16 1985-04-23 The United States Of America As Represented By The Secretary Of The Navy Flight simulator with dual probe multi-sensor simulation
DE102004052102A1 (en) * 2004-10-26 2006-05-04 Rheinmetall Defence Electronics Gmbh vision system
KR101188286B1 (en) * 2010-07-20 2012-10-05 재단법인대구경북과학기술원 Golf simulation system and method of controlling the same
KR20130038443A (en) * 2011-10-10 2013-04-18 주식회사 만도 Control system for car safety apparatus and control method for the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10937332B2 (en) 2015-10-20 2021-03-02 The Boeing Company Systems and methods for providing a virtual heads up display in a vehicle simulator
KR20180068355A (en) * 2016-12-13 2018-06-22 한국철도기술연구원 Joint training simulator for railway driving workers and method for evaluating joint training of railway driving workers using the same
KR20180128606A (en) * 2017-05-24 2018-12-04 (주)루쏘팩토리 Moving virtual reality experience system
CN107516452A (en) * 2017-08-17 2017-12-26 北京航空航天大学 A kind of general flight simulation simulated environment evaluation system
KR102471971B1 (en) * 2021-12-29 2022-11-29 한국가스공사 Unloading rock manipulation training device

Also Published As

Publication number Publication date
KR101507014B1 (en) 2015-03-30

Similar Documents

Publication Publication Date Title
KR101507014B1 (en) Vehicle simulation system and method to control thereof
JP5055516B2 (en) System and method for displaying device maintenance and operation instructions using augmented reality
CN104883554B (en) The method and system of live video is shown by virtually having an X-rayed instrument cluster
US6359601B1 (en) Method and apparatus for eye tracking
US10678238B2 (en) Modified-reality device and method for operating a modified-reality device
JP6558839B2 (en) Intermediary reality
US20070247457A1 (en) Device and Method for Presenting an Image of the Surrounding World
JP5145832B2 (en) Head-mounted display device and head-mounted display device system
US10634918B2 (en) Internal edge verification
US11024040B2 (en) Dynamic object tracking
TWI453462B (en) Telescopic observation for virtual reality system and method thereof using intelligent electronic device
US20230334788A1 (en) Mixed-Reality Visor For In-Situ Vehicular Operations Training
JP2023501079A (en) Co-located Pose Estimation in a Shared Artificial Reality Environment
JPH09138637A (en) Pseudo visibility device
JP3477441B2 (en) Image display device
US11694345B2 (en) Moving object tracking using object and scene trackers
US20220130116A1 (en) Registration of local content between first and second augmented reality viewers
US9679352B2 (en) Method for operating a display device and system with a display device
CN107784693A (en) A kind of information processing method and device
Arents et al. Simulation-based concept development and evaluation: Augmented reality to improve communication between helicopter crew during firefighting operations
Vince et al. VR Hardware
UA81939C2 (en) Method for positioning a wiever head when using a head - mounted display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right